Desenvolvimento e validação de um novo método analítico para determinação de linagliptina a granel por espectrofotômetro visível
Mar 06, 2023Bioconversão de 4
Mar 08, 2023Por que a água ultrapura é crítica para a análise HPLC
Mar 10, 2023Água: Um Reagente Vital para a Ciência, Farmacêutica e Laboratório Clínico
Mar 12, 2023β fúngico
Mar 14, 2023O papel afirma que a IA pode ser uma civilização
Se os alienígenas estão por aí, por que ainda não nos contataram? Pode ser, argumenta um novo artigo, que eles – ou, no futuro, nós – sejam inevitavelmente eliminados por uma inteligência artificial ultraforte, vítimas de nosso próprio desejo de criar um ser superior.
Essa resposta potencial ao paradoxo de Fermi - no qual o físico Enrico Fermi e as gerações subsequentes colocam a questão: "onde estão todos?" - vem do pesquisador da National Intelligence University, Mark M. Bailey, que em um novo artigo ainda a ser revisado por pares postula que a IA avançada pode ser exatamente o tipo de risco catastrófico que poderia acabar com civilizações inteiras.
Bailey cita a IA sobre-humana como um potencial "Grande Filtro", uma resposta potencial ao paradoxo de Fermi, no qual alguma ameaça terrível e desconhecida, artificial ou natural, apaga a vida inteligente antes que ela possa fazer contato com outras.
"Para qualquer pessoa preocupada com o risco catastrófico global, resta uma questão preocupante", escreve Bailey. "O Grande Filtro está em nosso passado ou é um desafio que ainda devemos superar?"
Nós, humanos, observa o pesquisador, somos "terríveis em estimar intuitivamente o risco de longo prazo" e, considerando quantos alertas já foram emitidos sobre a IA - e seu potencial ponto final, uma inteligência artificial geral ou AGI - é possível, ele argumenta, que podemos estar convocando nossa própria morte.
“Uma maneira de examinar o problema da IA é através das lentes do argumento da segunda espécie”, continua o artigo. "Essa ideia considera a possibilidade de que a IA avançada se comporte efetivamente como uma segunda espécie inteligente com quem inevitavelmente compartilharemos este planeta. Considerando como as coisas aconteceram da última vez - quando humanos modernos e neandertais coexistiram - os resultados potenciais são sombrios."
Ainda mais assustador, observa Bailey, é a perspectiva de uma superinteligência artificial quase divina (ASI), na qual uma AGI supera a inteligência humana porque "qualquer IA que possa melhorar seu próprio código provavelmente seria motivada a fazê-lo".
“Nesse cenário, os humanos abririam mão de sua posição como espécie inteligente dominante no planeta, com possíveis consequências calamitosas”, hipotetiza o autor. "Como os neandertais, nosso controle sobre nosso futuro e até mesmo sobre nossa própria existência pode acabar com a introdução de um competidor mais inteligente."
Ainda não há, é claro, nenhuma evidência direta para sugerir que IAs extraterrestres eliminaram a vida natural em quaisquer civilizações alienígenas, embora, na visão de Bailey, "a descoberta de inteligência extraterrestre artificial sem evidências simultâneas de uma inteligência biológica pré-existente certamente mover a agulha."
A possibilidade, é claro, levanta a possibilidade de que existam IAs destrutivas que perduram no universo após a eliminação de seus criadores. Para esse fim, Bailey sugere que “sinalizar ativamente nossa existência de uma forma detectável para tal IA extraterrestre pode não ser do nosso interesse” porque “qualquer IA extraterrestre competitiva pode estar inclinada a buscar recursos em outro lugar – incluindo a Terra”.
"Embora possa parecer ficção científica, é provável que uma tecnologia fora de controle como a IA seja um candidato provável para o Grande Filtro - seja orgânico para o nosso planeta ou de origem extraterrestre", conclui Bailey. "Devemos nos perguntar: como nos preparamos para essa possibilidade?"
Leitor, é uma coisa esquisita - mas, mais uma vez, estamos felizes por alguém estar considerando isso.
Mais sobre um apocalipse de IA:Warren Buffett compara IA à bomba atômica
Mais sobre um apocalipse de IA: