São especialistas em tecnologia, cientistas, investigadores de várias áreas, filósofos. Entre eles contam-se o cientista Stephen Hawking, o filósofo e linguista Noam Chomsky, o co-fundador da Apple Steve Wozniak e o responsável do departamento de Inteligência Artificial (IA) da Google, Demis Hassabis. São mais de mil investigadores preocupados com o futuro da humanidade que ontem publicaram uma carta aberta a alertar para os perigos das armas autónomas construídas com recurso à IA – armas que “seleccionam e escolhem alvos sem intervenção humana” e que, se esse caminho for seguido, eventualmente vão “estar para lá do controlo humano”.
Um dos maiores fascínios da nossa era, a IA é ao mesmo tempo assustadora quando se imagina o que aguarda a espécie humana no futuro. Ainda não tinham sido desenvolvidos os primeiros protótipos funcionais de IA e já a ideia de a criação escravizar e exterminar o criador pululava. Entretanto apareceram os drones, ou aviões não tripulados, que já são usados em vários teatros de guerra, matando civis de forma indiscriminada. Apareceram carros inteligentes que conduzem sozinhos e que, na semana passada, foram desacreditados por uma equipa de cibersegurança que acedeu aos sistemas centrais do novo Chrysler e assumiu o controlo total do veículo, apesar de ter um humano sentado no banco do condutor. E com os planos generalizados das nações mais desenvolvidas de um dia virem a aplicar os conhecimentos e avanços na robótica em guerras e armamento, os perigos são cada vez mais reais, dizem os signatários do manifesto. Ou se travam certas aspirações desmedidas, como a aplicação da IA em armas e bombas, ou estamos totalmente condenados.
Pedido “Tal como a maioria dos químicos e biólogos não têm qualquer interesse em construir armas químicas ou biológicas, a maioria dos investigadores de inteligência artificial não têm qualquer interesse em construir armas [com recurso à IA] – nem querem que outros manchem o seu campo de investigação construindo armas dessas”, lê-se na longa carta, ontem apresentada na Conferência Conjunta sobre Inteligência Artificial, a decorrer em Buenos Aires, e que foi primeiro publicada no site do Instituto da Vida Futura (FLI).
O que o grupo de centenas de especialistas pede é um roteiro para proibir e anular as aspirações de um dia termos armas de inteligência artificial, sobretudo considerando que tal levaria ao que, na carta, é definido como futura “corrida ao armamento autónomo”. “As armas autónomas são ideais para tarefas como homicídios, destabilização de nações, subjugação de populações e execuções selváticas de grupos étnicos em particular”, diz o grupo. “Estamos, portanto, em crer que uma corrida ao armamento militar de inteligência artificial não seria benéfico para a humanidade.” É algo cujos riscos já foram, de certa forma, provados quando o programa autónomo de vigilância secreta de cidadãos da Agência de Segurança Nacional (NSA) norte-americana – ironicamente baptizado Skynet, como o supercomputador do futuro na saga “Exterminador Implacável” – identificou erroneamente um jornalista da Al-Jazeera como terrorista a partir de cálculos matemáticos.
Noel Sharkey, especialista em robótica que integra a Campanha para Parar Robôs Assassinos, diz que, no futuro, este tipo de máquinas inteligentes será muito pior do que as representações de ficção científica eternizadas pelo cinema. “Vão parecer-se com tanques, com navios, com caças”, acredita o investigador. “O nosso objectivo é evitar que a morte de alguém seja decidida por máquinas.”
Nem só armas Apesar de a carta se referir especificamente a armas autónomas, vários dos seus signatários têm alertado para outros riscos representados por excessos no campo da inteligência artificial. No início deste ano, o fundador da Microsoft, Bill Gates, disse estar “no campo dos que estão preocupados com a superinteligência” durante uma sessão Ask Me Anything da Reddit – semelhante à sessão de perguntas e respostas com o físico Stephen Hawking em curso esta semana na plataforma cibernética.
“Primeiro, as máquinas irão fazer muito do nosso trabalho e não serão superinteligentes”, respondeu Gates a um utilizador da Reddit. “Isso pode ser positivo se houver uma boa gestão. Mas umas décadas depois disso, a inteligência vai ficar suficientemente forte para se tornar uma preocupação. Concordo com Elon Musk [fundador da Tesla e do SpaceX] e vários outros sobre isto, e não entendo como é que as pessoas não estão preocupadas.” Em Março, numa entrevista ao “Australian Financial Review”, o co-fundador da Apple Steve Wozniak ecoou as mesmas preocupações. “Se construirmos estes aparelhos para fazerem tudo por nós, eles acabarão por pensar mais rápido que nós e irão ver-se livres dos humanos lentos para gerirem empresas de forma mais eficiente. Ofuturo é assustador e muito mau para os humanos.”