A véspera do dia de finados foi escolhido pelo Governo do Reino Unido como o primeiro de dois dias dedicados à Cimeira da Segurança da Inteligência Artificial (IA). Evitando qualquer suspense, os britânicos garantiram logo no primeiro dia da Cimeira a assinatura de uma declaração de boas intenções, homenageando a história pátria e o local onde decorreu o evento, Bletchley Park, que, em tempos de maior glória, foi um local onde a IA foi usada para uma boa causa. A Declaração de Bletchley mereceu o imprimatur dos EUA e aliados próximos (UE, Canadá, Japão, Coreia do Sul, Austrália) mas também da China, Brasil, Índia, Indonésia, Israel, Turquia, Arábia Saudita, Emirados Árabes Unidos, Nigéria e Quénia. Como em quase todas as declarações multilaterais o número de subscritores é inversamente proporcional à dimensão vinculativa do texto acordado. Ainda assim a Declaração de Bletchley dá testemunho da inquietação dos Estados: “There is potential for serious, even catastrophic, harm, either deliberate or unintentional, stemming from the most significant capabilities of […] AI models.”
Como não há um acordo para regular por meio de uma convenção internacional os riscos associados à IA, os Estados fazem um piedoso apelo à auto-regulação: “whilst safety must be considered across the AI lifecycle, actors developing frontier AI capabilities, in particular those AI systems which are unusually powerful and potentially harmful, have a particularly strong responsibility for ensuring the safety of these AI systems, including through systems for safety testing, through evaluations, and by other appropriate measures.”
Melhor do que pregar a favor do crescimento da virtude alheia é tratar de garantir, em casa de cada um, a existência de meios para reagir à falta de virtude noutros sítios. Na UE negoceia-se desde 2021 um novo regulamento para a IA, identificando as actividades de risco. Os EUA aproveitaram a Cimeira para anunciarem o estabelecimento de um Instituto da IA que se dedicará a cartografar os limites de actuação da IA. No dia 30 de Outubro Biden assinou uma Executive Order que obriga as empresas que desenvolvem sistemas de IA a partilharem com o Governo Federal os resultados dos testes de segurança e a dotarem-se de ferramentas que garantam que os sistemas de IA são seguros, estão protegidos e são confiáveis. Segundo o Presidente as áreas de maior risco são a biomanipulação, autenticação de documentos, identidade pessoal e cibersegurança. Pequena ironia: Biden apela ao Congresso para aprovar “bipartisan legislation” em matéria de protecção de dados.
A tentativa de regular a IA sem ser à escala planetária não augura nada de bom quanto ao seu sucesso. À escala nacional fica-se com a sensação de que, no democrático e liberal ocidente, os Estados têm muitas voltas de atraso em relação ao que os privados já fazem com a IA. Nos Estados em que a democracia, o liberalismo e os direitos humanos nunca chegaram a estar na moda a associação entre a investigação privada e o poder público alimenta já uma ditadura tecnológica e engordará em breve mais algumas ditaduras que estão a investir violentamente em IA.
A missão estatal de vigiar e punir não se limita aos cidadãos nacionais. O potencial bélico da IA está há muito a ser explorado e, de acordo com os sonhos húmidos dos sucessores do Dr. Strangelove, permitirá, finalmente, a Softwar, a guerra sem dramas carnais, sem baixas e infortúnios descritos nas Convenções de Genebra de 1949. A IA é o paramour da guerra.