Esta semana, um velho amigo e companheiro de algumas e antigas façanhas enviou-me um artigo de um jornal digital alternativo – alternativo ao jornalismo e media main stream – sobre utilização da inteligência artificial (IA) na justiça e, mormente, na justiça penal norte-americana.
Li-o com cuidado, mas sobretudo com preocupação.
Chama-se, provocatoriamente, «Juízes ou máquinas humanas?».
De imediato, me recordei de um filme do início dos anos 2000, chamado «Relatório Minoritário», baseado num conto de Philip K. Dick, com o mesmo nome.
Recordei, também, que foi de um livro do mesmo autor que, em 1982, foi adaptado para o cinema o célebre e belíssimo filme «Blade Runner».
Alguém decidiu erradicar todos os exemplares de uma série especial de replicantes (seres artificiais e réplica quase exata dos humanos) que, à margem da vontade do fabricante, haviam desenvolvido algo parecido com emoções humanas e mesmo um certo grau de consciência de si, o que os levou a encetar uma revolta contra o estatuto e missões que o seu criador, a empresa Tyrell Corporation, lhes destinou.
Já nessa altura, para além de tudo o mais que filme nos propunha refletir, me pareceu verdadeiramente significativo a questão do exercício do policiamento, investigação e punição, não através dos aparelhos públicos de polícia e justiça, mas de agentes e funcionários de uma empresa privada.
Hoje, existem já agências especializadas que apoiam a justiça oficial nas investigações e localização dos criminosos e dos seus bens.
Regressemos, porém, ao «Relatório Minoritário».
O tema principal deste filme reconduzia-se à ideia da existência de um bizarro programa de IA, que ajudava a polícia a detetar os futuros criminosos e, desse modo, prevenir a prática de crimes, detendo os seus autores, antes mesmo de que eles os tivessem cometido.
Nesse momento, a ideia do filme pareceu-me tão fora da realidade, presente e mesmo futura, que não consegui – como no Blade Runner – entusiasmar-me de igual maneira com ele.
Pois é precisamente sobre um programa de IA real, e que já muito se assemelha nos objetivos ao programa do «Relatório Minoritário», que versa, agora, o artigo do jornal eletrónico de que vos quero falar e que, segundo ele, é já usado em tribunais dos EUA.
Neste caso, ao contrário do que sucedia na estória do «Relatório Minoritário», não se trata de, antecipadamente, prender um autor de um crime que ainda não aconteceu e de que ele, portanto, não é, em rigor e ainda, o obreiro.
Trata-se, ante a descoberta de um crime realmente cometido e de quem é o seu autor, de ser usado, no seu julgamento, um programa – baseado num algoritmo – que permite ao juiz antever o grau de possibilidades de reincidência que ele terá, quando libertado, e decidir, assim, a pena concreta a aplicar.
Segundo refere a autora, tal programa de IA foi já usado nos EUA em mais de um milhão de processos.
Através desse mecanismo, permite-se ao juiz condenar o criminoso a uma pena que não só tem em conta o que ele, de facto, fez, mas também o que ele, de acordo com a informação fornecida pelo algoritmo, poderá vir, eventualmente, a fazer.
O montante da pena que lhe é imposta, assenta, assim, não só na avaliação do grau de culpa pelo crime efetivamente praticado, mas contém implícita, também, o que poderá ser considerado, pelo nosso direito penal, uma «medida de segurança».
Tal tipo de medidas somente é aplicado, no nosso direito penal atual, aos inimputáveis, pois elas não resultam da avaliação da culpa do autor do crime, mas apenas da sua perigosidade.
Tempos houve, sim, como acontecia no regime anterior ao 25 de Abril, em que tais «medidas» eram aplicadas aos prisioneiros políticos, prolongando assim, de forma incontrolável e definitivamente desproporcional, o tempo da sua prisão.
O referido programa de IA, usado já hoje em tribunais dos EUA, chama-se «Compas» e é produzido pela empresa Northpoint Inc./Equivant.
Consiste num instrumento que ajuda o tribunal a determinar, em julgamento, o maior ou menor risco de reincidência do autor de um dado crime, apoiando, assim, o Juiz que o julgar a decidir o montante de uma pena de prisão que, simultaneamente, pune o crime e também previne a potencial perigosidade do criminoso.
A autora do artigo, Johana Fernanda Sánchez Jaramila, centrou-se especialmente na resposta dada pela jurisprudência do Tribunal Supremo do Wisconsin a uma particular vertente deste assunto.
Tal tribunal analisou, em sede de recurso, apenas uma das questões que, do referido instrumento de IA, resultam para a Justiça.
Refiro-me à permissão, ou proibição, dada aos visados – os arguidos – de saberem como funciona tal programa e, logo, poderem contestar a fiabilidade e a base científica em que assentam os resultados por ele fornecidos.
A questão que o artigo levanta não é, pois, somente a da confusão entre a pena e a medida de segurança: questão que parece escapar à autora do artigo.
O que o artigo aborda é, no essencial, a impossibilidade afirmada pelos tribunais americanos de os arguidos poderem aceder ao funcionamento do algoritmo e, assim, poderem controlar, e mesmo contestar, a fiabilidade e a adequação da chave usada em tal programa de IA à realidade: à sua realidade concreta.
Isto significa que o uso de tal instrumento e, mais ainda, os resultados que ele fornece ao tribunal não podem, nesta parte, ser sindicáveis, pois, como dizem os tribunais americanos – por uma razão de preservação da propriedade intelectual do fabricante – não pode permitir-se o ensejo de os acusados conhecerem o seu funcionamento, mesmo que tendo em vista avaliar a credibilidade das respostas que ele deu no caso concreto.
Entre o direito de os arguidos poderem conhecer a forma como o algoritmo funcionou e produziu a informação conducente ao cálculo da pena que o tribunal aplicou e o direito de manter secreta a chave tecnológica do algoritmo, os tribunais americanos privilegiaram – sem surpresa – este último.
Hoje, contudo, sabe-se já a composição dos algoritmos e, portanto, a possibilidade de os seus resultados poderem ser mais ou menos corretos, depende, não da IA em si mesma, mas também da capacidade técnica, da idiossincrasia e mesmo das opções dos que criaram tais programas.
Quer isto dizer que o desenho do algoritmo pode não ser necessariamente neutro, isto é: pode ser ou não ser.
Ora, como tudo o que sucede nos EUA – seja bom, seja mau – acaba por acontecer, mais ou menos tardiamente, em outras partes do mundo, devemos estar atentos.
Por alguma razão, a própria FRA – a agência da UE para a defesa dos direitos fundamentais – se, por um lado, defende entusiasmada o uso da IA para acelerar e simplificar o andamento dos processos judiciais, mostra-se igualmente preocupada e empenhada na discussão dos campos em que a sua aplicação ao funcionamento da justiça deve ser aceite.
As utopias da segurança absoluta, que as empresas de IA hoje nos vendem, não são, na verdade, menos perigosas para nossa liberdade do que certas ideologias antidemocráticas, propagandeadas, elas também, como novas e inovadoras.
Elas conjugam-se e complementam-se.
Vendidas, pois, como puras soluções técnicas, e por isso supostamente neutras, tais utopias tecnocráticas conseguem, na verdade, obter um elevado grau de aceitação política, mesmo no chamado campo da democracia.
Devemos, em consequência, prepararmo-nos melhor, não só para controlar e discutir a validade técnica dos resultados deste tipo de instrumentos de IA, como, ao mesmo tempo, para questionar a oportunidade e utilidade política do seu uso, não apenas por quem, profissionalmente, delas passa a depender, como também por quem, na sua propagação, tem nelas interesse económico.