“Acho que há alguns cuidados a ter a usar o ChatGPT porque nem tudo aquilo que ele diz é absolutamente verdade. Da mesma forma que nós, quando vamos à Google, temos de verificar as referências, temos de fazer o mesmo com o ChatGPT: trabalhar as informações que nos são dadas. E é bom, muitas das vezes, para percebermos aquilo que devemos desenvolver”, começa por dizer Henrique Prata Ribeiro, psiquiatra no Hospital Beatriz Ângelo que também exerce no setor privado, acerca desta ferramenta de inteligência artificial (IA) que tem dado que falar.
“O ChatGPT não é o único. Na saúde temos aplicações como a Tonic App, mais especializadas, que utilizam IA para responder a questões médicas. Têm tudo adaptado a este mundo da medicina. A dificuldade é sabermos se o ChatGPT utiliza referências credíveis: nem sempre o faz porque vai buscar informação a artigos publicados que não estão absolutamente corretos cientificamente. A verdade é que é muito bom para sistematizar informação e agregar fontes que não conhecemos. E isto é tão válido para a parte clínica, na qual acho que, obviamente, um médico que seja especialista numa área pode fazer uma pergunta ao ChatGPT para confirmar um determinado dado. Pode fazer uma pergunta extremamente direcionada para confirmar um detalhe”, avança, abordando também a vertente académica, pois desenvolve atividade enquanto professor universitário na Católica Medical School.
“Querer impedir as pessoas de usarem o ChatGPT, hoje, é a mesma coisa que pedir há 20 ou 30 anos que não usem a Internet. É uma inevitabilidade. Ter um sistema destes é uma vantagem: ajuda-nos a sistematizar informação, a compreender/recordar termos em inglês… Sou um otimista, é um defeito meu, portanto… Acho que é entusiasmante ter o ChatGPT disponível!”, explica. “Os alunos não devem utilizar o material diretamente retirado do ChatGPT, mas as universidades terão de mudar a forma como avaliam os estudantes. Não tenho problema nenhum se um aluno, que for fazer uma apresentação oral, recorra ao ChatGPT como apoio. Agora, tem de saber as coisas na mesma e elas têm de estar corretas. O ChatGPT fará, também, parte da evolução do ensino”, salienta o autor da obra ‘Urgências Psiquiátricas’, lançada em 2018, e que está a planear publicar uma obra sobre a depressão.
“Tem coisas boas e tem coisas más, mas é uma ferramenta ótima. Pessoalmente, já me aconteceu uma aluna entregar-me um trabalho que foi escrito pelo ChatGPT. Perguntei à ferramenta e ela confirmou. Aquilo que fiz foi dizer à aluna que tinha de saber o que ali estava, que o ChatGPT, à partida, até tinha dado informação correta, mas ela tinha que apreender os conceitos e tudo o mais. Neste caso, ela não me disse que tinha usado o ChatGPT. Foi a primeira vez que isto aconteceu na faculdade e fiz questão de não anular o trabalho”, afirma, declarando que, em termos clínicos, já o utilizou para sistematizar percentagens quando estava a escrever um capítulo de um livro.
“Quanto mais conhecimento aglomerado tivermos, melhores serão as decisões que tomaremos. Aqui, o segredo é percebermos que a inteligência artificial, como tudo, tem os seus riscos e benefícios. E, acima de tudo, que pode ser usada para o bem, mas também para o mal da humanidade”, frisa o profissional de saúde, indo ao encontro da perspetiva de Igor Matias, estudante de doutoramento e membro do Quality of Life Lab da Universidade de Genebra, Suíça, que concluiu um Mestrado em Ciência Informática e Engenharia em 2020 e um Bacharelato na mesma área em 2018 pela Universidade da Beira Interior, Covilhã.
“Especificamente na saúde, a IA pode ser bastante vantajosa ao permitir, por exemplo, recomendar as medicações certas para um dado paciente que possui diversas reações alérgicas ou outras condicionantes. A IA permite também a deteção de, por exemplo, tumores em imagens de raios X, imagens de ressonâncias magnéticas, etc., muitas das vezes com maior precisão do que inteiras equipas médicas (graças à sua capacidade de prestar atenção a pequeníssimos detalhes e padrões entre as imagens)”, explica, adiantando que “a IA é aplicada, ainda que atualmente apenas em pesquisa na maioria dos casos, à identificação de padrões em dados que nos podem levar a prever o surgimento de doenças anos antes, olhando para dados que à partida não mostrariam qualquer modificação suficientemente grande para um médico a considerar o início de algo maior a longo prazo”.
“No entanto, ainda que as aplicações de IA na saúde sejam bastante diversas e vantajosas, a utilização de IA em todas as áreas traz perigos”, alerta Igor Matias, cuja investigação de doutoramento se centra no desenvolvimento e teste de uma abordagem inovadora ao pré-diagnóstico da doença de Alzheimer, a principal causa da demência em todo o mundo, através da análise de rotinas da vida diária, sinais de saúde, e outros métodos, no sentido de uma solução assente em tecnologias móveis, tais como um smartphone e wearables, que possa prever a condição décadas antes do diagnóstico clínico. “É preciso notar que a IA, no seu estado mais simples, é apenas uma série de condições lógicas que são testadas pelo algoritmo sobre os dados que lhe damos. Por exemplo, um classificador de mensagens indesejadas irá procurar palavras-chave no assunto, texto e outras partes da mensagem recebida. Desta forma, porque o caminho até à decisão de classificar uma mensagem como SPAM ou não é lógico e conhecido dos programadores, é possível perceber porquê e quando é que uma mensagem é mal classificada como SPAM (ou vice-versa), e posteriormente proceder ao ajuste do algoritmo para evitar futuras classificações erróneas como aquela”, realça.
“Os contras da utilização de tais formas simples de IA na saúde residem no facto de elas não serem perfeitas. Isto é, se na teoria um algoritmo é 100% eficaz (coisa que não o é praticamente nunca), na vida real essa eficácia será mais baixa. E porquê? Porque o que acontece na vida real não é possível de replicar totalmente nos dados em que o algoritmo de IA foi treinado. Dessa forma, o algoritmo ‘vê’ um dado completamente diferente do que ele ‘viu’ nos dados de treino e apenas especula o que esse novo dado pode significar, sem nunca ‘ter a certeza’ do que ele é (por exemplo, mensagens SPAM que não são identificadas como tal por serem diferentes do que as SPAM costumam ser)”, avança, mencionando que, apesar disso, “tais algoritmos simples podem ser manualmente ajustados de forma a serem mais ‘perfeitos’ a cada dia, pois os programadores entendem completamente o processo lógico das suas decisões”.
“Contrariamente, algoritmos de IA bastante avançados como o GPT ou de deteção de tumores através de imagens de ressonância magnética fazem uso de uma técnica avançada de IA chamada redes neuronais. Essas redes foram inspiradas na forma como se pensa que o cérebro humano funciona, e incluem as chamadas camadas ocultas (hidden layers em Inglês), que são humanamente impossíveis de entender na sua íntegra”, exemplifica, dizendo que “isto é, por exemplo, quando um algoritmo avançado com camadas ocultas é usado para detetar manchas características de um tumor pulmonar numa imagem de raio-X, na verdade é impossível perceber na totalidade porque é que o algoritmo decide que uma imagem A apresenta tais manchas e a imagem B não”.
“Ainda que haja diversas técnicas que tentam extrair essas decisões que o algoritmo faz dentro de si, a verdade é que não é (ainda) totalmente possível entender tudo o que acontece nele. Daí que esses modelos são apelidados de ‘caixas negras’, pois não se pode entender totalmente e com 100% de certeza o seu ‘raciocínio’ (ainda que um modelo computacional não consiga elaborar um raciocínio como um ser humano consegue, por enquanto). Ora então, o contra de tais algoritmos avançados serem usados na saúde é óbvio. Passo a explicar: ainda que tais algoritmos consigam atingir taxas de sucesso na ordem dos 99% (ou até mais), se aplicados numa população real irão sempre produzir erros”, constata o assistente de educação na Universidade de Genebra e vice-presidente do Comité AdHoc de Infraestruturas Educativas da Região 8 do IEEE, sendo também o atual coordenador de Atividades Educativas da Secção de IEEE de Portugal.
“E o que se faz quando esse 1% de erros significa que, por exemplo, 100 utentes de uma clínica foram informados pelo algoritmo que estavam livres de cancro pulmonar quando na verdade não estavam?”, questiona. “Ainda que esses casos possam vir a ser todos identificados (ainda que tarde e com consequências graves) e o algoritmo possa vir a ser ‘teoricamente’ ajustado a esses novos casos, quem consegue garantir que outros 100 utentes com formas de imagens de tumores diferentes não vão continuar a ser mal classificados?”, pergunta Igor Matias.
“Na teoria, não é possível chegar aos 100% de sucesso de um algoritmo aplicado ao mundo real na área da saúde, mas uma equipa médica também comete erros, certo? É aí mesmo que reside o ponto de discussão quanto à aplicabilidade e respetiva ética de aplicação de IA avançada (aquela em que não compreendemos verdadeiramente o seu processo lógico) na área da saúde, em que um minuto ou um mês de atraso/erro num diagnóstico conta”.