Precisamos de uma Inteligência Artificial Justa e Inclusiva


Portugal encontra-se numa posição de destaque a nível mundial, uma vez que é dos únicos países a procurar integrar o ensino de IA em todos os níveis de escolaridade.


Por Catarina Barata

A inteligência artificial (IA) é uma “entidade” cada vez mais presente na nossa sociedade. No último ano assistimos à disponibilização de ferramentas como o DALL-E, Midjourney ou o ChatGPT que, pelas suas características, permitem gerar conteúdo digital ou colocar questões como se estivessemos a interagir com outro ser humano, de forma bastante convincente. Esta capacidade, inicialmente entusiasmante, rapidamente levou a que se questionasse se o destino dos humanos na Terra estava traçado e quanto tempo faltaria para que as máquinas nos dominassem, tal qual um cenário de Matrixiano.

Embora estejamos a uma longa distância da aniquilação total, existem sem dúvida limitações e desafios da IA sobre os quais devemos reflectir. Ora vejamos, havendo hoje uma real possibilidade de integrar a IA em processos fundamentais à sociedade, sejam eles de burocracia, segurança ou saúde, não fará sentido questionarmo-nos como queremos que a IA percecione cada indivíduo? Que tipo de exigências devemos impôr a estas ferramentas, para garantir as liberdades individuais e evitar a discriminação?

Neste ponto o leitor pode interrogar-se: “Mas a IA é discriminatória?”. A resposta é nim – conceptualmente um modelo de IA não tem nada que o torne discriminatório. Todavia, a IA aprende com experiências — dados (images, textos, áudios) e, por isso, será condicionada por essa mesma informação. Isto significa que a IA pode tornar-se enviesada, mesmo sem estarmos a contar com isso.

“Podemos confiar na IA? Existe alguma forma de lidar com este problema? Há algo que eu possa fazer?” – se o leitor nunca pensou nestas questões e o ChatGPT é o seu novo melhor amigo, talvez agora seja a altura certa para o fazer. Toda a sociedade deve ter um papel activo na forma como a IA vai ser integrada na nossa vida, seja ele no processo legislativo (e.g., o AI Act[1], que visa legislar o uso da IA na UE, através da definição de um conjunto de políticas comuns aos estados membros), como alguém que desenvolve estas ferramentas, ou apenas procurando informar-se sobre as verdadeiras capacidades e limitações das aplicações que usa. Contudo, para que tal aconteça, precisamos que a IA se torne inclusiva e diversa. Inclusiva na forma como a informação é passada, permitindo que todos compreendam aquilo com que estão a lidar. Diversa na sua capacidade de tratar indiscriminadamente toda a população.

Garantir que a IA é justa é um problema que actualmente aflige a comunidade científica, uma vez que não tem uma solução óbvia. Por exemplo, se a IA aprende o que vem nos dados, então só temos de assegurar que os mesmos não contêm qualquer tipo de discriminação. Todavia, quando olhamos para algo como o ChatGPT, que foi treinado em volumes enormes de informação recolhida na internet, rapidamente percebemos que tal verificação pura e simplemente não será possível. No campo da imagem médica em que trabalho, isto pode levar a problemas tão “inocentes” como a IA aprender a reconhecer os hospitais de onde vêm os dados ou, em casos mais sérios, inesperamente recomendar que um homem e uma mulher, ambos com o mesmo cancro, recebam tratamentos distintos, pura e simplesmente porque aprendeu com dados maioritariamente de um dos géneros. No primeiro cenário teríamos uma violação de privacidade, mas no segundo arriscamo-nos a que o modelo inadvertidamente piore a saúde de alguém. Adicionar regras que controlem os comportamentos da IA para que seja socialmente correcta também só funcionará até certo ponto, uma vez que não é simples definir que regras serão estas e porque, muitas vezes, só damos pelas suas falhas quando elas ocorrem.

Recentemente um colega da Universidade de Stanford lançou um repto: temos de diversificar as equipas envolvidas no desenvolvimento e legislação de IA. E porquê? Pura e simplesmente porque isto aumenta a probabilidade de os envolvidos terem consciência dos problemas subjacentes à falta de representatividade.

Nos dias de hoje parece que ainda estamos longe de atingir esta diversidade. Com base num relatório recente[2], a representação de caucasianos entre os novos especialistas em IA anda na casa dos 47-58%, sendo muito menor que há 10 anos. Todavia, quando se olha para estes números em detalhe, é possível ver que o crescimento se deve a um maior volume de alunos de origem asiática, enquanto que os de origem africana e latina ainda representam uma percentagem residual. Se partissemos estes números por género, possivelmente os resultados seriam mais desanimadores (apenas 23% dos novos especialistas são mulheres).

A resposta parece estar na integração de IA no currículo do ensino obrigatório, onde se tem observado um crescimento da diversidade. Neste campo, Portugal encontra-se numa posição de destaque a nível mundial, uma vez que é dos únicos países a procurar integrar o ensino de IA em todos os níveis de escolaridade[3]. Adicionalmente, tem-se visto o crescimento de iniciativas que promovem a atração dos grupos menos representados, como a Girls in AI @ IST[4] que reúne testemunhos de alumnas e referências femininas na área. Este tipo de iniciativas devem aumentar e garantir que os testemunhos são tão diversos quanto possível.

Fica então o desafio, para que todos, como sociedade, contribuamos para um desenvolvimento responsável das ferramentas de IA, uma vez que estas irão fazer parte da nossa vida e todos devemos ter algo a dizer sobre isso.

Catarina Barata, Professora do Instituto Superior Técnico e investigadora do Instituto de Sistemas e Robótica.

[1] https://artificialintelligenceact.eu/

[2] https://aiindex.stanford.edu/report/

[3] https://unesdoc.unesco.org/ark:/48223/pf0000380602_por

[4] https://tecnico.ulisboa.pt/pt/viver/dia-a-dia/diversidade-e-igualdade-de-genero/girls-in-ai/

Precisamos de uma Inteligência Artificial Justa e Inclusiva


Portugal encontra-se numa posição de destaque a nível mundial, uma vez que é dos únicos países a procurar integrar o ensino de IA em todos os níveis de escolaridade.


Por Catarina Barata

A inteligência artificial (IA) é uma “entidade” cada vez mais presente na nossa sociedade. No último ano assistimos à disponibilização de ferramentas como o DALL-E, Midjourney ou o ChatGPT que, pelas suas características, permitem gerar conteúdo digital ou colocar questões como se estivessemos a interagir com outro ser humano, de forma bastante convincente. Esta capacidade, inicialmente entusiasmante, rapidamente levou a que se questionasse se o destino dos humanos na Terra estava traçado e quanto tempo faltaria para que as máquinas nos dominassem, tal qual um cenário de Matrixiano.

Embora estejamos a uma longa distância da aniquilação total, existem sem dúvida limitações e desafios da IA sobre os quais devemos reflectir. Ora vejamos, havendo hoje uma real possibilidade de integrar a IA em processos fundamentais à sociedade, sejam eles de burocracia, segurança ou saúde, não fará sentido questionarmo-nos como queremos que a IA percecione cada indivíduo? Que tipo de exigências devemos impôr a estas ferramentas, para garantir as liberdades individuais e evitar a discriminação?

Neste ponto o leitor pode interrogar-se: “Mas a IA é discriminatória?”. A resposta é nim – conceptualmente um modelo de IA não tem nada que o torne discriminatório. Todavia, a IA aprende com experiências — dados (images, textos, áudios) e, por isso, será condicionada por essa mesma informação. Isto significa que a IA pode tornar-se enviesada, mesmo sem estarmos a contar com isso.

“Podemos confiar na IA? Existe alguma forma de lidar com este problema? Há algo que eu possa fazer?” – se o leitor nunca pensou nestas questões e o ChatGPT é o seu novo melhor amigo, talvez agora seja a altura certa para o fazer. Toda a sociedade deve ter um papel activo na forma como a IA vai ser integrada na nossa vida, seja ele no processo legislativo (e.g., o AI Act[1], que visa legislar o uso da IA na UE, através da definição de um conjunto de políticas comuns aos estados membros), como alguém que desenvolve estas ferramentas, ou apenas procurando informar-se sobre as verdadeiras capacidades e limitações das aplicações que usa. Contudo, para que tal aconteça, precisamos que a IA se torne inclusiva e diversa. Inclusiva na forma como a informação é passada, permitindo que todos compreendam aquilo com que estão a lidar. Diversa na sua capacidade de tratar indiscriminadamente toda a população.

Garantir que a IA é justa é um problema que actualmente aflige a comunidade científica, uma vez que não tem uma solução óbvia. Por exemplo, se a IA aprende o que vem nos dados, então só temos de assegurar que os mesmos não contêm qualquer tipo de discriminação. Todavia, quando olhamos para algo como o ChatGPT, que foi treinado em volumes enormes de informação recolhida na internet, rapidamente percebemos que tal verificação pura e simplemente não será possível. No campo da imagem médica em que trabalho, isto pode levar a problemas tão “inocentes” como a IA aprender a reconhecer os hospitais de onde vêm os dados ou, em casos mais sérios, inesperamente recomendar que um homem e uma mulher, ambos com o mesmo cancro, recebam tratamentos distintos, pura e simplesmente porque aprendeu com dados maioritariamente de um dos géneros. No primeiro cenário teríamos uma violação de privacidade, mas no segundo arriscamo-nos a que o modelo inadvertidamente piore a saúde de alguém. Adicionar regras que controlem os comportamentos da IA para que seja socialmente correcta também só funcionará até certo ponto, uma vez que não é simples definir que regras serão estas e porque, muitas vezes, só damos pelas suas falhas quando elas ocorrem.

Recentemente um colega da Universidade de Stanford lançou um repto: temos de diversificar as equipas envolvidas no desenvolvimento e legislação de IA. E porquê? Pura e simplesmente porque isto aumenta a probabilidade de os envolvidos terem consciência dos problemas subjacentes à falta de representatividade.

Nos dias de hoje parece que ainda estamos longe de atingir esta diversidade. Com base num relatório recente[2], a representação de caucasianos entre os novos especialistas em IA anda na casa dos 47-58%, sendo muito menor que há 10 anos. Todavia, quando se olha para estes números em detalhe, é possível ver que o crescimento se deve a um maior volume de alunos de origem asiática, enquanto que os de origem africana e latina ainda representam uma percentagem residual. Se partissemos estes números por género, possivelmente os resultados seriam mais desanimadores (apenas 23% dos novos especialistas são mulheres).

A resposta parece estar na integração de IA no currículo do ensino obrigatório, onde se tem observado um crescimento da diversidade. Neste campo, Portugal encontra-se numa posição de destaque a nível mundial, uma vez que é dos únicos países a procurar integrar o ensino de IA em todos os níveis de escolaridade[3]. Adicionalmente, tem-se visto o crescimento de iniciativas que promovem a atração dos grupos menos representados, como a Girls in AI @ IST[4] que reúne testemunhos de alumnas e referências femininas na área. Este tipo de iniciativas devem aumentar e garantir que os testemunhos são tão diversos quanto possível.

Fica então o desafio, para que todos, como sociedade, contribuamos para um desenvolvimento responsável das ferramentas de IA, uma vez que estas irão fazer parte da nossa vida e todos devemos ter algo a dizer sobre isso.

Catarina Barata, Professora do Instituto Superior Técnico e investigadora do Instituto de Sistemas e Robótica.

[1] https://artificialintelligenceact.eu/

[2] https://aiindex.stanford.edu/report/

[3] https://unesdoc.unesco.org/ark:/48223/pf0000380602_por

[4] https://tecnico.ulisboa.pt/pt/viver/dia-a-dia/diversidade-e-igualdade-de-genero/girls-in-ai/