Pausa da IA?


A criação da inteligência artificial generativa, em particular, é marco significativo na história da IA permitindo criar novos conteúdos, como textos, imagens, sons e vídeos com implicações muito importantes para o ensino, investigação, empresas, administração pública e muito mais. 


É péssima ideia pausar e ainda pior ideia parar por completo o desenvolvimento da IA. O mundo não se pode parar 6 meses e certamente não se pode parar para sempre! O próprio manifesto, embora apresente, em geral, as preocupações legítimas de todos os investigadores de IA, muito próximas das minhas próprias preocupações, falha completamente em propor uma medida concreta e indica: “stop the training of AI systems more powerful than GPT-4”. O que são, objetivamente, modelos mais poderosos do que o GPT4? Limita a IA a uma área e um modelo de linguagem específico e quase a uma empresa ou produto específico! A IA é muito mais do que “Large Language Models”, GPT4 e ChatGPT… Aliás, um dos principais proponentes desta pausa (Elon Musk) estava a criar uma empresa concorrente ‘a OpenAI (XAI – https://www.forbes.com/sites/mattnovak/2023/04/14/elon-musk-forms-new-ai-company-in-nevada-called-xai/?sh=608e22e3b5e1) enquanto “fazia de conta” que queria parar a IA seis meses…

Parar o desenvolvimento tecnológico e a investigação científica, especialmente na área de inteligência artificial, é uma péssima ideia pois a IA é uma das tecnologias mais promissoras em desenvolvimento e tem o potencial de revolucionar a indústria, saúde, agricultura, transportes e muito mais. Os países que o fizerem assumem uma enorme desvantagem competitiva, eventualmente irreversível, com outros países ou regiões no mundo pois a IA permite enormes melhorias nos processos, aumento na eficiência e produtividade e desenvolver novos produtos e serviços.

Destaca-se ainda um impacto económico e social extremamente negativo para os países que o fizerem. A IA irá permitir a curto prazo uma enorme melhoria da qualidade de vida das pessoas com melhores diagnósticos médicos, melhor acesso a serviços públicos, carros autónomos mais seguros, entre muitos outros.

Não se pode parar a investigação e o desenvolvimento em IA (ou outro campo) pois fazem parte do progresso humano contínuo que tem permitido à humanidade avançar em muitas áreas, desde os transportes, à medicina até à exploração espacial. Deve-se sim concentrar esforços e financiamentos na I&D em IA para tornar os sistemas de IA seguros, explicáveis, benéficos, confiáveis, transparentes e robustos.  Deste modo poderemos garantir que a IA seja desenvolvida e utilizada de maneira ética e segura.

Inteligência Artificial é  um salto tecnológico

A inteligência Artificial, tal como a Internet e os smartphones fizeram no passado, está a transformar a forma como as pessoas interagem com a tecnologia e como as empresas, universidades, administração pública e os próprios indivíduos trabalham. A criação da inteligência artificial generativa, em particular, é marco significativo na história da IA permitindo criar novos conteúdos, como textos, imagens, sons e vídeos com implicações muito importantes para o ensino, investigação, empresas, administração pública e muito mais. A minha convicção é que a IA irá mudar significativamente a forma como vivemos, trabalhamos e comunicamos, assim como a internet e os smartphones o fizeram nas últimas décadas, mas a IA irá fazê-lo a um nível muito superior.

Riscos da IA

Um dos riscos associados ao desenvolvimento da Inteligência Artificial, e também de quase todas as tecnologias, é que possa ser utilizada de forma maliciosa ou negligente, causando danos significativos a pessoas, entidades e à sociedade. Por exemplo, a IA pode ser usada para desenvolver armas autónomas, criar e disseminar informações falsas, influenciar ou prejudicar as pessoas.

A real possibilidade de que a IA possa eventualmente superar a inteligência humana é uma preocupação crescente em muitos círculos da tecnologia e da filosofia. A IA, poderá no futuro tornar-se super-humana ultrapassando as habilidades cognitivas de qualquer ser humano com óbvias implicações significativas para a sociedade, incluindo a possibilidade de que a IA possa se tornar autónoma e superar a capacidade dos humanos de controlá-la ou regulá-la. Isto leva-nos também à preocupação com o risco da singularidade tecnológica em que a IA se possa tornar tão avançada que se possa melhorar de forma autónoma e exponencial, sem necessidade de intervenção humana. Isso poderia levar a uma situação em que a IA ultrapasse a capacidade dos humanos de compreendê-la ou controlá-la, levando a consequências imprevisíveis e muito perigosas.

Para mitigar esses riscos, é importante uma abordagem responsável e ética, progressivamente garantindo que a IA seja desenvolvida de forma transparente e explicável. É também necessário desenvolver políticas e regulamentações que orientem o desenvolvimento e aplicação da IA. Mas não da IA atual e sim da IA futura e como tal um esforço para legislar o que existe sem o devido envolvimento dos cientistas que sabem o que vai existir é meramente prejudicial.

O mundo está preparado para a IA?

É difícil dizer se o mundo está totalmente preparado para a IA ou outra tecnologia disruptiva. Mas é óbvio que precisa de ser preparado para esta ou outra tecnologia. Há sempre imensos desafios e riscos associados ao desenvolvimento e implementação de qualquer tecnologia disruptiva. Tal como outras tecnologias disruptivas, a IA tem um enorme potencial para melhorar a vida das pessoas e resolver problemas importantes da sociedade, mas também potencial para ser usada de forma maliciosa ou negligente, causando danos significativos à sociedade. Para garantir que a IA será criada, implementada e utilizada de forma responsável e segura, é necessário que haja uma colaboração clara entre os setores público e privado e sobretudo os laboratórios e empresas de desenvolvimento científico e tecnológica nesta área.

IA em Portugal

Em Portugal temos empresas muito fortes no desenvolvimento de IA. Os unicórnios portugueses são empresas de base tecnológica com ênfase para a IA. Temos em Portugal uma das primeiras Licenciaturas de IA do mundo: A LIACD – Licenciatura em Inteligência Artificial e Ciência de Dados (projeto conjunto da FCUP e FEUP na Universidade o Porto) que imediatamente saltou para o top 5 de cursos em Eng. Informática/Eletrotecnia ou Ciência de Computadores. O maior laboratório Associado nacional é neste momento o LASI – Laboratório Associado em Sistemas Inteligentes com mais de 500 investigadores/professores doutorados e mais de 1000 investigadores a realizarem o seu doutoramento nesta área e áreas afins.

 

Presidente da Associação Portuguesa Para a Inteligência Artificial

Pausa da IA?


A criação da inteligência artificial generativa, em particular, é marco significativo na história da IA permitindo criar novos conteúdos, como textos, imagens, sons e vídeos com implicações muito importantes para o ensino, investigação, empresas, administração pública e muito mais. 


É péssima ideia pausar e ainda pior ideia parar por completo o desenvolvimento da IA. O mundo não se pode parar 6 meses e certamente não se pode parar para sempre! O próprio manifesto, embora apresente, em geral, as preocupações legítimas de todos os investigadores de IA, muito próximas das minhas próprias preocupações, falha completamente em propor uma medida concreta e indica: “stop the training of AI systems more powerful than GPT-4”. O que são, objetivamente, modelos mais poderosos do que o GPT4? Limita a IA a uma área e um modelo de linguagem específico e quase a uma empresa ou produto específico! A IA é muito mais do que “Large Language Models”, GPT4 e ChatGPT… Aliás, um dos principais proponentes desta pausa (Elon Musk) estava a criar uma empresa concorrente ‘a OpenAI (XAI – https://www.forbes.com/sites/mattnovak/2023/04/14/elon-musk-forms-new-ai-company-in-nevada-called-xai/?sh=608e22e3b5e1) enquanto “fazia de conta” que queria parar a IA seis meses…

Parar o desenvolvimento tecnológico e a investigação científica, especialmente na área de inteligência artificial, é uma péssima ideia pois a IA é uma das tecnologias mais promissoras em desenvolvimento e tem o potencial de revolucionar a indústria, saúde, agricultura, transportes e muito mais. Os países que o fizerem assumem uma enorme desvantagem competitiva, eventualmente irreversível, com outros países ou regiões no mundo pois a IA permite enormes melhorias nos processos, aumento na eficiência e produtividade e desenvolver novos produtos e serviços.

Destaca-se ainda um impacto económico e social extremamente negativo para os países que o fizerem. A IA irá permitir a curto prazo uma enorme melhoria da qualidade de vida das pessoas com melhores diagnósticos médicos, melhor acesso a serviços públicos, carros autónomos mais seguros, entre muitos outros.

Não se pode parar a investigação e o desenvolvimento em IA (ou outro campo) pois fazem parte do progresso humano contínuo que tem permitido à humanidade avançar em muitas áreas, desde os transportes, à medicina até à exploração espacial. Deve-se sim concentrar esforços e financiamentos na I&D em IA para tornar os sistemas de IA seguros, explicáveis, benéficos, confiáveis, transparentes e robustos.  Deste modo poderemos garantir que a IA seja desenvolvida e utilizada de maneira ética e segura.

Inteligência Artificial é  um salto tecnológico

A inteligência Artificial, tal como a Internet e os smartphones fizeram no passado, está a transformar a forma como as pessoas interagem com a tecnologia e como as empresas, universidades, administração pública e os próprios indivíduos trabalham. A criação da inteligência artificial generativa, em particular, é marco significativo na história da IA permitindo criar novos conteúdos, como textos, imagens, sons e vídeos com implicações muito importantes para o ensino, investigação, empresas, administração pública e muito mais. A minha convicção é que a IA irá mudar significativamente a forma como vivemos, trabalhamos e comunicamos, assim como a internet e os smartphones o fizeram nas últimas décadas, mas a IA irá fazê-lo a um nível muito superior.

Riscos da IA

Um dos riscos associados ao desenvolvimento da Inteligência Artificial, e também de quase todas as tecnologias, é que possa ser utilizada de forma maliciosa ou negligente, causando danos significativos a pessoas, entidades e à sociedade. Por exemplo, a IA pode ser usada para desenvolver armas autónomas, criar e disseminar informações falsas, influenciar ou prejudicar as pessoas.

A real possibilidade de que a IA possa eventualmente superar a inteligência humana é uma preocupação crescente em muitos círculos da tecnologia e da filosofia. A IA, poderá no futuro tornar-se super-humana ultrapassando as habilidades cognitivas de qualquer ser humano com óbvias implicações significativas para a sociedade, incluindo a possibilidade de que a IA possa se tornar autónoma e superar a capacidade dos humanos de controlá-la ou regulá-la. Isto leva-nos também à preocupação com o risco da singularidade tecnológica em que a IA se possa tornar tão avançada que se possa melhorar de forma autónoma e exponencial, sem necessidade de intervenção humana. Isso poderia levar a uma situação em que a IA ultrapasse a capacidade dos humanos de compreendê-la ou controlá-la, levando a consequências imprevisíveis e muito perigosas.

Para mitigar esses riscos, é importante uma abordagem responsável e ética, progressivamente garantindo que a IA seja desenvolvida de forma transparente e explicável. É também necessário desenvolver políticas e regulamentações que orientem o desenvolvimento e aplicação da IA. Mas não da IA atual e sim da IA futura e como tal um esforço para legislar o que existe sem o devido envolvimento dos cientistas que sabem o que vai existir é meramente prejudicial.

O mundo está preparado para a IA?

É difícil dizer se o mundo está totalmente preparado para a IA ou outra tecnologia disruptiva. Mas é óbvio que precisa de ser preparado para esta ou outra tecnologia. Há sempre imensos desafios e riscos associados ao desenvolvimento e implementação de qualquer tecnologia disruptiva. Tal como outras tecnologias disruptivas, a IA tem um enorme potencial para melhorar a vida das pessoas e resolver problemas importantes da sociedade, mas também potencial para ser usada de forma maliciosa ou negligente, causando danos significativos à sociedade. Para garantir que a IA será criada, implementada e utilizada de forma responsável e segura, é necessário que haja uma colaboração clara entre os setores público e privado e sobretudo os laboratórios e empresas de desenvolvimento científico e tecnológica nesta área.

IA em Portugal

Em Portugal temos empresas muito fortes no desenvolvimento de IA. Os unicórnios portugueses são empresas de base tecnológica com ênfase para a IA. Temos em Portugal uma das primeiras Licenciaturas de IA do mundo: A LIACD – Licenciatura em Inteligência Artificial e Ciência de Dados (projeto conjunto da FCUP e FEUP na Universidade o Porto) que imediatamente saltou para o top 5 de cursos em Eng. Informática/Eletrotecnia ou Ciência de Computadores. O maior laboratório Associado nacional é neste momento o LASI – Laboratório Associado em Sistemas Inteligentes com mais de 500 investigadores/professores doutorados e mais de 1000 investigadores a realizarem o seu doutoramento nesta área e áreas afins.

 

Presidente da Associação Portuguesa Para a Inteligência Artificial