Pedro Gonçalves. “A tecnologia sempre foi utilizada para o bem e para o mal”

Pedro Gonçalves. “A tecnologia sempre foi utilizada para o bem e para o mal”


Aos 55 anos, Pedro Gonçalves recebeu o prémio European Counsel Awards, na categoria de Tecnologias de Informação. Aqui fica a sua visão sobre inteligência artificial.


“A Lexology, em associação com a Association of Corporate Counsel (Associação Americana dos Advogados de Empresa), tem vindo a premiar os melhores advogados internos em todo o mundo há 17 anos. Considerados um dos prémios mais prestigiados disponíveis para advogados internos, os Prémios European Counsel Awards representam um verdadeiro padrão de excelência na profissão. (…) Embora baseados em pesquisa minuciosa e coerente, os resultados permanecem nas visões subjetivas da equipa dos Prémios European Counsel e do conselho consultivo”. É desta forma que a organização faz a apresentação dos seus prémios. Este ano, Portugal recebeu três “medalhas de ouro”. Pedro Gonçalves, advogado e Diretor Jurídico e de Compliance na Unbabel, em Tecnologias de Informação; Duarte Abrunhosa e Sousa, da Sonae MB da equipa ABB, na categoria de Direito do Trabalho; e Valeria Ferraz, da Central de Cervejas, na categoria de Direito Comercial.

O i entrevistou Pedro Gonçalves:

Foi nomeado, entre quatro advogados, como o melhor advogado nas tecnologias da informação. O que quer isto dizer?

Quer dizer que é um reconhecimento dos meus pares, ao nível da Europa, sobre aquilo que tenho desenvolvido. Neste caso, no domínio da inteligência artificial (IA).

E o que tem desenvolvido?

Auxilio tudo o que são novos projetos a nível da IA e faço com que não existam entraves à entrada desses novos projetos.

Estamos a falar em termos legislativos?

Não, de produto mesmo. Uma empresa cria novos produtos e, juridicamente, faz-se com que não haja entraves à entrada dos mesmos e, ao mesmo tempo, esses produtos assumem transparência e eficácia junto das pessoas aos quais se dirigem.

E isso é aprovado por Bruxelas?

A empresa é americana, mas está sediada em Portugal. Os fundadores são portugueses. E criaram a empresa nos EUA, na Califórnia. E o meu papel na empresa é assegurar que todos os procedimentos, em termos de segurança, jurídicos e compliance são cumpridos para que a empresa possa desenvolver a sua atividade de forma natural.

A empresa, por aquilo que percebi, caracteriza-se por acelerar traduções.

É uma empresa que faz traduções, mas faz mais do que isso: visa, no fundo, evitar as barreiras linguísticas entre as várias empresas. E, para isso, tem serviço ao cliente, pessoas dedicadas a apoiar cada empresa nas suas traduções… No fundo, evita que a língua seja uma barreira à comunicação entre as pessoas.

Dê-me um exemplo concreto.

Nos videojogos, por exemplo. A empresa faz com que a linguagem seja adaptada aos miúdos, com que não seja uma tradução meramente literal. A tradução é feita de acordo com o destinatário. Tem em conta uma série de fatores não só humanos como culturais. Se forem clientes chineses, a tradução é adaptada à China. A empresa faz IA, mas não é uma Google. Utiliza também a parte humana. Se as traduções não asseguram um determinado nível de qualidade, intervém a parte humana. Então, a empresa é composta também por centenas de linguistas que fazem a edição dos textos. Quando a máquina não funciona, digamos assim, entram os linguistas e aperfeiçoam aquilo que a IA fez. Com esse aperfeiçoamento, a própria IA é treinada e torna-se cada vez mais eficaz. Por exemplo, se contratarmos a empresa e estivermos na Tailândia, a realidade cultural tailandesa é diferente da europeia. O “Bom dia”, se calhar, é dito de forma diferente. E o linguista adapta a entoação, acrescenta dois As, etc. Por isso é que há uma operação de linguagem: destrói a barreira linguística que possa existir e promove a adaptação cultural da própria tradução que é elaborada.

Acha que se vai chegar a um chip? A pessoa põe um chip e consegue traduzir tudo para o cérebro?

A empresa está envolvida no maior projeto europeu de IA responsável que visa a criação de sistemas de IA que sejam eticamente responsáveis com justiça e legais. E no âmbito desse projeto, o Halo, estão várias empresas como a Sonae e o Hospital da Luz. Esse projeto nasceu por causa das pessoas que têm esclerose lateral amiotrófica. As pessoas que sofrem desta patologia vão perdendo a capacidade de linguagem. E a Unbabel liderou um projeto, com a Fundação Champalimaud e a Universidade de Coimbra, em que o algoritmo aprende a linguagem enquanto a pessoa vai comunicando. Quando a pessoa perde a capacidade de comunicar, comunica através de ondas cerebrais por meio da máquina. Faz-se uma pergunta à pessoa e ela responde de acordo com impulsos. Não há um chip implantado, mas há ventosas que são colocadas no corpo e captam o impulso. E consoante isso, a pessoa responde de determinada forma. Também há uns óculos que são colocados e a pessoa, através do olhar, consegue responder às perguntas que lhe são efetuadas.

Uma ventosa vai conseguir traduzir tudo no futuro?

Sim. No fundo, a ideia de um projeto destes é que, no futuro, possamos falar connosco. Os nossos pensamentos vão ficando armazenados e transmitimos isso de forma mais simples para uma máquina.

Estava nomeado… Concorreu ou…?

Primeiro, fui nomeado através de pessoas. Não há concurso. Somos indicados por alguém e, através disso, pedem opiniões sobre o trabalho que desenvolvemos. E indicamos pessoas para nos avaliarem.

E a IA não entra aí?

[Risos] Aqui não! É mesmo pergunta direta.

E quais são os grandes desafios da IA? E onde
é que entra para evitar
os malefícios?

O grande desafio da IA é não deixar que ela nos domine. Os grandes modelos de IA têm capacidade de aprendizagem, geram conteúdo. E o grande objetivo é não permitir que isso nos domine. E acho que devemos ter, a nível legislativo e regulamentar, barreiras que permitam que a IA siga rigorosos padrões éticos.

Mas quais são os grandes desafios? Os perigos?

Um dos grandes desafios é a própria manipulação. Através de imagens e informações que não são verdadeiras. E acho que as pessoas não conhecem a IA. Ela assenta em modelos estatísticos de probabilidades. Quanto mais baixa é a probabilidade de erro, mais ela acerta. Na imagem que desenha, no texto que fabrica… O grande desafio é estabelecerem-se limites à geração de conteúdos.

Como assim?

É, no fundo, haver uma regulamentação específica para que os padrões éticos comummente aceites na sociedade sejam incluídos dentro da própria IA. Isso tem muito a ver com a qualidade dos dados que são recolhidos. Para evitar o dito viés na comunicação.

Mas a sua área não passa por aí?

Não. Passa pelo centro de responsabilidade que temos, mas é tudo ligado à linguística.

Não percebi muito bem quais são os perigos.

A informação que é prestada pode ser dada como válida não sendo válida. Entra-se dentro de um avião e ouve-se que a porta de segurança é à direita, mas afinal é à esquerda, por exemplo.

Ou influenciar nas eleições.

Exatamente. Utilizar sistemas de IA com informações erradas que levam…

Às chamadas fake news.

Sim.

Mas como é que a IA foi utilizada nas eleições?

Foi anunciado. Não sei no quê em concreto… A divulgação de que se usa um sistema de IA é outro dos aspetos muito importantes e obrigatório face à legislação europeia. Outro dos grandes desafios é a proteção dos direitos de autor. A IA alimenta-se de informação e essa informação, muitas das vezes, está protegida por direitos de autor. Quando estes sistemas de IA são alimentados por dados, temos de saber se estão protegidos ou não. Outro dos grandes desafios é a defesa da privacidade das pessoas. No fundo, garantir que os dados que são recolhidos asseguram a privacidade das pessoas visadas na própria comunicação efetuada. E na recolha dessa informação e na divulgação da mesma. Há mecanismos como a anonimização dos dados. É a forma mais eficaz para não identificar as pessoas.

Mas isso é possível de fazer por quem está do lado negro da força?

Sim, poderá sempre fazê-lo. E por isso é que é muito importante haver uma regulamentação eficaz que limite estes viés da utilização da IA. Dependendo dos dados que lhe damos, a IA pode direcionar-se para o que quisermos.

Como é que a IA pode recolher os meus dados,
por exemplo?

À partida, recolhemos dados seus e de outras pessoas.

Mas falsos.

Sim.

Como são introduzidos na IA?

Faz-se a filtragem desses dados. Há mecanismos para filtrá-los.

Como é que a IA recebe essa informação?

Vamos à Google e pedimos que pegue em determinada informação para determinado fim.

Mas como?

É no algoritmo. É transposta matematicamente através de números.

A questão da manipulação das eleições, da criação de guerras…

Sim! A tecnologia sempre foi utilizada para dois fins: o bem e o mal. Como diria Kant, “o Homem é um lenho torto”. Por isso é que é corrupto. E como diria o Santo Agostinho, a corrupção vem precisamente disso: do coração corrompido. Temos essa natureza humana dúbia.