21/10/19
 
 
Robôs assassinos. Queremos ir para o lado negro da força?

Robôs assassinos. Queremos ir para o lado negro da força?

Dreamstime Joana Marques Alves 18/09/2019 20:55

Os avanços tecnológicos não trazem só coisas boas: uma ex-funcionária da Google alertou para o perigo iminente que as armas autónomas letais representam.

Alguma vez pensou viver numa era em que existem robôs assassinos? Sim, leu bem, “robôs assassinos”. A expressão é usada por Laura Nolan, uma antiga funcionária da Google, que está a tentar alertar as Nações Unidas para os perigos da maquinaria que está a ser criada por empresas tecnológicas. Bem-vindo ao (lado negro) do século XXI.

Nolan, que se despediu da Google no ano passado em protesto por ter sido colocada num projeto que visava desenvolver tecnologia militar para os Estados Unidos, disse ao jornal Guardian que a nova geração de armas autónomas que está a ser criada pode acidentalmente desencadear uma guerra ou atrocidades em massa. A engenheira informática defende que estas armas devem ser banidas e controladas da mesma forma que as armas químicas.

Ao contrário dos drones, que são controlados por militares, os robôs autónomos letais conseguem detetar, identificar, selecionar e atacar alvos sem que haja a intervenção de seres humanos. Nolan defende que estes “robôs assassinos têm potencial para criar situações calamitosas para as quais não foram inicialmente programados”.

Sem apontar o dedo a qualquer gigante tecnológico, Nolan alerta para os perigos do que está atualmente a ser desenvolvido. “A probabilidade de ocorrer um desastre é proporcional à quantidade de máquinas que estão ao mesmo tempo no local. Falamos de possíveis atrocidades e de assassínios ilegais cometidos mesmo sob as leis da guerra”, explica a engenheira, citada pelo Guardian.

“Os robôs poderão começar a comportar-se de uma forma diferente do que era expectável. Por isso mesmo, quaisquer sistemas avançados de armamento deveriam estar sujeitos a um controlo humano. Caso contrário, devem ser banidos. São demasiado imprevisíveis e perigosos”, defende Laura Nolan, que já esteve reunida com representantes das Nações Unidas para expor as suas preocupações em relação a este problema.

Além disso, existem fatores externos que podem influenciar o comportamento do robô: “Pode, por exemplo, encontrar um grupo de homens armados que é identificado como sendo o inimigo, quando na verdade são apenas sobreviventes à procura de comida. As máquinas não têm o discernimento ou o senso comum que os humanos possuem”.

“Outro aspeto assustador dos sistemas de guerra autónomos é o facto de só poderem ser testados numa zona de combate real. Se calhar isso está a acontecer agora com os russos na Síria, quem sabe? O que sabemos é que, nas Nações Unidas, a Rússia não quis assinar qualquer tratado [para travar estes robôs], quanto mais bani-los”, afirma Laura Nolan. “Se estás a testar uma máquina que toma as suas próprias decisões, então tens de a testar no mundo real. Além disso, como se treina um software a detetar mudanças muito subtis no comportamento humano ou a distinguir a diferente entre um caçador e um insurgente? Com é que um robô destes consegue, ao sobrevoar uma área, perceber a diferença entre um combatente de 18 anos e um caçador de coelhos de 18 anos?”, questiona.

No entanto, a engenheira informática garante que não quer ser ‘mais papista que o Papa’: “Não quero com isto dizer que os sistemas de orientação de mísseis ou de defesa antimíssil devem ser banidos. Estes são, apesar de tudo, controlados pelo Homem e há sempre alguém que é responsável pelo que acontece. Mas há muito poucas pessoas a falar sobre os perigos das armas autónomas e se, não tivermos cuidado, em menos de nada, um destes robôs assassinos poderá cometer uma atrocidade” .

Questão ética Nolan começou a trabalhar para a Google em 2013. Quatro anos depois, em 2017, foi chamada para se juntar ao Project Maven, que tinha como objetivo ajudar o departamento de Defesa norte-americano melhorando os drones militares e a sua capacidade de reconhecer pessoas e objetos. A engenheira informática explica que começou a ter “cada vez mais preocupações com questões éticas” à medida que o programa ia sendo desenvolvido.

“Apesar de não estar diretamente envolvida nos trabalhos para acelerar os mecanismos de reconhecimento, percebi que fazia parte da cadeia e que isto acabaria por colocar mais vidas em causa em sítios como o Afeganistão”, acrescenta. A verdade é que a Google acabou mesmo por deixar cair o Project Maven, depois de mais de três mil empregados terem assinado uma petição a exigir que a empresa se desassociasse desta iniciativa.

Não existe qualquer indício de que a Google esteja a trabalhar em armas autónomas letais. Aliás, segundo o Guardian, no mês passado, um grupo de especialistas das Nações Unidas discutiram este tema e chegaram à conclusão de que a Google não estava envolvida neste mercado, utilizando a Inteligência Artificial desenvolvida apenas em meios seguros.

 

Iniciar Sessão
Esqueceu-se da sua password?

×
×

Subscreva a Newsletter do i

×

Pesquise no i

×