É comummente aceite que o ser humano pode errar nas suas decisões ou acções, de forma não intencional, especialmente face a tarefas de elevada complexidade. Admitimos assim a imperfeição do ser humano e a inevitabilidade de cometerem erros em circunstâncias excepcionais.
De acordo com o PORDATA [1], em 2021 ocorreram em Portugal Continental 29.217 acidentes de viação, com um total de 390 mortos e 36.323 feridos, o que representa, ainda assim, uma redução face a anos anteriores, onde chegámos a ter cerca de 500 mortos anuais (em 2017 e 2018). Sendo certo que são números inaceitáveis e que representam um enorme sofrimento humano e custo económico para a sociedade, não são alvo de uma discussão tão intensa quando porventura mereceria. Esta aparente tolerância para estatísticas assustadoras assenta provavelmente na assumpção de que “Errar é humano” e que em certa medida algumas destas situações serão inevitáveis.
Esta aceitação contrasta com a aparente irredutibilidade de se aceitar que um sistema artificial, “não-humano” possa, de igual forma, errar ocasionalmente. Uma área onde esta questão tem sido debatida à exaustão tem que ver com a inovação tecnológica e o desenvolvimento de, por exemplo, sistemas robóticos e a inteligência artificial. Com as máquinas, contudo, e na nossa resistência em aceitar que elas, tal como nós, poderão errar nas tais situações excepcionais, insiste-se na escalpelização do processo de processamento e de decisão que levaria a um erro da máquina como se dessa forma fosse possível expurgar a máquina de todo e qualquer erro. Um exemplo disso é um estudo recente [2] que explora os dilemas morais relativamente a decisões éticas que um carro autónomo possa ter de fazer.
No caso da condução autónoma, são amplamente noticiadas as situações de acidentes e mantidas discussões acesas sobre a responsabilidade jurídica por um eventual acidente (do engenheiro que desenvolveu o sistema? do fabricante?) sugerindo haver pouco espaço para a possibilidade de que, quando um conjunto de factores imponderáveis se conjuguem, poderá ocorrer um “Erro da Máquina” (chamemos-lhe assim). Sendo muito interessante analisar como as diferenças culturais influenciam as decisões dos participantes do estudo, implicitamente é assumido que existe um momento em que a máquina toma uma decisão explícita relativamente à acção a tomar (na inevitabilidade de colidir com um peão, escolhe-se “sacrificar” uma criança ou uma pessoa idosa?). No entanto, tal como no “Erro humano” o processo de decisão do veículo autónomo resulta da conjugação de vários sensores, algoritmos que controlam a direcção e velocidade do veículo sem que tenha necessariamente que existir um momento em que o veículo tem que decidir, explicitamente, se atropela A ou B (ver [3]). Dessa forma, mais do que dissecar todos os componentes do sistema na procura da falha do processo de decisão, a base de comparação do “Erro da Máquina” deveria ser o inevitável “Erro humano”. Se os veículos autónomos reduzissem o número de acidentes, mortos e feridos para 10% do valor actual, não seria um fantástico contributo?
É claro que devemos manter o desígnio de caracterizar o desempenho, como o erro e a capacidade de rejeitar perturbações externas, de todos os componentes (de robótica, visão artificial, controlo ou aprendizagem) de um sistema de engenharia complexo. Mas quando existem sistemas de grande complexidade, que resultam da conjugação de vários subsistemas, também eles complexos, pode-se tornar muito difícil determinar o erro global e indicadores de desempenho gerais (ver [4]).
Uma outra área onde o erro humano é absolutamente crítico é a saúde. Qualquer erro médico na prestação de cuidados de saúde (diagnóstico, cirurgia, medicação, etc.) tem um enorme custo e impacto humanos e sociais, havendo um esforço enorme em reduzir a sua ocorrência aos mínimos, através da melhoria dos processos de diagnóstico, protocolos, etc. Tal como em outras actividades humanas, não custa admitir que em situações extraordinariamente complexas não seja possível resolver todas as situações na perfeição. Do ponto de vista do desenvolvimento de tecnologias para aplicações na saúde, a questão do “Erro da Máquina” volta a surgir. Em que medida estaremos dispostos a admitir que, apesar da adopção das melhores práticas científicas e de engenharia, os sistemas artificiais poderão até ter desempenhos superiores ao humano, mas sem que a ocorrência de um erro possa ser absolutamente excluída?
Os exemplos destas duas áreas de aplicação poderiam ser alargados a outros domínios onde a questão do erro e a nossa (in)capacidade de aceitar a imperfeição da máquina pode condicionar o desenvolvimento e aceitação pela sociedade de certas tecnologias, que permitiriam porventura melhorar o desempenho dos sistemas (humanos) actuais. Porque “Errar é humano”. Mas até quando?
[1]https://www.pordata.pt/Portugal/Acidentes+de+viação+com+vítimas++feridos+e+mortos+++Continente-326
[2] https://www.nature.com/articles/d41586-018-07135-0
Self-driving car dilemmas reveal that moral choices are not universal
[3] – Kahneman, D. (2011) Thinking, Fast and Slow. Penguin Books, London
[4] – Lazebnik, Y. Can a biologist fix a radio?-Or, what I learned while studying apoptosis, Cancer Cell, Vol 2 (3), 2002.
Professor Catedrático do Departamento de Engenharia Eletrotécnica e de Computadores do Instituto Superior Técnico – Universidade de Lisboa; Presidente e investigador do Instituto de Sistemas e Robótica|Lisboa – LARSyS