Emprego. Formadores, explicadores e sustentadores: profissões criadas na IA

Emprego. Formadores, explicadores e sustentadores: profissões criadas na IA


Estudos apontam para que entre 400 milhões e 800 milhões perderão os seus empregos para a automação até 2030. Mas ao mesmo tempo há novas funções e competências que nada tem a ver com as de hoje


A ameaça de que a automação vá eliminar um grande número de empregos em toda a economia mundial é já um facto. À medida que os sistemas de Inteligência Artificial (IA) se tornam mais sofisticados, uma outra onda de perda de empregos vai de certeza acontecer. Pode ser um cenário muito perturbador.

Um estudo recente do Banco Mundial que apontava que são várias as profissões que “têm uma probabilidade de pelo menos 50% serem ‘computorizadas’, com a tecnologia a substituir na totalidade ou em grande parte os trabalhadores humanos”.

Um outro estudo aponta para 800 milhões de trabalhadores que poderão perder os seus empregos para os robôs ou para a automação até 2030, o equivalente a um quinto do da população laboral global.

O relatório da McKinsey cobre mais de 46 países e 800 profissões. Tantos os países emergentes como os desenvolvidos serão afetados. De acordo com o estudo do McKinsey Global Institute, mesmo que a ascensão dos robôs seja mais lenta, perto de 400 milhões de trabalhadores poderão ficar sem emprego devido à automação e precisam de encontrar empregos nos próximos 13 anos.

Ainda assim o estudo aponta que haverá empregos para estas pessoas se transferirem, apesar de em muitos casos estas pessoas estarem obrigadas a aprender novas competências para fazer o trabalho. Há muitos empregos que serão criados e que nada têm a ver com os que existem hoje em dia.

Exclusivo humano Um estudo da Accenture a mais de 1000 empresas que já usam ou testam sistemas de IA e machine learning identificou uma série de novas categorias de empregos exclusivamente humanos. E estas profissões não substituirão outras. São originais e requerem competências e formação sem precedentes.

A investigação aponta para três novas categorias de empresas e empregos puxados pela IA e pela tecnologia: formadores, explicadores e sustentadores. Os humanos com estas funções irão complementar as tarefas realizadas pela tecnologia, assegurando que o trabalho feito pelas máquinas é efetivo, responsável, justo, transparente e fiscalizável.

Os formadores são aqueles que vão ensinar os sistemas de IA a trabalharem e estão a aparecer a alta velocidade. Por um lado, vão ajudar os processadores de linguagem natural e os tradutores de linguagem a cometerem menos erros. Ao mesmo tempo, ensinam os algoritmos de IA a copiar os comportamentos humanos.

Por exemplo, os chatbots de serviços aos clientes precisam de ser treinados para detetar as complexidades e subtilezas da comunicação humana. É necessário ensinar aos sistemas de processamento de linguagem que aquilo que as pessoas dizem não é muitas vezes literalmente aquilo que querem dizer.

Entre estes empregos está por exemplo o de “formador de empatia” – pessoas que vão ensinar os sistemas de IA como se mostra compaixão. São várias as empresas a trabalhar nestas tecnologias e a ensinarem as máquinas a responder às perguntas das pessoas com mais simpatia e profundidade. Ensinam também, por exemplo, as máquinas a serem mais empáticas com as pessoas cuja bagagem tenha sido extraviada ou que tenham comprado qualquer coisa com defeito.

O objetivo é que os sistemas consigam responder às pessoas com a dose certa de entendimento, compaixão e até, talvez, humor. Cada vez que a IA aja de forma errada, o formador humano ajuda-a a corrigir essa ação e ao longo do tempo, o algoritmo de machine learning melhora a escolha da melhor resposta.

Aproximar a tecnologia dos líderes Os explicadores vão aproximar a tecnologia dos líderes empresariais. Vão ajudar a dar clareza, que se está a tornar cada vez mais importante à medida que a opacidade dos sistemas de IA aumenta.

Há muitos gestores que se sentem desconfortáveis com a natureza ‘black box’ (as complexidades do funcionamento interno estão escondidas ou não são imediatamente percetíveis) dos algoritmos de machine learning mais sofisticados, em especial quando os sistemas que operam recomendam ações que vão contra o âmago da sabedoria convencional.

As empresas que utilizam sistemas de IA avançados vão precisar de um conjunto de funcionários que expliquem o funcionamento dos algoritmos complexos aos profissionais não técnicos.

Entre estes estarão os analistas forenses de algoritmos, que têm como função responsabilizarem um algoritmo pelas suas ações. Quando um sistema comete um erro ou toma uma decisão que leva a consequências não desejadas, o analista forense terá de fazer uma “autópsia” ao acontecimento para perceber o que causou esse comportamento, permitindo que seja corrigido.

Alguns tipos de algoritmos, como árvores de decisão, são relativamente fáceis de explicar. Outros, como os bots de machine learning, são mais complexos. No entanto, o analista precisa de formação específica e competências para realizar autópsias especializadas e explicar os resultados.

Como exemplo, o analista forense poderia explicar porque é que a IA tomou a decisão sobre a contratação de determinado candidato a um emprego e não a outro, ou porque é que uma campanha de maketing foi dirigida apenas a um subgrupo de pessoas.

Os sustentadores são a terceira categoria de novos profissionais identificados neste estudo da Accenture e vão ajudar a assegurar que os sistemas de IA estão a funcionar de acordo com os parâmetros para os quais foram programados e que existe a urgência necessária para lidar com consequências indesejadas.

Confiança O documento revela que menos de um terço das empresas tem um grau de confiança elevado na equidade ou capacidade para auditar os seus sistemas de IA e menos de metade tem confiança na segurança desses sistemas.

Uma das funções mais importantes que se está a desenvolver com a IA é o de gestor de observância da ética. Pessoas cujo papel será agir como provedor da imposição de normas de valores humanos e morais. Terão de intervir por exemplo se a IA estiver a descriminar na concessão de crédito.

Mas há outros preconceitos e descriminações que podem ser mais subtis: por exemplo um algoritmo de pesquisa que mostre apenas mulheres brancas nos resultados de uma pesquisa por “avozinhas adoráveis”. O gestor de observância de ética poderia trabalhar com uma analista forense de algoritmos para descobrir as razões para a apresentação destes resultados e implementar as correções necessárias.

Este tipo de empregos não tem precedentes e será necessário em larga escala e de forma transversal a todas as indústrias. A mudança colocará sob grande pressão os departamentos de formação e desenvolvimento das empresas. E também a questionar as premissas sobre os requisitos educacionais para estas profissões.

Os formadores em empatia poderão não precisar de uma licenciatura, mas os gestores de observância da ética precisaram de formações avançadas e de um conjunto de competências muito especializadas.

Por isso, as empresas, tal como precisam de formar parte da força de trabalho para estas funções emergentes, terão também de repensar os departamentos de recursos humanos de forma a atraírem, formarem e manterem profissionais altamente educados, cujos talentos terão grande procura. Tal como em outras transformações tecnológicas, os desafios são muitas vezes mais humanos do que técnicos.