Como a inteligência artificial pode melhorar a aprendizagem

Como a inteligência artificial pode melhorar a aprendizagem


O recém-licenciado inglês Pieter Snepvangers decidiu usar o ChatGPT e ver que nota obteria num trabalho. A professora e vice-presidente da APPIA, Goreti Marreiros, e o engenheiro Guilherme Campos refletem acerca dos prós e contras da utilização da IA no ensino.


Um aluno usou o controverso bot ChatGPT para escrever um dos seus ensaios universitários e foi aprovado com uma nota positiva. Pieter Snepvangers queria saber se a plataforma de inteligência artificial (IA) seria inteligente o suficiente para escrever textos de nível universitário e, em caso afirmativo, poderia ser usado para “cabular” no futuro. Para descobrir, Pieter pediu ao bot para redigir um ensaio de 2 000 palavras sobre política social – o que ele fez em 20 minutos, anos-luz mais rápido do que o aluno médio, como explicou ao The Mirror.

Como o jornal inglês deixou claro, é possível ser aprovado: desde que não se queira estar entre os melhores da turma. Assim, Pieter pediu a um professor para corrigir a redação do ChatGPT e fazer a sua avaliação – e ficou surpreendido quando o tutor disse que teria dado uma pontuação de 53 – 2/2 na escala inglesa. “Encontrei uma universidade bastante prestigiada do Russell Group e perguntei a um dos professores se poderia fazer a avaliação de política social do último ano para ver se o ChatGPT realmente funcionaria. Eu queria saber que nota eu poderia tirar e se ele perceberia ou não que a redação fora escrita por um bot”, narra o jovem, jornalista no The Tab (o maior jornal dedicado à comunidade estudantil), ao i.

"Fiz a experiência em fevereiro. Nessa fase, o ChatGPT não foi tão impressionante quanto eu esperava. A ideia de que alguém escreveria um ensaio de padrão universitário inteiramente com o ChatGPT é falsa. Não pode fazer isso. Pedi para escrever uma resposta de 2.000 palavras, mas ele apenas enviou uma resposta entre 250 e 300 palavras. No final, fiz ao software 10 perguntas diferentes para ajudá-lo a produzir mais de 3.000 palavras e, em seguida, selecionei os melhores parágrafos para incluir no meu ensaio de 2.000 palavras", continua Pieter. "Da mesma forma, porque o software não quer apresentar-se como tendo qualquer viés, ele esforça-se para avaliar uma resposta. Muitas vezes apresenta os dois lados do argumento, mas não chega a uma conclusão. No nível universitário, precisamos de ser capazes de avaliar, na nossa redação, e argumentar por que um fator é mais importante que o outro. O software não faz isso", sublinha.

"Agora, uma das coisas que eu disse em fevereiro foi que o software está cá fora há três meses. E acho que esse é um fator importante a ser considerado. O ChatGPT, de momento, pode não ser capaz de escrever um ensaio universitário impecável, mas só vai melhorar como um software e eu não descartaria isso num futuro próximo. Também acho que quando falamos de alunos que usam o ChatGPT, eles não vão usá-lo para escrever todo o ensaio, mas vão usá-lo para escrever partes do mesmo", indica Pieter, explicando que tal acontecerá "para ajudar a melhorar uma frase ou a estrutura de um parágrafo ou para dar-lhes uma estrutura de como começar o ensaio e são esses tipos de exemplos que serão realmente difíceis de detetar pela universidade".

Quando questionado se era óbvio que a peça fora escrita por um robô, o docente não “achou que tivesse ficado muito claro”, mas disse que era um pouco “suspeito”. O seu feedback continuou: “Basicamente, este ensaio não é referenciado. É muito geral. Não entra em detalhes sobre nada. Não é muito teórico ou conceitualmente avançado. Pode ser um aluno que assistiu às aulas e se envolveu com o tema da unidade. O conteúdo da redação pode ser, realmente, de alguém que esteve nas minhas aulas. Não foi o pior em termos de conteúdo”, terá especificado o professor, acrescentando que, no fundo, o texto poderia ter sido escrito por um aluno “preguiçoso”.

O único elemento em que o ChatGPT falhou completamente foi a falta de referência no texto, no entanto, o professor disse que se um aluno “tivesse escondido algo que parecesse plausível”, a redação receberia uma nota 53. Por aquilo que Pieter disse ao The Mirror e ao i, o docente admitiu que, das redações que havia corrigido até àquele momento, aproximadamente 12% delas mostravam sinais de terem sido escritas usando software de IA. “A verdade é que o software não dá a resposta de uma só vez. Temos que estruturar as nossas respostas numa ordem mais coerente”, observa.

"Acho que cada vez mais alunos usarão o software e tornar-se-á normal que os alunos usem chatbots como o ChatGPT para os ajudar a concluir as tarefas. Cabe às universidades abraçar o uso do software e descobrir como ele pode ser aproveitado para que os alunos possam usá-lo como uma ferramenta de aprendizagem", frisa Pieter, acrescentando que as instituições de Ensino Superior têm de rever as suas formas de avaliação "se quiserem descartar os alunos que usam o ChatGPT porque, embora softwares de deteção de plágio como o Turninin possam argumentar que descobriram uma maneira de detetar o uso do ChatGPT, isso é apenas uma solução temporária", na medida em que "o ChatGPT é apenas o primeiro, haverá muito mais chatbots de IA que se seguirão e todos serão mais sofisticados do que o anterior, portanto, em vez de fingir que esse é um problema que desaparecerá, as universidades precisam de usar esse tempo para planear ativamente".

“De acordo com um estudo, o mercado global de IA na educação deverá crescer a uma taxa de crescimento anual composta de 36,0% de 2022 a 2030, atingindo 32,27 mil milhões de dólares em 2030 . A disrupção provocada pelo ChatGPT e por outros large language models irá certamente causar um maior impacto na área da educação”, declara Goreti Marreiros, vice-presidente da Associação Portuguesa para a Inteligência Artificial (APPIA). “O chatGPT e os modelos de linguagem não são focados em noção de verdade pelo que necessitam de ser usados com espírito crítico. Isto não quer dizer que devemos limitar/impedir o uso destas ferramentas aos nossos estudantes, mas sim ajudá-los a usá-los com a devida parcimónia e para complementar o estudo”, indica a professora coordenadora no Instituto Superior de Engenharia do Porto (ISEP).

“É importante consciencializar os nossos estudantes das grandes oportunidades que estas soluções oferecem em todos os domínios e em particular no ensino superior, mas também dos seus riscos. A utilização destes modelos em contexto pedagógico deve-nos fazer refletir e procurar estratégias de aprendizagem e avaliação que nos permitam colocar a tónica no que de facto o estudante aprendeu e não na(s) ferramentas que utilizou para apoiar o desenvolvimento da sua aprendizagem. O código de conduta/honra em vigor nas diferentes instituições deverá ser revisto para contemplar o uso de IA generativa”, afirma a responsável e investigadora pelo/no GECAD (Grupo de Engenharia do Conhecimento e Apoio à Decisão).

Quem concorda com Pieter Snepvangers e Goreti Marreiros é Guilherme Campos, engenheiro que fundou a Copyloto, que promete “criar conteúdo espetacular 10 vezes mais rápido”. “A lista de prós, do meu ponto de vista, é longa. Vou dar só alguns exemplos: agilizar o processo de correção de trabalhos e permitir que os professores se dediquem a atividades mais valiosas; eliminar tarefas administrativas como agendamento de aulas e avaliações, frequências, etc.; promover a aprendizagem em casa; possibilitar a criação de planos de estudo adaptados às necessidades individuais dos alunos; proporcionar feedback e instruções personalizadas para ensino individualizado”, reflete, passando para os contras.

“Um problema do recurso a novas tecnologias que é sempre discutido é a dependência que podem trazer para os seus utilizadores. No caso da educação, há quem considere que esta dependência pode levar a que os alunos exercitem menos as suas capacidades criativas e se esforcem menos por entender e contextualizar aquilo que estão a estudar. Aliado a isto, temos claramente considerações éticas, morais, e até legais que precisam de ser discutidas e resolvidas”, esclarece, respondendo com convicção quando questionado sobre se recorrer à IA no ensino, por exemplo, no superior, pode descredibilizar as aprendizagens adquiridas e, consequentemente, os graus obtidos. “O advento da Internet descredibilizou qualquer grau obtido desde então?”, pergunta. “A introdução de calculadoras científicas diminuiu a qualidade dos estudantes em cursos STEM (Science, Technology, Engineering e Mathematics)? Não. O mesmo se aplica a esta nova era de inovação que estamos a presenciar. A inteligência artificial pode, e deve, ser vista como uma ferramenta construtiva na educação e na sociedade em geral”, salienta.

“Os seres humanos têm uma tendência a olhar para novos avanços tecnológicos por um prisma negativo. E, embora compreensível, esse olhar mais negativo raramente leva a resultados produtivos (p. ex. aplicação de novas leis que paralisam a evolução tecnológica). Por forma a evitar isto, o caminho a seguir deverá ser um de educar, tanto para alunos, como para instituições”, elucida. “É importante entender como é que estas ferramentas funcionam, quais são as suas limitações, e quais podem ser os seus impactos. A mudança já aqui está, quer queiramos quer não. Um claro entendimento destes conceitos, assim como abertura para os discutir, deve existir”.

“Sem dúvida que é possível conjugar tudo. Como no exemplo acima da Internet e das calculadoras científicas, o mesmo raciocínio deve aplicar-se à IA. O génio já saiu da lâmpada, e pouco ou nada podemos fazer quanto a isso. O importante agora é tentar entender como melhor podemos incorporar a IA no dia-a-dia dos alunos e professores, sem colocar em causa a qualidade do ensino”, diz. “E sim, existem exemplos: a Khan Academy (uma das maiores plataformas educativas do mundo) anunciou recentemente um chat bot que alanvanca a mesma tecnologia que o ChatGPT”, pensa, especificando que “este chat bot permite orientar os alunos à medida que avançam nos cursos, deixando que estes façam perguntas como se estivessem a falar com um professor”, sendo que “também ajuda os professores com tarefas administrativas, poupando tempo valioso para que se possam concentrar no que é mais importante: os alunos”.

“Muitas ferramentas como o ChatGPT têm como objetivo simplificar o nosso dia-a-dia, ajudando-nos a automatizar tarefas repetitivas e a simplificar processos. Basicamente estamos a delegar o nosso trabalho a uma ferramenta. E, como resultado, acabamos por ter mais tempo para nos dedicarmos às tarefas que realmente exigem de nós um esforço extra em termos críticos e analíticos”, avança Guilherme Campos, acrescentando que “a realidade é que se nos queremos destacar naquilo que fazemos, teremos sempre que dar um toque humano ao que produzimos”, sendo que “as ferramentas de IA, embora altamente capazes, ainda apresentam certas limitações que as impedem de ter capacidade crítica. E, pelo menos de momento, essa parte ainda é da nossa competência”.

E quanto ao alegado comprometimento do desenvolvimento das capacidades humanas?_Será que o ChatGPT pode andar de mãos dadas com as mesmas? “Se olharmos para o ChatGPT e a IA no geral como ferramentas, então aquilo que fazemos com elas irá ditar a sua utilidade: se as usarmos em prol da nossa evolução como sociedade, acredito que terão um impacto benéfico – e em nada vão comprometer o nosso desenvolvimento. Pelo contrário: estas ferramentas devem ser vistas como aliadas no nosso desenvolvimento intelectual, profissional, pessoal, etc, e não como inimigas ou concorrentes”.

“Acabamos de atingir um ponto de inflexão tecnológica altamente impactante para a nossa sociedade. Este salto será tão, ou mais, importante que a criação da Internet”, afirma. “A forma como reagimos ao mesmo, as limitações que criamos, ou a abertura que damos irá decidir muito do nosso futuro daqui em diante. Sem nunca colocar em questão as implicações éticas e morais de uma tecnologia como esta, claro está, penso que é importante mantermos uma visão otimista e direcionada para o impacto positivo que a IA já está a ter, e continuará a ter, na nossa vida”, finaliza.