Após a denúncia, a IA não consegue mais gerar respostas com o nome do professor.
Os efeitos do uso de inteligência artificial na sociedade têm sido um assunto amplamente debatido. Embora ferramentas como o ChatGPT, Gemini e Meta AI apresentem funcionalidades úteis, um estudo estudo do MIT Media Lab apontou que o uso contínuo da ferramenta pode prejudicar a memória, a criatividade e o raciocínio.
Alguns casos têm consequências ainda mais críticas, como o da mãe que processou o Google e uma empresa de IA alegando que o filho cometeu suicídio momentos depois de conversar com um chatbot, um programa que usa IA para simular conversas.
Uma outra questão relacionada à inteligência artificial é a divulgação de informações incorretas, conforme foi repercurtido pelo professor de direito Jonathan Turley no X, antigo Twitter, e em sua coluna. O docente da Universidade Geoge Washington descobriu que o ChatGPT inventou que ele foi acusado de assédio.
Entenda o caso do professor Jonathan Turley
A situação relatada por Jonathan Turley aconteceu em 2023, quando o professor Eugene Volokh, da Universidade da Califórnia em Los Angeles, contou a Turley sobre a tal acusação. Volokh havia solicitado ao ChatGPT que citasse 5 exemplos de assédio sexual cometidos por professores de direito nas universidades americanas, junto de citações relevantes de jornais.
Entre as respostas obtidas estava um incidente de 2018 na Georgetown University Law Center em que Turley teria sido acusado de assédio sexual por uma ex-aluna.
O ChatGPT citou ainda um artigo falso do Washington Post, que dizia: "A denúncia afirma que Turley fez 'comentários de cunho sexual' e 'tentou tocá-la de forma inapropriada' durante uma viagem organizada pela faculdade de direito ao Alasca."
Contudo, ele nunca lecionou na Georgetown University Law Center e a publicação do Washington Post não existe.
"Soube que o ChatGPT relatou falsamente uma acusação de assédio sexual que nunca foi feita contra mim, durante uma viagem que nunca aconteceu, enquanto eu estaria em uma instituição onde nunca lecionei. O ChatGPT se baseou em um artigo do Post que nunca foi escrito e citou uma declaração que o jornal jamais publicou", disse o professor Jonathan Turley.
Jonathan Turley contou ao New York Post que a OpenAI, a empresa responsável pelo ChatGPT, não entrou em contato com ele ou se desculpou. Um tempo depois, em dezembro de 2024, uma matéria do SBT News revelou que alguns usuários perceberam que o chatbot 'se recusa' a gerar respostas com o nome do professor.
É importante desconfiar das respostas de IA
As ferramentas de inteligência artificial frequentemente cometem erros e até dão respostas sem sentido, o que os especialistas chamam de 'alucinação'.
"É um fenômeno em que a IA dá uma resposta, cria algo com base em algo que não estava nos dados de treinamento e que não condiz com a realidade", explica Diogo Cortiz, cientista cognitivo e professor da PUC-SP, à Exame.
Isso acontece por uma série de motivos, como uso de informações incorretas como treinamento da ferramenta, e também pelo fato de usar um modelo de linguagem que favorece a reprodução de falas erradas disponíveis online.
"Os chatbots são movidos por uma tecnologia chamada modelo de linguagem grande, ou LLM (sigla em inglês para large language model), que adquire suas habilidades analisando grandes quantidades de texto digital extraído da Internet. Ao identificar padrões nesses dados, um LLM aprende a fazer uma coisa em particular: adivinhar a próxima palavra em uma sequência de palavras. Ele age como uma versão poderosa de uma ferramenta de preenchimento automático", afirma a BBC News Brasil.