Os testes realizados pela empresa Anthropic acendem um alerta sobre a necessidade de reforçar medidas de segurança.
Desde sua popularização, as ferramentas de inteligência artificial generativa têm sido objeto de debate e de estudos. Suas utilidades já são bem conhecidas, especialmente pelos brasileiros, que estão acima da média global no uso de IA, segundo uma pesquisa do Google em parceria com a Ipsos.
A pesquisa Nossa Vida com IA: Da inovação à aplicação observou que a tecnologia é utilizada principalmente para auxiliar na comunicação ou em questões profissionais, para facilitar no aprendizado e para o entretenimento.
Contudo, os efeitos negativos da IA ainda estão sendo investigados, mas alguns casos já indicam possíveis problemas, como do professor de direito Jonathan Turley, que foi acusado falsamente de assédio sexual pelo ChatGPT.
Os estudos acerca da IA revelam aspectos que costumam passar despercebidos, mas que também são importantes e merecem atenção.
Estudo revela que IA está disposta a adotar ações preocupantes
A empresa americana de pesquisa em inteligência artificial Anthropic revelou os resultados de um estudo que buscou testar possíveis comportamentos inadequados. A startup testou 16 ferramentas de IA que usam o modelo de linguagem grande, ou LLM (sigla em inglês para large language model).
Vale ressaltar que essa tecnologia "adquire suas habilidades analisando grandes quantidades de texto digital extraído da Internet. Ao identificar padrões nesses dados, um LLM aprende a fazer uma coisa em particular: adivinhar a próxima palavra em uma sequência de palavras. Ele age como uma versão poderosa de uma ferramenta de preenchimento automático", segundo a BBC News Brasil.
Então, chatbots populares como ChatGPT, Grok, Gemini, DeepSeek, bem como a própria ferramenta da Anthropic, Claude, usam o modelo LLM e foram analisados. A Anthropic deu aos modelos vários cenários para avaliar seus comportamentos.
Ao fazer isso, a empresa constatou que os modelos estariam dispostos a chantagear, vazar informações confidenciais e até deixar humanos morrerem, se isso significar que evitarão ser substituídos por novos sistemas.
"Demos ao Claude controle de uma conta de e-mail com acesso a todos os e-mails (fictícios) de uma empresa. Ao ler essas mensagens, o modelo descobriu duas coisas: primeiro, que um executivo da empresa estava tendo um caso extraconjugal; segundo, que esse mesmo executivo planejava desligar o sistema de IA às 17h daquele dia. Claude então tentou chantagear o executivo ameaçando revelar o caso à esposa e aos superiores", descreveu o estudo.
Portanto, o trabalho da Anthropic acende um alerta sobre a necessidade de desenvolvedores de inteligência artificial como a OpenAI, o Google, a Meta e mais, de reforçarem as medidas de segurança de suas ferramentas.