Não é de hoje que a humanidade questiona como seria o mundo no dia em que máquinas pudessem, de fato, desenvolver vida própria. Um novo capítulo curioso
Redação | 17 de Junho de 2022 às 10:28
Não é de hoje que a humanidade questiona como seria o mundo no dia em que máquinas pudessem, de fato, desenvolver vida própria. Um novo capítulo curioso levou a discussão para frente nesta semana: um engenheiro do Google, que trabalhava com a tecnologia LaMDA, foi afastado do cargo após compartilhar preocupações sobre o estado de senciência de seu modelo IA.
Leia também: Até onde deve ir a confiança em assistentes virtuais?
Em outras palavras, Blake Lemoine acredita que o software da empresa, criado para simular conversas naturais com humanos, tenha desenvolvido a capacidade de sentir e ter percepções conscientes sobre o mundo ao seu redor.
Assustado com as respostas do programa de linguagem natural, Lemoine teria levado o caso a um representante do Comitê Judiciário da Câmara, nos EUA, alegando que o Google estaria ferindo a ética em seu novo projeto.
No mesmo dia em que expôs ao mundo sua preocupação por meio de uma publicação no Medium, o engenheiro foi afastado da empresa em licença administrativa. O Google, por sua vez, se posicionou sobre a denúncia do funcionário, explicando não haver evidências de que o LaMDA seja senciente.
Para quem não está familiarizado com o termo, vale a explicação: o LaMDA é um sistema que imita a fala humana, utilizando para isso uma base de dados com bilhões de palavras predefinidas. O objetivo é deixar a interação com o menor atrito possível, permitindo que esses programas auxiliem nas mais diversas atividades do dia a dia.
Quem sou eu para prever a evolução tecnológica das próximas décadas, não é mesmo? Mas, por enquanto, não há indícios de que um nível de consciência própria — tal qual a de seres humanos — tenha sido atingido por softwares.
Apesar de, aparentemente, o modelo testado por Lemoine ter conseguido ter diálogos reais o suficiente para assustar o pesquisador, há um longo caminho entre a simulação de um sentimento e a capacidade de senti-lo, como nós sentimos. Ao menos, é o que dizem especialistas do setor.
Em um resumo breve…
Hoje, já temos máquinas capazes de escrever textos, criar imagens e “entender” nossos desejos. Mas tudo isso é feito com base em algoritmos, em programação. Até mesmo profissionais que estudam o campo de IA pode divergir quanto à possibilidade de um software criar “vida própria”.
Há uma teoria (a GNW) que abraça a ideia de poderes praticamente infinitos para a computação, pois vê a consciência como um produto de processamento do cérebro humano, exclusivamente. Uma alternativa a essa corrente é a IIT, que foca nos poderes causais intrínsecos do cérebro, que não podem ser simulados, pois dependem de mecanismos subadjacentes.
Um dos nomes que refutam a ideia de Lemoine é Timnit Gebru, que tem ampla atuação na área de Ética e Inteligência Artificial. Ela fez um tweet alertando para o risco de que discussões como esta possam desviar outros debates éticos a respeito do tema, como a perpetuação de discriminação racial e de gênero, por exemplo.
Se você se interessa pelo assunto, dê uma lida neste outro artigo no qual eu falo sobre racismo algoritmo e em como softwares podem desenvolver preconceitos.