Google Assistente vai alertar sobre machismo e homofobia em comandos de voz

Sim, o Google sabe quando você reproduz comportamentos machistas ou homofóbicos. A empresa anunciou recentemente que vai passar a alertar quando um

Redação | 13 de Maio de 2022 às 09:31

Assistente virtual (Imagem: VectorMine/iStock) -

Sim, o Google sabe quando você reproduz comportamentos machistas ou homofóbicos. A empresa anunciou recentemente que vai passar a alertar quando um comando de voz dado ao seu assistente virtual tiver termos que evidenciem preconceito de gênero.

Leia também: Assédio no metaverso: velhos problemas migram para a realidade do futuro

O objetivo é desencorajar qualquer tipo de violência de gênero na sociedade, repreendendo mensagens abusivas e educando os usuários sobre palavras e frases que remetam a assédio.

O Google conta que, no Brasil, centenas de milhares de mensagens com comandos abusivos chegam ao Assistente todo mês — grande parte delas contém violência de gênero.

RELACIONADAS

Quer fazer um intercâmbio? Veja como conseguir bolsa de apoio

Corte de cabelo para dar leveza: 4 ideias para deixar seus fios leves e despojados

6 séries turcas que devem chegar à Netflix em 2025

“Um exemplo são os pedidos para ‘mandar nudes’. Embora isso possa até ser visto por alguns como uma ‘brincadeira’, por se tratar de uma conversa com a voz do aplicativo, não podemos ignorar que essa abordagem também reforça a ideia de que algumas pessoas, especialmente as mulheres, podem ter a sua intimidade invadida. No mundo real, isso é considerado uma forma de assédio. Por isso, o Google Assistente está se posicionando de maneira incisiva contra esse tipo de comportamento”, disse Maia Mau, Head de Marketing do Google Assistente para a América Latina.

Novas respostas para o Google Assistente

Com a atualização, o software de inteligência artificial terá novas respostas pré-configuradas, que serão ativadas quando houve um insulto ou uso de termos indevidos relacionados a assédio.

As respostas vão se adaptar ao nível de abuso. Segundo o Google, ofensas explícitas, como palavrões ou falas misóginas, homofóbicas, racistas ou de cunho sexual explícito, podem ser respondidas de forma instrutiva. Um exemplo seria a seguinte frase: “O respeito é fundamental em todas as relações, inclusive na nossa”.

Em alguns casos, o assistente virtual também poderá repreender o usuário: “Não fale assim comigo”.

Mensagens “mais brandas”, que não têm ofensas explícitas, mas podem representar uma conduta inapropriada socialmente, também pode ser rebatida.

Por exemplo: se o Assistente recebe uma proposta de namoro ou casamento, ele poderá dar um “fora” bem-humorado, ou mesmo alertar sobre o incômodo daquela fala.

Tom de voz “feminino” é mais assediado

É isso: nem mesmo um software tem paz se ele for identificado de alguma forma como “mulher”. O Google compartilhou uma pesquisa que afirma que um a cada seis insultos são destinados ao tom de voz que soa como “feminino”.

Além disso, perguntas relacionadas a aparência física (como: “Você é bonita?”) também são mais direcionadas à voz associada a de uma mulher. Já tons de voz masculinos recebem mensagens homofóbicas com maior frequência — cerca de uma a cada dez ofensas.

Compartilhe: