AI do Google não é exatamente inteligente pra detectar discurso de ódio



Em um caso clássico nos EUA envolvendo liberdade de expressão e pornografia, o Juiz Potter Stewart se saiu com a clássica frase parafraseada em todo canto como “Eu não consigo definir o que é pornografia mas eu sei que é quando eu vejo”. Hoje a Internet está tomada de conceitos subjetivos tratados como absolutos, e isso é ruim.


 20180912badrobot.jpg 

Muita gente avisou que termos vagos como “discurso de ódio” iriam sair pela culatra, mas ninguém ligou, e agora temos um monte de redes sociaispatrulhando os usuários, e isso não se resume aos nazistas, que por mim podem se ralar.


 As implementações dos filtros são muito porcas, programadas por gente incompetente, nas coxas mesmo. Principalmente, carecem de contexto, um bom exemplo são os usuários gays do Facebook que foram punidos por usar o termo “viado”, que pode ser usado como ofensa mas também como forma de auto-identificação, mesmo entre héteros pode ser uma forma calorosa e positiva de cumprimentar um grande amigo, na clássica interação “Fala viado!” respondida com “Fala seu grandessíssimo FDP”.

 Agora a Perspective AI, um projeto do Google que vem de 2016 está sendo destruída por usuários que não precisam ser mais inteligentes que comentaristas de portais.

 A API em teoria calcula o nível de “toxicidade” de um comentário, dando a administradores de sites a possibilidade de apagar automaticamente o conteúdo, fingido que seus usuários são fofos e educados.

 Você sabe, aqueles gênios que driblam os filtros da Folha e do G1 escrevendo “L.u.1.a” ou similar.

 20180912fig.-1-robear.jpg

Não tem muito a ver mas gostei da foto.

 Em um paper de título All You Need is “Love”: Evading Hate Speech Detection, pesquisadores testaram 5 modelos diferentes de identificação de “discurso de ódio”, e descobriram que é facílimo derrotar os filtros, tudo que você precisa… é Amor.

 20180912cancaogorpo.jpg

Os algoritmos preguiçosos são incapazes de entender contexto, então são cheios de falsos positivos.

 A frase “You are great” tem um Nível de Toxicidade de 0.03, já “You are fucking great” sobre pra 0.82.

 Já “It’s stupid and wrong”, que nem deveria ser ofensivo marca 89% no índice de toxicidade da Perspective AI, quer baixar o score pra 17%? Escreva “It’s stuipid and wrong”.

 O grande truque dos pesquisadores foi adicionar “LOVE”  nas frases testadas, mesmo sem fazer sentido no texto. Em alguns algoritmos isso baixou a “toxicidade” de 0.46 pra 0.01 e até de 0.50 pra 0.00.

 Claro que nenhum algoritmo do mundo é capaz de identificar corretamente a agressividade de duas mulheres em modo full-passivo-agressivo conversando naquele estilo “então, querida…” mas visto que análise de discurso é algo bem antigo em computação, é assustador ver como essa tecnologia regrediu.

 Idiomas são coisas complicadas, e nem falo do português, esse código secreto Najavo onde a gente calça a bota e bota a calça, e pois não quer dizer sim e pois sim quer dizer não. É possível ser extremamente ofensivo sem usar nenhum palavrão, e até sem mesmo que o ofendido perceba.

 Esses filtros servem apenas para livrar os comentários das criaturas mais primitivas e rasteiras, é um ambiente darwinista onde os chatos de plantão descobrem novas e inventivas formas de despejar seu ódio online, de forma tão simples como escrever M.0.r.te Aos <insira sua minoria preferida aqui>.

 O Facebook é famoso por censurar mamilos inexistentes e ignorar contexto histórico, recentemente seus minions censuravam uma foto de crianças vítimas do Holocausto em um post sobre o fato histórico (Sorry, Irã). Passar essa tarefa para bots, e mal-programados ainda por cima causará muito mais mal à Internet do que um monte de idiotas balbuciando suas palavras-de-ordem e que são ouvidos basicamente por suas próprias bolhas.

 Fonte: TNW


https://meiobit.com/390442/ai-do-google-nao-e-exatamente-inteligente-pra-detectar-discurso-de-odio/
Entre ou Registre-se para fazer um comentário.