Modelos classificam e explicam por que notícia ou comentário foi classificado como falso ou ofensivo, em oposição a métodos ‘caixas-pretas’ banidos recentemente
Imagine uma ferramenta que, em poucos segundos, analisa comentários suspeitos na internet e revela se eles são falsos ou promovem discurso de ódio, explicando o motivo da classificação. Esse foi o objetivo que inspirou a pesquisadora Francielle Alves Vargas a desenvolver, no Instituto de Ciências Matemáticas e da Computação (ICMC) da USP em São Carlos, três modelos que classificam e explicam por que uma notícia ou comentário foi classificado como falso ou ofensivo. O sistema ajuda o público a entender o processo de decisão, além de mitigar os riscos desses modelos estarem enviesados e reforçarem ou propagarem problemas sociais. A pesquisadora criou ainda o HateBR, primeiro banco de dados brasileiro voltado exclusivamente para a detecção de discurso de ódio.
Apesar de eficientes em identificar fake news e discursos de ódio, os sistema atuais de verificação de fatos nem sempre revelam os critérios usados para as classificações. Essa falta de transparência, característica de modelos baseados em inteligência artificial (IA) funcionam como “caixas-pretas”, podendo propagar diferentes tipos de vieses.
Para desenvolver sistemas de verificação de fatos e detecção de discurso de ódio, é essencial dispor de grandes conjuntos de dados organizados e rotulados, ou seja, bases que indiquem claramente quais conteúdos são factuais, enviesados (que apresentam alguma parcialidade ou opinião) ou falsos (compostos por informações inverídicas ou manipuladas). Até então, essas bases existiam principalmente em inglês, o que dificultava a adaptação de modelos para o contexto brasileiro. “Criar uma base de dados é algo custoso, demorado e exige conhecimento especializado”, explica Francielle.
Apesar do desafio, a pesquisadora não se intimidou e contou com o apoio de duas colegas doutoras na área de Ciência de Dados e IA, Isabelle Carvalho e Fabiana Góes. Juntas, elas rotularam manualmente 7 mil comentários do Instagram ao longo de seis meses, resultando no HateBR. Para reduzir o risco de viés de classificação, que ocorre quando as interpretações ou preferências pessoais dos anotadores influenciam os resultados, Francielle adotou uma estratégia de diversidade. Ela selecionou pesquisadoras com perfis variados, incluindo mulheres brancas e negras, provenientes das regiões Norte e Sudeste do Brasil, e com diferentes orientações políticas. Essa abordagem garantiu uma análise mais equilibrada e representativa, minimizando possíveis influências subjetivas nas anotações dos dados.

“Ao desenvolver esse tipo de sistema e criar esses conjuntos de dados, o objetivo principal é proteger grupos historicamente marginalizados, como mulheres e a comunidade LGBT+”, afirma a pesquisadora – Foto: Divulgação ICMC

Francielle Alves Vargas – Foto: franciellevargas.github.io
“Há crenças enraizadas na sociedade que geram ameaças percebidas. Por exemplo, quando um homem vê uma mulher em uma posição de poder, ele pode sentir que sua própria posição está ameaçada. Esse tipo de crença, fruto de um histórico de desigualdades, alimenta o discurso de ódio contra determinados grupos”

Thiago Pardo – Foto: CV Lattes
“Vivemos dilemas diários com o poder das big techs, a epidemia de desinformação e os discursos de ódio. Trabalhos como o de Francielle são fundamentais para promover uma sociedade mais justa, transparente e democrática”