Escola Politécnica

Formando engenheiros e líderes

 

 

[Imagem: Acervo pessoal]

 

A pesquisadora Francielly Vargas defendeu a sua tese, nomeada Socially Responsible and Explainable Automated Fact-Checking and Hate Speech Detection, em novembro de 2024 no Instituto de Ciências Matemáticas e de Computação (ICMC) da USP em novembro de 2024. O estudo buscava desenvolver uma ferramenta de Inteligência Artificial mais transparente, originando o desenvolvimento de uma tecnologia capaz de analisar comentários suspeitos na internet e revelar, em segundos, se eles são falsos ou se promovem algum tipo de discurso de ódio.

 

Mesmo na Era da Desinformação, os atuais sistemas de verificação de fatos carecem de transparência, uma vez que não revelam os critérios de classificação utilizados, mecanismos denominados de “caixas-preta”. A ideia de Francielle foi tornar esse método de rotulação mais acessível ao público, uma vez que a transparência gera aumento de confiabilidade e auxilia a construir uma sociedade mais crítica e consciente. 

 

Para alcançar o seu objetivo, a pesquisadora encarou o desafio de criar uma base de dados, que contou com o apoio de duas colegas doutoras na área de Ciências de Dados e IA: Isabelle Carvalho e Fabiana Goés. Ao longo de seis meses, as três rotularam manualmente 7 mil comentários do Instagram. O feito resultou na criação do primeiro banco de dados brasileiro voltado exclusivamente para a detecção de discurso de ódio, o HateBR.

 

Além de prezar pela transparência tecnológica, Francielle conduziu a sua pesquisa através da estratégia da diversidade. O método servia para reduzir o risco de viés de interpretações dos comentários feitos pela IA, isto é, a ferramenta reproduzir preferências pessoais de um determinado grupo de anotadores. Essa abordagem garantiu ao estudo a realização de uma análise mais representativa e equilibrada, contanto com perfis de pesquisadoras mulheres de diferentes regiões e trajetórias de vida do país. 

 

Após desenvolver uma base de dados robusta, a pesquisadora criou três novos métodos que explicam a verificação de fatos e a detecção de discursos de ódio: 

  1. Sentence Level Factual Reasoning (SELFAR): método que classifica a confiabilidade e a factualidade de artigos de notícias e postagens na internet no nível da sentença, gerando explicações para as classificações.
  2. Social Stereotype Analysis (SSA): ferramenta que detecta estereótipos em classificadores de IA, comparando frases com e sem viés social. 
  3. Bag-of-Words Contextualizado com Feature Saliency  (B+M): este método identifica as palavras mais relevantes para a classificação de um texto, como discurso de ódio ou fake news.

 

Francielle Vargas também é a pesquisadora responsável pela criação do sistema web Brasil#SemÓdio. O mecanismo utiliza conhecimentos estatísticos e de especialistas para classificar comentários ofensivos em três diferentes níveis, sendo: levemente, moderadamente e altamente ofensivo.