COI cria IA para identificar discurso de ódio contra atletas nas Olimpíadas de Paris

Rafael Almeida Por Rafael Almeida
3 min de leitura
Foto destaque: Olimpíadas de Paris contam com recurso de IA para combater ódio online (Reprodução/FABRICE COFFRINI/AFP/Getty Images Embed)

De acordo com o Comitê Olímpico Internacional (COI), mais de meio bilhão de postagens devem ser feitas nas redes sociais durante os Jogos Olímpicos. No entanto, mesmo que a maioria seja esperada para apoiar os atletas, experiências com edições anteriores dos Jogos fizeram os organizadores se prepararem para a ocorrência de ataques pessoais e discursos de ódio contra os participantes.

Plataformas vem ganhando espaço

Isso vem em um momento em que o mundo se torna cada vez mais enraizado na internet, e essas plataformas passam a ter cada vez mais espaço, principalmente no contexto de grandes eventos.

“Há tantas oportunidades fantásticas para o engajamento de atletas, mas infelizmente a violência online é inevitável, particularmente quando os atletas dependem das mídias sociais para seus perfis”

Kirsty Burrows, chefe da Unidade de Esporte Seguro do COI, em comunicado à imprensa

Com isso em mente, a Comissão de Atletas e a Comissão Médica e Científica do COI decidiram desenvolver um sistema baseado em inteligência artificial com a capacidade de identificar e sinalizar qualquer possível ameaça feita aos atletas e suas equipes. O sistema, chamado “Threat Matrix”, funciona em 35 idiomas e teve seu primeiro teste durante a Semana dos Esportes Olímpicos de 2023.


Ódio online vem sendo tema importante para o COI durante jogos de Paris (Foto: reprodução/Getty Images News/Pierre Crom/Getty Images Embed)


Sistema de vem com recursos avançados

O sistema de IA é de fácil configuração e vai além de identificar palavras ou frases nocivas, como xingamentos ou insultos racistas, xenofóbicos ou sexistas. Isso é necessário em um mundo em que a linguagem nas redes sociais está se tornando cada vez mais sutil.

Os grandes modelos de linguagem, como o GPT, já conseguem identificar sentimentos e interações por trás dos textos, mesmo que muitas vezes não sejam escritos de forma explícita. O sistema do COI foi treinado com esse propósito em mente.

O processo, no entanto, não é totalmente automatizado. Após identificar as postagens problemáticas, a Threat Matrix apresenta o material para uma equipe de revisores humanos, que assumem a responsabilidade de implementar ações. Essas ações podem variar desde a remoção do conteúdo nas plataformas até medidas mais severas, dependendo do caso. Isso é possível graças à capacidade do sistema de identificar o autor das postagens, retirando-o do anonimato da internet.

Deixe um comentário

Deixe um comentário Cancelar resposta

Sair da versão mobile