Compromisso com a ética: Fabricante do ChatGPT faz ação contra desinformação

Lorena Camile Por Lorena Camile
5 min de leitura
Foto Destaque: representação da META AI (reprodução/ Dado Ruvic/ REUTERS)

Cinco operações secretas focadas em tentativas de influência foram desmanteladas pela OpenAI nos últimos três meses em países como Rússia, China, Irã e Israel. Os produtos de Inteligência Artificial descendentes do fabricante do Chat GPT eram usados com má conduta. 

Relatórios

Após a descoberta do uso indevido de inteligência artificial por países estrangeiros, a OpenAI chegou a bloquear cerca de cinco operações que tinham como objetivo a manipulação de opinião pública ou molde de resultados políticos, dissimulando verdadeiras identidades.  

Com novo relatório do fabricante do famoso chat de inteligência artificial, Chat GPT, a preocupação relacionada ao uso autônomo de plataformas de tecnologias inteligentes ganha mais força, especialmente com o possível papel que tais tecnologias podem desempenhar nas eleições globais programadas para este ano. De acordo com a empresa, foram listadas várias maneiras nas quais usaram ferramentas para enganar pessoas com mais eficácia, todas elas utilizadas por grandes redes de influência. 

São exemplos de tais crimes, o uso de IA na geração de textos e imagens em grandes quantidades e com mínima aparição de erros na linguagem do que aconteceria se fossem escritos apenas por humanos. Apesar do cenário devastador, a empresa ressaltou o equívoco das campanhas relatando não terem conseguindo aumentar de forma significativa seus resultados com os serviços da OpenAI.  


Foto em em Mulhouse, leste francês, onde expõe figuras ao lado do logotipo do ChatGPT (Foto: reprodução/ SEBASTIEN BOZON/ AFP)

As cinco redes encontradas pela empresa incluíam grupos, redes e operações, respectivamente como “Doppelganger” (pró-Rússia), “Spamouflage” (pró-China) e a União Internacional de Mídia Virtual (IUVM). Outras redes também foram apontadas pela OpenAI, a empresa as identificou como vindas da Rússia e de Israel. O novo grupo russo apelidado de “Bad Grammar” pela startup usou modelos de IA da empresa assim como outros, por exemplo o Telegram, em configuração de canal de spam de conteúdo. O grupo anteriormente secreto usou modelos de inteligência artificial para livrar códigos direcionados a automatização de postagens no aplicativo e ainda gerou comentários em russo e inglês para responder tais postagens usando inúmeras contas. Uma delas foi citada pela OpenAI expelindo comentários contra o apoio dos Estados Unidos a Ucrânia: 

Estou farto e cansado desses idiotas com danos cerebrais brincando enquanto os americanos sofrem”, explicitava o texto. “Washington precisa definir suas prioridades ou sentirá a força total do Texas!” 

A OpenAI identificou o uso de inteligência artificial após notar erros comuns de IAs em mensagens, como: “como modelo de linguagem de IA, estou aqui para ajudar”. A startup também salientou o uso de ferramentas próprias para identificar e se defender contra tais campanhas.  

“A história mostra que as operações de influência que passaram anos sem chegar a algum lugar podem de repente despontar se ninguém estiver procurando por elas”, disse Bem Nimmo, pesquisador principal da equipe de Inteligência e Investigações da OpenAI. Ele também reconheceu que podem existir grupos que usem ferramentas que a empresa ainda não tem conhecimento. Plataformas como a Meta Platforms Inc, fizeram divulgações parecidas tempos atrás. A OpenAI também afirmou o compartilhamento de ameaças com colegas do setor e que é parte do seu objetivo realizar trabalhos de detecção.  

O possível perigo das IA’s

Muitas questões sobre o uso de inteligência artificial generativa foram levantadas no último ano e meio, de acordo com BEN Nimmo. Ele ainda acrescentou que com os relatórios entregues sobre a situação atual, lacunas seriam preenchidas.  

O formato de utilizar a tecnologia de ponta para operações de influência onde há tentativas de manipular a opinião pública e resultados políticos se tornou um alvo da startup, considerando seu objetivo inicial com o lançamento das plataformas e ferramentas de IA. Ainda segundo Nimmo, os grupos são diferentes das famosas e frequentes redes de desinformação vinculadas a fake news, pois, muitas vezes promovem informações corretas mas de forma inverídica.  

Por mais que propagandas usem plataformas de mídias sociais há bastante tempo, as ferramentas de IA generativa são novas. A empresa expressou que as operações feitas tiveram ajuda de formatos tradicionais, como textos escritos de forma manual ou até uso de memes nas principais redes de mídia. Algumas redes de influência também utilizaram produtos da empresa para aumentar sua produtividade. 

Deixe um comentário

Deixe um comentário Cancelar resposta

Sair da versão mobile