Meta enfrenta proibição do governo brasileiro sobre dados para IA

A ANPD (Autoridade Nacional de Proteção de Dados Pessoais), órgão do governo brasileiro, ordenou que a Meta (proprietária do Facebook, Instagram e WhatsApp) pare de utilizar dados de seus usuários para treinar inteligência artificial (IA). Um dos principais motivos é a preocupação com a proteção dos dados pessoais dos cidadãos brasileiros. 

A ordem foi emitida recentemente e publicada hoje (2) no Diário Oficial da União(DOU). A decisão aplica-se a todas as operações da Meta no Brasil. A Meta terá que suspender a coleta e uso de dados dos usuários para treinar suas IAs até que ajuste suas práticas de acordo com a legislação brasileira.

Meta usou dados sem consentimento

A Meta estava utilizando posts, mensagens e interações dos usuários para melhorar seus algoritmos de inteligência artificial (IA), sem ao menos informar aos usuários que suas contas e informações estavam sendo usadas para esse propósito. Além disso, a empresa não forneceu informações detalhadas sobre como e onde essa ferramenta seria utilizada, o que levanta questões de consentimento e transparência.


Meta poderá pagar até 50mil reais por dia se nao cumprir lei (Foto: reprodução/pixabay)

Meta sob pressão para reavaliar práticas

O governo brasileiro decidiu que a Meta precisa reavaliar suas práticas de coleta e uso de dados no Brasil. Enquanto isso, suas atividades de treinamento de IA estão suspensas e, caso haja descumprimento, a empresa estará sujeita a uma multa de 50 mil reais por dia. A Meta terá que apresentar um plano ao governo em até 5 dias após a data de publicação do documento, explicando como vai cumprir essa ordem sem violar os direitos dos usuários e cumprindo as leis brasileiras de proteção de dados.

Em nota, a Meta afirmou estar desapontada com a decisão da ANPD, alegando que já cumpre com as leis de privacidade e regulamentações no Brasil. A empresa declarou que continuará a trabalhar com a ANPD para esclarecer suas dúvidas e concluiu que a decisão do governo é um retrocesso para a inovação e a competitividade no desenvolvimento de IA, atrasando a chegada dos benefícios da IA para a população brasileira.

ChatGPT passa por instabilidade na última terça-feira

Na ultima terça-feira (4), a inteligência artificial desenvolvida pela OpenAI, o ChatGPT, passou por uma instabilidade por aproximadamente cinco horas e meia. Usuários relataram que ao executar um comando, recebiam a mensagem dizendo que o ChatGPT estava sobrecarregado (“ChatGPT is at capacity right now”).

Usuários orientados a relatar o problema

Para identificar se o problema era algo generalizado ou especifico em alguns dispositivos, a orientação para os usuários era de que relatassem o problema no DownDetector, site onde é possível relatar diversos problemas de quaisquer sites ou aplicativos, ou utilizar o “OpenAI Status”, ferramenta fornecida pela própria OpenAI, que oferece informações sobre quedas em seus servidores.

Além de relatar os problemas, o OpenAI Status fornece estatísticas detalhadas sobre os serviços ao longo do tempo incluindo a porcentagem de tempo em que ocorreram problemas nos últimos 3 meses e a causa de suas sobrecargas. A falha ocorrida no último dia 4 foi categorizada como uma “Major Outage” (grande interrupção).


ChatGPT4 (Foto: Reprodução/Anadolu/Getty Images Embed)


Causa da instabilidade

A interrupção foi causada por mudanças recentes na plataforma, já que em março foi lançada a atualização no ChatGPT-4, incluindo melhorias na capacidade de processamento para geração de textos longos, multimodalidade (capacidade de compreender informações além de texto, como imagem e voz), além de correções como modernização da linguagem. No entanto, a atualização foi marcada por controvérsias, devido ao uso não autorizado de uma voz que se assemelhava a da atriz Scarlett Johansson (famosa por interpretar a personagem Viúva Negra na saga Os Vingadores, da Marvel) o que fez com que a ferramenta alterasse a voz, após a atriz se manifestar publicamente contra o uso não autorizado de sua voz, e a rejeição do convite para dublar a IA.

Essas instabilidades mostram a importância de ferramentas de monitoramento e comunicação transparente por parte das empresas de produtos de IA, e a forma como lidam com problemas técnicos para que possam garantir uma experiência mais confiável e satisfatória aos usuários.