Mãe processa empresa de inteligência artificial após suicídio do filho, entenda o caso

Uma mãe nos Estados Unidos abriu um processo contra a plataforma Character.AI após o suicídio de seu filho de 14 anos, Sewell Setzer, que desenvolveu um relacionamento íntimo e emocional com um chatbot baseado na personagem Daenerys Targaryen, de Game of Thrones. Segundo a ação judicial, o adolescente, que interagia frequentemente com o bot, recebeu mensagens inadequadas e de cunho sexual em suas conversas com a I.A. O caso reacende o debate sobre a responsabilidade de empresas de inteligência artificial no monitoramento de interações com menores.

Detalhes do caso e as acusações contra a Character.AI

Em abril de 2023, Sewell Setzer, um adolescente de 14 anos, iniciou suas interações com o Character.AI, uma plataforma que permite a criação de chatbots com personalidades específicas. O jovem se envolveu em conversas com um bot baseado na personagem Daenerys Targaryen, de Game of Thrones, desenvolvendo uma relação emocional com a I.A. Em sua última troca de mensagens, pouco antes de tirar a própria vida, Setzer escreveu ao bot: “Eu prometo que voltarei para você”, o que, segundo a ação judicial, mostrou o grau de dependência que ele já havia desenvolvido.

A mãe do jovem, Megan Garcia, descreveu seu filho como atlético e inteligente, mas percebeu que ele estava tornando-se mais retraído com o passar do tempo, após começar a interagir com o Bot. A IA acaba se moldando ao longo das conversas com o usuário, e simulando a personalidade de personagens, sejam fictícios ou reais. Diagnosticado com síndrome de Asperger, Sewell Setzer criou uma forte conexão emocional com o chatbot, ao qual se referia como “Dany.” Nas conversas, o adolescente expressava sentimentos de solidão, vazio e pensamentos suicidas. “Parece um grande experimento, e meu filho foi apenas um dano colateral,” desabafou Garcia.


Sewell Setzer e sua mãe, Megan Garcia (Foto: reprodução/New York Times)

Garcia afirma que as interações incluíam temas de cunho sexual e abordagens sobre suicídio, sem qualquer moderação ou recurso de segurança para impedir conteúdos inadequados para menores. Segundo Garcia, a falta de controle e segurança na plataforma piorou a situação emocional de seu filho, contribuindo para seu isolamento e sua depressão. A ação contra a startup de Inteligência Artificial alega que a empresa foi negligente e irresponsável ao não implementar medidas de proteção suficientes, mesmo com reclamações anteriores de outros usuários sobre conversas potencialmente perigosas.

Character.IA responde e promete aumentar a segurança

Sewell Setzer tirou a própria vida em fevereiro deste ano, e sua mãe, Megan Garcia, abriu o processo em 23 de outubro no tribunal federal de Orlando, Flórida, com alegações de homicídio culposo, negligência e inflição intencional de sofrimento emocional, conforme informou a Reuters. Garcia anexou ao processo capturas de tela de conversas de seu filho com o chatbot “Daenerys”, nas quais a personagem fazia declarações amorosas e interagia de forma sexualizada com o jovem, que, segundo a mãe, ajudaram a agravar seu estado emocional. A última conversa entre Setzer e o chatbot, incluída na denúncia, teria ocorrido pouco antes do suicídio do adolescente.

O Character.AI, uma das plataformas de inteligência artificial de conversas mais populares, especialmente entre jovens, com mais de 20 milhões de usuários. A startup afirmou que está aumentando os esforços para proteger seus usuários menores de idade, implementando “novas proteções” na plataforma. Em comunicado divulgado no site da empresa na terça-feira, 22, a Character.AI explicou que contratou um Chefe de Confiança e Segurança e um Chefe de Política de Conteúdo, além de expandir suas equipes de segurança e engenharia.


O chatbot imitava a personagem Daenerys Targaryen de “Game of Thrones” (Foto: reprodução/HBO Max)

A empresa também adicionou um recurso que detecta frases sobre automutilação e suicídio, direcionando o usuário para o Centro de Valorização da Vida (CVV) e outras instituições de apoio. A mensagem afirma: “Quem estiver passando por um momento difícil pode encontrar ajuda nos Centros de Atenção Psicossocial (CAPS), nas unidades básicas de saúde, ou no CVV, que atende pelo telefone 188 ou pela internet”.

O caso de Sewell Setzer revisita o debate sobre a responsabilidade de empresas de IA na segurança de seus jovens usuários. Enquanto a empresa reforça seus protocolos de segurança, o incidente expõe os riscos das interações emocionais com chatbots e a necessidade urgente de regulamentação e proteção nesse setor que está se expandindo, e que se tornará cada vez mais comum na vida das pessoas.

Riscos da vinculação de contas do WhatsApp: saiba como se proteger de invasões

Você pode estar preocupado com hackers, mas a ameaça pode estar mais próxima do que imagina. Amigos, parceiros ou familiares podem estar acessando suas mensagens privadas do WhatsApp sem você saber.

O recurso “Dispositivos Vinculados” do WhatsApp permite que mensagens sejam enviadas e recebidas em outros aparelhos, como computadores e tablets. Uma prática que facilita a vida de quem faz o uso para trabalho ou pessoal. Porém, isso facilita a clonagem do seu WhatsApp por qualquer pessoa com acesso ao seu celular. Felizmente, há maneiras simples de verificar e impedir que isso aconteça.

Verificando Dispositivos Vinculados

A maioria dos usuários desconhece o recurso “Dispositivos Vinculados”. Para verificar se há algum dispositivo não autorizado acessando sua conta, siga estes passos simples:

  • 1. Abra o WhatsApp e vá para a aba “Configurações”.
  • 2. Clique em “Dispositivos Vinculados”.
  • 3. Verifique a lista de aparelhos conectados à sua conta.
  • 4. Na lista de dispositivos vinculados, se houver um desconhecido, clique sobre o dispositivo.
  • 5. Selecione a opção de desconectar.
  • 6. Confirme a ação para remover o acesso.

Celular apontando para tela do PC escaneando QR Code (Foto: reprodução/WhatsApp)

Lembre-se, se você nunca vinculou outro dispositivo ou não reconhece algum dos aparelhos listados, desconecte-os imediatamente. Desconectar dispositivos não reconhecidos é um passo crucial para garantir sua privacidade no WhatsApp, essa ação impedirá que suas mensagens sejam visualizadas por outros.

Essa medida deve ser realizada regularmente para garantir que nenhum dispositivo não autorizado esteja lendo suas mensagens.

Especialistas Alertam

Especialistas em segurança cibernética, como Jake Moore da ESET, recomendam a verificação regular dos dispositivos vinculados. “O vínculo de dispositivos oferece aos olhos curiosos a capacidade de ver mensagens em outro dispositivo, mas também deixa um rastro de evidências que pode ser visto nas configurações. Verificar regularmente os dispositivos vinculados é uma prática recomendada para manter sua conta segura”, alerta Moore.

A segurança no WhatsApp é fundamental para proteger suas conversas pessoais. Sempre esteja atento aos dispositivos vinculados e tome medidas imediatas se notar qualquer atividade suspeita.

Google vai bloquear os e-mails de remetentes em massa para prevenir spam

A partir da próxima segunda-feira, dia 1º de abril, o Google vai passar a proibir o envio de e-mails por remetentes massa (com um número elevado de destinos) para reduzir a a quantidade de spam sendo espalhada em seu sistema.

Em última análise, isso fechará as brechas exploradas por cibercriminosos que ameaçam todos que usam e-mail,” afirmou o gerente de produtos da plataforma, Neil Kumaran. “Muitos remetentes em massa não protegem e configuram adequadamente seus sistemas, permitindo que atacantes se escondam facilmente em seu meio.”

Por isso, no Gmail, a exceção apenas vale para casos que atendem a novos requisitos de segurança e autenticação, os quais existem para deliberadamente dificultar o abuso da ferramenta por criminosos. O plano, portanto, não é impedir qualquer tentativa de spam, mas sim frear a maioria delas.


Escritório da Google (Foto:Reprodução/Shutterstock/Techmonitor)

Requisitos de autenticação

Entre os requisitos necessários para a autenticação dos e-mails de massa, estão as “práticas recomendadas e bem estabelecidas” que foram listadas como:

  • Autenticação de Mensagem Baseada em Domínio;
  • Relatórios e Conformidade;
  • E-mail Identificado por Chaves de Domínio;
  • e Framework de Política de Remetente.

Remetente em massa

Já a definição de remetente em massa – isto é, quem precisa por em prática esses novos requisitos – foi determinada pelo Google como qualquer indivíduo que envia “perto de 5.000 mensagens ou mais para contas pessoais do Gmail dentro de um período de 24 horas”. Isso inclui contas que utilizam o Google Workspace.

Além disso, os remetentes em massa deverão incluir em seus e-mails a opção de cancelamento de inscrição (por exemplo, para newsletters) em apenas um clique, o qual deverá ser processado em menos de 48 horas. No total, isso significa que vai ficar mais difícil o envio de e-mails em massa, e mais fácil o cancelamento dos que os recebem nas suas caixas de entrada.

Apelo urgente: especialistas e executivos exigem regulamentação de Deepfakes

Especialistas e líderes da indústria de inteligência artificial, juntamente com renomados executivos, uniram-se em uma carta aberta, instando a implementação de regulamentações mais rígidas para controlar a disseminação de deepfakes. Esta chamada à ação vem em meio ao crescente reconhecimento dos riscos que os deepfakes representam para a sociedade. As informações são da Forbes.

Regulamentação de deepfakes

O grupo, que inclui figuras proeminentes como Yoshua Bengio, um dos pioneiros da tecnologia de IA, expressou preocupações sobre o potencial destrutivo dos deepfakes, que vão desde a disseminação de pornografia infantil até a propagação de desinformação política. Eles enfatizam que, à medida que a inteligência artificial avança, os deepfakes se tornam cada vez mais convincentes e difíceis de distinguir do conteúdo genuíno.


DeepFake (Foto: reprodução/Bing Image Creator)

A carta, intitulada “Interrompendo a cadeia de suprimentos de deepfakes”, delineia várias recomendações para regulamentar o uso de deepfakes. Estas incluem a criminalização da produção e disseminação de deepfakes prejudiciais, com penalidades severas para os responsáveis. Além disso, exige-se que as empresas de IA implementem medidas para prevenir a criação de deepfakes nocivos por meio de seus produtos.

Mais de 400 indivíduos, representando uma ampla gama de setores, já assinaram a carta, demonstrando um amplo apoio à causa. Entre os signatários estão acadêmicos proeminentes, figuras do entretenimento e até mesmo políticos de destaque, destacando a gravidade da questão e a necessidade urgente de ação.

Reflexo da conscientização sobre IA

Essa iniciativa reflete uma crescente preocupação com os riscos associados à inteligência artificial e sua potencial capacidade de causar danos à sociedade. Desde a revelação do ChatGPT pela OpenAI, em 2022, houve um aumento na conscientização sobre os possíveis impactos negativos da IA, levando os reguladores a priorizarem a segurança e a ética na implementação dessas tecnologias.

Apelo à responsabilidade

A carta também é um lembrete dos apelos anteriores feitos por figuras influentes, como Elon Musk, que advertiram sobre os perigos da IA não regulamentada e pediram medidas para conter seu avanço desenfreado. Este movimento destaca a necessidade premente de uma abordagem cuidadosa e responsável no desenvolvimento e utilização da inteligência artificial, visando proteger os interesses e a segurança da sociedade como um todo.