Elon Musk causa polêmica ao compartilhar deep fake de Kamala Harris

Elon Musk, o bilionário fundador da Tesla e SpaceX e proprietário da plataforma de mídia social X, está no centro de uma nova polêmica. Desta vez, o motivo é a postagem de um vídeo deep fake em sua rede social, no qual a vice-presidente dos Estados Unidos, Kamala Harris, parece insultar o presidente Joe Biden. O vídeo publicado nesta segunda-feira (29) foi originalmente postado por uma conta no X ligada ao podcaster conservador Chris Kohls e rotulado como uma “paródia”. Porém, o compartilhamento de Musk não tem nenhuma especificação, a legenda dizia apenas: “Isso é incrível”, junto com um emoji de risada.

O Vídeo e a reação imediata

O vídeo mostra Kamala Harris em um discurso falso, feito por tecnologia IA, para fazer declarações ofensivas contra Biden. Esta tecnologia usa a inteligência artificial para criar vídeos falsos, mas que são convincentes, de pessoas dizendo ou fazendo coisas que nunca ocorreram.

O post gerou uma reação imediata, com críticos acusando Musk de irresponsabilidade e negligência. Figuras públicas, especialistas em tecnologia e cidadãos comuns expressaram sua preocupação sobre a disseminação de desinformação, especialmente em um período político tão sensível.


Print da postagem de Elon Musk no X (Foto: reprodução/ X/@elonmusk)


Críticas e consequências

Entre os nomes mais influentes criticando está Gavin Newsom, o governador democrata da Califórnia. Ele escreveu em sua rede social que o vídeo manipulado de Harris “deveria ser ilegal” e que pretende em breve assinar um projeto de lei que proíbe esse tipo de conteúdo. As organizações de checagem de fatos foram rápidas em apontar o vídeo como fake, alertando os usuários sobre esse tipo de conteúdo e pedindo maior cautela ao consumir e compartilhar conteúdo online.

Implicações para as redes sociais

Este incidente ressalta a crescente preocupação com o papel das redes sociais na disseminação de informações falsas e manipuladas. A capacidade de criar conteúdo fake realista coloca um novo desafio para as plataformas, que agora precisam encontrar um equilíbrio entre permitir a liberdade de expressão e prevenir a propagação de desinformação.

O post de Elon Musk serve como um lembrete da importância da responsabilidade na era digital. Com o avanço da tecnologia, líderes de plataformas de mídia social e usuários devem ficar mais atentos sobre os conteúdos que consomem e compartilham. 

Matéria por Alexia Gabriela (Lorena r7)

CNN expõe que deepfakes foram produzidas do Irã e China para influenciar eleições

A CNN divulgou com exclusividade, nesta quarta-feira (15), que conteúdos falsos gerados por inteligência artificial (IA) foram preparados nas últimas semanas da campanha eleitoral de 2020 por agentes que trabalham para os governos da China e do Irã a fim de influenciar eleitores dos Estados Unidos, segundo ex-funcionários e atuais dos EUA informados sobre a inteligência.

O jornal compartilhou a informação de que agentes chineses e iranianos não chegaram a divulgar publicamente o áudio ou o vídeo deepfake, mas os detalhes que foram expostos apenas neste momento mostram a preocupação que as autoridades dos EUA possuíam em 2020 sobre vontade das potências exteriores de ampliar informações falsas sobre o processo eleitoral.

Uma das fontes da CNN contou ao jornal que a Agência de Segurança Nacional (NSA) havia recolhido informações para que autoridades dos Estados Unidos pudessem visar as capacidades da China e do Irã na criação de deepfakes. 

As fontes da CNN também explicaram que não ficou claro o conteúdo retratado nos deepfakes preparados pelos agentes chineses e iranianos em 2020 ou por qual motivo não foram utilizados durante as eleições.

O Comitê de Inteligência do Senado vai realizar uma audiência nesta quarta-feira (15) sobre a ameaça de deepfakes e influência estrangeira. Os legisladores terão a oportunidade de interrogar publicamente o diretor de inteligência nacional e uma equipe do alto escalão sobre ameaças estrangeiras às eleições dos Estados Unidos que acontecerão daqui a seis meses.

Preocupação norte-americana sobre deepfakes


NSA Georgia (NSAG). (Foto: reprodução/Site oficial National Security Agency)

Caracterizada como uma técnica de mostrar o rosto de uma pessoa em fotos ou vídeos alterados com ajuda de IA, as deepfakes se tornaram ainda mais fáceis de produzir. A preocupação das autoridades norte-americanas é direcionada em como a inteligência artificial pode ser usada por campanhas com influência estrangeira para enganar eleitores.

A CNN também identificou que a Sala de Situação da Casa Branca realizou, em dezembro do ano passado, uma preparação para as eleições que ocorrerão em 2024. O cenário proposto foi um vídeo falso gerado por inteligência artificial supostamente criado por agentes chineses, em que um candidato ao Senado aparecia destruindo células. Os funcionários do alto escalão dos Estados Unidos se empenharam para responder ao cenário proposto para aprender a lidar com eficiência nesses casos. 

Um ex-funcionário do alto escalão dos EUA contou para a CNN que autoridades dos Estados Unidos acreditavam que a China e o Irã não possuíam capacidade de implantar deepfakes realmente impactantes nas eleições presidenciais de 2020. A fonte disse que acha que a tecnologia não tenha sido boa o suficiente.

Apelo urgente: especialistas e executivos exigem regulamentação de Deepfakes

Especialistas e líderes da indústria de inteligência artificial, juntamente com renomados executivos, uniram-se em uma carta aberta, instando a implementação de regulamentações mais rígidas para controlar a disseminação de deepfakes. Esta chamada à ação vem em meio ao crescente reconhecimento dos riscos que os deepfakes representam para a sociedade. As informações são da Forbes.

Regulamentação de deepfakes

O grupo, que inclui figuras proeminentes como Yoshua Bengio, um dos pioneiros da tecnologia de IA, expressou preocupações sobre o potencial destrutivo dos deepfakes, que vão desde a disseminação de pornografia infantil até a propagação de desinformação política. Eles enfatizam que, à medida que a inteligência artificial avança, os deepfakes se tornam cada vez mais convincentes e difíceis de distinguir do conteúdo genuíno.


DeepFake (Foto: reprodução/Bing Image Creator)

A carta, intitulada “Interrompendo a cadeia de suprimentos de deepfakes”, delineia várias recomendações para regulamentar o uso de deepfakes. Estas incluem a criminalização da produção e disseminação de deepfakes prejudiciais, com penalidades severas para os responsáveis. Além disso, exige-se que as empresas de IA implementem medidas para prevenir a criação de deepfakes nocivos por meio de seus produtos.

Mais de 400 indivíduos, representando uma ampla gama de setores, já assinaram a carta, demonstrando um amplo apoio à causa. Entre os signatários estão acadêmicos proeminentes, figuras do entretenimento e até mesmo políticos de destaque, destacando a gravidade da questão e a necessidade urgente de ação.

Reflexo da conscientização sobre IA

Essa iniciativa reflete uma crescente preocupação com os riscos associados à inteligência artificial e sua potencial capacidade de causar danos à sociedade. Desde a revelação do ChatGPT pela OpenAI, em 2022, houve um aumento na conscientização sobre os possíveis impactos negativos da IA, levando os reguladores a priorizarem a segurança e a ética na implementação dessas tecnologias.

Apelo à responsabilidade

A carta também é um lembrete dos apelos anteriores feitos por figuras influentes, como Elon Musk, que advertiram sobre os perigos da IA não regulamentada e pediram medidas para conter seu avanço desenfreado. Este movimento destaca a necessidade premente de uma abordagem cuidadosa e responsável no desenvolvimento e utilização da inteligência artificial, visando proteger os interesses e a segurança da sociedade como um todo.

Taylor Swift é vítima de deepfakes criados por IA e Casa Branca se pronuncia

Nesta quinta-feira (25), a cantora norte-americana Taylor Swift teve fotos geradas por IA (Inteligência Artificial) nas quais ela aparecia nua. Isso acabou gerando revolta nos fãs, que criaram em defesa a tag “protect Taylor” (protejam a Taylor) no X, antigo twitter. A Casa Branca se pronunciou enfatizando a importância de combater a disseminação desse tipo de imagem.

O que aconteceu

Taylor Swift, foi vítima de falsos nudes criados pela inteligência artificial. A artista denunciou a situação e alertou sobre os perigos da disseminação de imagens falsas na internet. Ela reforçou a importância de combater a manipulação de conteúdo e proteger a privacidade das pessoas. Swift também pediu por leis mais rígidas para punir os responsáveis por criar e compartilhar esse tipo de material.


Taylor Swift em sua Tour pela Argentina (Foto: reprodução/Instagram/@taylorswift)

Casa Branca se pronuncia

No último dia (26), a Casa Branca se manifestou após a situação da cantora Taylor, e segundo eles a situação é considerada “alarmante”. Segundo a secretaria de imprensa da Casa Branca, Karine Jean-Pierre, relatou a preocupação do governo e enfatizou que é de suma importância o papel crucial das empresas de mídia social no combate a disseminação de imagens. De acordo com Karine, será feito o for necessário para combater essas situações e continua falando da importância das empresas de mídia social aplicar as suas próprias regras para evitar qualquer situação parecida.

Casos no Brasil

A atriz Ísis Valverde recentemente passou pela mesma situação e acionou advogados após fotos vazadas serem atribuídas a ela. A defesa relatou que as fotos foram tiradas do Instagram da atriz e manipuladas com intuito de parecer que estava nua. Porém, também há dois casos com alunas de um colégio que aconteceu em novembro do ano passado (2023), e as vítimas sofreram também com manipulação de fotos. Os casos continuam sendo investigados pela polícia.

Tiago Leifert, Fátima Bernardes e Pedro Bial foram vitímas de uso de deepfake

Tiago Leifert e Fátima Bernardes afirmaram terem sido vítimas de um golpe de deepfake. Isso ocorreu após Pedro Bial compartilhar em suas redes sociais um pronunciamento no qual alegava que sua imagem e voz foram utilizadas em uma campanha contra calvície, algo que ele nega ter realizado.

O jornalista esportivo compartilhou a publicação de Bial, acrescentando que sua imagem também foi utilizada em campanhas de remédio e loteria. Assim como Bial, Tiago afirmou nunca ter participado de tais campanhas.

Da mesma maneira, Fátima respondeu à postagem do apresentador afirmando que sua imagem foi vinculada a uma campanha de remédio que promete emagrecer, acrescentando que nunca participou de campanhas desse tipo.



Pedro Bial acusa Meta 

Além de reportar o uso indevido de sua imagem, o apresentador acusou a Meta, empresa dona do Instagram e Facebook, de ser cúmplice em atos de “falsificação, fraude e charlatanismo”. Ele argumentou que a realização de um crime demanda “motivação, meios e oportunidade”, e afirmou que a Meta fornece os meios e as oportunidades, lucrando com esse tipo de golpe.

Em resposta às acusações do apresentador, a Meta enviou uma nota ao Estadão, com quem a empresa entrou em contato. O porta-voz da Meta declarou: “Atividades que tenham como objetivo enganar, fraudar ou explorar terceiros não são permitidas em nossas plataformas, e estamos sempre aprimorando nossa tecnologia para combater atividades suspeitas. Também recomendamos que as pessoas denunciem quaisquer conteúdos que acreditem ir contra os Padrões da Comunidade do Facebook, das Diretrizes da Comunidade do Instagram e os Padrões de Publicidade da Meta através dos próprios aplicativos.”

O que é Deepfake

Deepfake é uma tecnologia que utiliza inteligência artificial para criar vídeos falsos com o intuito de enganar as pessoas. Essa técnica avançada de I.A., conforme informações do Politize, é capaz de gerar vídeos e imagens extremamente realistas, muitas vezes indistinguíveis de conteúdos autênticos.

Essa manipulação pode envolver a criação de figuras que não existem ou a alteração de vídeos de pessoas reais, dando a impressão de que estão envolvidas em situações ou falando palavras que nunca ocorreram de fato.