Veja as principais notícias e manchetes do Brasil e no Mundo hoje. Textos feitos por especialistas e assista a vídeos de Política, Celebridades e mais.
Arquivo da categoria: Tecnologia
Descubra as novidades e tendências do mundo da tecnologia e inovação.
A companhia aeroespacial de Elon Musk realizou nesta terça-feira (5), o lançamento bem-sucedido do minissatélite batizado de LignoSat. O artefato espacial foi enviado em um foguete não-tripulado, com previsão de ser colocado em órbita cerca de um mês após sua chegada a ISS (Estação Espacial Internacional). O dispositivo deverá orbitar a aproximadamente 400 km acima da Terra.
Sustentabilidade no espaço – O primeiro satélite de madeira do mundo, construído por pesquisadores japoneses, foi lançado ao espaço nesta terça-feira (5). Chamado de LignoSat, o satélite desenvolvido pela Universidade de Kyoto e pela construtora Sumitomo Forestry, foi lançado para a Estação Espacial Internacional em uma missão da SpaceX, do bilionário Elon Musk. Posteriormente, será lançado em órbita a cerca de 400 km acima da Terra. Nomeado em homenagem à palavra latina para “madeira”, o LignoSat, do tamanho da palma da mão, tem a tarefa de demonstrar o potencial cósmico do material renovável na exploração do espaço. Com um plano de 50 anos de plantar árvores e construir casas de madeira na Lua e em Marte, a equipe de Doi decidiu desenvolver um satélite de madeira certificado pela Nasa para provar que o material tem qualidade espacial. “Os aviões do início dos anos 1900 eram feitos de madeira”, disse o professor de ciências florestais da Universidade de Kyoto, Koji Murata. “Um satélite de madeira também deve ser viável.” A madeira é mais durável no espaço do que na Terra, porque não há água ou oxigênio que possam apodrecê-la ou inflamá-la, acrescentou Murata. Um satélite de madeira também minimiza o impacto ambiental no final de sua vida útil, dizem os pesquisadores. Satélites desativados devem reentrar na atmosfera para que não se tornem detritos espaciais. Os satélites convencionais de metal criam partículas de óxido de alumínio durante a reentrada, mas os de madeira simplesmente queimariam, com menos poluição, disse Doi. Veja mais em g1. #spacex#espaço#tiktoknoticias
SpaceX lança satélite de madeira (Vídeo: reprodução/TikTok/@g1)
Tecnologia na criação do minissatélite
Com um peso aproximado de 900 gramas e dimensões de 10 centímetros por lado, o LignoSat foi construído pela Universidade de Kyoto em parceria com a empresa japonesa Sumitomo Forestry, especializada em madeira, produtos florestais e construção sustentável. Os painéis do equipamento foram feitos de madeira honoki, proveniente de uma espécie de magnólia nativa do Japão. Além disso, foi utilizada uma técnica tradicional que dispensa o uso de parafusos e cola.
Cientistas apontam benefícios
Takao Doi, astronauta e pesquisador da Universidade de Kyoto, explicou que a madeira se mostra mais resistente no espaço do que na Terra, uma vez que não há presença de água ou oxigênio para causar a deterioração ou combustão do material.
Com a madeira, um material que nós mesmos podemos produzir, seremos capazes de construir casas, viver e trabalhar no espaço para sempre”
Takao Doi, professor e pesquisador na Universidade de Kyoto (Foto: reprodução/Meteored)
Além dos pontos levantados por Takao Doi, segundo pesquisadores da NASA que estudam a nova tecnologia, o uso de madeira em satélites contribui para reduzir o impacto ambiental ao fim de sua vida útil. Satélites fora de operação precisam entrar novamente na atmosfera para evitar que se transformem em lixo espacial. Enquanto os modelos convencionais de metal liberam partículas de óxido de alumínio ao retornarem à Terra, os feitos de madeira apenas se desintegrariam, gerando menos poluição.
Astronautas da NASA podem votar nas eleições presidenciais dos EUA enquanto estão no espaço, graças a uma legislação do Texas de 1997. Eles utilizam um sistema de votação eletrônico, com cédulas criptografadas enviadas da Terra para a Estação Espacial Internacional. Este sistema, iniciado com o astronauta David Wolf, garante que eles possam votar sem comprometer a segurança ou a confidencialidade do voto.
Em 2020, a astronauta Kate Rubins cumpriu seu dever cívico a partir do espaço, na Estação Espacial Internacional, a 400 quilômetros acima da superfície da Terra. Na ocasião, a NASA detalhou como ocorreu a transmissão dos votos e como foi realizada através da infraestrutura de Comunicações e Navegação Espacial (SCaN) da agência. Depois que Rubins preencheu sua cédula eletrônica especialmente projetada a bordo do laboratório em órbita, o documento fluiu através de um satélite de rastreamento e retransmissão de dados para uma antena terrestre no Complexo White Sands em Las Cruces, Novo México.
Do Novo México, a NASA transfere a cédula para o Centro de Controle da Missão no Centro Espacial Johnson da NASA em Houston e depois para o secretário do condado responsável por emitir a cédula. A cédula é criptografada e acessível apenas ao astronauta e ao escrivão para preservar a integridade da votação.
Legislação do Texas de 1997 permite que astronautas da NASA votem (Foto: reprodução/ GREGG NEWTON/ Getty Images Embed)
Resultado das eleições americanas
Donald Trump, do Partido Republicano, venceu as eleições presidenciais dos Estados Unidos e conquistou seu segundo mandato como presidente. Ele obteve 277 delegados no Colégio Eleitoral, superando a democrata Kamala Harris, conforme as projeções de diversos meios de comunicação. A vitória foi garantida após Trump conquistar o estado de Wisconsin.
Apesar da derrota, Kamala liderou em estados como Nova York, Califórnia, Illinois (onde fica Chicago) e pequenos estados do nordeste do país, como Massachussets, Nova Jersey e Maryland. Além de vencer também na Virgínia.
Modelo americano de votação
A eleição presidencial dos Estados Unidos é indireta, realizada por meio do Colégio Eleitoral. Os eleitores não votam diretamente no presidente, mas escolhem delegados, que são responsáveis por eleger o presidente. Cada estado tem um número de delegados proporcional à sua população, e o candidato que obtiver a maioria desses delegados vence. Para garantir a eleição, é necessário atingir 270 votos eleitorais. Esse sistema foi estabelecido para equilibrar o poder entre estados grandes e pequenos.
Um tribunal russo aplicou uma multa astronômica de US$ 20 decilhões ao Google, um valor estimado em cerca de 23 milhões de vezes maior que todo o dinheiro existente no mundo. A punição foi decretada após o banimento de canais ultranacionalistas em 2020, e ela reflete as tensões entre o governo russo e a gigante da tecnologia ocidental, especialmente após o início da Guerra na Ucrânia, quando a Rússia aumentou as sanções e restrições a empresas estrangeiras que considera hostis e que mantêm conteúdo crítico ao Kremlin ou em apoio à Ucrânia.
Sobre a multa colossal
O valor extraordinário da multa, que tem 32 zeros ao lado do “2,5”, é considerado impagável. Especialistas em economia e direito internacional apontam que não há recursos financeiros no mundo que se aproximem desse valor. Especialistas em direito internacional sugerem que o valor da multa foi definido como uma mensagem simbólica de poder. “É praticamente impossível que o Google pague algo tão absurdo” comentou Leandro Alvarenga, advogado e consultor de segurança digital. Segundo ele, a multa exorbitante serve mais como uma forma de retaliação, enquanto a falta de acordos internacionais entre a Rússia e o Ocidente dificultam a cobrança dessa dívida fora do território russo.
A dívida acumulada levou a filial da Google na Rússia á decretar falência em 2022, afirmando que os ativos locais não seriam suficientes para cobrir o valor devido, estimado em cerca de 19 bilhões de rublos. Com isso, as empresas russas tentaram buscar o pagamento em outros países, como Espanha, Turquia, África do Sul e Hungria, onde a Google também atua. Em resposta, a Google também iniciou processos nos Estados Unidos e no Reino Unido para proteger-se das cobranças.
Tensão entre Rússia e Ocidente após a guerra na Ucrânia
Desde o início da Guerra na Ucrânia em 2022, a Rússia comandada por Vladimir Putin, aumentou as multas e sanções a empresas estrangeiras, especialmente aquelas envolvidas em redes sociais e plataformas de conteúdo. A medida buscava forçar o cumprimento das exigências russas de censura e controle de informações, o que é visto como um esforço para silenciar qualquer apoio público à Ucrânia.
As tensões entre o governo Russo de Vladimir Putin e as Big Techs americanas aumentaram após a Guerra da Ucrânia (Foto:reprodução/Mikhail Metzel/Getty Images Embed)
A Google, que também é dona do YouTube, foi o principal alvo dessas punições e decisões judiciais na Rússia após manter fora do ar canais estatais e ultranacionalistas. Em 2020, o canal Tsargrad foi banido da plataforma como resposta a essas sanções internacionais, marcando o início de uma série de penalidades da Rússia contra a empresa. O valor da multa foi ajustado inúmeras vezes ao longo dos anos, dobrando semanalmente como punição por não atender à exigência de restabelecer o acesso dos canais.
Além de Tsargrad, outras redes estatais, como Sputnik, NTV e Russia 24, também foram bloqueadas. O YouTube justificou o bloqueio citando “violações de legislação sobre sanções e regras comerciais.” No entanto, o governo russo alega perseguição e exige compensação financeira, ainda que o valor seja considerado irreal. A multa estratosférica também levanta dúvidas sobre a funcionalidade de multas internacionais e o uso de multas financeiras como uma arma nas disputas geopolíticas.
O Google está desenvolvendo uma nova inteligência artificial (IA) chamada Jarvis, ela foi projetada com a intenção facilitar a navegação online e melhoras a rotina dos usuários no navegador Chrome. De acordo com informações preliminares da The Information, o Jarvis será uma ferramenta automatizada que permitirá ao usuário realizar tarefas complexas como pesquisas, compras e reservas de forma muito mais rápida e eficiente.
IA deve ser apresentada em dezembro
A expectativa é de que a IA seja apresentada ao público já dezembro, junto com o lançamento do modelo avançado Gemini 2.0, conforme anunciou o CEO do Google, Sundar Pichai. Com o nome interno de Project Jarvis, o sistema usará o poder computacional do Gemini 2.0 para poder capturar e interpretar imagens da tela, planejar e executar ações que normalmente exigiriam a intervenção do usuário. Entre as funções do Jarvis estão preencher formulários, clicar em botões e até digitar informações em campos de texto, algo que poder bastante útil principalmente para aqueles que usam os programas de produtividade da marca.
Javis com e chamado atualmente tem como objeto melhor a experiência do usuário comum (Foto: reprodução/Anadolu/Getty Images Embed)
No entanto, essa tecnologia inovadora ainda apresenta vem apresentando desafios. O Jarvis atualmente opera com um pequeno atraso entre as ações, indicando que ele depende da nuvem para processar e executar comandos. Esse detalhe consegue ressaltar a complexidade do sistema, uma vez que, segundo o Google, é necessário um tempo para “pensar” antes de realizar as ações automaticamente.
A introdução do Jarvis acontece em meio a uma acirrada competição pelo desenvolvimento de assistentes de IA de automação pessoal. Concorrentes como a Microsoft, com o Copilot Vision, e a Anthropic, com o Claude, também estão apostando no desenvolvimento de tecnologias semelhantes, cada vez mais acessíveis ao usuário comum, o que mostra o quão competitivo esse mercado pode ser.
Lançamento oficial ainda sem previsão
Ainda sem data oficial para o lançamento, o Jarvis inicialmente será testado por um grupo restrito de usuários. Mesmo em fase de ajustes, o sistema promete transformar a forma como navegamos na web, sinalizando um futuro onde assistentes digitais podem planejar e executar ações complexas com apenas um comando do usuário.
O início desta nova semana representa uma virada de chave, já que, de acordo com os principais portais de tecnologia, a Apple deve dar início a uma semana de novos lançamentos. Isso já era algo esperado, especialmente devido aos anúncios recentes da marca.
Entre as principais novidades está o lançamento da nova linha de MacBooks, que agora chega ao mercado equipada com os novos chips M4. De acordo com a empresa norte-americana, esses chips são os mais novos e “mais inovadores” até agora e representam “um salto de desempenho” em relação aos modelos anteriores.
Chip M4
Entre as principais novidades do M4, o destaque fica para o “neural engine” (a unidade de processamento específica para tarefas de aprendizado de máquina em chips), sendo essa a mais veloz já produzida pela Apple até hoje. Ela é capaz de realizar impressionantes 38 trilhões de operações por segundo, algo que, de acordo com a empresa, é mais rápido que “qualquer PC de inteligência artificial atualmente”.
Novos Ipads devem chegar com o chip M4 (Foto: reprodução/Bloomberg/Getty Images Embed)
Os chips M4, no entanto, já haviam sido anunciados para a principal linha de tablets da empresa, os iPads Pro. A novidade agora é a incorporação desses chips aos novos Mac e MacBook Pro, além dos iMac, que são a linha de computadores desktop da empresa.
Ainda na linha de novidades que devem chegar está a reformulação da linha Mac Mini, que, após quase uma década, deve receber um novo design. Além disso, novas versões de seus periféricos, como o “Magic Keyboard”, “Magic Mouse” e “Magic Trackpad”, com entradas USB-C (a mais comum e padronizada, que compartilha acessibilidade com dispositivos de outras marcas), também devem ser anunciadas durante a semana de lançamentos.
Lista de dos últimos lançamentos anunciados pela Apple
Headset Vision Pro — 2 de fevereiro
MacBook Air com chip M3 — 4 de março
iPad Air com chip M2 e iPad Pro com chip M4 — 7 de março
Após quatro anos como pesquisador na OpenAI, Suchir Balaji, ex-membro da equipe responsável por estruturar dados online para o desenvolvimento do ChatGPT, acusou a empresa de violar leis de direitos autorais e destacou impactos negativos na internet e na viabilidade comercial de criadores de conteúdo. Segundo Balaji, sua postura inicial era de aceitação quanto ao uso desses dados, mas, com o lançamento do ChatGPT em 2022, ele começou a questionar a ética e a legalidade da prática.
Em agosto, Balaji deixou a empresa afirmando que as tecnologias de IA, como o ChatGPT, estavam prejudicando a integridade da internet. Em uma entrevista ao The New York Times, ele detalhou como o uso de conteúdos protegidos por direitos autorais pode enfraquecer o ecossistema digital e desencadear uma concorrência desleal. Para Balaji, os riscos das IAs não são apenas futuros; há ameaças imediatas, como o enfraquecimento da sustentabilidade financeira para criadores e detentores de direitos autorais.
Ex-funcionário se demitiu por não concordar com a empresa (Foto: reprodução/NurPhoto/Getty Images Embed)
Impactos das IAs no ecossistema digital
A OpenAI defende que seu uso de dados públicos é amparado pela doutrina de “uso justo”, uma medida que permite a utilização de trechos limitados de conteúdo com fins como crítica, pesquisa e ensino. No entanto, o profissional afirma que essa prática é insustentável e que o ChatGPT e outras IAs geram conteúdos que replicam substancialmente o material original, o que prejudica diretamente os criadores. Segundo ele, a produção de conteúdos pelas IAs pode reduzir o tráfego em sites originais, impactando a monetização desses espaços e diminuindo a receita dos criadores de conteúdo.
Outro ponto levantado por Balaji é a precisão das informações geradas por IAs, uma vez que erros e desinformações são comuns. Especialistas, como o advogado de propriedade intelectual Bradley J. Hulbert, endossam a visão de que as leis de direitos autorais atuais foram criadas em um contexto que não previa o surgimento de IAs avançadas. Hulbert sugere que o Congresso dos Estados Unidos adote novas regulamentações para proteger os direitos de criadores e a confiabilidade das informações na internet.
Regulamentação é um caminho para proteger criadores e usuários
Diante dos desafios apresentados pela IA, Balaji e especialistas defendem a criação de normas que regulamente o uso de dados por essas tecnologias. Ele ressalta que, sem essas mudanças, a internet se tornará um espaço onde criadores não poderão competir com os recursos ilimitados dasIAs e, consequentemente, terão sua relevância e seu sustento ameaçados.
Para ele, regulamentar a ferramenta é crucial para garantir que o ecossistema digital continue a ser um espaço onde conteúdos originais são valorizados e onde os consumidores têm acesso a informações de qualidade.
Dois estudantes da Universidade de Harvard, AnhPhu Nguyen e Caine Ardayfio, recentemente chamaram a atenção com um experimento que revela os avanços e dilemas da tecnologia de reconhecimento facial. A partir de dispositivos da Meta, como os óculos inteligentes Ray-Ban, os alunos desenvolveram uma combinação de ferramentas tecnológicas para identificar, em tempo real, desconhecidos na rua e acessar informações pessoais, como nome e ocupação.
O projeto rapidamente se tornou viral após a divulgação de um vídeo demonstrando sua funcionalidade nas redes sociais, provocando uma onda de reflexões sobre ética e privacidade no uso dessas tecnologias.
Óculos Ray-ban meta smart (Foto: reprodução / Meta)
Uso das ferramentas e desafios éticos
Nguyen e Ardayfio utilizaram óculos Meta para transmitir vídeos ao vivo, capturando rostos através de softwares de detecção facial e, em seguida, cruzando os dados em um mecanismo de busca facial chamado PimEyes. Com isso, eles conseguiram encontrar informações de indivíduos em bancos de dados na internet. Além disso, utilizaram uma ferramenta semelhante ao ChatGPT para sintetizar e organizar os resultados, o que incluía potencialmente informações como telefone e endereço da pessoa abordada. A ideia inicial dos estudantes não era comercializar o dispositivo, mas sim demonstrar as capacidades dessa integração de tecnologias acessíveis e refletir sobre a facilidade de sua implementação. Segundo Nguyen, as ferramentas utilizadas já estavam disponíveis ao público; o diferencial foi apenas a combinação dessas tecnologias.
O experimento, que demorou apenas quatro dias para ser codificado, ressalta questões de segurança e privacidade digital. Embora os óculos Meta possuam uma pequena luz que indica que estão gravando, as pessoas abordadas, como o jornalista e especialista em biotecnologia Kashif Hoda, nem sempre notam essa indicação, o que levanta preocupações sobre a invasão de privacidade. Hoda, por exemplo, só soube que havia sido filmado após ver seu rosto no vídeo dos estudantes. O caso ilustra como a tecnologia atual tem o potencial de violar a privacidade e, ao mesmo tempo, mostra a rapidez com que as inovações em reconhecimento facial estão avançando e se tornando populares, ainda que algumas empresas, como a própria Meta, tenham evitado investir nesses desenvolvimentos por questões éticas.
Respostas da indústria e impactos da experiência viral
A Meta, empresa responsável pela criação dos óculos Ray-Ban, já havia cogitado criar um dispositivo com reconhecimento facial, mas abandonou o projeto por conta das questões legais e éticas envolvidas. Andy Stone, porta-voz da Meta, afirmou que o experimento dos estudantes poderia ser reproduzido com qualquer câmera ou dispositivo de gravação, e destacou que, ao contrário de outros aparelhos, os óculos Meta sinalizam o ato de gravação com uma luz LED. Essa declaração, porém, não minimiza as implicações do experimento, uma vez que demonstrou como ferramentas acessíveis podem ser usadas de forma invasiva.
O projeto dos estudantes também atraiu investidores interessados em desenvolver a tecnologia, mas Ardayfio afirmou que o objetivo inicial era apenas demonstrar suas possibilidades, e não torná-lo um produto comercial. Além disso, em uma iniciativa voltada para a conscientização pública, eles compartilharam dicas de como as pessoas podem remover suas informações pessoais de bancos de dados na internet, visando a proteção de dados e a privacidade. A experiência dos estudantes de Harvard ilustra não apenas o poder da tecnologia em moldar nosso cotidiano, mas também alerta para os dilemas éticos que ainda precisam ser enfrentados com o avanço de dispositivos de reconhecimento facial e a popularização da inteligência artificial.
Uma mãe nos Estados Unidos abriu um processo contra a plataforma Character.AI após o suicídio de seu filho de 14 anos, Sewell Setzer, que desenvolveu um relacionamento íntimo e emocional com um chatbot baseado na personagem Daenerys Targaryen, de Game of Thrones. Segundo a ação judicial, o adolescente, que interagia frequentemente com o bot, recebeu mensagens inadequadas e de cunho sexual em suas conversas com a I.A. O caso reacende o debate sobre a responsabilidade de empresas de inteligência artificial no monitoramento de interações com menores.
Detalhes do caso e as acusações contra a Character.AI
Em abril de 2023, Sewell Setzer, um adolescente de 14 anos, iniciou suas interações com o Character.AI, uma plataforma que permite a criação de chatbots com personalidades específicas. O jovem se envolveu em conversas com um bot baseado na personagem Daenerys Targaryen, de Game of Thrones, desenvolvendo uma relação emocional com a I.A. Em sua última troca de mensagens, pouco antes de tirar a própria vida, Setzer escreveu ao bot: “Eu prometo que voltarei para você”, o que, segundo a ação judicial, mostrou o grau de dependência que ele já havia desenvolvido.
A mãe do jovem, Megan Garcia, descreveu seu filho como atlético e inteligente, mas percebeu que ele estava tornando-se mais retraído com o passar do tempo, após começar a interagir com o Bot. A IA acaba se moldando ao longo das conversas com o usuário, e simulando a personalidade de personagens, sejam fictícios ou reais. Diagnosticado com síndrome de Asperger, Sewell Setzer criou uma forte conexão emocional com o chatbot, ao qual se referia como “Dany.” Nas conversas, o adolescente expressava sentimentos de solidão, vazio e pensamentos suicidas. “Parece um grande experimento, e meu filho foi apenas um dano colateral,” desabafou Garcia.
Sewell Setzer e sua mãe, Megan Garcia (Foto: reprodução/New York Times)
Garcia afirma que as interações incluíam temas de cunho sexual e abordagens sobre suicídio, sem qualquer moderação ou recurso de segurança para impedir conteúdos inadequados para menores. Segundo Garcia, a falta de controle e segurança na plataforma piorou a situação emocional de seu filho, contribuindo para seu isolamento e sua depressão. A ação contra a startup de Inteligência Artificial alega que a empresa foi negligente e irresponsável ao não implementar medidas de proteção suficientes, mesmo com reclamações anteriores de outros usuários sobre conversas potencialmente perigosas.
Character.IA responde e promete aumentar a segurança
Sewell Setzer tirou a própria vida em fevereiro deste ano, e sua mãe, Megan Garcia, abriu o processo em 23 de outubro no tribunal federal de Orlando, Flórida, com alegações de homicídio culposo, negligência e inflição intencional de sofrimento emocional, conforme informou a Reuters. Garcia anexou ao processo capturas de tela de conversas de seu filho com o chatbot “Daenerys”, nas quais a personagem fazia declarações amorosas e interagia de forma sexualizada com o jovem, que, segundo a mãe, ajudaram a agravar seu estado emocional. A última conversa entre Setzer e o chatbot, incluída na denúncia, teria ocorrido pouco antes do suicídio do adolescente.
O Character.AI, uma das plataformas de inteligência artificial de conversas mais populares, especialmente entre jovens, com mais de 20 milhões de usuários. A startup afirmou que está aumentando os esforços para proteger seus usuários menores de idade, implementando “novas proteções” na plataforma. Em comunicado divulgado no site da empresa na terça-feira, 22, a Character.AI explicou que contratou um Chefe de Confiança e Segurança e um Chefe de Política de Conteúdo, além de expandir suas equipes de segurança e engenharia.
O chatbot imitava a personagem Daenerys Targaryen de “Game of Thrones” (Foto: reprodução/HBO Max)
A empresa também adicionou um recurso que detecta frases sobre automutilação e suicídio, direcionando o usuário para o Centro de Valorização da Vida (CVV) e outras instituições de apoio. A mensagem afirma: “Quem estiver passando por um momento difícil pode encontrar ajuda nos Centros de Atenção Psicossocial (CAPS), nas unidades básicas de saúde, ou no CVV, que atende pelo telefone 188 ou pela internet”.
O caso de Sewell Setzer revisita o debate sobre a responsabilidade de empresas de IA na segurança de seus jovens usuários. Enquanto a empresa reforça seus protocolos de segurança, o incidente expõe os riscos das interações emocionais com chatbots e a necessidade urgente de regulamentação e proteção nesse setor que está se expandindo, e que se tornará cada vez mais comum na vida das pessoas.
Há quase um ano, uma das principais vertentes para os que compartilham e geram conteúdo, em especial para a área jornalística, cresceu exponencialmente: a checagem de conteúdo online.
A maior preocupação e crescimento da checagem de conteúdo se deu especialmente pelo aprimoramento e popularização da Inteligência Artificial generativa, a qual inicialmente ficou conhecida por gerar imagens, e mais recentemente pela criação de textos, como é feito pelo ChatGPT.
Reconhecimento de textos feitos por IA
A identificação de textos produzidos por Inteligência Artificial já era almejado por muitos, contudo, era um problema não solucionado. Agora, o Google solucionou parcialmente o problema, após gerar um algoritmo que acrescenta algo como uma marca d’água no conteúdo produzido por Inteligência Artificial generativa.
Essa solução já havia sido pensado durante certo tempo, mas não souberam como acrescentá-la sem afetar o conteúdo gerado. A criação dos pesquisadores do Google DeepMind apareceu pela primeira vez ontem (23/10), em um artigo da “Nature”.
Os pesquisadores colocaram um sistema chamado “SynthID-Text” no Gemini, IA da Mountain View, o qual realiza modificações leves no texto wur foi criado a partir de modelos de linguagem, fazendo com que seja possível verificar se o texto foi gerado por uma epssoa que não é humana.
O foco não é diminuir a qualidade para o leitor, mas os algoritmos identificam a marca d’água, a fim de identificar os textos não redigidos por seres humanos. Esse mesmo sistema já havia sido implementado para imagens, e é a primeira vez que é utilizado também para textos.
Ferramenta do Google inicia solução de identificação de texto produzido por IA (Foto: Reprodução/Freepik/@rawpixel-com)
Textos gerados por Inteligência Artificial
Os modelos de linguagem são treinados para imitar a fala humana, trabalhando com a chance de uma determinada sequência de palavras ser mais adequada para atender ao pedido do usuário. O SynthID-Text trabalha modificando pequenas partes dessa sequência, sendo basicamente imperceptível para o usuário. Esta ferramenta não é infalível, e nem funciona para respostas factuais, como para responder a capital de um país. Ademais, não é possível informar se um texto foi gerado por IA caso tenha sido parafraseado. Após os testes no Gemini, o Google DeepMind disponibilizou o algoritmo publicamente, a fim de que possa ser testado e adaptado em demais modelos de linguagem.
A Meta anunciou nesta segunda-feira (21) que está testando um novo método para prevenir a propagação de anúncios falsos que fazem uso de imagens de pessoas públicas. A empresa afirma que essa prática viola suas políticas, além de prejudicar usuários. Assim, a plataforma pretende usar o reconhecimento facial, em um processo que compara as imagens dos anúncios com a de perfis destas figuras públicas nas redes.
Segundo a Reuters, a Meta disse que vai inscrever cerca de 50 mil figuras públicas em um teste que envolve comparar automaticamente suas fotos de perfil com imagens usadas em anúncios suspeitos de golpe. Se as imagens corresponderem e a Meta acreditar que os anúncios são formas de golpe, ela os bloqueará.
“A ideia aqui é: implementar o máximo de proteção que pudermos para eles. Eles podem optar por não participar se quiserem, mas queremos ser capazes de tornar essa proteção disponível e fácil para eles“, afirma Monika Bickert, vice-presidente de política de conteúdo da Meta.
O que é o “celeb-bait” ?
Em alguns casos, cibercriminosos criam perfis falsos de celebridades, usando sua reputação para dar golpes em pessoas em busca de ganhos financeiros. Vale lembrar que quando a Meta fechou seu sistema de reconhecimento facial em 2021, excluindo os dados de escaneamento facial de um bilhão de usuários, ela citou “crescentes preocupações sociais“.
Problemas legais para a empresa
Em agosto desse ano, a empresa foi condenada a pagar ao Texas US$ 1,4 bilhão para resolver um processo estadual acusando-a de coletar dados biométricos ilegalmente.
Além disso, a Meta está com o nome enrolado em processos que a acusam de não fazer o esforço adequado para impedir golpes que usam imagens de pessoas famosas, geralmente geradas por inteligência artificial, para enganar os usuários a doar dinheiro para esquemas de investimento inexistentes.
A tecnologia de reconhecimento facial requer a coleta e o armazenamento de dados biométricos, que são informações sensíveis. A coleta sem o consentimento explícito pode violar leis de privacidade. A vigilância em massa por meio de reconhecimento facial pode ter um efeito negativo sobre a liberdade de expressão, já que as pessoas podem evitar participar de manifestações ou eventos públicos devido à possibilidade de serem identificadas.
Também há a preocupação com ataques cibernéticos, tendo em vista que a tecnologia de reconhecimento facial pode se tornar alvo, resultando no roubo de dados biométricos, que são praticamente irrecuperáveis.