Comissão do Senado aprova regulamentação de inteligência artificial no Brasil

A comissão do Senado responsável pela análise das propostas de regulamentação da inteligência artificial (IA) aprovou, nesta quinta-feira (5), um projeto que define normas para a utilização da tecnologia no Brasil. O objetivo da iniciativa é estabelecer diretrizes claras sobre o uso da IA no país. A aprovação é um passo importante para a criação de um marco regulatório sobre o tema.


Senado aprova regulamentação para inteligência artificial (Foto: reprodução/
Bloomberg /Colaborador/ Getty Images Embed)


O projeto permite que empresas sejam responsabilizadas legalmente por danos causados a terceiros por meio de IA. A proposta define infrações e as respectivas punições para os responsáveis pela tecnologia, que vem se expandindo em diversas áreas e formatos nos últimos anos.

A fiscalização das novas regras ficará sob a responsabilidade do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), que será criado caso a proposta seja sancionada. O SIA será coordenado pela Autoridade Nacional de Proteção de Dados (ANPD).

Proteção de direitos e segurança

A IA tem o potencial de impactar diretamente a privacidade, a segurança e os direitos dos indivíduos. Sem regulamentação, o uso indevido de dados ou a aplicação de IA em decisões automatizadas poderiam prejudicar cidadãos, como na área de crédito, saúde ou justiça. A regulamentação ajuda a proteger os direitos fundamentais, como a privacidade e a liberdade.

Ética e transparência

A IA pode, inadvertidamente, reproduzir ou amplificar preconceitos existentes na sociedade, como discriminação de gênero, raça ou classe social, especialmente quando se baseia em dados históricos que refletem desigualdades. A regulamentação da IA pode garantir que a tecnologia seja desenvolvida e aplicada de forma justa, definindo princípios éticos claros, como a necessidade de garantir que os sistemas de IA não discriminem ou prejudiquem grupos vulneráveis.

A regulamentação também pode exigir que os desenvolvedores de IA forneçam informações detalhadas sobre como os algoritmos funcionam, quais dados são utilizados e como as decisões são feitas, permitindo que erros sejam identificados e corrigidos.

Elon Musk cogita proibir iPhones e Macs em empresas devido a anúncio da Apple com a OpenAI

Bilionário Elon Musk, nesta segunda feira (10/06), declarou que proibiria a utilização de dispositivos Apple caso a empresa avançasse com o projeto de otimizar o uso de seus dispositivos por meio de uma inteligência artificial generativa.

Elon Musk argumentou que a integração dos serviços da OpenAI aos da Apple pode gerar um perigo em relação a segurança de dados. Em uma declaração feita no X, rede que inclusive é dono, Musk afirmou o seguinte “A Apple não tem noção do que realmente vai acontecer assim que entregar teus dados à OpenAI. Estão te traindo”

A resposta da OpenAI

Horas após os cometários de Elon Musk, a empresa dona do ChatGPT, a OpenAI, respondeu as acusações do dono da Space X, classificando as falas de Elon como “frívolas”, “extraordinárias” e “uma ficção”, além de insinuar que Elon Musk está com ciúmes por não estar mais envolvido com a empresa.

Vale ressaltar que o bilionário foi um dos cofundadores da OpenAI em 2015 e atualmente é dono de uma inteligência artificial rival a xAI. O relacionamento entre Elon Musk a OpenAI e o CEO Sam Altman é bastante conturbada, gerando inclusive um processo de Musk contra a empresa e o CEO por violarem o contrato de fundação e fazer a empresa deixar a sua missão inicial sem fins lucrativos.


Elon Musk dono da Tesla e Space X (Foto: Trevor Cokley/U.S. Air Force)

O acordo entre Apple e OpenAI

No primeiro dia da conferência anual “Worldwide Developers Conference”, que começou no dia 10 de junho, foi anunciado pela Apple várias novidades, dentre elas uma parceria com o ChatGPT, que inicialmente será integrado com Siri, assistente presente em todos os produtos Apple. A Siri, com a nova atualização, poderá solicitar informações ao ChatGPT. Podendo fazer solicitações sobre fotos, documentos dentre outros tipos de informações.

Durante o anúncio, a empresa explicou que o usuário vai ter a possibilidade de escolher quando qualquer informação será compartilhada com o ChatGPT. O acesso a esta nova funcionalidade será gratuita, e os usuários pagos vão poder conectar sua cinta e aproveitar todos os recursos especiais oferecidos.

ChatGPT passa por instabilidade na última terça-feira

Na ultima terça-feira (4), a inteligência artificial desenvolvida pela OpenAI, o ChatGPT, passou por uma instabilidade por aproximadamente cinco horas e meia. Usuários relataram que ao executar um comando, recebiam a mensagem dizendo que o ChatGPT estava sobrecarregado (“ChatGPT is at capacity right now”).

Usuários orientados a relatar o problema

Para identificar se o problema era algo generalizado ou especifico em alguns dispositivos, a orientação para os usuários era de que relatassem o problema no DownDetector, site onde é possível relatar diversos problemas de quaisquer sites ou aplicativos, ou utilizar o “OpenAI Status”, ferramenta fornecida pela própria OpenAI, que oferece informações sobre quedas em seus servidores.

Além de relatar os problemas, o OpenAI Status fornece estatísticas detalhadas sobre os serviços ao longo do tempo incluindo a porcentagem de tempo em que ocorreram problemas nos últimos 3 meses e a causa de suas sobrecargas. A falha ocorrida no último dia 4 foi categorizada como uma “Major Outage” (grande interrupção).


ChatGPT4 (Foto: Reprodução/Anadolu/Getty Images Embed)


Causa da instabilidade

A interrupção foi causada por mudanças recentes na plataforma, já que em março foi lançada a atualização no ChatGPT-4, incluindo melhorias na capacidade de processamento para geração de textos longos, multimodalidade (capacidade de compreender informações além de texto, como imagem e voz), além de correções como modernização da linguagem. No entanto, a atualização foi marcada por controvérsias, devido ao uso não autorizado de uma voz que se assemelhava a da atriz Scarlett Johansson (famosa por interpretar a personagem Viúva Negra na saga Os Vingadores, da Marvel) o que fez com que a ferramenta alterasse a voz, após a atriz se manifestar publicamente contra o uso não autorizado de sua voz, e a rejeição do convite para dublar a IA.

Essas instabilidades mostram a importância de ferramentas de monitoramento e comunicação transparente por parte das empresas de produtos de IA, e a forma como lidam com problemas técnicos para que possam garantir uma experiência mais confiável e satisfatória aos usuários.

Oito jornais processam OpenAI e Microsoft por violação de direitos autorais

No último dia 30, nos tribunais do Distrito Sul de Nova York, uma ação judicial foi protocolada por oito jornais americanos contra duas das maiores empresas de tecnologia do mundo: OpenAI e Microsoft. Esses jornais, que fazem parte do portfólio da empresa de investimentos Alden Global Capital, entre eles o Chicago Tribune, alegam que houve violação de direitos autorais por parte dessas gigantes da tecnologia. Segundo informações obtidas por fontes ligadas ao processo, a Alden Global Capital cogita envolver mais de 60 jornais regionais na ação, em uma demonstração de unidade contra a suposta infração.


Logos OpenAI e Microsoft (Reprodução/NurPhoto)

União em busca de justiça

O caso agora em tramitação se junta a uma ação semelhante iniciada anteriormente pelo renomado jornal The New York Times contra as mesmas empresas. Até então, o Times era o único grande jornal que havia tomado medidas legais contra empresas de inteligência artificial por violação de direitos autorais. A nova ação, representada pela mesma firma de advocacia que defende o Times, foi protocolada também no Distrito Sul de Nova York, sugerindo a possibilidade de combinar ambas as reivindicações sob a supervisão de um mesmo juiz.

Impacto nas práticas de IA

As acusações apontam que a OpenAI e a Microsoft se apropriaram indevidamente de milhões de artigos protegidos por direitos autorais para treinar suas inteligências artificiais generativas, como o ChatGPT e o Copilot. Além disso, os jornais alegam que os chatbots gerados por essas IAs creditaram erroneamente as publicações por reportagens imprecisas ou enganosas, o que comprometeu seriamente a reputação das mídias. O desfecho desses processos pode ter um impacto significativo no uso de conteúdos jornalísticos por IAs generativas, uma vez que ameaça diretamente o modelo de negócios dos veículos de comunicação.

Parcerias em contraste

Em uma contraposição interessante, na segunda-feira, 29, o respeitado jornal Financial Times anunciou um acordo de licenciamento com a OpenAI. Esse acordo permite que a empresa de IA utilize o conteúdo do jornal para treinar seus modelos de inteligência artificial e incorporá-los em respostas do ChatGPT. Vale ressaltar que a OpenAI já firmou parcerias semelhantes com outros veículos de mídia renomados, incluindo a editora alemã Axel Springer, a agência de notícias Associated Press e os jornais Le Monde, El País e o conglomerado Prisa Media. Esse contraste entre ações legais e parcerias comerciais ilustra a complexidade das relações entre mídia tradicional e inovação tecnológica.

Nvidia é processada por violação de direitos autorais em tecnologia de IA

Nesta última sexta-feira (8), a multinacional de tecnologia, Nvidia, foi processada por violação de direitos autorais por três autores norte-americanos, cujas obras foram utilizadas sem permissão para treinar a framework de inteligência artificial NeMo, que suporta a performance de modelos como o GPT-3 e Stable Diffusion.

De acordo com a ação judicial, os seus livros teriam sido utilizados em uma base de dados utilizada para o treinamento da IA – esta base contendo um total de 196.640 livros – de forma que o algoritmo aprendesse a emular a escrita humana. Três autores já haviam reclamado do uso sem permissão de suas obras, e em outubro do ano passado, a empresa retirou do ar esse conjunto de dados “devido a denúncia de violação de direitos autorais”.

Com isso, foi possível argumentar que a empresa de tecnologia teria utilizado conscientemente de material com direitos autorais, e sem permissão, durante os últimos três anos. É o que ocorreu na última semana no tribunal federal de São Francisco, com um processo que traz à tona questões éticas sobre o modo de desenvolvimento das inteligências artificiais.


Sede da Nvidia em Califórnia (Foto: reprodução/NVIDIA/Reuters)

Autores

Os autores que iniciaram o processo contra a Nvidia são:

  • Brian Keene, autor de Ghost Walk (2008);
  • Abdi Nazemian, autor de Like a Love Story (2019);
  • Stewart O’Nan, autor de Last Night at the Lobster (2007).

No entanto, alegadamente não são os únicos a terem suas obras utilizadas para ‘alimentar’ as inteligências artificiais sem permissão, e o resulto do processo judicial poderia, argumentam, ajudar a trazer justiça para outros que também tiveram seu trabalho explorado sem permissão durante o desenvolvimento da IA NeMo.

Ética da IA

A Nvidia ainda não chegou a comentar sobre o caso, e os advogados dos autores não divulgaram mais informações. É uma situação que reflete os processos já ocorridos contra a OpenAI e a Microsoft, por conta de violações similares encontradas no ChatGPT.

O principal ponto de controvérsia fica claro ao notar alguns pontos essenciais. Em primeiro lugar, a IA depende de uma base de dados para dar início ao seu aprendizado, e emular um trabalho necessariamente alheio.

Em segundo lugar, após o algoritmo aprender a escrever de forma coerente, é possível às vezes notar um certo ‘plágio suave’, com a cópia de estilos usados na base de dados, uma consequência natural do processo de treinamento.

Em terceiro lugar, o programa pode então ser vendido por uso (com tokens pagos), gerando um lucro que utilizou o trabalho do artista, mas que nunca o recompensa.

Construção e lucros

A construção de uma inteligência artificial naturalmente é uma mistura de toda a base de dados utilizada, mas frequentemente é tratada como uma entidade por si só, sem atribuir o devido crédito aos que providenciaram os dados. Por conta do boom da IA, nota-se que a Nvidia tem aumentado muito os lucros, chegando com a valorização da empresa até a casa dos US$ 2 trilhões, perto de passar a Apple.

Confira cinco aparelhos de IA lançados após o sucesso do ChatGPT, da OpenAI

Desde o lançamento em novembro de 2022 do ChatGPT pela OpenAI, mais e mais empresas de tecnologia vem tentando capitalizar no interesse público pela tecnologia de inteligência artificial, desde a Google até a Meta (Facebook, Instagram, WhatsApp), a Microsoft, a Apple, entre outros.

São inovações que vão de modelos de linguagem a novos dispositivos com a IA já integrada, em um boom que caracteriza um grande dinamismo no mercado de tecnologia e informação, trazendo produtos muito diversificados, todos apostando em suas próprias aplicações do machine learning. Trata-se de algo que Jony Ives, analista de tecnologia e designer do iPhone, chamou de “a galinha dos ovos de ouro” para as gigantes de tecnologia da próxima década.

Entre os vários investimentos, algumas das inovações mais faladas além das ferramentas online são os produtos já disponibilizados para compra do público geral, com a IA já integrada. São alguns deles, os cinco a seguir:

1. Óculos Ray-Ban Smart, da Meta – US$ 299,99 (R$ 1481,46)


Ray-Ban Meta Smart Glasses (Foto: reprodução: David Paul Morris/Bloomberg)

Lançado em setembro de 2023, o Ray-Ban da Meta funciona como os assistentes virtuais já existentes (Alexa, Siri) tendo suas funções acessíveis quando o usuário fala “Ei, Meta”. Podendo ser encomendados com ou sem lentes, o assistente de IA responde perguntas, realiza ligações e envia mensagens, acompanhando as outras funcionalidades de smart glasses, como a possibilidade de tirar fotos.

2. Pin AI, da Humane – US$ 699,99 (R$ 3463,34)


O Pin AI em uso (Foto: reprodução/Humane/Globo)

Desenvolvido por ex-funcionários da Apple, e utilizando a tecnologia do modelo de linguagem GPT-4, o Pin AI exige uma assinatura de US$ 24 mensais (R$ 120) para se vincular com um número de celular. Sem tela, a ferramenta opera com comandos de voz para tirar fotos, tocar música e oferecer informações sobre objetos escaneados.

3. Samsung Galaxy S24 – US$ 799,99 (R$ 3963,71)


O Samsung Galaxy S24 (Foto: reprodução/Samsung)

O atual carro-chefe da Samsung, lançado em janeiro de 2023, foi naturalmente anunciado como o celular com mais inteligência artificial integrada de toda a linha. Entre as funções principais, o S24 utiliza a IA, como todos os novos smartphones, na edição de fotos, podendo arrastar objetos e alterar o plano de fundo, mas se destaca com a função de “Círculo para Pesquisar”, que facilita o usuário procurar saber mais sobre algo que se encontra na tela, e de modo que é dito mais prático do que a operação do Google Lens, de função similar.

4. Apple Vision Pro – US$ $ 3.499,99 (R$ 12.499,99)


Apple Vision Pro em uso (Foto: reprodução/Apple/CNET)

Com o preço mais alto da lista, o Apple Vision Pro se caracteriza pela inovação de risco, combinando um sistema operacional similar ao de um iPhone com a imersão de um headset de realidade virtual. Entre as funcionalidades únicas do aparelho, há a possibilidade de criar “personas“, avatares que são gerados em 3D por uma tecnologia de inteligência artificial após o aparelho escanear seu rosto.

5. R1, da Rabbit – US$ 199,99 (R$ 985,99)


R1, da Rabbit Inc. (Foto: reprodução/Globo)

Por fim, o dispositivo de bolso R1 é uma opção muito mais econômica de assistente virtual, ainda com reconhecimento de comandos de voz que pode ser utilizado para acessar aplicativos como o Uber, procurar transporte, e até reservar voos. Entre uma de suas funcionalidades anunciadas, o dispositivo deve ter a capacidade de aprender novos comandos de seu usuário, e executá-los com consistência.

Empresa Meta vai identificar imagens criadas por Inteligência artificial

A Meta, que vem inovando nos últimos meses, agora vem com mais uma novidade. Na última terça-feira (6), a empresa anunciou que nos próximos meses pretende identificar qualquer imagem criada por Inteligência Artificial (IA) e que apareça no Facebook, Instagram e a recém-criada Threads.

Vale lembrar que a meta já identifica imagens feitas por IA desde dezembro, quando houve o lançamento do Meta IA criada para essa finalidade no mesmo mês.

Meta fez um comunicado sobre o assunto

O homem responsável por cuidar de assuntos internacionais, Nick Clegg, fez uma postagem em um blog dizendo o seguinte:

“Nos próximos dias, iremos rotular imagens que os usuários publicarem no Facebook, Instagram e Threads sempre que pudermos detectar indicadores, conforme as normas da indústria, que revelem se são geradas por IA”

Nick Clegg

Clegg quis dizer que a partir de agora vão fazer o mesmo que outras empresas já utilizam tal ferramenta, como a Google, OpenAI, Microsoft, e adobe.


Logo da Meta e redes sociais (Foto: reprodução/site/Jdi)

Além disso, Clegg disse que a empresa está construindo essa ferramenta e que vão aplicar etiquetas em todos os idiomas compatíveis com cada aplicativo.

O aumento da IA não é mais segredo e seu uso aumenta cada vez mais, e por consequência disso, fez crescer a preocupação de que as pessoas utilizam essas ferramentas para gerar caos político, especialmente por meio da desinformação. Quase metade da população mundial irá às urnas em 2024.

Crescimento da IA

Além do risco político, com o crescimento da IA pode acabar gerando um fluxo muito grande de fake news (noticias falsas). Como, por exemplo, um fato que vem acontecendo muito, são as deepfakes de mulheres famosas, ou até mesmo pessoas anônimas.

Até mesmo os dubladores estão com medo de perder seu trabalho, visto que agora a IA tem tomado parte do mercado e com suas ferramentas é possível a dublagem sem que seja necessário um dublador para sua realização.

Nick também disse o seguinte:

“Não é perfeito, não vai cobrir tudo, a tecnologia não está totalmente pronta. Mas, até agora, é a tentativa mais avançada a fornecer transparência significativa para todo mundo”, garantiu Clegg à AFP.

A meta não é a única empresa que busca essa segurança, a empresa OpenAI, criadora do ChatGPT, também anunciou o lançamento de ferramentas para combater a desinformação e reforçou seu desejo de não permitir o uso de suas tecnologias para fins políticos ou para criação de fake news.