G7 produz código de conduta para empresas de inteligência artificial

Alexandre Kenzo Por Alexandre Kenzo
3 min de leitura

Nesta segunda-feira (30), o Grupo dos Sete (G7) deve anunciar um inédito acordo sobre o código de conduta para empresas que estão desenvolvendo tecnologias de inteligência artificial (IA) ou que ofereçam serviços utilizando sistemas avançados que dependem de tais tecnologias. Trata-se de uma medida para mitigar os potenciais riscos da IA, especialmente na questão de privacidade e segurança.

Processo de IA de Hiroshima

Com o uso indevido crescente dessas tecnologias – por exemplo para a aplicação de golpes – tal acordo trata de um importante marco nessa questão. Os países que compõem o G7 (Estados Unidos, Canadá, França, Alemanha, Itália, Japão e Reino Unido) ainda incluíram a União Europeia na discussão em maio, em um fórum ministerial apelidado de “Processo de IA de Hiroshima”.

O documento apresenta um total de 11 tópicos distintos, e afirma em seu texto que se “visa promover uma IA segura e confiável em todo o mundo e fornecer orientação para ações de organizações que desenvolvem os sistemas de IA mais avançados, incluindo modelos básicos e sistemas de IA generativas”.


Os usos indevidos da inteligência artificial põem em risco contas bancárias, os direitos autorais, e até a própria identidade.

Os usos indevidos da inteligência artificial põem em risco contas bancárias, os direitos autorais, e até a própria identidade. (Foto:Reprodução/Canal Ciências Criminais)


Conduta requerida

Entre as várias recomendações e urgências, o código de conduta requer das empresas de desenvolvimento da IA o cumprimento com alguns pontos:

  • As empresas devem tomar medidas para detectar, avaliar e mitigar riscos em todo o ciclo de vida (processo de programação, treinamento, e publicação) da inteligência artificial.
  • As empresas devem se posicionar contra os abusos da tecnologia mesmo após os produtos terem chegado ao mercado, sendo sua responsabilidade enfrentar os usos indevidos.
  • As empresas devem publicar relatórios contendo as capacidades, limitações e análises sobre o uso da tecnologia produzida.
  • As empresas devem investir em protocolos de segurança e controles robustos.

Regulação vs. Desregulação

De acordo ainda com o documento produzido pelo G7, o código “destina-se a ajudar a aproveitar os benefícios e a enfrentar os riscos e desafios trazidos por estas tecnologias“.

A União Europeia, que também participou na elaboração das recomendações, tem sido a maior reguladora da tecnologia, com o AI Act, a mais extensiva lei proposta até o momento sobre a IA, enquanto países como os Estados Unidos e o Japão tem tido uma abordagem mais laissez-faire, apostando no crescimento econômico mais do que na segurança ou privacidade.

Este debate entre regulação e desregulação da tecnologia está por trás, em grande parte, da demora na elaboração e aprovação de códigos de conduta na escala global, e explica porque houve a demora na elaboração que se iniciou em maio desse ano e apenas concluiu nesta segunda-feira (30), em outubro.

 

Foto Destaque: Podem ser afetadas as tecnologias de chatbot, como o ChatGPT. (Reprodução/Ília Digital)

Deixe um comentário

Deixe um comentário Cancelar resposta

Sair da versão mobile