Cientistas pedem supervisão global para evitar riscos da inteligência artificial

Grupo de especialistas em inteligência artificial alerta sobre a necessidade de criar sistemas internacionais para evitar perda de controle humano sobre a tecnologia

Barbara Souza Por Barbara Souza
4 min de leitura
Foto destaque: Regulação global da IA é proposta por especialistas para evitar cenários catastróficos no futuro (Reprodução/Anna Shvets/Pexels)

Em uma declaração conjunta feita em 16 de setembro de 2024, cientistas pioneiros da inteligência artificial alertaram sobre os riscos catastróficos que a tecnologia pode trazer no futuro. Eles defendem criar um sistema global de supervisão para garantir que a IA não ultrapasse o controle humano e que seus possíveis impactos negativos sejam contidos.


A evolução acelerada da IA levanta questões sobre o controle humano (Foto: reprodução/cottonbro studio/Pexels)

Segundo os especialistas, que lideram o campo, pedem por uma regulamentação global, para assegurar que a IA permaneça sob controle humano, sendo usada de maneira segura e a favor do bem-estar coletivo.

Urgência de uma regulamentação global

Em uma reunião em Veneza, cientistas responsáveis por avanços no campo da inteligência artificial lançaram um alerta sério. Com a velocidade com que a tecnologia está progredindo, há uma preocupação crescente de que os sistemas de IA possam, em breve, ultrapassar o controle humano. Segundo esses especialistas, sem uma supervisão global e mecanismos claros para lidar com riscos iminentes, os perigos podem ser catastróficos.

A inteligência artificial já está profundamente enraizada em nossas vidas — de assistentes virtuais a automóveis autônomos, a IA está em praticamente tudo. No entanto, sua evolução rápida trouxe a tona questões éticas e de segurança. “Quem vai intervir se, em alguns meses, sistemas começarem a se autoaperfeiçoarem autonomamente?”, questiona a cientista Gillian Hadfield, uma das líderes do diálogo sobre segurança em IA.

Perda de controle e os perigos futuros


 IAs avançam rapidamente, levantando preocupações sobre segurança (Foto: reprodução/pratique.fr/Pinterest)


Entre as principais preocupações levantadas está a possibilidade de que a IA se desenvolva a ponto de perdermos o controle sobre ela. A criação de sistemas que poderiam se copiar ou enganar seus criadores foi citada como um dos maiores riscos. Nesse cenário, uma “perda de controle humano” sobre a tecnologia poderia gerar um impacto devastador. 

Os cientistas não estão pedindo uma parada no desenvolvimento da IA, mas sim a criação de um sistema de supervisão internacional. A ideia é que cada país tenha uma autoridade responsável por monitorar os sistemas de IA, e essas autoridades trabalharão juntas para identificar sinais de alerta que indiquem potenciais riscos, como a autonomia excessiva das máquinas.

Apelo global e o futuro da IA

Os líderes dessa iniciativa incluem nomes de peso como Yoshua Bengio, Andrew Yao e Geoffrey Hinton, todos vencedores do Prêmio Turing, equivalente ao Nobel da computação. Eles defendem que as conversas sobre os riscos da IA sejam feitas de maneira aberta e colaborativa, reunindo cientistas de diferentes partes do mundo. Durante a reunião em Veneza, foram discutidas propostas para alinhar governos e empresas a respeito da segurança no desenvolvimento da tecnologia.

A carta também contou com a assinatura de cientistas chineses, britânicos, canadenses e de outros países, destacando a importância de um esforço conjunto em um momento de tensões geopolíticas, especialmente entre os Estados Unidos e a China.

Fu Hongyu, diretor de governança de IA no instituto de pesquisa da Alibaba, destacou que, diferentemente de outras tecnologias, a inteligência artificial continua em rápida transformação. “Ninguém sabe como será o futuro da IA”, afirmou. Esse grau de incerteza torna a regulação ainda mais complexa e urgente, já que, sem uma coordenação internacional, os riscos podem ser difíceis de conter.