Em uma declaração conjunta feita em 16 de setembro de 2024, cientistas pioneiros da inteligência artificial alertaram sobre os riscos catastróficos que a tecnologia pode trazer no futuro. Eles defendem criar um sistema global de supervisão para garantir que a IA não ultrapasse o controle humano e que seus possíveis impactos negativos sejam contidos.
Segundo os especialistas, que lideram o campo, pedem por uma regulamentação global, para assegurar que a IA permaneça sob controle humano, sendo usada de maneira segura e a favor do bem-estar coletivo.
Urgência de uma regulamentação global
Em uma reunião em Veneza, cientistas responsáveis por avanços no campo da inteligência artificial lançaram um alerta sério. Com a velocidade com que a tecnologia está progredindo, há uma preocupação crescente de que os sistemas de IA possam, em breve, ultrapassar o controle humano. Segundo esses especialistas, sem uma supervisão global e mecanismos claros para lidar com riscos iminentes, os perigos podem ser catastróficos.
A inteligência artificial já está profundamente enraizada em nossas vidas — de assistentes virtuais a automóveis autônomos, a IA está em praticamente tudo. No entanto, sua evolução rápida trouxe a tona questões éticas e de segurança. “Quem vai intervir se, em alguns meses, sistemas começarem a se autoaperfeiçoarem autonomamente?”, questiona a cientista Gillian Hadfield, uma das líderes do diálogo sobre segurança em IA.
Perda de controle e os perigos futuros
Entre as principais preocupações levantadas está a possibilidade de que a IA se desenvolva a ponto de perdermos o controle sobre ela. A criação de sistemas que poderiam se copiar ou enganar seus criadores foi citada como um dos maiores riscos. Nesse cenário, uma “perda de controle humano” sobre a tecnologia poderia gerar um impacto devastador.
Os cientistas não estão pedindo uma parada no desenvolvimento da IA, mas sim a criação de um sistema de supervisão internacional. A ideia é que cada país tenha uma autoridade responsável por monitorar os sistemas de IA, e essas autoridades trabalharão juntas para identificar sinais de alerta que indiquem potenciais riscos, como a autonomia excessiva das máquinas.
Apelo global e o futuro da IA
Os líderes dessa iniciativa incluem nomes de peso como Yoshua Bengio, Andrew Yao e Geoffrey Hinton, todos vencedores do Prêmio Turing, equivalente ao Nobel da computação. Eles defendem que as conversas sobre os riscos da IA sejam feitas de maneira aberta e colaborativa, reunindo cientistas de diferentes partes do mundo. Durante a reunião em Veneza, foram discutidas propostas para alinhar governos e empresas a respeito da segurança no desenvolvimento da tecnologia.
A carta também contou com a assinatura de cientistas chineses, britânicos, canadenses e de outros países, destacando a importância de um esforço conjunto em um momento de tensões geopolíticas, especialmente entre os Estados Unidos e a China.
Fu Hongyu, diretor de governança de IA no instituto de pesquisa da Alibaba, destacou que, diferentemente de outras tecnologias, a inteligência artificial continua em rápida transformação. “Ninguém sabe como será o futuro da IA”, afirmou. Esse grau de incerteza torna a regulação ainda mais complexa e urgente, já que, sem uma coordenação internacional, os riscos podem ser difíceis de conter.