Nesta sexta-feira (27), Elon Musk anunciou que a próxima versão da inteligência artificial conversacional Grok, desenvolvida pela sua empresa xAI, tem lançamento previsto para logo após 4 de julho. Especialistas em tecnologia e ética alertam para os riscos de que Musk esteja tentando direcionar o comportamento da IA de acordo com suas próprias convicções políticas.
Nas últimas semanas, a Grok causou polêmica ao afirmar, em resposta a um usuário da rede X (ex-Twitter), que a maioria dos casos de violência política nos EUA desde 2016 veio da direita. Mesmo citando dados oficiais, Musk rejeitou a resposta, chamando-a de “objetivamente falsa” e acusando a IA de repetir o discurso da mídia tradicional. Após o episódio, ele prometeu reformular o chatbot e pediu que usuários enviassem fatos controversos, considerados “politicamente incorretos, mas verdadeiros”, para treinar a nova versão do sistema.
Preocupações sobre viéses em IA’s
A reformulação da Grok levantou debates sobre o controle que figuras poderosas podem exercer sobre sistemas de IA amplamente acessíveis. Integrada à rede social X, a Grok tem alcance a milhões de usuários, o que torna qualquer desvio de neutralidade uma preocupação real para especialistas em ética digital e desinformação.
Em declarações à imprensa, analistas temem que Musk esteja conduzindo a IA para refletir seus próprios pontos de vista. Casos anteriores alimentam essa suspeita. Em maio, a Grok mencionou, sem relação com o tema da pergunta, um suposto “genocídio branco” na África do Sul, narrativa promovida por Musk ao longo dos anos. A xAI, por sua vez, atribuiu o erro a uma “modificação não autorizada” no sistema.
Embora assessores afirmem que a IA não pode ser totalmente controlada por uma única pessoa, as ações recentes de Musk sugerem o contrário. Nick Frosst, cofundador da Cohere, acredita que o bilionário quer criar uma IA que reflita suas próprias opiniões. Para Frosst, isso pode tornar o modelo menos útil para a maioria dos usuários, exceto para quem compartilha totalmente a visão de Musk e quer apenas repetir suas ideias.
Os desafios de reprogramar uma IA
Alterar o funcionamento de um chatbot não é algo simples. Refazer todo o treinamento do modelo leva tempo, custa caro e pode acabar criando novos problemas, especialmente se envolver a remoção seletiva de informações. Segundo especialistas, o caminho mais prático é ajustar os chamados pesos no código e inserir prompts, instruções e parâmetros que moldam como a IA entende e responde às perguntas.
Dan Neely, executivo da empresa de tecnologia Vermillio, que protege celebridades de deepfakes gerados por IA, afirmou à CNN que a xAI provavelmente está usando esse tipo de ajuste para reconfigurar a Grok em temas mais delicados, sem precisar treinar o modelo do zero.
Musk não explicou quais serão as mudanças, mas afirmou que a próxima versão do Grok 4 contará com um “modelo de codificação especializado” e será mais precisa na busca pela verdade objetiva. No entanto, nenhuma IA está livre de viés. Afinal, os dados de treinamento são escolhidos por humanos e refletem suas decisões e limitações.
Mesmo que no futuro alguns usuários escolham assistentes de IA que combinem com suas crenças, Nick Frosst acredita que modelos com viés assumido acabam sendo menos úteis. Segundo ele, a maioria das pessoas quer uma IA que resolva problemas, não uma que apenas repita ideologias.