A inteligência artificial (IA) está mudando rapidamente e foi realizado um estudo pelo Instituto de Ética Biomédica e História da Medicina da Universidade de Zurique, da Suíça, publicado na revista Science Advances para saber se as pessoas recrutadas conseguiriam distinguir a desinformação de informações precisas, estruturadas na forma de tweets, se foi escrito por um usuário do Twitter ou pelo modelo AI GPT-3. A partir dos resultados foi descoberto que em comparação com as mensagens escritas por humanos, a IA pode produzir informações precisas que são mais fáceis de entender, por outro lado também podem produzir desinformação mais convincente. Além disso, foi mostrado que humanos não conseguem distinguir entre tweets gerados por inteligência artificial e escritos por usuários reais do Twitter.
Quadro de resultados da pesquisa. (Foto:Reprodução/Science Advances)
O estudo foi realizado com 697 pessoas dos seguintes países: Reino Unido, Austrália, Canadá, Estados Unidos e Irlanda. A maioria possuía um diploma de bacharel em ciências sociais e humanas, ciências naturais ou ciências médicas. Os pesquisadores escolheram tópicos que fossem associados à desinformação, como vacinas, COVID-19, evolução e tecnologia 5G. Dessa forma, eles pediram aos entrevistados que identificassem se os tweets eram verdadeiros ou falsos, nesse ponto os participantes tiveram mais facilidade em entender as mensagens que foram geradas por inteligência artificial, porém foram mais enganados porque as mensagens continham desinformação.
A pesquisa utilizou as mensagens geradas por GPT-3, a mais recente dos transformadores generativos pré-treinados desenvolvidos pela OpenAI, é o sistema mais avançado de representações de linguagem pré-treinadas. Os entrevistados da pesquisa também avaliaram a precisão ou imprecisão das informações contidas em 220 tweets e nos resultados os humanos conseguiram distinguir melhor do que a inteligência artificial.
Os especialistas alertaram sobre as preocupações de que o uso generalizado de inteligência artificial pode aumentar a quantidade de fake news. As ferramentas alimentadas por modelos de linguagem grandes, como o ChatGPT, são conhecidas por apresentar informações incorretas de maneira sofisticada e considerável, essas ferramentas também são conhecidas por inventar fatos.
Foto destaque: Inteligência Artificial. Reprodução/Pixabay/Tumisu