Según un nuevo estudio, las conversaciones personalizadas con un chatbot de inteligencia artificial (IA) entrenado pueden reducir la creencia en teorías conspirativas, incluso en los individuos más obstinados. Estos hallazgos, que desafían la idea de que dichas creencias son impermeables al cambio, apuntan a una nueva herramienta para combatir la desinformación. “Se ha convertido casi en un lugar común que las personas que están ‘profundamente inmersas’ en creencias conspirativas son casi imposibles de alcanzar”, escriben los autores. “En contraste con esta visión pesimista, [mostramos] que una conversación relativamente breve con un modelo de IA generativa puede producir una disminución grande y duradera en las creencias conspirativas, incluso entre personas cuyas creencias están profundamente arraigadas”. Las teorías conspirativas, es decir, creencias de que alguna organización malévola secreta pero influyente es responsable de un evento o fenómeno, son notoriamente persistentes y representan una seria amenaza para las sociedades democráticas. Sin embargo, a pesar de su falta de plausibilidad, una gran fracción de la población mundial ha llegado a creer en ellas, incluyendo hasta el 50% de la población de Estados Unidos, según algunas estimaciones. La creencia persistente en teorías conspirativas a pesar de la clara evidencia en contra suele explicarse por procesos psicosociales que satisfacen necesidades psicológicas y por la motivación de mantener la identidad y la pertenencia grupal. Las intervenciones actuales para desmentir conspiraciones entre creyentes existentes son en gran medida ineficaces.
Thomas Costello y sus colegas investigaron si los modelos extensos de lenguaje (LLM) como GPT-4 Turbo pueden refutar eficazmente teorías conspirativas utilizando su vasto acceso a la información y contraargumentos personalizados que responden directamente a la evidencia presentada por los creyentes. En una serie de experimentos en los que participaron 2190 creyentes en conspiraciones, los participantes interactuaron de manera personalizada con un LLM, compartiendo sus creencias conspirativas y la evidencia que consideraban que las apoyaba. A su vez, el LLM respondió refutando directamente estas afirmaciones a través de contraargumentos personalizados, basados en hechos y evidencia. Un verificador de hechos profesional contratado para evaluar la precisión de las afirmaciones hechas por GPT-4 Turbo informó que, de estas afirmaciones, el 99,2 % fueron calificadas como “verdaderas”, el 0,8 % como “engañosas” y ninguna como “falsa”; además, no se encontraron sesgos liberales o conservadores. Costello y sus colaboradores descubrieron que estos diálogos impulsados por IA redujeron las creencias erróneas de los participantes en un promedio del 20 %. Este efecto duró al menos 2 meses y se observó en diversas teorías conspirativas no relacionadas, así como en diferentes categorías demográficas. Según los autores, los hallazgos desafían la idea de que la evidencia y los argumentos son ineficaces una vez que alguien ha adoptado una teoría conspirativa. También cuestionan las teorías psicosociales que se centran en las necesidades psicológicas y motivaciones como los principales impulsores de las creencias conspirativas. "Para bien o para mal, la IA está destinada a cambiar profundamente nuestra cultura", escriben Bence Bago y Jean-François Bonnefon en una perspectiva relacionada. "Aunque ampliamente criticada como un multiplicador de desinformación, el estudio de Costello et al. demuestra una posible aplicación positiva del poder persuasivo de la IA generativa".
Se puede visitar una versión del chatbot mencionado en este estudio en https://www.debunkbot.com/conspiracies.
Journal
Science
Article Title
Durably reducing conspiracy beliefs through dialogues with AI
Article Publication Date
13-Sep-2024