Una IA consigue disuadir a creyentes en Teorías Conspirativas

Un estudio muestra que la Inteligencia Artificial puede usarse para luchar contra la conspiranoia.

Una IA consigue disuadir a creyentes en Teorías Conspirativas

Las teorías conspirativas han existido durante siglos, pero en la era digital, su propagación ha alcanzado niveles sin precedentes. Desde ideas aparentemente inofensivas, como la creencia de que nunca se llegó a pisar la Luna, hasta teorías peligrosas que rechazan las vacunas o niegan el cambio climático, estas creencias pueden tener consecuencias graves para la sociedad. Cambiar la mentalidad de quienes están atrapados en estas narrativas ha sido un desafío constante para la ciencia y la comunicación pública.

Sin embargo, un estudio reciente del Instituto de Tecnología de Massachusetts (MIT) ha revelado una posible solución: la inteligencia artificial. Esta investigación sugiere que los chatbots pueden disuadir a algunos creyentes de teorías conspirativas mediante conversaciones personalizadas basadas en hechos. En este artículo, exploraremos la forma en que la IA podría ayudar a combatir este problema y las implicaciones éticas y sociales de su implementación en la lucha contra la desinformación.

El problema de las teorías conspirativas

Las teorías conspirativas son creencias alternativas que ofrecen explicaciones simplificadas a eventos complejos, generalmente atribuyendo la responsabilidad de estos a grupos poderosos que actúan en secreto o a espaldas de la sociedad en general. Aunque algunas teorías pueden parecer inofensivas, otras tienen consecuencias graves. Ejemplos como el negacionismo del cambio climático o el movimiento antivacunas protagonista en la pandemia de COVID-19 han provocado daños significativos, ya sea en la salud pública o en la falta de acción ante crisis globales.

El problema principal de las teorías conspirativas es su naturaleza “pegajosa”. Una vez que alguien adopta una creencia conspirativa, resulta extremadamente difícil convencerle de lo contrario. Esto se debe a varios factores, como la desconfianza en las instituciones públicas y científicas, y la tendencia a buscar información que confirme sus creencias previas, en lugar de desafiar sus ideas. A menudo, los seguidores de teorías conspirativas forman comunidades que refuerzan estas creencias, creando una burbuja de pensamiento en la que cualquier información externa es automáticamente desestimada.

Además, quienes creen en teorías conspirativas suelen realizar investigaciones extensivas en línea, buscando datos que apoyen sus ideas. Esto los lleva a un ciclo donde confirman sus sospechas y se alejan todavía más de las fuentes científicas y verificadas. Las redes sociales y los algoritmos de recomendación también juegan un papel importante en la propagación de estas teorías, ya que facilitan el acceso a contenido que refuerza las creencias erróneas.

Este fenómeno se convierte en un reto social importante, ya que la desconfianza en la ciencia y las instituciones puede tener consecuencias graves, desde la negación de tratamiento médicos efectivos hasta la resistencia a políticas ambientales necesarias. Combatir estas creencias resulta complicado, y hasta ahora, la intervención humana ha demostrado ser insuficiente en muchos casos.

El papel de la IA en la lucha contra la desinformación y la conspiranoia

La inteligencia artificial (IA) ha estado en el centro de la propagación de desinformación en los últimos años. Muchas plataformas que utilizan algoritmos de IA, como redes sociales y monitores de búsqueda, facilitan la difusión de teorías conspirativas al mostrar contenido personalizado basado en los intereses de los usuarios. Esta tendencia, alimentada por el sesgo de confirmación, permite que las personas se vean expuestas continuamente a información que refuerza sus creencias erróneas, lo que las aleja todavía más de los hechos.

A pesar de esto, la IA también tiene un potencial considerable para combatir la desinformación. Chatbots y sistemas de IA generativa, como los que se utilizan en asistentes virtuales o plataformas de mensajería, tienen la capacidad de entablar y generar conversaciones directas con las personas y proporcionar respuestas basadas en datos reales. Estos sistemas pueden ofrecer no solo hechos, sino también argumentos que desafíen las creencias de las personas, lo cual resulta crucial para abordar teorías complejas y profundamente arraigadas.

Un aspecto clave de estos sistemas es su aparente neutralidad y objetividad. A diferencia de una persona, un chatbot no tiene una opinión formada o una capacidad perceptiva, lo que puede generar mayor confianza en las personas que han perdido fe en las instituciones tradicionales. Además, los chatbots son capaces de personalizar las respuestas según la creencias conspirativas específicas del individuo, adaptándose a las razones que motivan su escepticismo. Esta capacidad de adaptación resulta esencial para romper la rigidez de estas creencias falsas.

Sin embargo, también existen riesgos. Los sistemas de IA son propensos a errores y pueden reproducir sesgos presentes en los datos con los que fueron entrenados. Si no se controlan adecuadamente, estos sistemas podrían, irónicamente, perpetuar la desinformación en lugar de combatirla. Esto plantea importantes desafíos éticos que deben ser considerados en el desarrollo y uso de estas tecnologías.

Cómo la IA hace dudar a los creyentes en creencias conspirativas

Un estudio reciente llevado a cabo por Thomas Costello y su equipo de investigación en el Instituto de Tecnología de Massachusetts (MIT) ha mostrado que las interacciones con chatbots de inteligencia artificial pueden ser efectivas para reducir las creencias en teorías conspirativas. Este trabajo, publicado en la revista Science, buscaba investigar si los argumentos basados en hechos y presentados por un sistema de IA podrían persuadir a las personas a abandonar estas creencias profundamente arraigadas.

El estudio incluyó a más de 2.000 participantes, todos ellos creyentes de alguna teoría conspirativa, quienes interactuaron con un chatbot de IA. Los participantes se dividieron en dos grupos. Al primero, conocido como el grupo de “tratamiento” se le ofreció un chatbot que personalizaba sus respuestas según la teoría conspirativa específica de cada individuo. Este chatbot no solo presentaba hechos contrarios a las creencias de los participantes, sino que también ofrecía argumentos adaptados a las razones que los motivaban a creer en la conspiración. El chatbot conversaba con ellos en tres rondas, en las que presentaba refutaciones basadas en datos de forma amigable y accesible.

El segundo grupo, de control, tuvo una conversación general con un chatbot que no estaba personalizado ni hacía esfuerzos por refutar las teorías conspirativas. La interacción fue menos enfocada en desmentir las creencias de los participantes y más genérica.

Los resultados mostraron que aproximadamente el 20% de los participantes del grupo de tratamiento redujeron significativamente sus creencias en teorías conspirativas después de la conversación con el chatbot. Lo más interesante es que, dos meses después, los investigadores hicieron un seguimiento y descubrieron que la mayoría de estos individuos aún mostraban una disminución en su creencia en conspiraciones. Esto sugiere que el impacto de la interacción con el chatbot fue duradero, lo que representa un avance notable en el abordaje de este problema social.

Además, los investigadores verificaron la precisión de estos chatbots y encontraron que, en la mayoría de los casos, los sistemas proporcionaron respuestas correctas. Esto resalta el potencial de la IA no solo para intervenir en tiempo real en la creencia en teorías conspirativas, sino también para lograr efectos a largo plazo en la percepción y el pensamiento crítico de las personas.

Las limitaciones y preocupaciones éticas

Aunque el estudio de Costello y su equipo muestra resultados prometedores, es importante reconocer las limitaciones que tuvo esta investigación. A continuación, delimitaremos algunos de los problemas y limitaciones principales.

1. Influencia del apego emocional

Una de las principales limitaciones es que la IA parece ser más efectiva con personas que no tienen un fuerte apego emocional o comunitario hacia las teorías conspirativas. Las personas que creen en estas teorías como parte de una identidad grupal o que desconfían profundamente de cualquier fuente externa pueden ser mucho más difíciles de convencer. En estos casos, las creencias están vinculadas a un sentido de pertenencia, lo que hace que la lógica y los hechos por sí solos resulten insuficientes para cambiar su postura.

2. Riesgos de la IA

Otro desafío es el riesgo inherente a los propios sistemas de IA. A pesar de que los chatbots pueden ser efectivos, también corren el peligro de perpetuar información errónea si no están adecuadamente supervisados. Estos sistemas se entrenan con grandes volúmenes de datos, algunos de los cuales pueden estas sesgados o ser incorrectos. Si se alimentan de información falsa, la IA podría generar respuestas que refuercen creencias conspirativas en lugar de desmentirlas, lo que subraya la necesidad de una cuidadora curación de datos y algoritmos responsables.

3. Preocupación ética

Además, surge la preocupación ética sobre hasta qué punto es apropiado que una máquina u ordenador intente cambiar las creencias humanas, incluso si esas creencias son perjudiciales. Existe el riesgo de manipulación si la IA es utilizada sin transparencia o supervisión. Esto plantea preguntas sobre el control que deben tener los seres humanos sobre estas tecnologías y la importancia de establecer normas éticas y políticas para su desarrollo y uso.

Conclusiones

El uso de la IA para disuadir creencias en teorías conspirativas ofrece un enfoque novedoso y prometedor, demostrando que las conversaciones personalizadas pueden reducir estas creencias, al menos en ciertos individuos. Sin embargo, su eficacia es limitada frente a las personas que tienen fuertes lazos comunitarios o emocionales con estas creencias. A pesar de los riesgos de perpetuar la desinformación si no se gestionan correctamente, la IA tiene el potencial de ser una herramienta valiosa en la lucha contra la desinformación, siempre bajo una supervisión ética.

Newsletter PyM

La pasión por la psicología también en tu email

Únete y recibe artículos y contenidos exclusivos

Suscribiéndote aceptas la política de privacidad

  • Bago, B.; Bonnefon, J. F. (2024). Generative AI as a tool for truth.Science, 385: pp. 1164-1165.

Al citar, reconoces el trabajo original, evitas problemas de plagio y permites a tus lectores acceder a las fuentes originales para obtener más información o verificar datos. Asegúrate siempre de dar crédito a los autores y de citar de forma adecuada.

Javi Soriano. (2024, octubre 4). Una IA consigue disuadir a creyentes en Teorías Conspirativas. Portal Psicología y Mente. https://psicologiaymente.com/social/ia-consigue-disuadir-a-creyentes-en-teorias-conspirativas

Psicólogo

Javi Soriano es graduado en Psicología por la Universidad de Valencia y está acabando un Máster en Investigación Psicosocial. Le interesa todo lo que tiene que ver con las personas y la sociedad, pero le encanta leer y escribir sobre temas relacionados con el género, la sexualidad y las minorías. Es una persona muy curiosa a la que le encantan los debates y aprender de los demás.

Psicólogo/a

¿Eres psicólogo?

Date de alta en nuestro directorio de profesionales

Artículos relacionados

Artículos nuevos

Quizás te interese

Consulta a nuestros especialistas