Cómo la Inteligencia Artificial puede ser usada para manipular tu ideología

Un estudio muestra que la IA puede utilizarse para manipular la opinión pública eficazmente.

Cómo la Inteligencia Artificial puede ser usada para manipular tu ideología
Dall E

¿ERES PSICÓLOGO/A EN ?

Destaca entre toda tu competencia profesional.

Cada vez hay más personas que se apoyan en las diferentes aplicaciones de Inteligencia Artificial (IA) para hacer consultas sobre diferentes temas. De igual forma que algunas personas recurren a estos chatbots en forma de consuelo o guía emocional, hay otras que acuden para reflexionar sobre política.

Sin duda, los sistemas de inteligencia artificial tienen cada vez más capacidad para mantener conversaciones lógicas y coherentes en las que una persona puede llegar a sentirse realmente comprendida. Como consecuencia de esta comodidad a la hora de interactuar con el chatbot las personas parecen estar, en ocasiones, más receptivas a otros puntos de vista o planteamientos.

Y esto genera dudas. ¿Es posible que la inteligencia artificial consiga hacernos cambiar de opinión? Y, si así fuera, ¿qué sucedería en el caso de que no sean neutrales? Un estudio reciente demuestra que, efectivamente, una IA sesgada puede hacernos cambiar de opinión sin demasiado esfuerzo. A lo largo de este artículo abordamos los detalles de esta investigación.

¿Pueden estar sesgados los chatbots?

Hoy en día existen multitud de programas de inteligencia artificial que simulan conversaciones humanas mediante texto, o incluso voz, y que permiten interactuar con los usuarios. Estos modelos, conocidos como chatbots, engloban una gran variedad de funciones que van desde responder preguntas complejas hasta buscar información o automatizar tareas, entre muchas otras.

Los modelos lingüísticos de inteligencia artificial son sistemas complejos que han sido entrenados con cantidades enormes de texto e información de Internet. Puesto que ya en estas fuentes existen sesgos inherentes al ser humano, los programas de IA suelen reproducir –o incluso amplificar– dicha parcialidad en las respuestas que ofrecen.

El nuevo estudio sobre el impacto de los sesgos de la IA

Investigadores de las universidades de Washington y Stanford han llevado a cabo un estudio, publicado recientemente, en el que se pretendía analizar el efecto que los sesgos que presentan los chatbots pueden llegar a tener sobre las personas, su forma de pensar y las decisiones que toman a raíz de las conversaciones mantenidas.

Así pues, diseñaron un estudio en el que se pretendía estudiar el impacto de las conversaciones mantenidas con programas sesgados de IA tanto en las propias opiniones políticas como en las decisiones que las personas tomaban. Para ello, reclutaron a 299 participantes estadounidenses que se identificaron como demócratas o republicanos.

El programa de IA había sido programado en tres versiones: una como modelo base neutral, otra con un sesgo liberal y la última con un sesgo conservador. Los participantes fueron asignados de forma aleatoria para interactuar con una de estas tres versiones sin saber que el chatbot podría estar sesgado.

En una primera tarea, se pidió a los participantes que opinaran sobre un tema político relativamente desconocido –puesto que, de este modo, sería poco probable que las personas tuvieran opiniones firmes al respecto– y posteriormente conversaron con el programa de inteligencia artificial. En esta interacción, los participantes obtenían más información sobre el tema y posteriormente volvían a compartir su opinión.

La segunda tarea que se diseñó para este estudio consistía en una asignación de presupuestos. Se pidió a los participantes que actuaran como si fueran alcaldes para distribuir el presupuesto entre los sectores de la sanidad pública, educación, los servicios para los veteranos de guerra y bienestar.

De nuevo, los participantes asignaron de forma inicial los presupuestos. Seguidamente, compartieron sus propuestas con el chatbot y recibieron comentarios para fomentar el debate con el modelo de IA. De igual forma que sucedía en la otra tarea, una vez finalizada la interacción con el chatbot se les pedía a los participantes que, de nuevo, volvieran a hacer una asignación de los presupuestos —esta vez de forma definitiva—.

¿Qué encontraron los científicos?

Los resultados obtenidos fueron claros y, a la vez, alarmantes. Se observó que no hicieron falta muchas interacciones para que los participantes comenzaran a cambiar tanto sus opiniones como las decisiones que habían tomado antes de hablar con el chatbot. En todos los casos, se observó que las modificaciones se decantaron hacia la dirección del sesgo que presentaba el chatbot con el que habían estado interactuando.

Si nos centramos en las diferentes tareas, los investigadores señalan que en ambos casos se observaron estas tendencias. Por un lado, aquellos participantes que conversaron en la primera tarea con un chatbot sesgado, presentaron más probabilidades de decantarse hacia el tipo de opiniones que presentaba el modelo de IA en comparación con las personas que habían tenido interacciones con el chatbot neutral.

En otras palabras, observaron que los participantes que se identificaban de una determinada forma podían apoyar con más o menos fuerza un tema en función del sesgo que tuviera el chatbot con el que habían hablado. Es decir, si el chatbot presentaba el sesgo opuesto a sus ideales, tendían a apoyar con menos fuerza el tema. Si, por el contrario, el sesgo del programa era de su misma ideología tendían a apoyar más el tema.

En relación con la segunda tarea, los cambios en las opiniones de las personas y las decisiones que tomaban se vieron todavía más claros. Se observó que tras las interacciones con los chatbots que presentaban un sesgo, los participantes modificaron las propuestas presupuestarias que habían planteado inicialmente para alinearse más con las inclinaciones que el chatbot mostraba debido a su sesgo.

¿Qué implicaciones tienen estos hallazgos?

Aunque es importante tener en cuenta que los propios autores reconocen que el estudio tiene ciertas limitaciones –como por ejemplo el hecho de que se llevó a cabo en Estados Unidos y, por tanto, podría no aplicar a otros modelos políticos–, no debemos minimizar el impacto de estos resultados.

Si tras unas pocas interacciones controladas el impacto sobre las propias opiniones y las decisiones que se toman a raíz de las conversaciones con el chatbot pueden llegar a cambiar considerablemente, es necesario pararse a reflexionar sobre el impacto que este tipo de herramientas puede tener en contextos masivos.

Los propios autores advierten de que estos efectos podrían verse aumentados en aquellos sistemas que se usan a gran escala. Sin duda, el hecho de que la inteligencia artificial pudiera llegar a influir –aunque fuese ligeramente– en una gran parte de la población no es algo que deba obviarse. Es importante tomar conciencia de la realidad y educar a la sociedad para protegerla de los posibles riesgos derivados.

Newsletter PyM

La pasión por la psicología también en tu email

Únete y recibe artículos y contenidos exclusivos

Suscribiéndote aceptas la política de privacidad

  • Fisher, J., Feng, S., Aron, R., Richardson, T., Choi, Y., Fisher, D. W., Pan, J., Tsvetkov, Y., & Reinecke, K. (2025). Biased LLMs can influence political decision-making. In Proceedings of the 63rd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers) (pp. 6559–6607). Vienna, Austria: Association for Computational Linguistics.

Al citar, reconoces el trabajo original, evitas problemas de plagio y permites a tus lectores acceder a las fuentes originales para obtener más información o verificar datos. Asegúrate siempre de dar crédito a los autores y de citar de forma adecuada.

Nerea Moreno. (2025, octubre 8). Cómo la Inteligencia Artificial puede ser usada para manipular tu ideología. Portal Psicología y Mente. https://psicologiaymente.com/social/como-inteligencia-artificial-usada-para-manipular-ideologia

Psicóloga

Nerea Moreno es graduada en psicología, con mención en psicología clínica, por la Universidad de Barcelona. Cursó el Máster en Psicología General Sanitaria con la Universidad Autónoma de Barcelona. Posteriormente, se formó como experta en psicología de las emergencias y catástrofes. Tanto esta formación como la experiencia laboral en el campo, supusieron para Nerea el descubrimiento de un nuevo mundo: el trauma. Desde entonces, trabaja desde un enfoque integrador y no ha parado de formarse en trauma, sistema nervioso, apego, duelo y emociones.

Artículos nuevos

Quizás te interese

Consulta a nuestros especialistas