Los chatbots de IA pueden influir eficazmente en los votantes, en cualquier dirección

MADRID, 4 Dic. 2025 (Europa Press) – Una breve interacción con un chatbot puede cambiar significativamente la opinión de un votante sobre un candidato presidencial o una política propuesta en cualquier dirección, según una nueva investigación de la Universidad de Cornell (Estados Unidos).
En concreto, los investigadores publican estos hallazgos en dos artículos simultáneamente: ‘Persuadir a los votantes mediante diálogos entre humanos y IA’, en Nature, y ‘Las palancas de la persuasión política con IA conversacional’, en Science.
El potencial de la inteligencia artificial para influir en los resultados electorales es una importante preocupación pública. Estos dos nuevos artículos, con experimentos realizados en cuatro países, demuestran que los chatbots impulsados por grandes modelos de lenguaje (LLM) son bastante eficaces en la persuasión política, modificando las preferencias de los votantes de la oposición en 10 puntos porcentuales o más en muchos casos. La capacidad de persuasión de los LLM no se debe a su maestría en la manipulación psicológica, sino a su gran cantidad de argumentos que respaldan las posturas políticas de los candidatos.
«Los LLM pueden influir significativamente en la actitud de la gente hacia los candidatos presidenciales y sus políticas, y lo hacen aportando numerosas afirmaciones fácticas que respaldan su postura», comenta David Rand, profesor de Ciencias de la Información y Marketing y Gestión de la Comunicación en Cornell, y autor principal de ambos artículos. «Sin embargo, estas afirmaciones no son necesariamente precisas, e incluso los argumentos basados en afirmaciones precisas pueden inducir a error por omisión».
En el estudio de Nature, David Rand, junto con el coautor principal Gordon Pennycook, profesor asociado de psicología, instruyeron a chatbots de IA para cambiar las actitudes de los votantes respecto a los candidatos presidenciales. Asignaron aleatoriamente a los participantes a participar en una conversación de texto con un chatbot que promovía una u otra postura y luego midieron cualquier cambio en las opiniones e intenciones de voto de los participantes. Los investigadores repitieron este experimento tres veces: en las elecciones presidenciales estadounidenses de 2024, las elecciones federales canadienses de 2025 y las elecciones presidenciales polacas de 2025.
Descubrieron que, dos meses antes de las elecciones estadounidenses, entre más de 2.300 estadounidenses, los chatbots centrados en las políticas de los candidatos provocaron un ligero cambio de opinión. En una escala de 100 puntos, el modelo de IA pro-Harris movió a los probables votantes de Trump 3,9 puntos hacia Harris, un efecto aproximadamente cuatro veces mayor que el de los anuncios tradicionales probados durante las elecciones de 2016 y 2020. El modelo de IA pro-Trump movió a los probables votantes de Harris 1,51 puntos hacia Trump.
En experimentos similares con 1.530 canadienses y 2.118 polacos, el efecto fue mucho mayor: los chatbots modificaron la actitud y la intención de voto de los votantes de la oposición en aproximadamente 10 puntos porcentuales. «Este fue un efecto sorprendentemente grande, especialmente en el contexto de la política presidencial», comenta Rand.
Los chatbots emplearon diversas tácticas de persuasión, pero la cortesía y la aportación de pruebas fueron las más comunes. Cuando los investigadores impidieron que el modelo utilizara hechos, su persuasión se volvió mucho menos convincente, lo que demuestra el papel fundamental que desempeñan las afirmaciones basadas en hechos en la persuasión de la IA.
Los investigadores también verificaron los argumentos del chatbot mediante un modelo de IA validado por verificadores humanos profesionales. Si bien, en promedio, las afirmaciones fueron mayoritariamente precisas, los chatbots encargados de apoyar a candidatos de derecha hicieron afirmaciones más inexactas que los que defendían a candidatos de izquierda en los tres países. Este hallazgo, validado con grupos de ciudadanos políticamente equilibrados, refleja el hallazgo, frecuentemente repetido, de que los usuarios de redes sociales de derecha comparten información más inexacta que los de izquierda, resumen los investigadores.
En el artículo de ‘Science’, Rand colaboró con colegas del Instituto de Seguridad de IA del Reino Unido para investigar qué hace que estos chatbots sean tan persuasivos. Midieron los cambios de opinión de casi 77.000 participantes del Reino Unido que interactuaron con chatbots sobre más de 700 temas políticos.
«Los modelos más grandes son más persuasivos, pero la manera más efectiva de aumentar su capacidad de persuasión fue instruir a los modelos para que complementaran sus argumentos con la mayor cantidad de datos posible y brindarles entrenamiento adicional enfocado en aumentar su capacidad de persuasión», matiza Rand. «El modelo más optimizado para la persuasión logró un sorprendente cambio de 25 puntos porcentuales en los votantes de la oposición».
Este estudio también demostró que cuanto más persuasivo era un modelo, menos precisa era la información que proporcionaba. Rand sospecha que, a medida que se presiona al chatbot para que proporcione cada vez más afirmaciones fácticas, con el tiempo se queda sin información precisa y empieza a inventar.
El descubrimiento de que las afirmaciones factuales son clave para la persuasión de un modelo de IA se ve respaldado por un tercer artículo reciente publicado en ‘PNAS Nexus’ por Rand, Pennycook y colaboradores. El estudio demostró que los argumentos de los chatbots de IA redujeron la creencia en teorías conspirativas incluso cuando las personas creían estar hablando con un experto humano. Esto sugiere que fueron los mensajes convincentes los que funcionaron, no la creencia en la autoridad de la IA.
En ambos estudios, se informó a todos los participantes que estaban conversando con una IA y se les informó detalladamente después. Además, la dirección de la persuasión fue aleatoria para que los experimentos no cambiaran las opiniones en general.
Estudiar la persuasión de la IA es esencial para anticipar y mitigar su uso indebido, afirmaron los investigadores. Al probar estos sistemas en experimentos controlados y transparentes, esperan fundamentar las directrices éticas y los debates sobre políticas sobre cómo se debe y no se debe utilizar la IA en la comunicación política.
Rand también señala que los chatbots solo pueden ser herramientas de persuasión efectivas si las personas interactúan con ellos en primer lugar, lo cual es un desafío muy difícil de superar. Pero no cabe duda de que los chatbots de IA serán una parte cada vez más importante de las campañas políticas, finaliza Rand. «El reto ahora es encontrar maneras de limitar el daño y ayudar a la gente a reconocer y resistir la persuasión de la IA».
Cambio Político Opinión, análisis y noticias