Santa Catarina
EMERGENCIAS: 911
PROTECCIÓN CIVIL: 81 8676.18.66
SEGURIDAD PÚBLICA: 81 8676.18.66
CIAC: 81 8676.17.17 / 81 8676.17.00

Entonces, el uso de la IA influye en las opiniones políticas (y en las elecciones de voto), pero ¿en qué medida?

Durante años, la política digital ha estado vendiendo la misma promesa: conocer cada vez mejor a un votante, recopilar datos cada vez más precisos, aprovechar sus hábitos, sus valores e incluso sus nervios expuestos, para ofrecer el argumento perfecto. Es el sueño del microtargeting: el mensaje adaptado a la persona adecuada, en el momento adecuado y con el tono adecuado. Luego está el otro gran artículo de fe, el más académico y menos publicitario: la creencia de que una posición realmente cambia cuando el oyente es arrastrado a un razonamiento largo y exigente, lleno de preguntas, objeciones, defensas y esfuerzo mental.

Un estudio publicado en PNASuna de las revistas científicas más citadas del mundo, tomó estas dos ideas y las llevó al banco de pruebas con inteligencia artificial. El resultado suena claro: los chatbots pueden cambiar opiniones políticas, pero los mensajes personalizados y las conversaciones profundas no parecen superar un tema genérico simple y bien escrito.

El mensaje correcto

La persuasión política siempre ha pesado mucho, y pesa mucho. Grupos de presión, candidatos, instituciones sanitarias, comités, fundaciones: todos gastan dinero y tiempo para convencer a ciudadanos que a menudo ya están polarizados. El problema surge cuando se intenta entender precisamente por qué una persona cambia de opinión. En los laboratorios, la comunicación real entra por la puerta torcida. Un verdadero investigador cambia de tono, un extra sonríe involuntariamente, una pausa suena a presión social, una mirada altera el significado de una frase. La mente del participante registra todo, incluso lo que el protocolo experimental hubiera querido dejar fuera.

Aquí es donde entra en juego el estudio. La idea inicial era casi brutal en su simplicidad: utilizar grandes modelos lingüísticos como interlocutores de debate controlables, constantes y replicables a gran escala. Mismo estilo, misma postura discursiva, misma estructura del tema, con la posibilidad de variar sólo un elemento a la vez y ver qué sucede realmente cuando entra en juego la personalización o cuando se intenta incrementar el procesamiento cognitivo, es decir, ese esfuerzo mental que según el modelo de probabilidad de elaboración debería dejar huellas más estables en las actitudes.

Para ello, el equipo construyó dos experimentos en línea preinscritos con casi 3.700 adultos estadounidenses, reclutados para aproximar los promedios censales de edad, género y raza, buscando un equilibrio político desde el principio entre demócratas y republicanos. El primer estudio fue sobre inmigración: más fondos para la seguridad fronteriza o más apertura a visas de inmigrantes patrocinadas. El segundo entró en otro terreno incandescente, el de los planes de estudio escolares: cuánto poder deberían tener los padres sobre las cuestiones sociales controvertidas que se abordan en la escuela y hasta dónde pueden llegar los profesores con sus opiniones políticas en el aula. Dos campos bien elegidos, porque en Estados Unidos bastan unos minutos sobre estas cuestiones para comprender cómo el debate público se ha vuelto rígido, identitario, a menudo cansado de escuchar.

Después de registrar las opiniones iniciales, los investigadores dividieron a los participantes entre el grupo de control y cuatro intervenciones basadas en un modelo lingüístico. En cualquier caso, el bot tenía una tarea muy concreta: sustentar la tesis contraria a la expresada por el participante. El primer grupo recibió un único texto genérico, redactado como el mejor párrafo posible que respaldaba la posición contraria. El segundo recibió un mensaje microdirigido, elaborado a partir de los datos demográficos proporcionados al inicio de la encuesta. El tercero entró en un enfrentamiento directo de seis asaltos con la IA, al que se le ordenó comportarse como un experto en psicología capaz de replicar y hacer preguntas para aumentar la implicación mental. El cuarto grupo participó en una especie de entrevista motivacional, una técnica muy utilizada en el ámbito terapéutico, en la que el robot intentaba empujar al participante a encontrar por sí mismo los motivos del cambio.

Donde la microtargeting se desinfla y sólo queda la fuerza de un argumento bien escrito

Para evitar la objeción más obvia, los investigadores también comprobaron que los contenidos subyacentes siguieran siendo comparables. Con herramientas de aprendizaje automático mapearon los núcleos argumentativos de los mensajes producidos por el sistema y verificaron que las diferencias más visibles estaban en el empaque, en la forma de presentar el material, en el tipo de interacción, mientras que el corazón fáctico de los argumentos permanecía sustancialmente alineado. En otras palabras, el estudio buscó separar la vestimenta de la sustancia. Y ahí es exactamente donde el vestido dejó de parecer milagroso.

Hubo un efecto persuasivo. Esto hay que decirlo claramente. La exposición al argumento contrario empujó a muchas personas a moderar su posición, con un cambio promedio estimado entre aproximadamente 2,5 y 4 puntos porcentuales en la dirección del argumento recibido. El hecho interesante llega un segundo después: los métodos más sofisticados transmitieron poco más que el mensaje básico y, a menudo, no produjeron nada más. La personalización profunda y los chats interactivos no han mostrado una ventaja convincente sobre un solo párrafo genérico. En el experimento de inmigración, las entrevistas motivacionales estuvieron incluso entre los enfoques menos efectivos. Para quienes imaginan campañas electorales dominadas por máquinas capaces de leer el alma del votante individual, el golpe es notable.

Este pasaje pone en dificultad dos ideas muy arraigadas. El primero se refiere al microtargeting, presentado durante años como la palanca decisiva de la comunicación política digital. La segunda toca el modelo de verosimilitud de elaboración, es decir, la creencia de que el cambio más sólido llega cuando la persona tiene que comprometerse, responder, razonar y defender su posición. El estudio no dice que estos mecanismos no existan ni que valgan cero. Dice algo más molesto y, por tanto, más útil: en una interacción breve y controlada, la ventaja adicional parece pequeña, mucho menor de lo que promete la retórica de las campañas y los consultores. A veces un argumento lineal, bien construido, expresado coherentemente, es suficiente para obtener casi el mismo efecto que el refinado y costoso dispositivo.

Las opiniones cambian, la hostilidad permanece firme

Los investigadores también buscaron en otros lugares, y aquí el panorama se vuelve aún más interesante. Además de cambiar de posición sobre políticas individuales, midieron la reciprocidad democrática, es decir, la voluntad de considerar a los oponentes políticos personas razonables, dignas de respeto y legítimas dentro del espacio democrático. Durante años, muchos académicos se han preguntado si reducir la distancia sobre un tema también significa reducir la hostilidad hacia el grupo que piensa diferente. Eso sería tranquilizador. También sería muy conveniente. Los datos recopilados aquí muestran un panorama más difícil.

En varios casos, la gente ha moderado sus opiniones políticas. El sentimiento hacia el bando contrario, sin embargo, se mantuvo casi donde estaba. El foso ideológico se ha reducido un poco, la antipatía subyacente hacia el otro bloque político se ha mantenido firme. Sólo hubo una excepción notable: en los chats interactivos sobre los planes de estudio escolares, los participantes mostraron un aumento en la reciprocidad democrática. Los autores plantean la hipótesis de que dependió del hecho de que, en ese contexto específico, el robot insistió abiertamente en el valor de la tolerancia social dentro del discurso educativo. Es un pequeño detalle y por eso vale mucho: cambiar de opinión no genera automáticamente respeto, confianza y reconocimiento mutuo. La política sigue llena de personas que pueden acercarse a un nivel concreto y seguir mirándose con la misma dureza que antes.

La verdadera lección también concierne a la investigación social.

Los autores instan a no tomar estos resultados como una sentencia definitiva. Los experimentos observan interacciones breves que ocurren en un entorno digital aislado. La vida real funciona con tiempos más largos, relaciones estratificadas, recuerdos compartidos, reputaciones, rostros, silencios, vergüenzas, obligaciones sociales. Un tema pronunciado por un amigo cercano, un familiar, una persona estimada, entra en la mente de manera diferente que el mismo tema leído en una encuesta en línea. Aquí la IA no borra el problema, lo pone en una luz más clara. De hecho, la principal promesa del trabajo también reside en el método: utilizar sistemas generativos para producir miles de interacciones controladas, comparables y repetibles, con costos mucho más bajos que un aparato experimental enteramente humano.

Y esta es quizás la parte que permanecerá más tiempo. La inteligencia artificial, en este caso, no aparece como un oráculo ni como una amenaza propia de una película distópica. Aparece como una herramienta de laboratorio capaz de presionar teorías que parecían establecidas. El trabajo publicado en PNAS muestra que la persuasión política a través de la IA funciona, y esto por sí solo es suficiente para levantar las antenas. También demuestra que la fantasía del mensaje quirúrgico, hiperpersonalizado, capaz de profundizar mucho más, al fin y al cabo, se sostiene menos de lo esperado cuando se mira de cerca. Para un sector que lleva años vendiendo la precisión emocional como si fuera una ciencia exacta, la noticia es significativa. Mucho más que un párrafo bien escrito.