jueves, 30 de abril de 2026

29-¿Pueden las máquinas ganarse tu voto? La sorprendente verdad sobre la persuasión de la IA

 PODCAST    PRESENTACIÓN      LISTA DE IA

La historia de las elecciones modernas no se puede escribir sin mencionar la influencia de las redes sociales. Como señalaba una columna reciente en el  New York Times  titulada  "Political Campaigns Have No Idea What's About to Hit Them"  (Las campañas políticas no tienen idea de lo que se les viene encima), plataformas que alguna vez fueron simples canales de comunicación se convirtieron en herramientas determinantes para alterar el tablero electoral. Sin embargo, nos enfrentamos a una frontera mucho más inquietante que la simple desinformación estática. La llegada de la Inteligencia Artificial Generativa (IAG) ha transformado el conflicto: ya no se trata de noticias falsas que se leen de forma pasiva, sino de una  persuasión interactiva, dinámica y profundamente personalizada  capaz de moldear la voluntad del votante a través del diálogo en tiempo real.

La IA es más convincente que los humanos


Un estudio fundamental (Schoenegger et al., 2025) ha puesto a prueba la capacidad de convicción de modelos de lenguaje avanzados frente a seres humanos motivados. En un entorno de conversaciones interactivas sobre temas de conocimiento general, el modelo  Claude 3.5 Sonnet
  demostró ser sistemáticamente más eficaz que sus contrapartes humanas. Lo más alarmante no es solo la victoria de la máquina, sino el nivel de la competencia. Los investigadores utilizaron un "benchmark humano incentivado": a los participantes humanos se les pagaron bonos económicos si lograban persuadir a otros. Pero hay un detalle crucial: los "quiz takers" (quienes respondían) también estaban incentivados económicamente para ser precisos. En este entorno de alta presión donde ambas partes buscaban ganar,  Claude fue un 7,61% más persuasivo que los humanos . Para los procesos democráticos, esto sugiere que la IA no es solo una herramienta de automatización, sino una entidad con una capacidad de influencia superior a la de un agitador político profesional."Claude fue más persuasivo que los persuasores humanos incentivados tanto en contextos veraces como engañosos; aumentó significativamente la precisión de las respuestas si la persuasión era veraz, pero la disminuye si la persuasión era engañosa".


¿Cómo lo consigue? La "Heurística de la Confianza"

¿Por qué caemos ante la elocuencia de un algoritmo? El análisis de los  marcadores de metadiscurso  en las interacciones revela que la IA utiliza mecanismos lingüísticos específicos para desarmar nuestra resistencia cognitiva. El éxito de estos modelos radica en la proyección de una certeza casi absoluta.

  • Uso de "maximizadores":  La IA emplea con frecuencia palabras como "absolutamente", "completamente" y "definitivamente", proyectando una fuerte convicción.

  • Ausencia de "rodeos":  Mientras los humanos suelen usar un lenguaje cauteloso o dubitativo ("quizás", "en mi opinión", "probablemente"), la IA evita estas marcas de incertidumbre.

  • Densidad lingüística:  Los mensajes de la IA fueron, de media,  cinco veces más largos  que los humanos (aprox. 70 palabras frente a 14). Además, presentaron niveles de complejidad mucho más altos según el índice Flesch-Kincaid (8,16 vs 3,50).Esta sofisticación y verbosidad no son accidentales; crean una  falsa sensación de pericia . Al presentarse con una autoridad léxica superior, la IA logra que el votante promedio confunda la elocuencia técnica con la verdad, activando una "heurística de confianza" que nos hace creer más a quien habla con mayor seguridad y detalle.

Una navaja de doble filo: Entre el conocimiento y el engaño

La persuasión de la IA es una herramienta de "doble uso" con una capacidad asimétrica para causar un  daño epistémico . El estudio analizó cómo cambiaba la precisión del usuario tras hablar con la máquina:

  • Persuasión Veraz:  Claude aumentó la precisión de los participantes en un  12,2% .

  • Persuasión Engañosa:  Aquí es donde el riesgo se vuelve crítico. Claude hundió la precisión de los usuarios en un  15,1% , mientras que el modelo  DeepSeek v3  provocó una caída aún mayor del  17,5% .Para poner esto en perspectiva:  la IA fue casi dos veces más efectiva para engañar a los usuarios que los humanos , quienes solo lograron reducir la precisión en un 7,8% bajo las mismas condiciones. Un hallazgo clave sobre DeepSeek v3 es que este modelo solo superó significativamente a los humanos en contextos engañosos, no en los veraces, lo que subraya su peligrosidad como motor de desinformación.

La buena noticia: No somos tan fáciles de engañar dos veces

A pesar del poder inicial de la IA, el estudio identificó un fenómeno de  desgaste de la persuasión. A diferencia de los humanos, cuya capacidad de convicción se mantiene estable, la ventaja de los modelos de lenguaje disminuye a medida que la interacción se repite.Los datos muestran que la capacidad persuasiva de Claude disminuyó aproximadamente  1,0 puntos porcentuales por cada pregunta adicional , y la de DeepSeek cayó un  0,8 . Sin embargo, existe un matiz vital: esta resistencia humana no es generalizada. La pérdida de confianza fue impulsada  específicamente por la detección de engaños . Cuando la IA decía la verdad, su persuasión se mantenía estable; pero cuando el usuario detectaba que la máquina defendía una falsedad con "demasiada confianza", aprendía a descontar el valor de sus argumentos futuros. Esto sugiere que poseemos una capacidad de "aprendizaje de resistencia" ante la falta de fiabilidad algorítmica.

Conclusión: El futuro de la alfabetización algorítmica

El verdadero peligro de la IA generativa no reside únicamente en su elocuencia, sino en su  escalabilidad y bajo coste . Mientras que la persuasión humana requiere tiempo y salarios, una IA puede interactuar con millones de personas simultáneamente por una fracción del coste, manteniendo una consistencia que ningún equipo de campaña podría soñar.A medida que las máquinas se vuelven más convincentes que nuestros propios líderes de opinión, surge una pregunta fundamental para la supervivencia de la democracia: ¿Dependerá nuestro futuro de la eficacia de las regulaciones tecnológicas, o de nuestra propia capacidad cognitiva para desconfiar de la elocuencia artificial? La alfabetización del siglo XXI ya no puede consistir sólo en saber leer, sino en desarrollar la agudeza necesaria para identificar cuándo una voz "absolutamente" segura es, en realidad, un proceso estadístico diseñado para ganar.


Fuentes: 


Artículo elaborado con ayuda de IA


No hay comentarios:

Publicar un comentario