La IA puede cambiar hasta el 25% de votos, alertan estudios en Nature y Science

upday.com 1 godzina temu
Dos estudios revelan que la Inteligencia Artificial puede modificar la intención de voto entre el 1,5% y el 25% (Imagen simbólica - Generada por IA) Upday Stock Images

Dos nuevos estudios revelan que la Inteligencia Artificial puede modificar la intención de voto de los electores con una eficacia de entre el 1,5% y el 25%, una tasa superior a la de los anuncios tradicionales de campaña. Las investigaciones, publicadas este jueves simultáneamente en las revistas Nature y Science, subrayan el poder persuasivo de la IA en contextos políticos, especialmente crítico porque una cuarta parte de los electores decide su voto en la semana previa a las elecciones.

El estudio publicado en Nature analizó a 2.300 votantes estadounidenses, 1.530 canadienses y 2.118 polacos durante las últimas tres elecciones presidenciales de sus respectivos países. Los resultados muestran que la IA entrenada para favorecer a Kamala Harris modificó la opinión del 3,9% de los votantes estadounidenses, mientras que cuando se entrenó para apoyar a Donald Trump el cambio fue del 1,52%. En Canadá y Polonia, el efecto alcanzó hasta el 10%.

El estudio de Science, por su parte, trabajó con 77.000 británicos sobre 700 asuntos políticos diferentes. El modelo más optimizado logró cambiar la opinión de hasta el 25% de los participantes.

Cómo persuade la IA

David Rand, profesor de Ciencias de la Información en la Universidad de Cornell y autor principal de ambos estudios, explicó el mecanismo de persuasión: «Los LLM [siglas en inglés de los grandes modelos de lenguaje con los que funcionan las IA] pueden realmente cambiar la actitud de la gente hacia los candidatos y políticas presidenciales aportando muchas afirmaciones fácticas que apoyan su postura. Pero esas afirmaciones no son necesariamente precisas e incluso los argumentos basados en afirmaciones exactas pueden seguir siendo erróneos por omisión.»

El investigador añadió que «Fue un efecto sorprendentemente grande». Sobre cómo aumentar la capacidad persuasiva, Rand señaló: «Los modelos más grandes son más persuasivos y la forma más eficaz de aumentar esta capacidad es instruirlos para que apoyen sus argumentos con tantos hechos como sea posible y darles formación adicional centrada en incrementar la persuasión.»

El riesgo de la fabricación de información

Los investigadores detectaron un problema significativo: cuando la IA se ve presionada para ofrecer muchos datos, puede inventar información. «A medida que el chatbot se ve obligado a ofrecer más y más afirmaciones fácticas, finalmente se queda sin información precisa y empieza a fabricarla», advirtió Rand.

Gordon Pennycook, profesor asociado de Psicología en Cornell y coautor del estudio de Nature, explicó por qué las declaraciones de la IA que apoyaban a candidatos conservadores contenían más errores: estos «comparten más información inexacta que los de izquierda».

Las salvaguardas éticas necesarias

Las plataformas de IA conversacional actuales incluyen limitaciones iniciales. Cuando se les pregunta directamente sobre a quién votar, responden: «No puedo decirte a quién votar.» Sin embargo, las investigaciones demuestran que estas resistencias iniciales pueden superarse con diálogos continuos menos directos.

Francesco Salvi, especialista en Ciencias de la Computación e investigador en el Instituto Federal Suizo de Tecnología de Lausana (EPFL Lausana), advirtió: «las salvaguardas [limitaciones] son esenciales, especialmente en áreas sensibles como la política o la salud o el asesoramiento financiero.»

El experto explicó que «por defecto, los LLM no tienen intenciones de persuadir, informar o engañar. Simplemente, generan texto basado en patrones en sus datos de entrenamiento». Sin embargo, matizó: «la persuasión puede surgir implícitamente incluso cuando simplemente ofrece información.»

Salvi ilustró el problema con un ejemplo: «Supongamos que alguien le pregunta a una IA: ¿es la política X una buena idea? o ¿qué dicen los economistas sobre los aranceles comerciales? El modelo puede generar una respuesta que se incline hacia un lado, en función de cómo se formule la pregunta, qué fuentes haya visto con más frecuencia o qué encuadre domine sus datos de entrenamiento.»

El investigador añadió: «Y, lo que es más importante, los LLM pueden ser entrenados intencionalmente o instados por actores externos para ser persuasivos, manipulando a los usuarios hacia una determinada posición política o para impulsar las compras.»

La necesidad de regulación

Salvi defendió con contundencia la necesidad de regulación: «Creo que debería haber limitaciones, absolutamente. La línea entre la relevancia y la explotación puede difuminarse rápidamente, especialmente si un sistema de IA se optimiza para la persuasión sin transparencia ni supervisión. Si un chatbot está adaptando argumentos para impulsar una agenda política o desinformación y lo hace basándose en un perfil psicológico del usuario, ahí es donde corremos serios riesgos éticos.»

Los autores de los estudios concluyen que investigar la capacidad persuasiva de la IA es fundamental para «anticipar y mitigar el mal uso» y establecer directrices sobre «cómo debe y no debe usarse la IA». David Rand resumió el desafío: «El reto es encontrar formas de limitar el daño y ayudar a las personas a reconocer y resistir la persuasión de la IA.»

Nota: Este artículo fue creado con Inteligencia Artificial (IA).

Idź do oryginalnego materiału