El Observatorio de Ética en Inteligencia Artificial de Cataluña (OEIAC), con sede en la Universidad de Girona (UdG), alerta de los usos que la inteligencia artificial (IA) puede tener en los procesos electorales. En un estudio encargado por el Departamento de Justicia y Calidad Democrática de la Generalitat de Cataluña, el OEIAC revela cómo la IA se ha convertido en una amenaza sistémica para la integridad de los procesos electorales a escala mundial. El informe concluye que el año 2024 supuso un punto de inflexión cuando más de 60 países, casi la mitad de los estados del mundo sufrieron incidentes de desinformación o manipulación activa mediante herramientas de IA.
El informe Estudio sobre los riesgos de la IA en el ámbito de los procesos electorales identifica cinco categorías de herramientas con un potencial de manipulación elevado: los deepfakes (vídeos y audios falsos, pero realistas), los Grandes Modelos de Lenguaje (LLMs) capaces de generar desinformación a escala industrial, los bots de amplificación automática, la microsegmentación psicográfica para enviar mensajes hiperpersonalizados y la suplantación de identidad automatizada.
Casos globales: deepfakes, bots y llamadas automatizadas en cinco continentes
El informe documenta incidentes relevantes en todo el mundo entre 2023 y 2026. En Turquía (2023), los candidatos de la oposición denunciaron audios falsos generados con IA impulsados por el gobierno de Erdogan. En Pakistán (2024), se difundieron imágenes falsas de los candidatos en contextos engañosos para influir en el voto y el día de las elecciones se produjo una desconexión masiva de internet. En Corea del Sur (2024), se documentaron 129 incidentes de vídeos deepfake durante las elecciones al Parlamento.
En Estados Unidos, destaca el caso de enero de 2024, cuando el chatbot de IA de la red social X (Grok) informó falsamente que la vicepresidenta Kamala Harris había superado el plazo para presentar su candidatura en nueve estados. En México (2024), el Instituto Nacional Electoral implementó un chatbot llamado “Inés” para resolver dudas de los votantes, pero se documentaron 44 incidentes de uso fraudulento de IA, incluyendo avatares digitales que suplantaban candidatos. En Argentina (2025), unas horas antes de las elecciones municipales de Buenos Aires, se difundió un vídeo deepfake en el que un candidato se retiraba y pedía el voto para su rival.
En Europa, el caso más paradigmático es el de Eslovaquia (2023), donde una grabación falsa generada con IA entre un candidato y una periodista sobre la compra de votos fue determinante en el resultado electoral, convirtiéndose en el primer caso documentado donde la IA altera unas elecciones. En el Reino Unido (2024), se registraron más de 110 incidentes de deepfakes durante la campaña electoral. En Polonia (2025), TikTok incumplió las directrices europeas al permitir crear unas 1.200 cuentas falsas que atacaban a uno de los candidatos y daban apoyo al otro.
Vulnerabilidad en Cataluña: desinformación y deepfakes
En el ámbito catalán, el estudio documenta diversos casos. Aliança Catalana utilizó una imagen falsa creada con un sistema de IA para alimentar la xenofobia en Manresa, manipulando datos oficiales sobre población extranjera. La imagen se volvió viral con más de 132.000 visualizaciones antes de que la asociación Verificat pudiera desmentir su veracidad. Posteriormente, la líder del partido, Sílvia Orriols, difundió otra imagen generada con IA donde aparecía disparando contra Carles Puigdemont, hecho que ha sido denunciado judicialmente por delito de odio.
Por otro lado, Vox se ha convertido en el partido político de uno de los estados miembros de la Unión Europea que más campañas de desinformación ha llevado a cabo en las redes sociales. En mayo de 2019 crearon más de 600 grupos y páginas en Facebook que causaron un impacto de más de 763.000 visitas. En noviembre de 2025 llevaron a cabo una campaña con imágenes generadas con IA o robadas de internet de mujeres que seguían un canon físico muy concreto para difundir mensajes de acuerdo con el programa del partido en TikTok.
Un desfase preocupante de la ley
El director de la OEIAC y coordinador del estudio, Albert Sabater Coll, ha destacado que “la magnitud del fenómeno requiere un cambio de mirada” y ha añadido que “la velocidad con la que se viralizan estos contenidos falsos supera cualquier capacidad de desmentido porque el objetivo ya no es solo engañar, sino erosionar la confianza ciudadana en el sistema”. Sabater ha añadido que “ante esto, la batalla no es solo tecnológica, sino cognitiva y democrática”.
En este sentido, una de las conclusiones más contundentes del informe es la constatación de un desfase preocupante entre la innovación tecnológica y la respuesta legislativa. A pesar de que el Reglamento europeo de IA (RIA) y el Reglamento de Servicios Digitales (RSD) clasifican los sistemas que influyen en elecciones como “de alto riesgo”, la normativa estatal y catalana son claramente insuficientes. El informe señala que la LOREG (Ley Orgánica del Régimen Electoral General) “no aborda los retos digitales actuales” y está diseñada para amenazas analógicas. En Cataluña, se constata la ausencia de una regulación propia en este ámbito.
Una de las coautoras del estudio, Arlet Brufau i Centelles, ha insistido en la urgencia de actuar asegurando que "el contexto actual requiere una respuesta rápida y eficaz para hacer frente al riesgo existente y potencial de manipulación algorítmica en procesos electorales y, de esta manera, evitar que la aceleración tecnológica vaya en detrimento de un derecho fundamental como es la elección, en plena libertad, de personas representantes en un sistema democrático".
Por eso, en el informe, la OEIAC propone una respuesta multinivel que combina salvaguardas técnicas (como el estándar de autenticación C2PA y las marcas de agua digitales), una gobernanza ética y un marco regulador preventivo. Entre las medidas más destacadas figuran la elaboración de un código de buenas prácticas que prohíba los deepfakes engañosos y la microsegmentación con datos sensibles; el desarrollo de medidas legislativas sobre integridad electoral que tipifiquen nuevas infracciones como la interferencia algorítmica maliciosa y refuercen las competencias de los órganos electorales; el impulso de una normativa de transparencia en publicidad política digital que prohíba la segmentación basada en perfiles psicográficos o la implementación de programas masivos de alfabetización digital crítica para la ciudadanía, los medios de comunicación y las autoridades electorales.
El informe completo está disponible bajo licencia Creative Commons (CC BY-SA 4.0) en el DUGiDocs de la UdG.
