L’Observatori d’Ètica en Intel·ligència Artificial de Catalunya (OEIAC), amb seu a la Universitat de Girona (UdG), alerta dels usos que la intel·ligència artificial (IA) pot tenir en els processos electorals. En un estudi encarregat pel Departament de Justícia i Qualitat Democràtica de la Generalitat de Catalunya, l’OEIAC revela com la IA s’ha convertit en una amenaça sistèmica per a la integritat dels processos electorals a escala mundial. L’informe conclou que l’any 2024 va suposar un punt d’inflexió quan més de 60 països, gairebé la meitat dels estats del món van patir incidents de desinformació o manipulació activa mitjançant eines d’IA.
L’informe Estudi sobre els riscos de la IA en l’àmbit dels processos electorals identifica cinc categories d’eines amb un potencial de manipulació elevat: els deepfakes (vídeos i àudios falsos, però realistes), els Grans Models de Llenguatge (LLMs) capaços de generar desinformació a escala industrial, els bots d’amplificació automàtica, la microsegmentació psicogràfica per enviar missatges hiperpersonalitzats i la suplantació d’identitat automatitzada.
Casos globals: deepfakes, bots i trucades automatitzades a cinc continents
L’informe documenta incidents rellevants arreu del món entre 2023 i 2026. A Turquia (2023), els candidats de l’oposició van denunciar àudios falsos generats amb IA impulsats pel govern d’Erdogan. Al Pakistan (2024), es van difondre imatges falses dels candidats en contextos enganyosos per influir en el vot i el dia de les eleccions es va produir una desconnexió massiva d’internet. A Corea del Sud (2024), es van documentar 129 incidents de vídeos deepfake durant les eleccions al Parlament.
Als Estats Units, destaca el cas de gener de 2024, quan el xatbot d’IA de la xarxa social X (Grok) va informar falsament que la vicepresidenta Kamala Harris havia superat el termini per presentar la seva candidatura en nou estats. A Mèxic (2024), l’Institut Nacional Electoral va implementar un xatbot anomenat “Inés” per resoldre dubtes dels votants, però es van documentar 44 incidents d’ús fraudulent d’IA, incloent-hi avatars digitals que suplantaven candidats. A l’Argentina (2025), unes hores abans de les eleccions municipals de Buenos Aires, es va difondre un vídeo deepfake on un candidat es retirava i demanava el vot per al seu rival.
A Europa, el cas més paradigmàtic és el d’Eslovàquia (2023), on una gravació falsa generada amb IA entre un candidat i una periodista sobre la compra de vots va ser determinant en el resultat electoral, esdevenint el primer cas documentat on la IA altera unes eleccions. Al Regne Unit (2024), es van registrar més de 110 incidents de deepfakes durant la campanya electoral. A Polònia (2025), TikTok va incomplir les directrius europees en permetre crear uns 1.200 comptes falsos que atacaven un dels candidats i donaven suport a l’altre.
Vulnerabilitat a Catalunya: desinformació i deepfakes
A l’àmbit català, l’estudi documenta diversos casos. Aliança Catalana va utilitzar una imatge falsa creada amb un sistema d’IA per alimentar la xenofòbia a Manresa, manipulant dades oficials sobre població estrangera. La imatge va esdevenir viral amb més de 132.000 visualitzacions abans que l’associació Verificat pogués desmentir-ne la veracitat. Posteriorment, la líder del partit, Sílvia Orriols, va difondre una altra imatge generada amb IA on apareixia disparant contra Carles Puigdemont, fet que ha estat denunciat judicialment per delicte d’odi.
D’altra banda, Vox ha esdevingut el partit polític d’un dels estats membres de la Unió Europea que més campanyes de desinformació ha dut a terme a les xarxes socials. El maig de 2019 van crear més de 600 grups i pàgines a Facebook que van causar un impacte de més de 763.000 visites. El novembre de 2025 van dur a terme una campanya amb imatges generades amb IA o robades d’internet de dones que seguien un cànon físic molt concret per difondre missatges d’acord amb el programa del partit a TikTok.
Un desfasament preocupant de la llei
El director de l’OEIAC i coordinador de l’estudi, Albert Sabater Coll, ha destacat que “la magnitud del fenomen requereix un canvi de mirada” i ha afegit que “la velocitat amb què es viralitzen aquests continguts falsos supera qualsevol capacitat de desmentiment perquè l’objectiu ja no és només enganyar, sinó erosionar la confiança ciutadana en el sistema”. Sabater ha afegit que “davant d’això, la batalla no és només tecnològica, sinó cognitiva i democràtica”.
En aquest sentit, una de les conclusions més contundents de l’informe és la constatació d’un desfasament preocupant entre la innovació tecnològica i la resposta legislativa. Malgrat que el Reglament europeu d’IA (RIA) i el Reglament de Serveis Digitals (RSD) classifiquen els sistemes que influeixen en eleccions com “d’alt risc”, la normativa estatal i catalana són clarament insuficients. L’informe assenyala que la LOREG (Llei Orgànica del Règim Electoral General) “no aborda els reptes digitals actuals” i està dissenyada per a amenaces analògiques. A Catalunya, es constata l’absència d’una regulació pròpia en aquest àmbit.
Una de les coautores de l’estudi, Arlet Brufau i Centelles, ha insistit en la urgència d’actuar assegurant que "el context actual requereix una resposta ràpida i eficaç per fer front al risc existent i potencial de manipulació algorítmica en processos electorals i, d'aquesta manera, evitar que l'acceleració tecnològica vagi en detriment d'un dret fonamental com és l'elecció, en plena llibertat, de persones representants en un sistema democràtic".
És per això que en l’informe l’OEIAC proposa una resposta multinivell que combina salvaguardes tècniques (com l’estàndard d’autenticació C2PA i les marques d’aigua digitals), una governança ètica, i un marc regulador preventiu. Entre les mesures més destacades figuren l’elaboració d’un codi de bones pràctiques que prohibeixi els deepfakes enganyosos i la microsegmentació amb dades sensibles; el desenvolupament de mesures legislatives sobre integritat electoral que tipifiquin noves infraccions com la interferència algorítmica maliciosa i reforcin les competències dels òrgans electorals; l’impuls d’una normativa de transparència en publicitat política digital que prohibeixi la segmentació basada en perfils psicogràfics o la implementació de programes massius d’alfabetització digital crítica per a la ciutadania, els mitjans de comunicació i les autoritats electorals.
L’informe complet està disponible sota llicència Creative Commons (CC BY-SA 4.0) al DUGiDocs de la UdG.