Elezioni nel bersaglio: disinformazione sistemica e vulnerabilità democratica
di Angela Cossiri
Università degli Studi di Macerata
1. La legittimità dell’ordine democratico si fonda sulla possibilità per ciascun cittadino di partecipare al processo elettorale, confrontando liberamente idee all’interno di uno spazio pubblico accessibile, trasparente e plurale. Negli ultimi anni questo presupposto è stato messo alla prova dalla diffusione tramite social media di campagne di disinformazione promosse da attori stranieri con finalità geopolitiche, che hanno assunto un ruolo crescente in termini di interferenza nei processi elettorali degli Stati democratici. La disinformazione, come fenomeno così circoscritto, si distingue dagli eventi isolati di diffusione intenzionale di notizie false ed è uno strumento riconducibile alla politica estera di attori ostili. Le campagne si sviluppano attraverso reti organizzate di account falsi e bot che utilizzano micro-targeting; esse hanno l’obiettivo, tramite contenuti polarizzanti e destabilizzanti, di erodere la fiducia nelle istituzioni democratiche, delegittimare i procedimenti elettorali, dividere l’opinione pubblica, incrementare l’astensionismo e influenzare gli orientamenti di voto. Questo fenomeno nel livello sovranazionale assume la denominazione di Foreing Information Manipulation and Interference (FIMI) e da un decennio è oggetto di monitoraggio da parte del Servizio Europeo per l’Azione Esterna (SEAE), l’organo diplomatico dell’Ue introdotto con il Trattato di Lisbona (art. 27, par. 3, TUE).
A marzo 2025, il Servizio, che fa capo all’Alto Rappresentante dell’Unione, ha pubblicato il Terzo rapporto sulla FIMI, presentato poi alla Camera dei deputati il 4 aprile: dal documento emerge che la disinformazione di matrice estera nel 2024-2025 resta una componente centrale delle strategie ibride messe in atto da attori statuali, in particolare Russia e Cina. Le piattaforme digitali sono il principale vettore operativo. Benché le operazioni siano generalmente multipiattaforma, X è responsabile, secondo il rapporto, dell’88% delle campagne di disinformazione tracciate, attraverso la presenza massiccia di reti CIB (Coordinated Inauthentic Behaviour) e account “usa-e-getta”. Crescente preoccupazione genera l’integrazione nella FIMI dell’intelligenza artificiale generativa, che consente di creare video, audio e testi falsi, utilizzati anche per amplificare contenuti già in circolazione. L’IA abbassa drasticamente i costi e aumenta il potenziale d’impatto, rappresentando una sfida inedita per il diritto e la trasparenza elettorali.
Le elezioni rappresentano uno dei bersagli ricorrenti delle operazioni FIMI, insieme con l’Ue, la Nato, i leader politici, i media indipendenti e le ONG. Il SEAE documenta episodi di interferenza in occasione delle elezioni europee di giugno 2024, con un’intensificazione delle attività – come ormai ben noto – nei giorni immediatamente precedenti, quelli più utili a modificare le scelte di voto, e successivi al voto, quelli nei quali si costruisce una narrativa condivisa degli esiti elettorali.
Un secondo caso analizzato nel rapporto riguarda la Moldova, in occasione delle elezioni presidenziali e del referendum sull’adesione all’Unione. Il report documenta anche 152 casi di interferenza contro la Francia, con particolare concentrazione durante le elezioni e i Giochi Olimpici; i contenuti manipolativi hanno sfruttato le proteste sociali interne già in atto, coordinandosi nei tempi con esse, allo scopo di compromettere la fiducia nelle istituzioni e favorire narrative antieuropee e sovraniste.
Un ulteriore significativo episodio, successivo alla chiusura del report di novembre 2024, riguarda le elezioni presidenziali romene, annullate dal giudice costituzionale con la sentenza n. 32/2024, a causa di un’interferenza digitale a vantaggio indiretto del candidato di estrema destra (la pronuncia è disponibile nella traduzione italiana a cura della rivista Nomos. Le attualità nel diritto; cfr. L. Trucco, Elezioni sotto attacco: il caso della Romania e la fragilità procedurale delle democrazie digitali, in questo Blog, 25 luglio 2025; S. Sassi e A. Sterpa, La Corte costituzionale della Romania difende la democrazia liberale dalla disinformazione. Prime note sulla sentenza n. 32 del 6 dicembre, in Federalismi.it, 4/2025). Secondo il giudice costituzionale, la manipolazione ha violato i principi costituzionali dell’autodeterminazione democratica e della sovranità. In particolare, il principio della libertà di voto è stato leso attraverso la disinformazione degli elettori realizzata mediante una campagna elettorale in cui uno dei candidati ha beneficiato di una promozione aggressiva, condotta eludendo la legislazione nazionale in materia elettorale e sfruttando abusivamente gli algoritmi delle piattaforme social. La manipolazione del voto è risultata evidente in quanto i materiali promozionali elettorali non riportavano i contrassegni richiesti nella pubblicità elettorale dalla legge rumena. È emerso anche che uno dei due candidati ha violato gli obblighi di legge sul finanziamento della campagna elettorale, in quanto le dichiarazioni presentate all’Autorità Elettorale Permanente non corrispondono ai dati contenuti nelle Note informative fornite dal Ministero degli Affari Interni e dal Servizio Romeno di Intelligence. La decisione, con pochissimi precedenti in Europa, solleva rilevanti questioni evidenziate nel dibattito dottrinale: dalla proporzionalità dell’annullamento elettorale, al fallimento delle misure di prevenzione e di cooperazione. Gli esiti a cui è giunta la Corte costituzionale romena non sono stati ridiscussi dalla Corte Edu, che si è pronunciata l’11 febbraio 2025 su ricorso del candidato che sarebbe risultato vincitore. La decisione ha dichiarato inammissibili le doglianze prospettate dal ricorrente, fondate sugli artt. 3, Prot. n. 1, 6, 10, 11e 13 CEDU (v. Georgescu vs. Romania, ricorso n. 37327/24).
2. Tornando al Terzo Rapporto FIMI, si evidenzia la centralità della risposta normativa europea fondata sul Digital Services Act (Reg. UE 2022/20265), sul Regolamento in materia di pubblicità politica (Reg. UE 2024/900; cfr. E. Caterina, Verso il nuovo regolamento Ue in materia di pubblicità politica: mercato delle idee o della propaganda?, in Quad. Cost., 1/2024) e sull’attivazione del FIMI Toolbox, adottato a seguito della Bussola strategica per la sicurezza e difesa comune del 21 marzo 2022, il Piano d’azione per rafforzare la politica di sicurezza e difesa dell’Unione Europea entro il 2030 e per promuovere una cultura strategica comune di contrasto rapido alle minacce ibride. Il Programma è stato approvato dal Consiglio dell’Unione Europea, su proposta dell’Alto Rappresentante, all’indomani dell’invasione armata dell’Ucraina. Si tratta di un documento politico‑strategico dell’Unione Europea che definisce linee di indirizzo per lo sviluppo della Politica di Sicurezza e Difesa Comune. Il Toolbox, che in parte formalizza prassi già messe in atto nel marzo 2022, consiste in un insieme articolato e coordinato di misure diplomatiche, regolatorie, sanzionatorie e di comunicazione, attivabili in modo graduale e proporzionato. Le sanzioni possono essere adottate nei confronti di individui e entità responsabili di operazioni FIMI; sono previsti strumenti di coordinamento delle risposte istituzionali tra UE e Stati membri e di cooperazione multilaterale con partner strategici, tra cui NATO e G7, nel quadro di un approccio comune alla sicurezza. La logica di attivazione di questo set di misure si basa sull’analisi degli episodi, realizzata attraverso la FIMI Exposure Matrix del SEAE, uno strumento da ultimo sviluppato per classificare l’architettura delle campagne FIMI e attivare risposte mirate. Le campagne sono distinte a seconda del soggetto da cui provengono: organi governativi, media controllati da Stati esteri, reti opache legate a intelligence e canali non formalmente collegati agli Stati, coerenti con la narrativa propagandistica da questi adottata.
A completare il quadro delle vulnerabilità sistemiche emerse nel contesto delle operazioni FIMI, si evidenzia la crescente esposizione della cosiddetta “FIMI Defenders Community” – composta da giornalisti d’inchiesta, centri di ricerca indipendenti, fact-checkers e accademici – a un clima di ostilità politica, sottofinanziamento cronico e barriere sempre più elevate all’accesso ai dati da parte delle piattaforme digitali. Il documento denuncia un deterioramento del contesto operativo per questi soggetti cruciali, aggravato da un clima culturale polarizzato che mina la loro credibilità e ne ostacola l’efficacia. Il SEAE sottolinea che la resilienza democratica dell’Unione dipende in larga misura dalla capacità di tutelare e rafforzare questi soggetti, garantendo loro risorse adeguate, riconoscimento istituzionale e pieno accesso all’informazione necessaria a contrastare la manipolazione sistemica dello spazio pubblico.
Il documento evidenzia anche che nel quadro dell’attuazione del Digital Services Act, la Commissione ha avviato per la prima volta nel 2024 due procedimenti formali contro le piattaforme digitali X (comunicazione IP/24/3761) e TikTok (comunicazione IP/24/6487). Sono seguiti ulteriori procedimenti aperti verso Aliexpress e Meta. Sebbene non qualificate espressamente come operazioni FIMI, le contestazioni riguardano anche elementi strutturali – opacità pubblicitaria, limitazioni all’accesso ai dati, mancanza di mitigazione dei rischi – centrali nella prevenzione delle manipolazioni nei processi democratici.
3. In questo quadro, permangono alcune criticità: ad es., resta complesso monitorare in tempo reale il rispetto degli obblighi da parte delle piattaforme, specialmente in contesti ad alta intensità informativa come le campagne elettorali. La cooperazione tra istituzioni pubbliche e soggetti privati, pur prevista dalle normative UE, non sempre si traduce in accesso effettivo a dati, algoritmi e pratiche interne delle big tech. Infine la definizione di “disinformazione” – in assenza di una nozione univoca – rimane suscettibile di alcune ambiguità. Tuttavia, in un contesto segnato dall’ibridazione tra conflitto geopolitico e spazio informativo digitale, la libertà di espressione non può essere invocata per giustificare comportamenti sistematici di manipolazione cognitiva con obiettivi di sovversione promananti dall’esterno dei confini. Tre elementi consentono di escludere le fattispecie dall’ambito di applicazione dei diritti fondamentali e della libertà di espressione e tutti questi elementi sono indipendenti dal contenuto veicolato: anzitutto la dimostrata riconducibilità delle campagne di disinformazione a soggetti statali esteri e non ad individui privati che esercitano un diritto di espressione; la strumentalità rispetto all’obiettivo di guadagnare posizioni nello spazio geopolitico internazionale; e infine la comprovata violazione del metodo democratico anche in violazione di legge (cfr. sent. Trib. UE, RT France, T-125/22 e ora anche Trib. UE, A2B Connect BV e a. contro Consiglio dell’Unione europea, T-307/22), documentabile dalle modalità di utilizzo delle infrastrutture tecnologiche (si pensi, ad esempio, ad account automatizzati fittizi che amplificano artificialmente la diffusione di un post, simulando consenso; al micro-targeting politico abusivo occultato dietro sponsorizzazioni opache, che permette di isolare segmenti vulnerabili dell’elettorato; alla creazione di deepfake o testi in apparenza genuini, destinati a superare i filtri algoritmici). Le democrazie sono chiamate a contrastare gli abusivi strumenti di ingegneria comportamentale di massa che rispondono a queste caratteristiche, pur nel rispetto dei criteri di legalità, necessità e proporzionalità. Non si tratta di compressione arbitraria della libertà, ma una sua garanzia sostanziale, volta a preservare le condizioni di esercizio libero, informato e pluralista del discorso pubblico.
(Articolo realizzato nell’ambito del progetto “Normative and Digital Solutions to Counter Treats during National Election Campaigns – Rightnets” finanziato dall’Unione europea – Next Generation EU, Missione 4, Componente 2, Investimento 1.1 bando PRIN 2022 PNRR, P2022MCYCK, CUP D53D23022340001. I punti di vista e le opinioni espresse sono solo quelli dell’autore e non riflettono necessariamente quelli dell’Unione europea o della Commissione europea. Né l’Unione europea né la Commissione europea possono essere ritenute responsabili per esse).



Commenti