Dal 6 all’8 novembre a Strasburgo presso il Consiglio d’Europa si è tenuto il dodicesimo forum mondiale per la democrazia. Il tema di quest’anno è stato “Democrazia e diversità: possiamo superare il divario?” con un focus cruciale sul ruolo dell’AI e della disinformazione nella sfida delle democrazie dell’UE. La sala plenaria principale ha infatti ospitato dibattiti su tematiche quali votazioni, citizen engagement e ostacoli che possono palesarsi nel contesto dei processi elettorali.
Una questione trasversale ai vari incontri del forum è stata quella di affrontare le sfide poste alle democrazie europee nel contesto contemporaneo dello sviluppo dell’AI. Il professore della University College London Andrew Wilson ha coniato il termine di “political technology”, o tecnologia politica, per spiegare l’emergenza di nuove industrie di ingegneria politica, in particolare in Russia, dove la propaganda statale ha contribuito a creare una realtà parallela e a strumentalizzare la Storia a fini politici: strumenti potenti e noti come il data mining o le “troll farms” hanno dimostrato la loro potenza e sono oramai comunemente usati dai governi in tutto il mondo. Per identificare queste minacce, l’esecutivo europeo ha creato in 2019 un sistema di allarme rapido (RAS) che permette una coordinazione tra gli Stati membri, le istituzioni dell’UE e i partner internazionali per identificare velocemente le campagne di disinformazione, in particolare quelle che provengono dall’estero.
Ironia della sorte, il primo giorno dei lavori si è sovrapposto alla vittoria di Donald Trump alle elezioni presidenziali americane dando modo ad Andrew Wilson di sottolineare il legame della vittoria dell’ex-presidente con la strategia del suo consigliere e miliardario Elon Musk nel colpire gli elettori repubblicani tramite i social. Questa complicità tra i due attori è stata analizzata anche da Abeba Birhane, responsabile dell’AI presso la fondazione Mozilla, e che ha descritto una situazione politica pericolosa come quella nella quale “gli Stati autoritari e le società della big tech si avvantaggiano e si sostengono a vicenda”.
Nel suo intervento, il segretario di Stato della Norvegia Andreas Kravik ha messo invece in evidenza come si debbano comunque prendere in considerazione tutte le possibilità che l’intelligenza artificiale apre per le nostre società: dall’aumento della produttività fino ai vantaggi per l’educazione. Bruce Schneier, professore alla Harvard Kennedy School, ha invece dichiarato: “Il problema non è l’AI ma le grandi aziende tecnologiche e la loro costruzione degli algoritmi. […] Non date la colpa all’intelligenza artificiale, ma alla monopolizzazione delle tecnologie”. Come spesso nella storia, l’uomo dietro lo strumento è quello che si deve veramente temere. Al livello europeo, sono già state prese diverse misure contro pratiche analoghe. Google, Meta e TikTok si sono volontariamente impegnate a firmare il codice di buone pratiche sulla disinformazione, che mira a limitare la monetizzazione della disinformazione, aumentare la trasparenza degli algoritmi, combattere contro l’apparizione degli account fake e dei bot.
Fare “debunking” non basta
L’adattamento alle nuove AI generative porta con sé la necessità di un cambiamento nel paradigma attuale. Per proteggersi dalle minacce che possono nascere dall’uso dell’AI, le contromisure statali cominciano lentamente ad apparire; ne è un esempio il primo regolamento su queste nuove tecnologie – esperienza tutta europea. La ricercatrice giapponese Kyoko Kuwahara in questo contesto ha poi sottolineato come, per affrontare la disinformazione creata dall’intelligenza artificiale, l’uso del debunking o demistificazione non è più sufficiente.
Kuwahara teorizza così il “pre-bunking” per parlare dell’approccio preventivo che consiste nella produzione di messaggi utili ad aiutare le persone ad identificare e a resistere ai contenuti manipolatori. Mettendo in guardia le persone e fornendo loro i mezzi per individuare e confutare le tesi ingannevoli, questi messaggi funzionerebbero un po’ come dei vaccini contro la disinformazione aiutando le persone ad evitare di essere manipolate in futuro. In quest’ottica, l’UE ha creato l’iniziativa Safer Internet per promuovere un uso responsabile e critico delle piattaforme online in particolare presso i pubblici più giovani.
La parola finale è quella dell’accademico Yoav Shemer-Kunz che afferma: “Per un miglioramento della legislazione attorno alla disinformazione, serve cooperazione dei governi, della società civile, dei media, dei giornalisti e delle big tech”.
Per rinnovare le democrazie europee c’è quindi bisogno di più educazione civica. L’ennesimo segnale che da questo forum emergono tanti timori ma anche tanta speranza e idee concrete per lavorare sinergicamente alla tutela della democrazia.
foto di Michelangelo Barone