INTELLIGENZA ARTIFICIALE E DEMOCRAZIA. IL LEVIATANO DEI NOSTRI TEMPI?

Secondo Eurostat, ufficio statistico dell’Unione europea, circa 359 milioni di elettori nei 27 Stati membri sono chiamati alle urne per rinnovare il Parlamento europeo tra i 6 e 9 giugno 2024. Poco meno di 21 milioni i first-time voters, ovvero i cittadini che hanno acquisito il diritto al voto dopo le elezioni del 2019. In Italia sono 2,8 milioni. Ma il 2024 è l’anno in cui votano ben 76 Paesi, il 51% della popolazione mondiale. Elezioni anche in otto dei dieci paesi più popolosi al mondo, cioè Bangladesh, Brasile, India, Indonesia, Messico, Pakistan, Russia e Stati Uniti. E in 18 paesi dell’Africa, che contribuiscono al conteggio con quasi 300 milioni di aventi diritto al voto, per un totale di 4 miliardi di persone.

Di questi giorni una nota di Adnkronos sull’intelligenza artificiale (IA) che debutta fra gli strumenti utilizzati nella campagna per le elezioni indiane. Tra questi, messaggi personalizzati indirizzati ai singoli elettori, chiamati per nome. E voci clonate sull'originale dei politici in telefonate che, gestite da chatbot, arrivano direttamente ai cittadini. 

Altro dato come premessa. Al Breakthrough Prize 2024, soprannominato gli "Oscar della scienza", Elon Musk così ha risposto alle domande dei giornalisti che gli chiedevano un pronostico sulle Elezioni 2024 degli Stati Uniti: «Chi vincerà quelle del 2032? Quale intelligenza artificiale?”

In questo tempo segnato dalle molteplici e significative innovazioni tecnologiche basate sull’IA quali possibili condizionamenti sull’espressione di voto? Sussiste il rischio che possa ripetersi, seppur in altre modalità, la vicenda Cambridge Analytica? Quali tutele per evitare profilazione e persuasione di massa?

Emblematica la vicenda Cambridge Analytica. La società, poi sciolta nel 2018, partecipò attivamente alle elezioni presidenziali negli Stati Uniti nel 2016. Furono utilizzati i dati Facebook di milioni di cittadini ricorrendo alla tecnica del microtargeting per disegnare un vero e proprio modello di persuasione. Furono definiti i profili psicometrici e comportamentali degli utenti. Emozioni, attitudini, inclinazioni, convinzioni e pregiudizi tradotti in termini numerici e quantitativi segmentando la popolazione in gruppi omogenei per comportamento, interessi personali, preferenze. Vale a dire, deducendo informazioni personali dall’attività online. Maggiori informazioni disponibili, quindi maggiori dati, per l’analisi automatica con algoritmi di machine learning significano una più dettagliata profilazione.

“L’uso di targeting psicologico permette di influenzare il comportamento di grandi gruppi di persone, adattando messaggi persuasivi ai bisogni psicologici del pubblico a cui ci si rivolge”, sottolinea Nello Cristianini - docente di IA all’Università di Barth nel Regno Unito - richiamando lo studio di S.C. Matz e coll. pubblicato da Proceedings of the National Accademy of Sciences. Partendo, ad esempio, dai “mi piace” sui social è possibile ricavare preferenze e tipi di personalità. Applicando la tecnica psicometrica in ambito politico, gli elettori sono raggiunti da messaggi creati di proposito per riflettere le rispettive caratteristiche. I destinatari saranno rafforzati nelle opinioni e nei posizionamenti. Oppure, qualora identificati come elettori indecisi, il messaggio sarà confezionato per indurre un cambiamento. Insomma, profilazione dei cittadini per opinioni politiche, gruppi sociali, etnici, religiosi o culturali. Raggiunti da una comunicazione politica intrusiva e mirata che allinea i destinatari (cittadini) con gli obiettivi dell’agente.

Dal microtargeting politico emerge il rilevante tema della profilazione e della predittività in rapporto alla democrazia. Ovvero, quale spazio per l’espressione di una libera espressione di voto? L’uso strumentale di profilazione e IA può modificare l’IA predittiva in prescrittiva? Con la predittività si determinano le probabilità di comportamenti o eventi, singoli o collettivi, che si potranno verificare. La domanda è: che cosa potrebbe accadere? Il risultato è una previsione. Con la prescrittività si determina il comportamento. La domanda è: che cosa devo fare? Il risultato è, appunto, una prescrizione. Risulta evidente che posizionando la predittività, sulla base della profilazione di gruppi di cittadini, verso un obiettivo predeterminato si orienta anche la prescrittività. Obiettivo finale è la persuasione di singoli o di gruppi che fanno propri orientamenti preordinati.

Si creano bolle informative. Si isolano gli individui in camere di eco (echo chambers) che rafforzano convinzioni preesistenti salvo manipolarle anche in senso contrario. Vale a dire una polarizzazione del voto e a un deterioramento del dibattito pubblico. Per dirlo con Shostana Zuboff, è il “Grande Altro che esercita il dominio tramite il potere strumentalizzante. Tutto quello che gli serve può trovarlo nei messaggi e nelle emoticon rassicuranti. Può soggiogare gli altri inducendoli alla confluenza in modo irresistibile”.

La democrazia si fonda sul principio che la partecipazione sia libera con il presupposto che ci sia un flusso aperto e libero di informazioni. Che si possa sviluppare la capacità di elaborare le informazioni in modo consapevole. Certo non è ragionevole accantonare le innovazioni tecnologiche in una sfera aprioristica di contrarietà. Non ha senso un neo-luddismo. Né ragionevole contrapporre tecnofili vs tecnofobi, tecnoprogressisti vs tecnoconservatori, tecnottimisti vs tecnocatastrofisti. Piuttosto è necessario coniugare innovazione tecnologica e umanocentrismo. Ovvero il mondo dell’IA con i fondamentali della democrazia. Ma è possibile? Ma è ancora possibile? La possibilità si fonda nell’abitare la conoscenza, cooperare nell’interdisciplinarietà, governare con la regolamentazione. 

Trasparenza e responsabilità rappresentano gli end point, i principi etico-sociali tra quelli fondamentali. Ad esempio, il problema della trasparenza degli algoritmi è tra i più problematici e discussi. Molti sistemi di IA sono “scatole nere” (black box) con opachi processi decisionali. Senza una comprensione di come l’IA arriva alle sue conclusioni, è pressoché impossibile valutare l’attendibilità delle informazioni fornite. Così la responsabilità è un aspetto altrettanto critico. Quando l’IA predittiva viene utilizzata in contesti democratici, è essenziale che ci siano meccanismi per assicurare che gli algoritmi non producano discriminazioni e violazione di diritti civili. 

È necessaria l’attuazione del principio di esplicabilità (explicability) che può fornire chiarimenti sulle cause delle decisioni (output), i meccanismi di elaborazione e l’interpretazione dei dati. Consente di valutare appropriatezza o inadeguatezza dei risultati prodotti. A sua volta, il principio di esplicabilità comprende quello epistemologico di intellegibilità (intelligibility) che risponde alla domanda: come funziona? e quello etico di responsabilità (accountability) che a sua volta risponde all’interrogativo: chi è responsabile nel modo in cui funziona? 

Su questa linea il Parlamento europeo ha approvato l’EU Artificial Intelligence Act (AI Act) per regolamentare lo sviluppo e l’utilizzo. Per tutelare i diritti, salvaguardare la democrazia senza però frenare l’innovazione. Vietando o limitando l’uso di sistemi di IA che presentano un rischio inaccettabile per la sicurezza, la dignità o l’autonomia delle persone, o che violano i valori democratici. In particolare, il quadro normativo prevede la classificazione dei sistemi di IA in base al livello di rischio (inaccettabile, alto, limitato e minimo) per le persone e per la società. Inaccettabili sono proprio i sistemi di IA che contraddicono i valori e i principi fondamentali dell’UE: il rispetto della dignità umana, della democrazia e dello stato di diritto. Proibiti, ad esempio, i sistemi di IA che manipolano il comportamento umano in modo da eludere la volontà degli utenti o che consentono il social scoring da parte delle autorità pubbliche.

Tenendo conto che le innovazioni legate all’IA hanno uno sviluppo e una diffusone globale, abbiamo risolto gli interrogativi che ci siamo posti? Che cosa faranno altri Paesi come Stati Uniti, Cina, Russia, India? Ecco altri, sostanziali e non secondari interrogativi inerenti al rapporto tra tecnocrazia e democrazia a livello globale. I sistemi di IA non hanno un perimetro geografico definito. Le reti neurali artificiali (Artificial Neural Network o Simulated Neural Network) sono pressoché ubiquitarie. Non conoscono confini.

Indicativa l'esortazione di Fabio De Felice e Roberto Race nel saggio “Il mondo nuovissimo”. “La risposta agli interrogativi è che solo governando questi processi e non rincorrendo la tecnologia possiamo immaginare di regolare i rapporti tra big tech e le istituzioni di governo, senza più propalare una parvenza simulatrice di libertà, ma promuovendo una libertà vera, regolamentata con strumenti condivisi”.

Un ragionevole obiettivo su cui costruire un dialogo legittimato dai fondamentali della democrazia. Si richiede un impegno comunitario per evitare il paternalismo sociale degli algoritmi. Ovvero l’algocrazia, il nuovo decisore sociale, il Leviatano dei nostri tempi. 

2024-04-23T14:11:56Z dg43tfdfdgfd