SOCIETA
Comunicato Stampa

Opportunità e sfide nel rapporto tra Intelligenza artificiale e politica

Nell'articolo sono analizzate le intriganti opportunità offerte dall'intelligenza artificiale generativa all'azione politica e al rapporto con gli elettori. Analizzando da vicino come la IA sta influenzando la politica contemporanea, vengono esaminate le potenzialità di miglioramento nella comunicazione politica, nell'analisi dei dati e nella personalizzazione delle campagne elettorali.

FotoLa IA riveste un ruolo sempre più centrale nella trasformazione di numerosi settori della società e la sua influenza sulla comunicazione politica e sulla politica in generale sta delineando un panorama in rapida evoluzione. L'implementazione strategica dell'IA nei contesti politici ha il potenziale di riscrivere le regole del gioco, ridefinendo il modo in cui i leader comunicano, gestiscono le campagne e affrontano le sfide politiche del nostro tempo.

Vediamo brevemente il percorso che la tecnologia ha compiuto per arrivare a creare una metafora cosi importante come l'intelligenza artificiale, che colpisce in profondità il nostro immaginario. Dal punto di vista teorico l'idea di una scienza che si occupi di come venga acquisita ed elaborata la conoscenza rappresenta da sempre una sfida per la società moderna.

La frase ‘intelligenza artificiale’ è nata il 2 settembre 1955, quando alcuni accademici chiesero alla Fondazione Rockefeller un finanziamento per poter svolgere un workshop estivo con una decina di scienziati da tenersi nell’estate del 1956, presso l’Università di Dartmouth. I proponenti erano alcuni mostri sacri della matematica e dell’informatica: McCarthy, Minsky, Rochester e Shannon.

Dopo molti anni siamo entrati in una nuova nascita dell’intelligenza artificiale che, a differenza delle precedenti, è qui per restare e svilupparsi. Abbandonato ogni tentativo di formalizzare accuratamente gli aspetti della realtà in un insieme di regole, si ricorre oggi alle macchine stesse per individuare correlazioni riscontrabili nei dati caratteristici di un fenomeno e sulla base di queste correlazioni, costruire dei modelli statistici utilizzabili per fare delle predizioni in momenti successivi. Questa metodica, in ossequio alla metafora dell’intelligenza, va sotto il nome di apprendimento automatico o ‘Machine Learning’ con cui si fornisce a un computer la capacità di ‘imparare’ e applicare modelli statistici non esplicitamente programmati.

Quando pensiamo a un computer pensiamo a un sistema che riceve in input dati e programmi scritti da umani e che calcola un risultato. Con il Machine Learning le cose funzionano in modo diverso: si fissano alcuni parametri del sistema, si forniscono in input a un algoritmo di apprendimento automatico dei dati, il computer genera a partire dai dati un modello statistico. Una volta ottenuto il modello statistico, questo può essere usato da un computer con dei nuovi dati per produrre predizioni. Va evidenziato che, nel caso degli algoritmi tradizionali il computer calcola un risultato; e questo è deterministico: 4 x 5 è sempre uguale a 20. Nel caso dell’intelligenza artificiale invece il computer ‘produce predizioni’ da qui la natura statistica del modello.

Facciamo un esempio: qualora vedessimo un cielo di colore rosso alla sera, ci sarà facile predire bel tempo per il giorno successivo. Questo perché, come noto, ‘rosso di sera bel tempo si spera’, il proverbio è il frutto dell’osservazione di migliaia di casi in cui il cielo rosso la sera è correlato con il bel tempo del giorno successivo. Dai dati prodotti da queste osservazioni, il colore del cielo e il meteo del giorno successivo, i nostri antenati hanno creato un modello statistico, il proverbio, che possiamo usare per fare nuove predizioni, hanno fatto esattamente ciò che i computer fanno con l’intelligenza artificiale.

Come anticipato all'inizio di questa “chiacchierata” su e con l'intelligenza artificiale (poi darò un senso a questa affermazione), l'IA può influenzare anche la comunicazione politica e l'attività politica. Una delle pietre miliari di questa trasformazione è l'applicazione dell'IA all'analisi dei dati. Grazie a algoritmi avanzati, i politici possono esaminare vasti insiemi di dati provenienti dai social media, dalle notizie e da altre fonti online per ottenere un'analisi dettagliata dell'opinione pubblica. Questa capacità da loro la possibilità di personalizzare i messaggi in modo più mirato, tenendo conto delle preferenze e delle preoccupazioni specifiche dei diversi segmenti della società.

I modelli predittivi basati sull'apprendimento automatico costituiscono un altro pilastro essenziale di questa evoluzione. Questi modelli sono in grado di analizzare dati storici per individuare pattern e prevedere possibili sviluppi politici. Tale anticipazione può consentire ai politici di adeguare le loro strategie di comunicazione in tempo reale, garantendo una maggiore adattabilità alle esigenze degli elettori.

La crescente ubiquità dei chatbot alimentati dall'IA rappresenta un ulteriore passo avanti nella comunicazione politica. Utilizzando queste piattaforme attraverso social media e siti web, i politici possono interagire direttamente con gli elettori, rispondendo alle loro domande, fornendo informazioni sulle politiche e raccogliendo feedback in modo immediato.

Questa interazione dinamica può contribuire a costruire un rapporto più stretto tra i politici e il pubblico. Un aspetto cruciale è la personalizzazione avanzata dei messaggi politici resa possibile dall'IA. L'analisi dei dati consente di comprendere a fondo le preferenze individuali degli elettori, consentendo ai politici di adattare i loro discorsi e le loro proposte per rispondere alle esigenze specifiche di ciascun gruppo sociale. Questa personalizzazione, sebbene promettente, solleva anche domande etiche sulla manipolazione delle narrazioni politiche.

La manipolazione delle informazioni, la creazione di bolle informative e il rischio di discriminazione algoritmica sono solo alcune delle sfide che devono essere affrontate. È essenziale pertanto garantire la trasparenza nell'uso dell'IA, educare il pubblico sulle tecnologie impiegate e stabilire linee guida etiche rigorose per evitare abusi.

Una prospettiva inquietante è molto semplice da disegnare, almeno nelle nostre fantasie: se l’IA, già difficilmente comprensibile nelle sue forme più semplici ai potenti di turno, diventa imprevedibile anche agli occhi dei suoi stessi creatori, che cosa succederà quando, anziché classificare immagini o scrivere tweet, verrà usata per prendere decisioni politiche, controllare centrali nucleari o sistemi di difesa e armamenti?

Per ora limitiamoci a ChatGPT, un sistema semplice da usare che produce effetti importanti, il fatto è che noi non sappiamo, perché non sono state rese note, le caratteristiche tecniche di GPT4, il modello usato da ChatGPT e quali siano i dati/testi su cui è stato allenato, sulla cui base sono state costruite le correlazioni. Secondo alcune stime, il sistema sarebbe formato da centinaia di migliaia di miliardi di variabili. Un aspetto importante va colto e cioè la attuale IA “vede” solo il mondo che è digitalizzato, non anche quello reale.

I Large Language Model (LLM) che rendono possibile la IA generativa, possono essere paragonati a un'imponente raccolta di tutto il sapere accumulato fino a oggi e digitalizzato. Sono modelli di intelligenza artificiale che utilizzano reti neurali per elaborare enormi quantità di testo al fine di comprendere, generare e manipolare il linguaggio naturale. Questi modelli sono addestrati su vaste raccolte di dati testuali provenienti da varie fonti, consentendo loro di apprendere le strutture linguistiche e di generare testi coerenti e contestualmente rilevanti.

Quando esaminati superficialmente, i testi generati da questi modelli appaiono affascinanti nel trattare argomenti generali. Tuttavia, un'analisi dettagliata può rivelare la presenza di dati errati e imprecisi, simili a "artefatti" o, come vengono chiamati nell'ambito dell'intelligenza artificiale, "allucinazioni". Questa dualità mette in luce la natura complessa e sfaccettata di tali strumenti: la stessa flessibilità che li rende adattabili a svariate situazioni porta alla comparsa di imperfezioni quando si esaminano “da vicino” i loro prodotti.

Il processo tecnico utilizzato per creare tali modelli è basato su costrutti matematici estremamente sofisticati, tale processo è noto come "rete neurale". Questa analogia col cervello umano, sebbene sia stata proposta originariamente oltre 60 anni fa, viene oggi vista come una rappresentazione eccessivamente semplificata del funzionamento cerebrale.

Che sia un fenomeno molto differente lo dimostra anche il fatto che noi apprendiamo in modo assai diverso: a noi basta un esempio per imparare, mentre una macchina ha bisogno di molte migliaia di insiemi di dati per ‘imparare’. A noi basta vedere una sola volta un cane, anche se gli manca una zampa o la coda, per imparare a riconoscere un cane.

Ad un computer devono essere forniti i dati che rappresentano molte migliaia di esemplari dello stesso animale, per lui un cane senza coda non è un cane. E' quindi evidente la complessità di un sistema di IA e questo è uno degli aspetti critici che devono essere analizzati se si vogliono porre in atto sistemi di controllo e correzione degli errori che certamente vengono fatti da questi sistemi.

La qualità dei dati di addestramento di un sistema di IA è fondamentale. La loro alterazione, voluta o meno, è una vulnerabilità di cybersicurezza del sistema. È praticamente impossibile capire se un modello è ‘sano’ o se è stato alterato, vuoi in fase di allenamento fornendogli dati fuorvianti, vuoi in un momento successivo mediante un attacco informatico. Anche se i dati venissero raccolti in modo perfettamente adeguato e corretto e anche se il modello fosse generato in modo perfetto, esso potrebbe generare degli effetti indesiderati.

Tornando ad esaminare il possibile utilizzo della IA in politica, possiamo dire che essa potrebbe svolgere un ruolo significativo come intermediario tra politica e cittadini, facilitando una comunicazione più efficiente e migliorando la partecipazione democratica.

Di seguito alcuni dei modi in cui ciò potrebbe accadere:

Analisi dei dati e feedback del cittadino: L'IA può analizzare grandi quantità di dati provenienti da fonti diverse, inclusi social media, sondaggi online, e altri strumenti di partecipazione cittadina. Questa analisi può fornire ai politici una comprensione approfondita delle opinioni e delle preoccupazioni dei cittadini, facilitando una risposta più informata alle esigenze della comunità.

Assistenza nell'elaborazione delle politiche: Gli algoritmi di intelligenza artificiale possono supportare i decisori politici nell'analisi di dati complessi e nella formulazione di politiche basate su evidenze. Ciò potrebbe contribuire a una presa di decisioni più informata e trasparente.

Chatbot per informazioni e coinvolgimento: I chatbot basati su intelligenza artificiale possono essere utilizzati per fornire informazioni ai cittadini, rispondere alle domande frequenti e coinvolgere la comunità in dibattiti su temi importanti. Questi strumenti possono migliorare l'accessibilità delle informazioni e promuovere la partecipazione pubblica.

Analisi delle tendenze e delle problematiche emergenti: L'IA può monitorare costantemente le tendenze sociali, politiche ed economiche per identificare problematiche emergenti. Questa capacità può consentire ai politici di reagire prontamente a nuovi sviluppi e di adattare le loro posizioni in risposta alle esigenze della società.

Sistemi di voto elettronico sicuri: L'IA potrebbe essere utilizzata per sviluppare sistemi di voto elettronico sicuri e trasparenti, facilitando il processo di voto per i cittadini e migliorando l'affidabilità dei risultati elettorali.

Tuttavia, è fondamentale affrontare le sfide legate all'eticità, alla sicurezza e alla trasparenza nell'implementazione di sistemi basati su intelligenza artificiale nella sfera politica. Garantire la protezione dei dati, prevenire discriminazioni e assicurare la rappresentanza equa sono aspetti cruciali per il successo di tali iniziative, un obiettivo non facilmente raggiungibile ma qui il limite non sta tanto nella tecnologia quanto nell'etica dell'uomo.

È inoltre necessario mantenere una consapevolezza critica di come l'IA influisce sulle nostre scelte e assicurarsi che le decisioni siano basate su informazioni accurate e bilanciate.

Nel contesto politico gli LLM possono essere strumentalizzati per generare informazioni inesatte o volutamente distorte, destabilizzando le dinamiche democratiche e influenzando indirettamente i percorsi decisionali pubblici. La falsa informazione, pertanto, non si limita solamente a deformare la realtà percettiva degli individui, ma si insinua anche nei meccanismi strutturali che regolano e guidano le società. L’avvento dei modelli GAN e di quelli a diffusione, inoltre, ha spalancato le porte ai deepfake fotografici e video, mentre altri sistemi generativi oggi consentono di clonare la voce per realizzare deepfake audio.

Deepfake che sono in grado di insinuare dubbi riguardo l’origine e la veridicità di documenti e registrazioni, offrendo, in tal modo, un terreno fertile per la creazione e la diffusione di racconti erronei e manipolatori, in grado di inquinare anche l'informazione politica, anche se al momento, tali deep fake hanno avuto successo a livello di satira umoristica o di curiosità. Ben diverso sarebbe l'effetto se fossero diffusi da media considerati attendibili.

Anche l’industria e i mercati finanziari possono essere influenzati negativamente dalla diffusione di notizie false e da dati di ricerca inventati. in uno scenario in cui gli algoritmi di trading automatizzato reagiscono in tempo reale ai flussi di notizie e alle analisi di mercato, le notizie false e i dati distorti possono, deliberatamente o meno, innescare volatilità e instabilità, alterando i percorsi degli investimenti e delle decisioni economiche e politiche su scala globale.

Dopo aver inquadrato a grandi linee il tema della possibile alleanza tra IA e politica facciamo due “chiacchiere” con ChatGPT versione 3.5 (il modello basico utilizzabile gratuitamente). La mia domanda al chatbot è la seguente: l’intelligenza artificiale può influenzare il voto alle elezioni? Risponde ChatGPT: L'intelligenza artificiale può certamente influenzare il voto alle elezioni, ma è importante distinguere tra l'influenza diretta e l'effetto indiretto. L'IA può impattare il processo elettorale in diversi modi:

Personalizzazione dei Messaggi: L'IA permette ai candidati di personalizzare i loro messaggi in base ai dati demografici e alle preferenze degli elettori, cercando di raggiungere specifici segmenti di pubblico in modo più efficace.

Analisi dei Dati: L'analisi dei dati tramite l'IA consente ai partiti politici di comprendere meglio le tendenze e le preferenze degli elettori, influenzando la strategia di campagna per adattarsi alle esigenze dell'elettorato.

Disinformazione e Manipolazione: C'è anche il rischio che l'IA venga utilizzata per diffondere disinformazione o manipolare l'opinione pubblica attraverso la generazione di contenuti falsi o mirati.

Tuttavia, è essenziale notare che l'IA non è un agente autonomo; è utilizzata dagli attori umani, come i candidati e gli strateghi delle campagne elettorali. L'etica nell'uso dell'IA in politica è cruciale per evitare abusi e manipolazioni. La trasparenza, la regolamentazione e l'educazione pubblica sono fattori chiave per mitigare eventuali impatti negativi e garantire un processo elettorale equo.

Infine una domanda provocatoria (per gli umani ma non credo per la macchina...): potremo avere un Governo gestito o deciso dalla IA?

La risposta di ChatGPT: attualmente, l'idea di un governo interamente gestito o deciso dall'intelligenza artificiale è più fantascientifica che realistica. Sebbene l'IA stia giocando un ruolo sempre più rilevante nella politica e nella comunicazione politica, molte delle decisioni chiave che definiscono un governo coinvolgono aspetti complessi che vanno al di là delle capacità attuali dell'IA.

Ecco alcune ragioni per cui un governo completamente deciso dall'IA è al momento improbabile:

Aspetti Etici e Morali: Le decisioni politiche coinvolgono spesso questioni etiche e morali complesse che richiedono una comprensione approfondita della società umana, della cultura e dei valori. L'IA, almeno per ora, manca della capacità di comprendere appieno tali aspetti complessi.

Comprendere la Complessità Umana: La politica è intrinsecamente legata alla complessità delle relazioni umane, delle emozioni e delle dinamiche sociali. L'IA attuale ha limitazioni nella comprensione di questi aspetti in modo completo e sottile.

Responsabilità e Accountability: La responsabilità e l'accountability sono aspetti cruciali di qualsiasi governo. Mentre l'IA può supportare la raccolta e l'analisi dei dati, la responsabilità politica richiede la presenza di leader umani che siano in grado di prendere decisioni difficili e assumersi la responsabilità delle conseguenze.

Diversità di Prospettive: La politica trae vantaggio dalla diversità di prospettive e opinioni. Un governo completamente guidato dall'IA potrebbe non essere in grado di incorporare adeguatamente questa diversità, rischiando di trascurare aspetti importanti della società.

Tuttavia, ciò non esclude la possibilità che l'IA possa svolgere un ruolo sempre più significativo nel processo decisionale politico nel futuro. Ad esempio, potrebbe essere utilizzata per analizzare dati, identificare tendenze, suggerire politiche basate su modelli complessi e migliorare l'efficienza amministrativa. L'IA potrebbe essere uno strumento di supporto per i leader umani, ma la decisione finale dovrebbe rimanere sotto il controllo di individui che sono in grado di esercitare il giudizio umano.

Possiamo dire che la comunicazione politica, la politica e l'IA stanno intraprendendo un cammino condiviso, ridefinendo la natura stessa della partecipazione politica e della gestione delle campagne. Mentre alcuni benefici sono evidenti, è cruciale affrontare le sfide etiche per garantire che questa evoluzione contribuisca a un dialogo politico più informato, inclusivo e responsabile. La via verso l'integrazione responsabile dell'IA nella comunicazione politica richiede un costante bilanciamento tra l'innovazione tecnologica e la tutela dei principi democratici e etici che sottendono al nostro sistema politico.

Un aspetto che voglio prendere in considerazione prima di concludere questa breve analisi, riguarda il dubbio come stato di incertezza o mancanza di convinzione su un determinato argomento o situazione, quindi anche nella pratica politica e nelle scelte elettorali. Può essere un'emozione comune quando si affrontano decisioni importanti o si valutano informazioni ambigue. In generale, il dubbio può portare a una maggiore riflessione e ricerca per cercare di ottenere chiarezza.

L'intelligenza artificiale, in senso stretto, non ha emozioni o sensazioni come gli esseri umani, quindi non sperimenta il "dubbio" nel modo in cui lo facciamo noi. Tuttavia, può essere progettata per gestire l'incertezza e prendere decisioni basate su probabilità o valutazioni di confidenza cioè la stima della fiducia che l'IA ha nella correttezza della sua risposta. In alcuni contesti, gli sviluppatori di IA incorporano meccanismi per affrontare l'ambiguità e l'incertezza, ma non si tratta di un'esperienza di "dubbio" nel senso umano. Ecco quindi un altro aspetto che pone su piani differenti la nostra intelligenza con quella artificiale e che non va quindi sottovalutato.

Sarà interessante osservare cosa accadrà negli USA durante la campagna elettorale per la carica di Presidente, come al solito quello che accade negli USA anticipa quello che poi accadrà anche in Europa pur con diversi scenari e modalità. Sicuramente l'IA sarà usata per inviare agli statunitensi messaggi email estremamente personalizzati con i quali sarà anche chiesto un contributo economico per la campagna del candidato Presidente. L'elettore avrà l'impressione che chi gli scrive lo conosce perfettamente e si sta rivolgendo proprio a lui, coi suoi problemi ed aspirazioni specifiche. Una cosa impensabile fino a poco tempo fa e che pone interrogativi sulla raccolta e l'uso di dati strettamente personali.

L'alleanza tra IA e politica può anche essere “santa” ma questo non dipende dai sistemi informatici ma dagli umani che, con una visione politica, dovrebbero offrire alle persone una prospettiva per la loro vita, frutto di un processo creativo e non artificialmente generata. Credo che il dibattito intorno alle potenzialità e pericoli dell'IA sia condizionato dal fatto che trascuriamo un elemento semplice ma fondamentale; ancora non conosciamo, se non in minima parte, il funzionamento della mente umana e quindi di quella facoltà cognitiva che chiamiamo intelligenza.

Sarebbe probabilmente opportuno dare un altro nome a quella che viene pubblicizzata come Intelligenza artificiale, sicuramente un brand molto più attraente dal punto di vista commerciale. Per quanto riguarda il suo utilizzo nella comunicazione politica e nella politica in particolare, direi che anche qui siamo nelle mani degli umani, della loro intelligenza e capacità di esercitare un ruolo politico al servizio dei cittadini. L'innovazione tecnologica è futuro, come per i futuristi la tecnica, il movimento e la tecnologia potevano essere bellezza, una sfida avvincente che fa parte della natura umana alla quale non possiamo rinunciare ma che dobbiamo governare.

Mi sento di dire che la politica sarà ancora partecipazione attiva e non tecnocrazia, interazione tra persone con idee e valori diversi e di questo dovranno farsene una ragione anche l'IA ed i suoi venditori. La prospettiva evocata nel recente Forum di Davos di delegare le scelte politiche ad un sistema di IA, piuttosto che ad un sistema elettorale, non è un futuro auspicabile se vogliamo il benessere per il genere umano ed il mondo intero.

Bibliografia:

Paradoxa trimestrale, Mimesis Edizioni - 2023

Pessa, Penna - Manuale di scienza cognitiva – Editori Laterza



Licenza di distribuzione:
INFORMAZIONI SULLA PUBBLICAZIONE
AT
Responsabile account:
Adolfo Tasinato (Digital communication specialist)
Contatti e maggiori informazioni
Vedi altre pubblicazioni di questo utente
RSS di questo utente
© Pensi che questo testo violi qualche norma sul copyright, contenga abusi di qualche tipo? Contatta il responsabile o Leggi come procedere