0%
L’IA e la Paura di noi stessi

Se l’IA è ormai diventata “un partner del brainstorming” (espressione del vicepresidente di Microsoft Steve Clayton), come si può pensare di imbrigliarla alla fonte? Probabilmente Trump, Musk e gli americani in genere non conoscono Mogol, ma di certo hanno ben chiara la sua domanda retorica: come può uno scoglio arginare il mare? E soprattutto: ha senso avere paura del mare? Anche perché, mentre si discetta del bene e del male, un nerd cinese lo allarga fino ad Oriente in un giorno solo. Provocando un clamoroso effetto-butterfly.

Nella paura crescente e ormai epocale per l’intelligenza artificiale, ci sono certo le resistenze di chi non la conosce. E quelle di chi, proprio perché invece ne percepisce le potenzialità, ha paura che legioni di nativi digitali possono insidiarne il potere. Ma ormai appare chiaro che c’è di più. I software li creiamo noi, operano sulla base delle nozioni che noi alimentiamo (“il grande jpeg del web” di cui parla padre Benanti) e siamo sempre noi che li alleniamo a diventare sempre più efficienti. Quindi gli anatemi verso l’IA – le macchine ci sostituiranno, ci prevaricheranno, ci abitueranno a non distinguere più il vero dal falso – rivelano una particolare sindrome che possiamo definire “Paura di noi stessi”. Di quello che possiamo fare e soprattutto di quello che non siamo in grado di risolvere.

È emblematico il recente caso di una bambina tunisina che in una scuola di Lecce si vede riprodotta con il velo in un fumetto creato dall’IA. Lei non ci sta. “Voglio che si vedano i miei capelli ricci”, dice. E subito scatta la fatwa: noi siamo buoni e giusti, è l’algoritmo che è cattivo.  La guerra all’IA diventa così una ribellione contro i nostri vuoti e i nostri fallimenti. Ad esempio, in questo caso la reazione dovrebbe essere contro le omissioni della civiltà occidentale, che chiude gli occhi verso gli abusi contro le “islamiche d’Occidente”. Invece si dà la colpa al software che tali stereotipi riproduce. In più, c’è la narrazione sulla macchina che con la scusa di fornirci prestazioni sempre più raffinate, si insinua nella nostra personalità (desideri, aspirazioni, gusti) fino a conoscerci negli aspetti più intimi e segreti. Il clima è guerresco: sempre padre Benanti, contro le manipolazioni dell’IA suggerisce l’uso di un “elmetto cognitivo” e l’elaborazione di “metaprompt”, ovvero istruzioni per insegnare ai vari ChatGPT, Gemini, Claude e Copilot a non intrufolarsi troppo nella nostra vita privata.

Gli incubi apocalittici sono facce della stessa medaglia degli entusiasmi acritici. A pesare è il rapporto irrisolto con il futuro, in particolare se assume le sembianze del progresso tecnologico.  “L’inferno esiste solo per chi ne ha paura”, cantava Fabrizio De André in una preghiera dedicata all’amico Luigi Tenco. E noi viviamo con questo approccio catastrofista in particolare l’impatto della robotica sulla nostra vita. Il “machine of learning” non nasce oggi, ha accompagnato il passaggio dall’era analogica ad una civiltà in cui sono tanti i servizi che imparano da sé stessi. Navigatori satellitari, assistenti virtuali o case intelligenti ci hanno agevolato nella vita di tutti i giorni, grazie all’ “internet of things” che è gradualmente intervenuta in vari passaggi della nostra quotidianità. I dati di utilizzo sui servizi digitali in Italia sono eloquenti. Dopo alcuni decenni di esclusività nei servizi privati, dalle banche agli hotel o alle agenzie di viaggi, oggi le piattaforme, i portali e le app pubbliche hanno reindirizzato e tonificato il nostro rapporto con la pubblica amministrazione. Da Spid all’app IO, da PagoPA all’Anagrafe digitale o al portale InPA, il passaggio di epoca può dirsi compiuto. Ed anche la tanto demonizzata “profilazione” non è che un patto trasparente fra utente e fornitore: io usufruisco di un servizio gratuito e in cambio ti consento di utilizzare le mie preferenze di acquisto per farmi proposte commerciali mirate. 

Ma se questo è lo scenario, come hanno potuto un paio d’anni di intelligenza artificiale generativa a provocare tali ondate di panico? Certamente il nodo è in quell’aggettivo, “generativa”, che sta a significare un’attitudine inedita nella storia umana: la capacità di creare contenuti originali. Il nome corretto dell’IA, infatti, dovrebbe essere “intelligenza creativa”. Ed è come se questa facoltà, simile alla peculiarità che l’umano credeva intangibile ed esclusiva della sua specie, avesse fatto saltare un equilibrio già precario. Si sono subito elevate alte grida sull’IA che viola i diritti di autore, dimenticando che in qualsiasi università si sa benissimo che “se copi uno solo è plagio, se copi 10 insieme è ricerca”. Poi si è messa su la sempreverde tirata sugli stereotipi che sarebbero prodotti dall’IAgen, senza neppure considerare non tanto che la premessa resta sempre il famoso jpeg del web, quindi è riposta nei contenuti dell’uomo, ma soprattutto che i filtri e gli antidoti predisposti dai player dell’IA sono estremamente stringenti (perlomeno in Occidente: la questione della cinese DeepSeek è tutta un’altra storia). E certo lo sono molto di più dell’autocontrollo di diversi influencer o rapper, e purtroppo anche di politici e studiosi che in tema di sessismo o di razzismo vanno spesso oltre i limiti. L’altro consueto luogo comune consiste nelle “allucinazioni dell’IA”, quindi la sua propensione all’errore, che tuttavia è stimata attorno al 3%, per non dire del costante lavoro di addestramento dei software che va nella direzione di minimizzare ogni default. La statistica già fornisce delle risposte, e sui terreni psicologicamente più delicati: le auto a guida autonoma, ad esempio, hanno drasticamente ridotto la percentuale di incidenti.

In questo gioco a eliminazione, restano i pregiudizi originari. In primo luogo, i bias etici di cui si è visto. Poi c’è la possibile diffusione di fake indistinguibili dall’originale (il recente lancio di “Grok”, l’IA di Elon Musk, ha moltiplicato queste paure). Ancora, si paventa l’uso improprio di queste tecnologie per fini di potere globale: si pensi alle azioni del governo cinese in termini di controllo del consenso o del governo russo per alterare i giudizi dell’opinione pubblica occidentale. Ma proprio qui torna in gioco la Paura di noi stessi. Se noi insegniamo alle macchine anche ciò che non sappiamo di insegnare, quindi il riflesso condizionato delle nostre ambiguità o il lato oscuro dei nostri demoni interiori, e se non abbiamo creato degli antidoti per “bollinare” le notizie reali e così distinguerle da quelle inventate, e se la politica internazionale è diventata il regno dell’arbitrio e del sopruso, il problema è sul nostro tavolo e solo su quello. I software tornano ad essere ciò che sono, strumenti neutri, anche se capaci di generare contenuti inediti. Profitto, controllo sociale, o persino sostituzione dell’umano fanno parte dei secondi fini di chi eventualmente li gestisce. Come l’energia nucleare, per fare un esempio tratto dal ventesimo secolo. Con in più, oggi, l’accesso alle facoltà creative di contenuto.

Gli indirizzi di studio più avveduti, come ad esempio quelli di alcune università pontificie come la Antonianum, partono dall’assunto che l’IA non è solo un insieme di algoritmi ma un crocevia tra scienza, tecnologia e filosofia. Uno specchio dell’umanità, con molti riflessi e molti livelli di lettura. Quindi si pongono il problema dell’Intelligenza Integrale, cioè uno strumento al servizio di quell’armonia fra uomo e natura che fa parte della visione di Papa Bergoglio. Re-imparare a rispettare l’universo in cui viviamo è l’unica via per limitare i rischi che l’Intelligenza creativa vada oltre i limiti del bene comune. Anche nel campo laico, si ascoltano voci ispirate da una fiducia intrecciata allo spirito critico. Giovanni Anastasi, presidente del Formez e responsabile della Task force sull’IA voluta dal ministro PA Zangrillo, dice che “l’IA più che certezze crea nuovi dubbi, quindi le capacità trasversali, o leadership, o soft skills, assumeranno maggiore importanza rispetto alle competenze tecniche e, soprattutto, alla conoscenza di tipo nozionistico. Per questo non dobbiamo limitarci a digitalizzare l’esistente. Dobbiamo immaginare l’inesistente”.

Di Sergio Talamo Giornalista e docente – Direttore comunicazione, relazioni istituzionali e innovazione digitale FORMEZ PA

Ultimi articoli

Toscana digitale, crescita a due velocità: occupati +74% ma carenza di competenze al 68%

Piano Scuola Digitale: la strategia della Regione Friuli Venezia Giulia per la scuola del futuro

1Nessuno100Giga: La Sicilia si connette alla sicurezza digitale

Calendario eventi

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Skip to content