In un’epoca in cui l’intelligenza artificiale permea sempre più ogni aspetto della nostra vita, è fondamentale fare chiarezza su un punto spesso sottovalutato: l’AI non è neutra. Questa tecnologia, dietro la sua apparente “intelligenza”, porta con sé i pregiudizi, i valori e le scelte di chi la crea e la utilizza. Fabrizio Degni, esperto di AI ed Etica, ci guida attraverso una riflessione profonda e necessaria, per comprendere il potere e i rischi di una tecnologia che influenza masse sempre più ampie, e per immaginare un futuro più equo e consapevole. Al momento dell’intervista si trova a Vienna, appena atterrato per partecipare ai tavoli di lavoro del 2025 AIFOD Vienna Summer Summit, dedicato alle sfide dell’investimento in Intelligenza Artificiale nei Paesi in via di sviluppo: un tema che tocca il cuore delle disuguaglianze tecnologiche globali.
L’illusione del tempo e la promessa dell’AI
C’è un aspetto meno discusso ma profondamente trasformativo dell’intelligenza artificiale: il suo arrivo in un momento storico in cui la società ha smarrito il senso del tempo. Viviamo in uno stato di emergenza costante, in cui ogni decisione deve essere immediata, ogni risposta automatica, ogni processo accelerato. Ed è proprio in questo vuoto che l’AI si inserisce con forza, promettendo di restituirci il tempo che non abbiamo più.
Ma questa promessa è ambigua. Se da un lato ci solleva da compiti ripetitivi e ottimizza processi, dall’altro ci spinge a delegare sempre più aspetti del pensiero critico, della scelta, dell’elaborazione complessa. «È una rivoluzione diversa da tutte le precedenti», spiega Degni. «Perché non si limita a cambiare il nostro modo di lavorare o comunicare: impatta direttamente sul modo in cui pensiamo e agiamo».
Questa transizione, se non guidata da una consapevolezza etica e culturale, rischia di alimentare una società sempre più passiva, manipolabile, disabituata al dubbio e al confronto. Per questo è fondamentale educare – fin da piccoli – al senso del limite, del tempo e della riflessione. Non basta sapere come usare uno strumento: dobbiamo chiederci perché lo stiamo usando, a quale costo e con quali conseguenze.
L’Intelligenza Artificiale è spesso descritta come “neutrale”, ma è davvero così? In che misura i nostri bias umani entrano nel codice?
Spesso l’Intelligenza Artificiale viene descritta come uno strumento “neutrale”, capace di elaborare dati senza pregiudizi. Ma questa visione è una semplificazione pericolosa. Come spiega Degni, i dati con cui un algoritmo viene addestrato sono intrinsecamente legati al contesto culturale e sociale in cui vengono raccolti, portando con sé i bias e le disuguaglianze. L’AI riflette così non solo le nostre capacità, ma anche i nostri limiti, e può amplificare discriminazioni se non utilizzata con consapevolezza. Non dobbiamo neppure scordare l’influenza e l’impatto di uno strumento, come ad esempio ChatGPT entrato nella vita quotidiana di milioni di persone. Dalla scuola al lavoro, dalla medicina alla comunicazione pubblica, questi modelli linguistici non solo rispondono a domande, ma modellano comportamenti, influenzano decisioni, orientano opinioni. È una tecnologia che informa, educa, rassicura, suggerisce – e lo fa con un tono autorevole, spesso percepito come “oggettivo”.
Ma è proprio questa percezione a generare il primo grande fraintendimento: l’idea che l’AI sia un’entità razionale, “intelligente” nel senso umano del termine, capace di giudizi equilibrati e imparziali. In realtà, come sottolinea Fabrizio Degni, ciò che l’AI produce è il frutto di una sofisticata aggregazione di dati. Non c’è ragionamento, non c’è comprensione: c’è solo un calcolo statistico della probabilità che una parola segua un’altra.
Può esistere un’etica universale dell’AI o dobbiamo pensare a modelli locali, culturali e contestuali?
Non è possibile definire un’etica universale valida per ogni applicazione dell’AI nel mondo. Ogni cultura, ogni paese, ha valori, norme e leggi diversi che influenzano ciò che è accettabile o meno. La governance dell’AI deve quindi essere adattata a questi diversi contesti, evitando un approccio “taglia unica” che rischia di ignorare le specificità e creare nuovi conflitti o ingiustizie. La sfida è trovare un equilibrio tra regole globali e rispetto delle diversità e dunque un modello di Governance responsabile. Il focus della sua partecipazione a Summer Summit di Vienna: promuovere un modello di Governance con un approccio multilaterale, etico e contestuale, capace di rispondere alle specificità culturali, politiche ed economiche dei diversi Paesi, senza cadere nella trappola di un universalismo astratto e inapplicabile. Il punto non è solo regolare l’AI, ma decidere insieme che tipo di società vogliamo costruire attraverso – e non nonostante – l’Intelligenza Artificiale. Una società in cui la competitività non venga ottenuta sacrificando l’etica, e in cui l’innovazione tecnologica sia sempre ancorata al rispetto della dignità umana.
In un mondo interconnesso, la filosofia africana di Ubuntu – Io sono perché noi siamo – offre una visione preziosa: ci ricorda che ogni decisione tecnologica dovrebbe nascere dal rispetto reciproco, dalla cooperazione e dal riconoscimento dell’altro come parte essenziale del nostro stesso essere», sottolinea Degni, invitando a ripensare l’AI non come strumento individualistico, ma come bene comune da costruire insieme. Se l’IA decide per tutti, ma non nasce da tutti, non è governance.
L’Intelligenza Artificiale può contribuire alla costruzione di una società più equa o rischia di amplificare le disuguaglianze esistenti?
L’intelligenza artificiale può essere una leva di equità, migliorando accesso e servizi, ma se non governata correttamente rischia di esacerbare il digital divide. L’accesso a tecnologie avanzate come ChatGPT e i servizi “pro” non è uguale per tutti: costi, competenze e infrastrutture creano barriere che amplificano le disparità esistenti. Un rischio ulteriore riguarda il dislivello competitivo tra aziende che adottano AI etica, magari meno performante in breve termine, e chi sceglie strade più aggressive ma meno responsabili.
Che ruolo dovrebbe avere l’educazione – sia scolastica che professionale – per formare cittadini consapevoli in un mondo governato da sistemi intelligenti?
Infine, Degni evidenzia come l’educazione sia la base per una società capace di convivere con sistemi intelligenti. Non basta insegnare come funziona la tecnologia, ma è necessario sviluppare il pensiero critico, la capacità di leggere l’impatto sociale e di fare scelte etiche. Formare bambini, giovani e professionisti a questo livello di alfabetizzazione è un investimento indispensabile per il futuro, perché saranno loro i leader e i decisori di domani.
L’intelligenza artificiale è una grande sfida e un’opportunità senza precedenti, ma solo un approccio consapevole, responsabile e culturalmente sensibile potrà guidarci verso un futuro dove l’AI sia davvero al servizio di tutti, non solo di pochi.