Complice anche il successo (meritato) di Oppenhaimer, in questi mesi molto si è parlato dell’intelligenza artificiale come una nuova possibile bomba atomica.
Lo stesso regista Christopher Nolan ha affermato che gli scienziati con i quali ha parlato stanno vivendo un “momento Oppenheimer”, ovvero temono il potenziale distruttivo della loro creazione. In effetti, qualcuno sta già paragonando Sam Altman di OpenAI al padre della bomba atomica. Altman stesso non fa niente per scrollarsi di dosso il ruolo di profeta dell’apocalisse o, come direbbe Oppenheimer, di “distruttore di mondi”. In un’audizione al Senato ha dichiarato: “se questa tecnologia va storta, può andare molto storta”.
Sam Altman è anche uno degli oltre 300 firmatari (oltre a Geoffrey Hinton e Yoshua Bengio, considerati tra i più eminenti scienzati del settore) di una “dichiarazione pubblica sui rischi dell’AI” pubblicata a giugno dal Center for A.I. Safety, un’organizzazione di ricerca senza scopo di lucro:
Mitigare il rischio di estinzione dell’intelligenza artificiale dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare.
Ecco che ritorna l’analogia AI = arma nucleare, alimentando scenari apocalittici e oscuri. Credo sia profondamente sbagliato seguire questa narrativa, spesso utilizzata per fare grandi titoli sui giornali, ottenere interesse e far parlare di sé. Perché non è corretto paragonare l’intelligenza artificiale al nucleare?
- Il nucleare è gestito dagli Stati. Pochi individui potrebbero raccogliere le risorse colossali e le competenze tecniche necessarie per costruire e usare una bomba nucleare. Per fortuna le armi nucleari sono da sempre dominio degli stati-nazione. Inoltre l’utilità delle armi nucleari è puramente militare. Invece i sistemi più evoluti di intelligenza artificiale sono in mano a poche imprese, tutte americane, e possono essere utilizzate sia per scopi civili che militari. Un’applicazione di intelligenza artificiale creata per diagnosticare le malattie potrebbe essere in grado di crearne una nuova, trasformandola in arma.
- Le armi nucleari non si diffondono facilmente. I rischi legati a un’arma sono gestiti più facilmente quando solo pochi attori possono accedere alle risorse necessarie per costruirle. Anche se i governi riescono a controllare con successo l’accesso ai materiali necessari per costruire i modelli più avanzati – come sta tentando di fare l’amministrazione Biden impedendo alla Cina di acquisire chip di alto livello – possono fare poco per fermare la proliferazione di quei modelli una volta che sono stati addestrati e sviluppati: poiché sono principalmente software, possono essere facilmente copiati, modificati e trasferiti. Uno dei modelli di intelligenza artificiale più avanzati di Meta, Llama2, è totalmente open source, progettato per essere accessibile pubblicamente. Chiunque può vederlo, modificarlo e distribuirlo secondo le proprie necessità. Ciò significa che l’accesso a grandi quantità di hardware informatico rappresenta un ostacolo alla creazione di nuovi modelli, ma non all’utilizzo di modelli già pronti per l’uso, rendendo l’intelligenza artificiale molto più facile da diffondere rispetto alla tecnologia nucleare.
- Il nucleare è fisico. I sistemi di AI non sono come le armi chimiche o nucleari, che sono difficili e costose da sviluppare e immagazzinare. Man mano che i loro enormi vantaggi diventeranno evidenti, i sistemi di intelligenza artificiale non potranno che diventare più grandi, migliori, più economici e più onnipresenti. Diventeranno persino capaci di una quasi autonomia – in grado di raggiungere obiettivi concreti con una supervisione umana minima – e, potenzialmente, di auto-miglioramento. Ognuna di queste caratteristiche metterebbe in discussione i modelli di governance tradizionali.
E quindi smettiamo di parlare di AI e nucleare? No, in realtà c’è qualche esperienza interessante nella gestione del rischio di una guerra nucleare che possiamo utilizzare anche oggi:
- Una maggior cooperazione tra Stati. Bisogna puntare al miglioramento della cooperazione internazionale per garantire che l’intelligenza artificiale venga sviluppata in modo sicuro, soprattutto con l’altra grande rivale tecnologica, la Cina. Il governo cinese si è mosso più velocemente di quello degli Stati Uniti nel regolamentare l’intelligenza artificiale, emanando regolamenti sui deepfake e pubblicando progetti di regole sull’intelligenza artificiale generativa. Potrebbe aver interesse nel partecipare a un organismo internazionale.
- Investire in ricerca e sviluppo. Europa e Stati Uniti hanno un grande vantaggio tecnologico sulla Cina: il loro controllo sulla tecnologia necessaria per produrre chip avanzati è come avere l’opportunità di controllare la produzione globale di uranio nel 1938. Il controllo sull’hardware specializzato necessario per addestrare grandi modelli di intelligenza artificiale determinerà in modo simile l’equilibrio di potere globale. Essere anche in futuro leader tecnologici nel settore dei semiconduttori avanzati ci permetterà di gestire questo “superpotere” senza dover dipendere da nessun altro.
Affinché la governance globale dell’IA funzioni, deve essere adattata alla natura specifica della tecnologia, alle sfide che pone e alla struttura e all’equilibrio di potere in cui opera. Ma poiché l’evoluzione, gli usi, i rischi e i benefici dell’IA sono imprevedibili, la governance di una struttura che ambisce a mitigarne i rischi non può essere completamente specificata e dettagliata: deve essere innovativa e flessibile quanto la tecnologia che cerca di governare. Questo significa non copiare o adattare modelli del passato, ma ripensarli da zero. L’intelligenza artificiale è come un grande albero di opportunità e rischi. Invece di provare a segare il tronco, ormai troppo robusto per essere tagliato, proviamo ad analizzare i singoli rami, i singoli problemi, le singole opportunità. Certo, è un lavoro complicato e faticoso, ma necessario per accompagnare nel modo migliore i cambiamenti che stiamo vivendo.
Questo articolo è uscito su Superpoteri, la newsletter che si occupa di tecnologia, potere e politica.
Una risposta