L’intelligenza artificiale è una delle tecnologie più rivoluzionarie del nostro tempo ma, come si suol dire, con grandi poteri arrivano anche grandi responsabilità.
La costruzione e l’uso dell’IA richiedono un approccio responsabile e etico con regole ben definite e condivise a livello globale.
Nei giorni scorsi i membri del G7 hanno approvato un codice di condotta per una governance del IA a livello mondiale attraverso 11 punti inseriti in un documento denominato “Processo AI di Hiroshima” – che richiama l’attuale presidenza giapponese del G7- in cui vengono definite le linee di attenzione legate allo sviluppo dell’intelligenza artificiale e l’effetto che questa produrrà sulla vita delle persone.
Il codice approvato ha come finalità la condivisione e partecipazione di tutti i paesi del mondo per la realizzazione di strumenti che possano monitorare costantemente lo sviluppo e utilizzo dell’IA avendo come base i diritti umani e la democrazia in un’ottica di trasparenza e condivisione, con l’obiettivo di stimolare chi sta sviluppando l’IA nel migliorare la vita delle persone e risolvere le sfide globali.
“L’Italia da gennaio avrà la Presidenza del G7” -ricorda in un suo post social Diego Ciulli, Head of Government Affairs and Public Policy di Google Italia che nelle settimane scorse ha annunciato un fondo di 2 milioni di Euro per finanziare soluzioni AI italiane- “Mai come oggi il nostro Paese può giocare un ruolo guida nella definizione delle regole globali per un’Intelligenza Artificiale responsabile mettendo insieme Governi, imprese e società civile e coinvolgendo proprio chi l’IA la costruisce”.
L’IA quindi ha il potenziale per trasformare il mondo in modi straordinari, ma attraverso un approccio oculato, etico e responsabile che rispetti i punti sotto menzionati, al fine di sfruttare appieno il potenziale dell’intelligenza artificiale per il bene comune, evitando al contempo gli impatti negativi sulla società e sulla privacy.
Di seguito gli 11 punti del codice di condotta di Hiroshima
- Adottare misure adeguate durante lo sviluppo di sistemi avanzati di IA, anche prima e durante la loro diffusione e immissione sul mercato, per identificare, valutare e mitigare i rischi durante il ciclo di vita dell’intelligenza artificiale
- Identificare e mitigare le vulnerabilità, gli incidenti e i modelli di uso improprio, dopo la distribuzione, compresa l’immissione sul mercato
- Segnalare pubblicamente le capacità, i limiti e gli ambiti appropriati dei sistemi avanzati di intelligenza artificiale e l’uso inappropriato, per sostenere la garanzia di una sufficiente trasparenza, contribuendo così ad aumentare la responsabilità
- Lavorare per la condivisione responsabile delle informazioni e la segnalazione degli incidenti tra organizzazioni che sviluppano sistemi di intelligenza artificiale avanzati, anche con l’industria, i governi, la società civile e il mondo accademico
- Sviluppare, implementare e divulgare politiche di governance dell’IA e di gestione del rischio, comprese le politiche sulla privacy e le misure di mitigazione
- Investire e implementare solidi controlli di sicurezza, inclusa la sicurezza fisica, quella informatica e le tutele contro le minacce interne durante tutto il ciclo di vita dell’IA
- Sviluppare e implementare meccanismi affidabili di autenticazione e provenienza dei contenuti, come watermark o altre tecniche per consentire agli utenti di identificarsi
- Dare priorità alla ricerca per mitigare i rischi sociali e dare priorità agli investimenti in misure di mitigazione efficaci
- Dare priorità allo sviluppo di sistemi di intelligenza artificiale avanzati per risolvere sfide mondiali come la crisi climatica, la salute globale e l’istruzione
- Promuovere lo sviluppo e l’adozione di programmi internazionali e norme tecniche
- Implementare misure adeguate di immissione dei dati e protezioni per i dati personali e la proprietà intellettuale
2 risposte