Cerca
Close this search box.
Cerca
Close this search box.
0%
Premi per ascoltare

Intelligenza Artificiale: approvato dal G7 il codice di condotta

Intelligenza Artificiale: approvato dal G7 il codice di condotta

L’intelligenza artificiale è una delle tecnologie più rivoluzionarie del nostro tempo ma, come si suol dire, con grandi poteri arrivano anche grandi responsabilità.
La costruzione e l’uso dell’IA richiedono un approccio responsabile e etico con regole ben definite e condivise a livello globale.

Nei giorni scorsi i membri del G7 hanno approvato un codice di condotta per una governance del IA a livello mondiale attraverso 11 punti inseriti in un documento denominato “Processo AI di Hiroshima” – che richiama l’attuale presidenza giapponese del G7- in cui vengono definite le linee di attenzione legate allo sviluppo dell’intelligenza artificiale e l’effetto che questa produrrà sulla vita delle persone.

Il codice approvato ha come finalità la condivisione e partecipazione di tutti i paesi del mondo per la realizzazione di strumenti che possano monitorare costantemente lo sviluppo e utilizzo dell’IA avendo come base i diritti umani e la democrazia in un’ottica di trasparenza e condivisione, con l’obiettivo di stimolare chi sta sviluppando l’IA nel migliorare la vita delle persone e risolvere le sfide globali.

“L’Italia da gennaio avrà la Presidenza del G7” -ricorda in un suo post social Diego Ciulli, Head of Government Affairs and Public Policy di Google Italia che nelle settimane scorse ha annunciato un fondo di 2 milioni di Euro per finanziare soluzioni AI italiane- “Mai come oggi il nostro Paese può giocare un ruolo guida nella definizione delle regole globali per un’Intelligenza Artificiale responsabile mettendo insieme Governi, imprese e società civile e coinvolgendo proprio chi l’IA la costruisce”.

L’IA quindi ha il potenziale per trasformare il mondo in modi straordinari, ma attraverso un approccio oculato, etico e responsabile che rispetti i punti sotto menzionati, al fine di sfruttare appieno il potenziale dell’intelligenza artificiale per il bene comune, evitando al contempo gli impatti negativi sulla società e sulla privacy.

Di seguito gli 11 punti del codice di condotta di Hiroshima

  1. Adottare misure adeguate durante lo sviluppo di sistemi avanzati di IA, anche prima e durante la loro diffusione e immissione sul mercato, per identificare, valutare e mitigare i rischi durante il ciclo di vita dell’intelligenza artificiale
  2. Identificare e mitigare le vulnerabilità, gli incidenti e i modelli di uso improprio, dopo la distribuzione, compresa l’immissione sul mercato
  3. Segnalare pubblicamente le capacità, i limiti e gli ambiti appropriati dei sistemi avanzati di intelligenza artificiale e l’uso inappropriato, per sostenere la garanzia di una sufficiente trasparenza, contribuendo così ad aumentare la responsabilità
  4. Lavorare per la condivisione responsabile delle informazioni e la segnalazione degli incidenti tra organizzazioni che sviluppano sistemi di intelligenza artificiale avanzati, anche con l’industria, i governi, la società civile e il mondo accademico
  5. Sviluppare, implementare e divulgare politiche di governance dell’IA e di gestione del rischio, comprese le politiche sulla privacy e le misure di mitigazione
  6. Investire e implementare solidi controlli di sicurezza, inclusa la sicurezza fisica, quella informatica e le tutele contro le minacce interne durante tutto il ciclo di vita dell’IA
  7. Sviluppare e implementare meccanismi affidabili di autenticazione e provenienza dei contenuti, come watermark o altre tecniche per consentire agli utenti di identificarsi
  8. Dare priorità alla ricerca per mitigare i rischi sociali e dare priorità agli investimenti in misure di mitigazione efficaci
  9. Dare priorità allo sviluppo di sistemi di intelligenza artificiale avanzati per risolvere sfide mondiali come la crisi climatica, la salute globale e l’istruzione
  10. Promuovere lo sviluppo e l’adozione di programmi internazionali e norme tecniche
  11. Implementare misure adeguate di immissione dei dati e protezioni per i dati personali e la proprietà intellettuale
Ultimi articoli

Appello di Fondazione Italia digitale alla politica, digitale sia priorità

OpenAI sta lavorando al nuovo modello “Strawberry”

Coach Sanitario Intelligente: l’IA ti allunga la vita

Calendario eventi

2 risposte

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Skip to content