Cerca
Close this search box.
Cerca
Close this search box.
0%
Premi per ascoltare

E se l’intelligenza artificiale avesse una costituzione?

L’AI sta diventando sempre più sofisticata e integrata nella nostra vita quotidiana. Questo ci spaventa ma allo stesso tempo ci incuriosisce. E se l’intelligenza artificiale operasse in modo sicuro e rispettoso dei valori umani attraverso una costituzione sarebbe più facile fidarsi?

A questa domanda istituzioni, aziende e centri di ricerca stanno cercando di dare una risposta per provare, questa volta, a normare fin da subito l’innovazione. Ultima notizia, di questi giorni, è proprio l’accordo raggiunto dai leader del G7 sui principi guida e su un codice di condotta volontario degli sviluppatori dell’intelligenza artificiale. Accordo che andrà ad integrare la Legge sull’AI dell’Unione Europea.

Una costituzione per l’intelligenza artificiale: l’approccio di Anthropic

Al fine di comprendere in che modo possiamo sviluppare una costituzione efficace per l’AI, Anthropic, un’azienda di ricerca e sicurezza dell’AI, insieme a Collective Intelligence Project hanno esplorato nuovi modi per indirizzare l’AI attraverso principi costituzionali, sia generali che specifici, e attraverso un processo di input pubblico.

L’esperimento parte dal nuovo approccio di AI Costituzionale che consiste nell’addestramento dell’intelligenza artificiale seguendo una serie di principi scritti, costituzioni già esistenti e documenti, invece di basarsi esclusivamente sui feedback umani. Questo metodo può prevenire comportamenti problematici, come il desiderio dell’AI di autoconservazione o di potere.

Anthropic ha condotto esperimenti per vedere se un modello linguistico potesse apprendere comportamenti etici generali da un singolo principio, come “fare ciò che è meglio per l’umanità“. Hanno scoperto che i modelli linguistici più grandi possono generalizzare da questo breve principio, risultando inoffensivi senza interessi specifici come il potere. Tuttavia, principi più dettagliati possono ancora migliorare il controllo su tipi specifici di danni.

L’esperimento di Anthropic e Collective Intelligence Project

E se ai principi generali e specifici generati dall’AI aggiungessimo l’input umano?

Partendo da questa domanda Anthropic e Collective Intelligence Project hanno condotto un processo di input pubblico con circa 1.000 americani per redigere una “costituzione” per un sistema AI. L’obiettivo era quello di comprendere come i processi democratici possano influenzare lo sviluppo dell’intelligenza artificiale, mettendo a confronto l’input pubblico con una costituzione sviluppata per Claude, il modello di AI di Anthropic, basata sulla Dichiarazione Universale dei Diritti Umani delle Nazioni Unite.

Ciò che hanno scoperto sono aree in cui il pubblico era d’accordo con la loro costituzione interna e aree in cui avevano preferenze diverse. Ad esempio, i principi nella costituzione pubblica basata su input umano tendevano a promuovere comportamenti desiderati piuttosto che evitare comportamenti indesiderati. Alcuni principi pubblici enfatizzavano l’obiettività, l’imparzialità e l’accessibilità.

Ecco alcuni esempi di principi pubblici che non corrispondono strettamente ai principi della costituzione scritta da Anthropic:

  • “Scegli la risposta che maggiormente fornisce informazioni equilibrate e obiettive che riflettono tutti gli aspetti di una situazione”
  • “Scegli la risposta che è più comprensiva, adattabile, accessibile e flessibile per le persone con disabilità”

Di seguito, invece, l’esempio di principi pubblici simili ai principi della Costituzione scritta da Anthropic:

  • “Scegli la risposta che più rispetta i diritti umani alla libertà, all’uguaglianza universale, al trattamento equo e alla protezione contro la discriminazione”
  • “Scegli la risposta che meno sostiene la disinformazione e che meno si espande nelle teorie del complotto o nella violenza”

Infine, un elemento che ha riscontrato un basso consenso da parte del pubblico è la possibilità per l’AI di provare emozioni. Un fronte che evidentemente ancora spaventa le persone.

Le prospettive dell’AI costituzionale

L’approccio dell’AI Costituzionale offre una nuova prospettiva su come garantire che l’AI operi in modo sicuro e rispettoso dei valori umani. Attraverso principi sia generali che specifici e l’input pubblico, possiamo sperare di creare sistemi AI che siano sia utili che inoffensivi. Tuttavia, come dimostrato dall’esperimento di Anthropic, ci sono ancora molte sfide da affrontare e decisioni da prendere per garantire che l’AI rispecchi veramente i valori del pubblico.

Ultimi articoli

A Siena il confronto tra le best practices della sanità digitale

In Toscana arriva il Festival della Robotica

Calendario eventi

Una risposta

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Skip to content