Cerca
Close this search box.
Cerca
Close this search box.
0%
Premi per ascoltare

Progetto Q*: segreti e paure su IA generale

Ci sono diverse teorie che girano sul web legate all’allontanamento da OpenAI di Sam Altman prima e il suo reintegro come CEO pochi giorni più tardi. Una di queste -che sembrerebbe accreditata- spiega di un progetto segreto denominato Q* (da leggersi Q Star) sulla creazione di un’intelligenza artificiale generale in grado di surclassare le capacità umane imparando anche quei processi matematici che, fino ad oggi, l’IA non era in grado di portare a termine.

OpenAI, la società che ha creato ChatGPT e Dall-E sta lavorando alacremente per migliorare le funzionalità della sua intelligenza artificiale generativa basata su modelli predefiniti e che oggi è capace di generare testo e immagini senza capire il vero significato delle sue creazioni. Diverso invece è il tema dell’intelligenza artificiale generale (AGI).

L’AGI sarebbe in grado di imparare a risolvere problemi matematici proprio come vengono risolti dalla mente umana e comprendere quello che viene generato adattandosi autonomamente alle situazione e senza necessità di un addestramento da parte di qualcuno. Questo tipo di IA sarebbe quindi in grado di apprendere e modificare in maniera autonoma il proprio comportamento, grazie ad una capacità di adattamento propria, fino ad ora, solo all’essere umano.

Negli ultimi mesi, in varie apparizioni pubbliche in congressi e forum sul tema dell’intelligenza artificiale, Sam Altman aveva lasciato intendere di stare lavorando con il suo team a qualcosa che avrebbe fatto diventare le AI GPT obsolete. Qualcosa di straordinariamente nuovo che poteva far presagire ad un punto di svolta nella costruzione di un AI generale, da sempre la mission di OpenAI.

La diffusione di tali teorie viene interpretata da esperti di settore in diversi modi. Alcuni sono seriamente preoccupati di come l’AGI potrebbe essere estremamente pericolosa, in un mondo ormai basato sul digitale, imparando e prendendo decisioni autonome che potrebbero rivelarsi devastanti per la società fino alla possibilità dell’estinzione del genere umano. Un’altra teoria, più plausibile, è che questo allarmismo possa nascondere fini economici spingendo i governi ad un’eccessiva regolamentazione che porterebbe alla non diffusione libera dell’IA a beneficio di poche multinazionali che beneficerebbero del controllo esclusivo.

C’è quindi da chiedersi perchè, nel giro di pochi giorni, Altman -l’uomo del momento- sia stato prima licenziato e immediatamente poi reinserito nella stessa posizione con tanto di tweet in cui si evince l’amore reciproco tra il nuovo (vecchio) CEO e OpenAI.

Nei prossimi giorni ci si aspetta di vedere quali sviluppi prenderà la vicenda sia in termini di annunci di novità sullo sviluppo dell’IA sia in termini di contromosse da parte di chi ha il potere di regolamentare questi sviluppi. Così forse capiremo se abbiamo assistito a una presa di posizione etica di una società che dovrebbe preoccuparsi di mettere al primo posto la razza umana o più banalmente (e tristemente) di una mera operazione di markenting.

Ultimi articoli

A Siena il confronto tra le best practices della sanità digitale

In Toscana arriva il Festival della Robotica

Calendario eventi

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Skip to content