Ieri nella seconda giornata del Festival della Statistica e della Demografia in corso a Treviso spazio agli interventi dedicati all’Intelligenza Artificiale
Nella seconda giornata del Festival della Statistica e della Demografia, che si è svolta ieri a Treviso, di grande interesse sono stati gli interventi dedicati all’Intelligenza Artificiale. La rivoluzione introdotta dall’IA nella statistica grazie alle metodologie di elaborazione e analisi dei dati è stata oggetto di dibattito nello speech “AI – Alto Impatto Intelligenza artificiale, metodologie e informazione statistica” con Orietta Luzi (Istat), Andrea Covino (SAS), Andrea Cortelli (USU) e Valerio Morfino (DXC Tecnology) coordinati da Chiara Burtulo (RaiNews24).
L’IA permette di affrontare sfide complesse, come la gestione di big data, l’integrazione di fonti eterogenee, il machine learning e il deep learning. I dati derivanti da fonti non tradizionali, come quelli testuali, immagini satellitari o di telefonia mobile sono spesso non strutturati ed è compito della statistica ufficiale il controllo dell’affidabilità e della rappresentatività dei risultati. L’uso di modelli di IA, combinato con l’approccio campionario, può migliorare la qualità delle stime e ridurre i margini di errore. La cooperazione internazionale tra istituti statistici e tra settore pubblico e privato è fondamentale per sviluppare standard comuni e condividere best practice ottimizzando l’innovazione e garantendo che l’IA sia al servizio dell’interesse pubblico.
Lo “Spritz Statistico: Tecnologie della rivoluzione: intelligenza artificiale, algoritmi e le sfide per l’Europa” vede Diletta Huyskes (Privacy Network) rispondere a Giovanni Prattichizzo (Istat). Attraverso il racconto di storie di persone si analizza il rischio di come un singolo numero elaborato da un algoritmo possa cambiare le sorti di interi gruppi sociali, rischiando un ritorno a ingiustizie antiche. Ripercorrendo la storia della tecnologia si comprende che ogni invenzione, dalla bicicletta al forno a microonde, fino all’intelligenza artificiale, è il risultato di scelte precise, valori e compromessi umani che causano forti impatti sulla società.
L’utilizzo degli LLM, Large Language Models, è descritto da Mario Bruno (Istat) nella sezione StatisticallYoung ”Alla coperta dell’Intelligenza Artificiale Generativa: un viaggio (europeo) nell’AI per la Statistica Ufficiale”. Strumenti come i chatbot e gli assistenti virtuali sono diventati parte integrante della nostra vita quotidiana, rendendo più immediata la comunicazione tra esseri umani e macchine. Molte le applicazioni degli LLM applicati alla statistica ufficiale nella gestione della qualità dei dati. In questo contesto l’AI Act europeo rappresenta una frontiera innovativa nella volontà di regolamentare questo settore in rapida evoluzione.
La seconda giornata dei lavori si è conclusa con il dialogo “Le infrastrutture per la ricerca e per l’IA: stato dell’arte a livello europeo e nazionale” con Alessandra Poggiali (Cineca) e Massimo Fedeli (Istat) che rispondono a Michela Stenella (Forum PA.it). Sul posizionamento dei dati a livello europeo, l’accesso all’infrastruttura di calcolo e la solidità dell’algoritmo rivestono un ruolo fondamentale nel supportare progetti di ricerca e sviluppo, definire indicatori di qualità e regole di interoperabilità. Ritorna il tema della cooperazione transnazionale per la gestione degli ecosistemi di ricerca che possono creare sinergie attraverso la costruzione di framework comuni.