Contatti
Didattica

Tutti cercano risposte dall'IA. Ma la chiave e' nelle domande

, di Emanuele Elli
Le macchine sono molto utili per ritrovare pattern simili in moli enormi di dati, ma peccano sul ragionamento astratto, dote della mente umana. In futuro, l'interazione uomo macchina funzionera' se fara' leva sui rispettivi punti di forza, spiega Igor Pruenster, direttore del BIDSA, il centro di ricerca che unisce competenze di statistica, computer science e data science

Unire discipline differenti come statistica, informatica, matematica e scienze sociali, intorno a strumenti di analisi computazionale per analizzare grandi quantità di dati e creare modelli di fenomeni complessi. Con questo obiettivo è nato il Bidsa, l'Istituto di Data Science & Analytics che si occupa in Bocconi di Intelligenza Artificiale. Anche se questa terminologia non entusiasma in primis chi dirige il centro di ricerca, il professor Igor Pruenster, full professor di statistica e presidente dell'International Society for Bayesian Analysis. "Da accademico, tengo molto alla definizione dei concetti, e la parola intelligenza artificiale è tutto fuorché precisa, è una scatola molto grande con dentro tanti concetti diversi", spiega. "L'utilizzo della nozione di intelligenza è potenzialmente fuorviante se abbiamo come riferimento quella umana perché un sistema di intelligenza artificiale lavora in modo molto diverso. Per lo più oggi si tratta di sistemi che assolvono a precisi compiti previsionali o di classificazione applicando tecniche statistiche e matematiche a dataset per individuare dei pattern, ovvero delle ricorrenze. Non è difficile immaginare che potendo immagazzinare i dati della navigazione online di una vasta fetta della popolazione non sia poi particolarmente difficile prevedere l'attività in rete di ognuno di noi. Siamo molto meno unici di quanto crediamo. Basta digitare una domanda su un motore di ricerca per constatare che si completa da sola perché molti altri prima di noi l'hanno già posta".

Quali sono gli aspetti realmente innovativi dell'IA quindi?
Le domande che ci poniamo non sono nuove, ma la scala fa la differenza. Analizzare migliaia di ecografie per un pattern matching è un'operazione relativamente semplice per un computer e, al contrario, per la quale l'intelligenza umana è estremamente fallace. Anche il medico più esperto si basa soprattutto sulla propria esperienza che, per quando ampia, resta aneddotica. Ciò non implica che l'intervento del medico sia superfluo, ma che avrà un supporto decisionale scientificamente più solido. Più difficile è, per le macchine, immaginarsi qualcosa che non c'è ancora. Già Turing, mentre cercava decifrare il codice Enigma a Bletchley Park durante la II Guerra Mondiale, ha affrontato un problema semplice ma formidabile come quello di stimare la probabilità di scoprire una nuova specie. Nel loro contesto corrispondeva alla comparsa di un nuovo raggruppamento di lettere dell'alfabeto nelle comunicazioni cifrate intercettate. Oggi l'interesse per questo tipo di ricerche è molto cresciuto. Basti pensare alla genomica e all'importanza di stimare la probabilità di sequenziare nuovi geni o che emerga una nuova variante di SARS-Cov-2. L'opinione comune, al momento, è che nel futuro prossimo i computer non saranno in grado di emulare gli umani nella capacità di ragionamento astratto. Lo sviluppo più proficuo dell'Intelligenza artificiale sarà dunque nell'interazione umano-macchina facendo leva sui rispettivi punti di forza.

Oggi l'IA è utilizzata in ogni contesto. Studiarla significa dunque essere esperti di tutto?
La rivoluzione digitale ha cambiato la ricerca in pressoché ogni ambito, in primis grazie all'ampia disponibilità di dati e alle potenzialità computazionali. Come conseguenza, un ricercatore moderno deve avere solide basi di informatica, statistica e matematica, oltre ad essere esperto nel proprio campo, la cosiddetta domain specific knowledge. Anche a chi oggi fa ricerca sui metodi di apprendimento dai dati, a seconda dei casi etichettati come IA, machine learning o data science, viene richiesta una maggiore interdisciplinarietà rispetto al passato. Tuttavia, il trade-off tra profondità e ampiezza non è sparito ed è una continua ricerca di equilibrio tra i due. Il rischio di trasformarsi in tuttologi è sempre dietro l'angolo. Per questo, agli studenti interessati ad IA o data science che intendono intraprendere carriere di ricerca, sia in ambito accademico sia nel privato, consiglio sempre di optare per un PhD in Statistica o Computer Science. Ciò consente loro di acquisire una specializzazione ben definita, una casa naturale, e costituisce un trampolino per allargare successivamente lo spettro di interessi. Come è successo a molti miei studenti che ora lavorano a Google o Amazon, nell'industria sono inseriti in team compositi con competenze molto diverse tra loro e a quel punto l'interdisciplinarietà si realizza automaticamente nel team. Non a caso, all'interno del Bidsa abbiamo costituito quattro unità, Artificial Intelligence Lab (ArtLab), Bayesian Learning Lab (BayesLab), Data and Marketing Insights (DMI), Blockchain Initiative, per dare la possibilità alla nostra comunità di ricercatori e studenti di aggregarsi in gruppi più ristretti intorno a temi specifici, innestando così un modello verticale in quello orizzontale che già c'era".

L'approccio interdisciplinare dà forma a una materia nuova e a un modo nuovo di fare ricerca?
Sì. In questo senso penso abbia ragione Michael Jordan, che non è il campione di basket ma un docente di Berkeley o meglio, come lo ha definito Science, "il Michael Jordan della Computer Science". Michael, che abbiamo spesso in visita in Bocconi e che ha anche tenuto una delle relazioni alla conferenza inaugurale di Bidsa, sostiene che stiamo assistendo alla nascita di una nuova branca dell'ingegneria che si fonda su dati e learning. In effetti l'IA si fonda su idee ben radicate: dati, incertezza, informazione, algoritmi, inferenza, ottimizzazione. Sono concetti studiati in profondità da varie discipline quali statistica, matematica applicata e computer science. Negli anni Novanta si è cominciato a mescolare queste componenti e la novità di oggi sta nel farlo, grazie alle attuali risorse computazionali, su larga scala con un impatto diretto sulla società. Questa sarà appunto una nuova branca dell'ingegneria dei dati e del learning, allo stesso modo in cui l'ingegneria chimica è fondata sulla chimica ma ne analizza l'applicazione nei processi industriali. L'altra novità rilevante è che, per la prima volta, partiamo da dati forniti dalle persone e sulle persone. Sempre citando Jordan, sarà la prima branca dell'ingegneria centrata sulle persone.

Quali sono le frontiere nella ricerca sull'IA?
Guardando ai fondamenti, mi aspetto che acquistino sempre più rilevanza temi come la quantificazione dell'incertezza, la robustezza dei modelli e l'interpretabilità. La quantificazione dell'incertezza è un cardine della statistica ma, nell'unione con la Computer Science, si è un po' perso. C'è questa idea un po' naïve che, all'aumentare dei dati, l'incertezza svanisca. Nella maggior parte dei casi non è così. Probabilmente molti hanno sentito parlare di ChatGPT; si pensi a quanto sarebbe più affidabile se associasse una misura della confidenza alle varie parti delle risposte fornite. Il secondo tema è la robustezza della modellizzazione. I risultati cambierebbero modificando i parametri dei modelli o perturbando i dati? Allo stato attuale le differenze sarebbero significative e questo è un limite per i modelli. Il terzo fattore è l'interpretabilità dei risultati. Uno dei difetti principali dei moderni modelli di deep learning è che forniscono previsioni spesso accurate e tuttavia resta molto complicato, se non impossibile, capire come sono giunti a quella conclusione. Sapere di avere ottimizzato una funzione obiettivo è sufficiente per decidere di suggerire un film a un utente, ma non sempre lo è per decidere una terapia medica. Capire è importante, a mio avviso sempre.

Quali sono i campi di applicazione di tutto questo che approfondite all'interno di Bidsa?
Abbiamo diversi progetti ERC, uno sulla quantificazione dell'incertezza e altri che intersecano appunto i temi della robustezza e dell'interpretabilità. Altri ancora si occupano di networks in ambito medico, tecnologie di elaborazione del linguaggio incorporando fattori demografici nonché di matematica pura sul trasporto ottimo, un problema astratto che oggi ha numerose applicazioni. E poi c'è un gruppo di economisti che studia le teorie delle decisioni, un tema che ancora non ha un ruolo così importante nell'IA ma che entrerà sempre più in gioco. Oggi, infatti, il fulcro della ricerca e delle applicazioni di IA è concentrato sui dati e sulle decisioni migliori per un singolo individuo, mentre è ancora poco approfondito l'apprendimento federato, ovvero le interazioni tra gli individui e tra questi e il contesto.