Contatti
Libri

Perche' ci fidiamo di piu' della calcolatrice

, di Camillo Papini
L'AI crea disagio nell'uomo, nonostante la nostra vita sia immersa negli algoritmi: Elena Esposito, autrice di un volume per i tipi di Bocconi University Press, spiega che questo dipende dal fatto che pensiamo di interagire con una vera intelligenza. Ma poiche' cosi' non e', piu' che di AI e' meglio parlare di comunicazione artificiale

L'Intelligenza Artificiale può assomigliare a una calcolatrice ma il rapporto degli uomini con la prima non è così sereno come con la seconda. Ci fidiamo dei risultati della calcolatrice, anche se non sappiamo con precisione come fa ad arrivare in poco tempo al risultato di un'operazione complessa, mentre un analogo rapporto con l'Intelligenza Artificiale (IA) genera disagio nelle persone. Perché? Il motivo è che le macchine non smettono mai d'imparare e più svolgono in modo inatteso nuovi compiti, fino ad allora affidati all'intelligenza umana, più agli utenti non piace ritrovare proprie prerogative nelle macchine. Questo crea disagio. Si teme di essere sorpassati da super-intelligenze e, per esempio in ambito economico, di venir sostituiti sul posto di lavoro. Eppure, siamo immersi tutti i giorni tra algoritmi e programmi come i bot che interagiscono frequentemente con i clienti di un'azienda telefonica o con i risparmiatori di una banca. Si ritiene che i bot siano gli autori di circa il 50% del traffico internet, che il 40% delle revisioni su Wikipedia sia opera di agenti digitali, senza dimenticare la presenza sui social network di molti account creati da piattaforme automatizzate e, non da ultimo, l'exploit di curiosità verso ChatGpt, capace di produrre testi scritti in base alle conversazioni con i suoi utenti.

In realtà, «gli algoritmi funzionano ed evolvono proprio perché non cercano più di essere intelligenti. Semmai possono essere visti come capaci di comunicare in modo creativo e con finalità informative, ma non sono intelligenti», spiega Elena Esposito, professoressa ordinaria di Sociologia dei processi culturali e comunicativi presso le Università di Bielefeld (Germania) e di Bologna, che ha pubblicato il libro Comunicazione artificiale. Come gli algoritmi producono intelligenza sociale (Bocconi University Press, 2022). «Infatti, lo scopo con cui vengono programmati gli algoritmi non è comprendere i dati trattati e forniti dai nostri comportamenti online. L'intenzione è individuare delle correlazioni tra i dati ed elaborarle in modo che siano informative per gli utenti», sottolinea Esposito, allieva di Niklas Luhmann, che non a caso propone di passare dalla definizione di Intelligenza Artificiale a quella di Comunicazione Artificiale, con un nuovo modello teorico alla base per ribadire che il partner con cui interagiamo non è un essere umano, bensì un algoritmo. Servono nuove regole e abitudini di comportamento che, visti i molteplici ambiti d'intervento dell'IA, devono essere promosse su iniziativa delle istituzioni, nazionali e sovranazionali, così come allo stesso modo dalle famiglie e dai singoli individui. Ognuno nel rispettivo ambito di pertinenza.

In che modo parlare di Comunicazione Artificiale può ridurre il disagio verso l'IA? 
Intanto perché ipotizza che l'analogia tra le prestazioni degli algoritmi e l'intelligenza umana, che genera tale disagio, sia fuorviante. Inoltre, perché permette di far emerge nuovi spunti di riflessione, sfide, paradossi che le recenti tecnologie pongono. Rimangono i loro numerosi aspetti positivi, dalla disponibilità di maggiori informazioni alla velocità con cui reperirle, passando per l'economicità di questo processo. Ma ci si può interrogare anche su come il crescente intervento dell'IA influisce per esempio sulla nostra concezione di sfera pubblica e sulla tenuta della coesione sociale, considerando la progressiva personalizzazione delle informazioni e dei servizi offerti a ogni singola persona, senza che quest'ultima le abbia neanche richieste. In questo modo si crea una bolla da cui è difficile uscire. Diventa più arduo prendere consapevolezza che ci possa essere qualcosa di diverso da quello che si sa già e decidere poi se si vuole scoprilo o meno. Altrimenti detto, il singolo non sa più che cosa sanno gli altri e decade quel terreno comune d'informazioni condivise che fanno sentire ognuno parte del tutto. Ma è su quel terreno comune d'informazioni condivise che si basano sia la coesione sociale sia lo stesso mercato. In aggiunta, ci si può domandare quali siano le ricadute delle differenti declinazioni dell'IA in ambiti specifici come quello educativo o, infine, come cambi la nostra percezione della relazione tra realtà e finzione. Sempre più spesso, infatti, possiamo intervenire non solo sulla realtà ma anche sulla finzione, che non è più la mera fiction immodificabile di film già impostati dall'inizio alla fine ma un ambito con cui possiamo interagire e di cui possiamo modificare il corso, come per esempio nei videogames.

La presenza crescente di IA nella nostra vita modifica le nostre abilità? Per esempio, nel saper ricordare o dimenticare? 
Diciamo che c'è un nuovo rapporto delle persone con la dimenticanza. In passato ci impegnavamo più che altro a ricordare le cose e l'oblio procedeva da solo, interveniva in modo spontaneo a selezionare le informazioni che non dovevano durare nel tempo. Adesso la difficoltà s'inverte e sta nel ricordarsi di non ricordare; occorre impegnarsi di più per dimenticare visto che online tutti i ricordi e le informazioni vengono preservati. Si può dunque ragionare sul paradosso finale a cui si arriva: per dimenticare i ricordi conviene moltiplicarli, per farne scalare uno dal primo posto all'undicesimo dei risultati di un motore di ricerca, quando sappiamo che si tende a leggere solo le prime risposte.

È credibile o illusorio che le macchine arrivino a predire il nostro futuro?
Il futuro non si poteva e non si può prevedere perché dipende dai comportamenti umani, che cambiano continuamente. Il futuro resta aperto, anche se possiamo ricordare che l'IA offre una serie di nuovi strumenti per rapportarci con l'incertezza del futuro. Se però finora si è tentato di anticiparlo affidandosi al calcolo delle probabilità, adesso gli algoritmi ci provano individuando nei big data correlazioni tra diverse configurazioni possibili. Non è detto che le correlazioni evidenziate siano per forza le più verosimili, pur basandosi gli algoritmi in parte su strutture probabilistiche. Il risultato del tentativo di prevedere il futuro è che gli algoritmi producono indicazioni sull'avvenire che risultano oscure per gli esseri umani, non essendo in grado di comprendere come sono state generate. Si tratta di previsioni che finiscono per ricordare le pratiche divinatorie del mondo antico, sibilline e oscure. Proprio quelle pratiche da cui la scienza si era allontanata.


Big data, machine learning e bot: sono tanti i termini nuovi che descrivono lo scenario hi-tech in cui siamo immersi. Ma sono ancora di più le implicazioni che le tecnologie dispiegano nella nostra vita. Sorgono così domande come «riusciremo a controllare qualcosa che non capiamo fino in fondo?» oppure «non è che le macchine stanno diventando troppo intelligenti?». A questi interrogativi, in un'ottica propositiva per la riflessione e l'intelligenza sociale, risponde Elena Esposito, professoressa ordinaria di Sociologia dei processi culturali e comunicativi presso le Università di Bielefeld (Germania) e di Bologna, nonché autrice del libro Comunicazione artificiale-Come gli algoritmi producono intelligenza sociale (Bocconi University Press, 2022, 224 pp, € 22).