Avreste paura di un bambino di 3 anni?
OPINIONI |

Avreste paura di un bambino di 3 anni?

L'IA NON PUO' DECIDERE DI ESEGUIRE COMPITI CHE SONO AL DI LA' DELLE SUE CAPACITA' E SOPRATTUTTO NON HA SENTIMENTI, COSCIENZA O MALIZIA. SEMMAI RIVELA LE INGENUITA' E GLI ERRORI DEI SUOI PROGETTISTI. PROVARE PER CREDERE

di Dirk Hovy, Professore asociato, Dipartimento di Computing sciences

Le notizie sull'IA sono di due tipi: hype e doom. Di recente, il ciclo dell'hype è stato prevalente. AlphaGo ha sconfitto il miglior giocatore umano, la traduzione automatica è diventata uno strumento utile e la chatGPT ora fornisce risposte argute a tutte le domande. Ma la sventura non è mai lontana: avvertimenti di perdita di posti di lavoro, robot assassini e IA senziente. La paura è comprensibile, ma riflette la nostra percezione dell'IA più che le sue reali capacità. La causa principale è l'umanizzazione di questi modelli e l'ipotesi che abbiano pulsioni, motivazioni ed emozioni che li porterebbero ad agire in modo malvagio quando in realtà svolgono solo un compito.
 
Per essere chiari, l'attuale tecnologia di IA ha numerosi difetti, quindi dobbiamo usarla e svilupparla con cautela. Questi problemi sono causati dai pregiudizi e dalla discriminazione degli utenti. Il sistema di valutazione automatizzato nel Regno Unito ha punito ingiustamente alcuni studenti, il sistema di traduzione automatica che ha tradotto erroneamente "Buongiorno" con "Attaccali", causando problemi legali a una persona innocente, e l'autovelox che ha emesso una multa a un automobilista innocente perché ha scambiato un maglione a maglia per una targa sono tutti esempi di come l'IA possa causare problemi. L'esempio peggiore è quello dell'uomo indiano che è morto di fame dopo che un sistema decisionale automatico gli ha negato le razioni di cibo.
Tutti questi strumenti, però, hanno agito per difetti di progettazione, non per dolo. Le conseguenze sono comunque terribili, ma questo identifica il problema.
 
Nonostante queste notizie preoccupanti, non prevedo alcuna minaccia letale da parte delle IA. Non sono il solo. Secondo Andrew Ng, un pioniere delle reti neurali, "preoccuparsi della superintelligenza malvagia dell'IA oggi è come preoccuparsi della sovrappopolazione del pianeta Marte. Non siamo ancora atterrati sul pianeta!". Quali azioni malvagie potrebbe compiere una traduzione automatica senziente? Produrre traduzioni scadenti per irritare l'utente?
 
Le preoccupazioni sono comprensibili, tuttavia, dato che abbiamo macchine con caratteristiche umane. Giocano, rispondono a domande, traducono frasi e identificano persone nelle fotografie. Se possono fare tutto questo, devono essere come noi, giusto? Quindi molto probabilmente hanno anche speranze, sogni e aspirazioni.  Ma i sistemi di intelligenza artificiale complessi devono essere adattati a ogni compito, come il Go, l'analisi delle frasi o il ricolorare le foto. Ognuno di questi tre compiti non è in grado di portare a termine gli altri due. Nonostante gli sforzi di molte persone intelligenti, gli strumenti di intelligenza artificiale si comportano spesso come bambini di tre anni. L'IA non può ancora decidere di eseguire compiti che sono al di là delle sue capacità.
 
Anche i ricercatori di IA, però, sono affetti da pregiudizi di umanizzazione. Un dipendente esterno di Google, Blake Lemoine, ha affermato, dopo lunghe discussioni con Lambda, che il modello possiede autoconsapevolezza e coscienza. Un giornalista ha posto a Lambda domande leggermente diverse da quelle di Lemoine. Il modello ha negato di essere cosciente.
 
Maarten Sap, ricercatore dell'Università di Washington, ha studiato la Teoria della mente dei modelli linguistici (la capacità di immaginare e comprendere i pensieri e i sentimenti degli altri). La Teoria della Mente di un paziente può essere determinata utilizzando una serie di test psicologici basati su domande. Questi test possono essere somministrati anche ai modelli linguistici. Ma questa logica è fallace. Le persone rispondono alle domande in base al loro complesso funzionamento interiore. I modelli linguistici si limitano a generare un elenco di parole probabili in risposta. Sebbene i loro comportamenti siano simili, non lo sono le loro motivazioni e i loro percorsi verso lo stesso obiettivo.
 
Di conseguenza, chiedersi se i modelli abbiano queste capacità psicologiche è inutile. Non hanno una teoria della mente, né sentimenti, né coscienza, né malizia. Perché e come dovrebbero sviluppare queste capacità in assenza di una programmazione esplicita? Ogni compito dell'IA deve essere meticolosamente definito e addestrato. Questo non include mai l'attribuzione di senzienza, emozioni o aspirazioni. I modelli di IA possono riflettere l'ingenuità e la mancanza di controlli e contrappesi dei loro progettisti, ma non agiscono per cattiveria.
 
Si deve quindi temere che l'IA diventi malvagia? No. Bisogna tenere d'occhio il loro design? Certamente. Dovreste provare a usarla quotidianamente? Vi invito a provare l'IA. Ciò che comprendiamo non può spaventarci.
 
 

Ultimi articoli Opinioni

Vai all'archivio
  • Ce la faranno Usa e Cina a fuggire alla trappola di Tucidide?

    Le due potenze si fronteggiano in una guerra commerciale che non e' escluso possa diventare guerra vera e propria. Una guerra fredda, tuttavia, e' gia' in corso e sta portando a una polarizzazione che ridurra' il potenziale di crescita e l'affacciarsi della stagflazione

  • Il giusto equilibrio contro gli shock

    Assicurazione contro la disoccupazione o lavoro a tempo ridotto? Meglio tutelare i lavoratori o i posti di lavoro? La risposta puo' essere la complementarita' dei sistemi

  • La fuga degli onesti

    I migranti tendono a essere piu' onesti di chi rimane nei luoghi di origine. Luoghi che, di conseguenza, sono privati di capitale sociale, con effetti negativi sulla produttivita', sulla crescita e sulla qualita' delle istituzioni

Sfoglia la nostra rivista in formato digitale.

Sfoglia tutti i numeri di via Sarfatti 25

SFOGLIA LA RIVISTA

Eventi

Lun Mar Mer Gio Ven Sab Dom
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30