Dati, l'evoluzione della specie
OPINIONI |

Dati, l'evoluzione della specie

ALL'INIZIO C'ERANO I NUMERI DEI LIKE O DEI SONDAGGI, POI SI E' PASSATI A WORD EMBEDDING E ALLA COMPUTER VISION. GRAZIE ALLE NEUROSCIENZE E AL DEEP LEARNING LE ORGANIZZAZIONI HANNO INIZIATO COSI' A UTILIZZARE DATI TESTUALI, VISIVI E PIU' RECENTEMENTE AUDIO CHE RESTITUISCONO INFORMAZIONI UTILI A SEGMENTARE LA POPOLAZIONE. IL FUTURO? ANALIZZARE LE EMOZIONI, UN MERCATO CHE SI PREVEDE VARRA' 56 MILIARDI DI DOLLARI NEL 2024

di Gaia Rubera, Amplifon chair in customer science e direttrice del Dipartimento di marketing della Bocconi

Va da sé che i dati sono la risorsa più importante nell'economia guidata dai dati. Nel corso degli anni, il tipo di dati disponibili per le organizzazioni, i nostri modelli con cui analizzarli e la conoscenza che ne ricaviamo, sono profondamente cambiati.

All'inizio c'erano i numeri, provenienti da una varietà di fonti: per esempio, carte fedeltà, like e condivisioni sui social network. Questi dati, insieme ai modelli di apprendimento automatico, ci hanno fornito una comprensione più raffinata dei desideri e delle preferenze dei clienti. Aziende come Amazon e Google hanno costruito la loro fortuna intorno a questo. Soprattutto, e in modo allarmante, le organizzazioni potevano correlare i numeri alle informazioni sensibili. Per esempio, Target ha imparato che le donne che comprano lozioni per le mani e vitamine hanno più probabilità di essere incinte. Cambridge Analytica ha imparato che un semplice like a un post sulla Famiglia Addams rivela che uno è nevrotico.
Tuttavia, se si pensa agli esseri umani, i numeri sono solo una piccola parte dei dati che elaboriamo quotidianamente. Riceviamo anche dati dalla discussione, dalla lettura e dai nostri sensi della vista e dell'udito, per esempio. Nell'ultimo decennio, i progressi dell'informatica hanno aumentato i numeri con "dati non strutturati", cioè testo, immagini e dati audio.

Sconosciuta ai più all'epoca, una rivoluzione è avvenuta a Google intorno al 2013. Fino ad allora, le parole erano trattate come unità atomiche, cioè come indici in un vocabolario senza alcuna relazione tra loro. Attingendo alla teoria linguistica, gli scienziati di Google hanno sviluppato un modello di rete neurale - chiamato word embedding - che rappresenta le parole come vettori, dove i vettori più vicini indicano parole semanticamente più simili. Per esempio, il vettore per "caffè" è vicino al vettore per "tè" ma più lontano dal vettore per "calcio". Vi ricordate Google Translate una decina di anni fa? Difficile da usare. L'avete provato oggi? Può tradurre istantaneamente tra qualsiasi coppia di lingue. Tutto questo grazie a modelli di incorporazione di parole. Le implicazioni per la nostra comprensione della società sono altrettanto notevoli. Ora possiamo dedurre stereotipi storici e valutare i cambiamenti di questi stereotipi nel tempo. Ad esempio, analizzando le uscite di notizie, Garg e colleghi (2018) hanno osservato che il vettore per "emotivo" si avvicina al vettore per "donna" nel tempo, fino a diventare una parola per descrivere le donne in senso peggiorativo. Allo stesso modo, le aziende possono estrarre dati testuali dai social network e usare il word embedding per tracciare come le percezioni dei consumatori cambiano nel tempo o in risposta a eventi specifici, come campagne di marketing, scandali o introduzioni di nuovi prodotti.
Gaia Rubera è una dei tre professori protagonisti della prima puntata di Story Scanner, il nuovo podcast che approfondisce i temi del magazine viaSarfatti25. In questo episodio si discute di big data e data-driven innovation.

In un periodo di tempo simile, un altro sorprendente progresso è avvenuto nel campo della visione artificiale. In una competizione annuale per il riconoscimento di oggetti nelle immagini, gli scienziati dell'Università di Toronto hanno presentato AlexNet, un'architettura di deep learning che ha offuscato tutti gli algoritmi concorrenti, facendo scendere il tasso di errore dal 26,2% (il concorrente più vicino) a un sorprendente 15,3%. Cosa c'era di così speciale in AlexNet? Ha tradotto i modelli delle neuroscienze su come avviene la visione nel cervello umano in un modello informatico. È un monumento agli spettacolari risultati dell'informatica che incontra le neuroscienze. Oggi, forme evolute di AlexNet sono ovunque, dai modelli che analizzano le scansioni MRI per rilevare i primi segnali di cancro alla Disney che traccia le espressioni facciali degli spettatori per prevedere le vendite dei film, agli algoritmi di riconoscimento del logo che identificano le immagini Instagram dei consumatori che utilizzano i prodotti di un marchio. Attraverso queste immagini, le aziende possono ora condurre studi etnografici su milioni di consumatori - piuttosto che su poche decine, come in passato.

Tra le molte applicazioni di computer vision, una è particolarmente lucrativa, ma non ancora risolta: il rilevamento delle emozioni, un mercato che si prevede varrà 56 miliardi di dollari nel 2024. Le applicazioni attuali si basano in gran parte sulle espressioni facciali. Tuttavia, gli scienziati cognitivi e neuroscienziati riferiscono che le rappresentazioni multimodali (ad esempio, viso e voce) danno giudizi sulle emozioni più veloci e accurati rispetto alle presentazioni unimodali (ad esempio, solo il viso) (Klasen et al. 2012). Le caratteristiche vocali come l'intonazione, il tono e l'intensità forniscono indizi utili che gli esseri umani utilizzano per rilevare le emozioni. La prossima frontiera è, quindi, lo sviluppo di modelli multimodali che combinano dati visivi e audio. Tali modelli potrebbero aprire la strada a un diverso tipo di segmentazione, non più basata su caratteristiche demo-psicografiche stabili, sull'uso del prodotto o sui modelli di acquisto. Piuttosto, potremmo segmentare e indirizzare i consumatori in base al loro umore nel momento specifico in cui interagiscono con un'organizzazione. Un salto quantico rispetto alle scarse informazioni che potevamo raccogliere dai sondaggi o dai focus group solo pochi anni fa.

Continua qui la lettura della cover story del numero di giugno di viaSarfatti25


 

Ultimi articoli Opinioni

Vai all'archivio
  • Il mondo non basta

    Almeno quello di James Bond. La piu' famosa delle spie cinematografiche, se fosse stato un giurista, si sarebbe occupato di arbitrato internazionale. Non ci credete? Leggete questo articolo. E riguardatevi l'intera saga

  • Scuola phygital

    Contaminazione tra fisico e digitale, percorsi personalizzati, classi virtuali, intelligenza artificiale: il futuro della didattica e' gia' presente. E passa (anche) dalla Bocconi

  • Quando arte e moda si toccano

    Dalla sponsorizzazione di mostre a forme piu' estreme di ibridazione, come per esempio la creazione di edizioni limitate di prodotti, l'incontro tra i due mondi separati porta benefici e riconoscimenti a entrambi

Sfoglia la nostra rivista in formato digitale.

Sfoglia tutti i numeri di via Sarfatti 25

SFOGLIA LA RIVISTA

Eventi

Lun Mar Mer Gio Ven Sab Dom
    1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30