Machine Learning & Big Data Analytics

Le tecnologie digitali e gli algoritmi per analizzare i dati rappresentano l’evoluzione più recente delle tecnologie intellettuali. Grazie ad esse ci siano trasformati in quello che oggi siamo, in quello che sappiamo, nei nostri modi di pensare. Viviamo in stretta simbiosi con le tecnologie intellettuali e sarà sempre più così anche nei confronti degli algoritmi dell’intelligenza artificiale

 

Carlo Vercellis, Professore Ordinario di Machine Learning, School of Management, Politecnico di Milano

La maggior parte dei nostri gesti quotidiani, acquisti, spostamenti, decisioni personali o professionali sono orientati da un algoritmo di Machine Learning: è comodo ricevere suggerimenti circa prodotti da acquistare, di alberghi e mezzi di trasporto per i viaggi, le indicazioni di film o brani musicali che potrebbero piacerci.

Molte aziende da decine di anni raccolgono grandi moli di dati nei loro sistemi informativi. Gestori di carte di credito, che nel corso di un weekend registrano quasi due miliardi di transazioni, grandi retailer, operatori delle Telco e delle Utility.

Tuttavia, la vera rivoluzione che ha portato ai Big Data coincide con l’avvento dei social network, fenomeno indicato con il termine Internet of People. Ognuno di noi si è trasformato da lettore di informazioni in autore di contenuti. La necessità di immagazzinare questa mole di dati immensa e in rapida crescita ha indotto le grandi aziende del web a creare un nuovo tipo di database basato su architetture a rete distribuite e di fatto a dare vita al cloud.

Accanto alle persone, ormai in Internet ci sono anche le “cose”: si tratta della Internet of Things, costituita da innumerevoli oggetti dotati di sensori e spesso capaci di comportamenti intelligenti e autonomi. Siamo in grado di accendere le luci di casa a km di distanza, di regolare il termostato e di osservare attraverso l’impianto di videosorveglianza. L’automobile potrà guidare in modalità autonoma senza il nostro intervento. Si tratta di un universo composto da quasi 30 trilioni di sensori che registrano valori numerici con altissima frequenza temporale (un trilione è pari a “uno” seguito da 18 “zero”!). Abbiamo inoltre i contatori digitali per gas e power, capaci di registrare puntualmente i nostri consumi e di suggerire comportamenti che rendano più efficiente e sostenibile il nostro utilizzo dell’energia. Indossiamo dispositivi di fitness e smart watch al polso, che registrano la nostra attività fisica, i principali parametri vitali, le nostre abitudini alimentari, la qualità del sonno, e ci forniscono suggerimenti utili a migliorare le nostre condizioni fisiche. Oggetti intelligenti che contribuiranno a rendere sempre più comoda la nostra vita.

Da quanto abbiamo detto finora, è chiaro che il valore predittivo e il valore applicativo contribuiscono a generare un grande valore economico, per le imprese, per la pubblica amministrazione, per i cittadini nel loro complesso.

Tuttavia, i dati di per sé non servono a nulla se non vengono analizzati automaticamente da algoritmi intelligenti. In particolare, gli algoritmi di machine learning nell’ambito dell’intelligenza artificiale vengono applicati a grandi moli di dati per riconoscere regolarità ricorrenti e per estrarre conoscenze utili che permettono di prevedere con notevole accuratezza eventi futuri. Si tratta di una logica induttiva, un po’ come il meccanismo di apprendimento di un bimbo, cui la mamma indica alcuni esempi di lettere dell’alfabeto ponendolo in breve tempo in grado di identificarle autonomamente e quindi di imparare a leggere.

Ad esempio, gli algoritmi sono in grado di interpretare l’umore, il cosiddetto “sentiment”, di post testuali sulle reti sociali con accuratezze del 95-98%, maggiore di quella che potrebbe ottenere un lettore umano. Analogamente, oggi gli algoritmi sono in grado di effettuare con grande precisione il riconoscimento automatico dei contenuti e del contesto delle immagini analizzate.

Le tecnologie digitali e gli algoritmi per analizzare i dati rappresentano l’evoluzione più recente delle tecnologie intellettuali e ci aiuteranno a vivere meglio. Pensiamo infatti che lungo il corso della storia, dai primi strumenti preistorici all’invenzione della scrittura, dall’invenzione della stampa all’ideazione dei computer, le tecnologie intellettuali sono state il motore dell’evoluzione umana. Grazie ad esse noi ci siano trasformati in quello che oggi siamo, in quello che sappiamo, nei nostri modi di pensare. Viviamo in stretta simbiosi con le tecnologie intellettuali e sarà sempre più così anche nei confronti degli algoritmi dell’intelligenza artificiale.

Sul versante economico, osserviamo che le imprese più mature nell’analisi dei dati hanno una maggiore capacità di competere e continuano a rafforzarsi nei confronti delle imprese meno evolute e meno tempestive nell’adozione di strategie di innovazione digitale. Da anni si parla di digital divide in riferimento alle diverse opportunità di accesso alle risorse digitali da parte dei cittadini. Nell’ambito dell’Osservatorio Big Data Analytics che abbiamo avviato al Politecnico di Milano sin dal 2008, abbiamo introdotto dallo scorso anno il termine Analytics Divide per indicare il gap che si è venuto a creare e che purtroppo si sta ampliando tra le imprese virtuose nell’impiego di big data e intelligenza artificiale e quelle meno innovative, che faticheranno di più a uscire dalla palude in cui il virus ci ha spinti.

Per poter progredire come azienda data driven occorre tuttavia disporre di talenti e competenze adeguate, che possono essere ottenute mediante l’acquisizione di nuove risorse o il reskilling di risorse già disponibili in azienda. In questa prospettiva, presso il MIP-Politecnico di Milano abbiamo avviato diverse attività formative su temi di Machine Learning, Artificial Intelligence, Big Data Analytics, Data Science, quali il master internazionale in Business Analytics & Big Data e il percorso executive in Data Science & Business Analytics.

Le macchine? Sempre più intelligenti

Alla scoperta dell’intelligenza artificiale e del machine learning, tecnologie che cambieranno sempre più rapidamente le nostre abitudini (e quelle delle aziende)

 

Algoritmi in grado di prevedere i gusti del pubblico. Test capaci di diagnosticare in anticipo una serie di patologie, ma anche quali parti meccaniche hanno maggiori probabilità di rompersi. E, ancora, applicazioni in mille altri campi, dalla guida autonoma alla manifattura, dal riconoscimento vocale al marketing e ai social network. Se il futuro è già oggi, parte del merito è dell’intelligenza artificiale e di una sua sotto-area: il machine learning.
«Il machine learning (alla lettera: apprendimento automatico, ndr) è una disciplina che sviluppa algoritmi in grado di rendere le macchine intelligenti, cioè capaci di imparare dal passato e prendere decisioni sul futuro» spiega Carlotta Orsenigo, professore associato di Computer Science al Politecnico di Milano ed esperta di algoritmi di machine learning.
I vantaggi? «Enormi, anche in termini economici: maggiori ricavi e minori costi. Una migliore previsione della domanda ci permette, per esempio, di ottimizzare il livello delle scorte e di offrire un servizio migliore ai nostri clienti».
Carlotta Orsenigo è anche condirettore di un master della School of Management del Politecnico di Milano pensato per formare data scientist da inserire in contesti anche aziendali. «Il Master Internazionale in Business Analytics and Big Data si rivolge a laureati in materie scientifiche ed economiche con un massimo di cinque anni di esperienza. L’obiettivo è fornire competenze in tre campi distinti: tecnologico, metodologico e di business. Dura un anno, al termine del quale i tassi di occupazione sono altissimi».

Previsione della domanda

La figura chiave del machine learning è il data scientist, figura in grado da un lato di analizzare i dati e sviluppare gli algoritmi che li rendono uno strumento di previsione (e decisione) efficace, dall’altro di interfacciarsi con le figure di riferimento in azienda (responsabile marketing o produzione, per esempio), a seconda dell’obiettivo perseguito.
«Il machine learning può essere utilissimo nel retail, per l’analisi e la previsione della domanda di prodotti e servizi. Si parte dagli acquisti fatti dai clienti nel passato, per prevedere quelli che verranno fatti in futuro. E, in base allo stesso principio, l’algoritmo sarà in grado di dirci che cosa sceglierà il nostro pubblico, in base alle scelte di un pubblico simile, cioè con caratteristiche molto vicine» prosegue Orsenigo.
L’altra faccia della previsione della domanda è rappresentata dalla cosiddetta recommendation, cioè dai suggerimenti che grandi operatori come Amazon e Netflix fanno ai loro clienti. “Hai visto quel film? Ti piacerà anche questo! Cerchi un nuovo libro? Lettori simili a te hanno apprezzato questo titolo”. Funziona, e senza lo zampino dell’uomo: l’intelligenza della macchina, da sola, elabora una gran quantità di dati da cui estrapola significati e tendenze.

Una pluralità di applicazioni

«Un’altra applicazione è nel settore manifatturiero. I dati analizzati possono essere in questo caso quelli forniti dai sensori, e qui entriamo nell’ambito dell’Internet of things (IoT, Internet delle cose, ndr). Ciò permette ad esempio di identificare in anticipo pezzi potenzialmente difettosi e prevenire futuri guasti».
In realtà, il primo ambito di applicazione del machine learning è quello medico-scientifico. «L’analisi delle espressioni geniche, ad esempio, consente di mettere in luce regolarità tra soggetti sani e soggetti malati e permette di progettare test diagnostici mirati» continua Orsenigo.
Importantissimo anche l’ambito del riconoscimento vocale e della centralità della voce, come dimostra il successo di Alexa e di ausili simili. «La nostra generazione preferisce ancora la possibilità di digitare, ma i giovani sono sempre più abituati a usare la voce per interagire con i device».
Ma anche quello dei chatbot, software progettati per simulare una conversazione con un essere umano, che apprendono via via dall’interlocutore (da tono, temi, domande…) in modo da fornire risposte sempre più mirate. O della guida autonoma.
Insomma, il futuro è ancora tutto da scrivere. Anzi, da programmare.