«Data science e business analytics: oggi le aziende non possono farne a meno»

Il professor Carlo Vercellis, direttore del Percorso executive in data science e business analytics, racconta le ultime tendenze nel mercato dei big data e lancia un appello: «I consulenti esterni non bastano più. Ora le organizzazioni devono integrare queste figure al proprio interno»

 

Una crescita che da cinque anni si mantiene costantemente in doppia cifra, intorno al 20%, e investimenti che in Italia hanno raggiunto il valore di 1,7 miliardi di euro. È il mercato degli analytics, in parole semplici l’analisi dei dati, arrivato a un punto di svolta. «Ma ora è tempo di crescere», annuncia il professor Carlo Vercellis, Full Professor of Machine Learning al Politecnico di Milano, direttore del Percorso executive in data science e business analytics presso il MIP Politecnico di Milano e responsabile scientifico dell’Osservatorio Big Data & Business Analytics. «Le grandi aziende hanno preso confidenza con questi strumenti, anche se finora si sono appoggiate soprattutto a consulenti esterni. È il momento di integrare queste figure all’interno delle organizzazioni, anche per le Pmi. Tante le sfide da affrontare, altrettante le figure professionali richieste e quindi gli sbocchi lavorativi per chi vuole operare in questo ambito».

 

Organizzazione, gestione, automazione dei processi: le ultime tendenze

Sono due, in particolare, le tendenze identificate da Vercellis. «La prima sfida è di ordine organizzativo e gestionale, e riguarda il governo della filiera dei progetti data driven, quelli basati cioè sui dati: passare dalle sperimentazioni, ormai sempre più numerose e complesse, al progetto pilota, e poi alla messa in produzione fino ad arrivare al deployment. La seconda sfida riguarda i processi di business, che devono essere cambiati in una prospettiva data driven. Pensiamo alla process automation, ossia un’automazione dei processi che sostituisca le attività umane a scarso valore aggiunto attraverso algoritmi che consentono ai software e ai robot di svolgere una serie di mansioni ripetitive. Questo consente di liberare numerose risorse, umane e materiali».

 

Tanti dati, tanti algoritmi: la necessità di una consapevolezza funzionale

I dati, però, da soli non bastano. Bisogna saperli interrogare, leggere, interpretare, e per questo c’è bisogno di professionalità specifiche: «Siamo sommersi dai dati. Le due fonti principali sono le attività social, che forniscono dati non strutturati, non riducibili a tabelle di numeri; e l’Internet of Things, ossia quella rete di oggetti, elettrodomestici inclusi, con caratteristiche smart, che raccolgono moli di dati più strutturati», spiega Vercellis. «Per leggerli bisogna sapere quali strumenti di analisi impiegare: parliamo degli algoritmi, ovviamente, che pur condividendo delle impostazioni di base non sono tutti uguali. A seconda del compito che gli si chiede di svolgere, uno può rivelarsi più adatto di un altro. Per questo c’è bisogno di figure dotate di “consapevolezza funzionale”: esperti capaci di adoperare gli strumenti di data e business analytics, senza dover essere dei tecnici. Sono queste le professionalità che oggi le aziende cominciano a cercare, perché pian piano ci si sta rendendo conto che i consulenti esterni non bastano».

 

Gli sbocchi professionali nel mondo degli analytics

I profili di questo tipo sono diversi. «Si va dal business user, capace di comprendere logiche e limiti di questi strumenti, al translator, una figura ponte che conosce i linguaggi del data science e del business, ed è in grado di far comunicare tra loro questi due mondi. Le figure oggi sono sempre più tecniche: ci sono il data scientist, il data engineer, il business analytics data scientist solution architect».

Il Percorso executive in data science e business analytics del MIP Politecnico di Milano si propone esattamente di formare professionalità variegati delle diverse tipologie indicate: «È un corso che inizia a ottobre, richiede un impegno di due giorni al mese e tocca tutti i temi legati a quest’ambito», illustra Vercellis. «Prevede delle sessioni di hands-on e, infine, un project work conclusivo grazie al quale gli studenti dovranno applicare le nozioni apprese a un problema, proposto da loro stessi o dai docenti della faculty del MIP. Il corso è rivolto ai singoli, che magari cercano un reskill, ma mi aspetto che siano soprattutto le aziende a sfruttare quest’occasione: è una grande opportunità per formare una risorsa interna in grado di gestire le esigenze dell’organizzazione, un compito che un consulente esterno non sarebbe mai in grado di svolgere».

 

Le macchine? Sempre più intelligenti

Alla scoperta dell’intelligenza artificiale e del machine learning, tecnologie che cambieranno sempre più rapidamente le nostre abitudini (e quelle delle aziende)

 

Algoritmi in grado di prevedere i gusti del pubblico. Test capaci di diagnosticare in anticipo una serie di patologie, ma anche quali parti meccaniche hanno maggiori probabilità di rompersi. E, ancora, applicazioni in mille altri campi, dalla guida autonoma alla manifattura, dal riconoscimento vocale al marketing e ai social network. Se il futuro è già oggi, parte del merito è dell’intelligenza artificiale e di una sua sotto-area: il machine learning.
«Il machine learning (alla lettera: apprendimento automatico, ndr) è una disciplina che sviluppa algoritmi in grado di rendere le macchine intelligenti, cioè capaci di imparare dal passato e prendere decisioni sul futuro» spiega Carlotta Orsenigo, professore associato di Computer Science al Politecnico di Milano ed esperta di algoritmi di machine learning.
I vantaggi? «Enormi, anche in termini economici: maggiori ricavi e minori costi. Una migliore previsione della domanda ci permette, per esempio, di ottimizzare il livello delle scorte e di offrire un servizio migliore ai nostri clienti».
Carlotta Orsenigo è anche condirettore di un master della School of Management del Politecnico di Milano pensato per formare data scientist da inserire in contesti anche aziendali. «Il Master Internazionale in Business Analytics and Big Data si rivolge a laureati in materie scientifiche ed economiche con un massimo di cinque anni di esperienza. L’obiettivo è fornire competenze in tre campi distinti: tecnologico, metodologico e di business. Dura un anno, al termine del quale i tassi di occupazione sono altissimi».

Previsione della domanda

La figura chiave del machine learning è il data scientist, figura in grado da un lato di analizzare i dati e sviluppare gli algoritmi che li rendono uno strumento di previsione (e decisione) efficace, dall’altro di interfacciarsi con le figure di riferimento in azienda (responsabile marketing o produzione, per esempio), a seconda dell’obiettivo perseguito.
«Il machine learning può essere utilissimo nel retail, per l’analisi e la previsione della domanda di prodotti e servizi. Si parte dagli acquisti fatti dai clienti nel passato, per prevedere quelli che verranno fatti in futuro. E, in base allo stesso principio, l’algoritmo sarà in grado di dirci che cosa sceglierà il nostro pubblico, in base alle scelte di un pubblico simile, cioè con caratteristiche molto vicine» prosegue Orsenigo.
L’altra faccia della previsione della domanda è rappresentata dalla cosiddetta recommendation, cioè dai suggerimenti che grandi operatori come Amazon e Netflix fanno ai loro clienti. “Hai visto quel film? Ti piacerà anche questo! Cerchi un nuovo libro? Lettori simili a te hanno apprezzato questo titolo”. Funziona, e senza lo zampino dell’uomo: l’intelligenza della macchina, da sola, elabora una gran quantità di dati da cui estrapola significati e tendenze.

Una pluralità di applicazioni

«Un’altra applicazione è nel settore manifatturiero. I dati analizzati possono essere in questo caso quelli forniti dai sensori, e qui entriamo nell’ambito dell’Internet of things (IoT, Internet delle cose, ndr). Ciò permette ad esempio di identificare in anticipo pezzi potenzialmente difettosi e prevenire futuri guasti».
In realtà, il primo ambito di applicazione del machine learning è quello medico-scientifico. «L’analisi delle espressioni geniche, ad esempio, consente di mettere in luce regolarità tra soggetti sani e soggetti malati e permette di progettare test diagnostici mirati» continua Orsenigo.
Importantissimo anche l’ambito del riconoscimento vocale e della centralità della voce, come dimostra il successo di Alexa e di ausili simili. «La nostra generazione preferisce ancora la possibilità di digitare, ma i giovani sono sempre più abituati a usare la voce per interagire con i device».
Ma anche quello dei chatbot, software progettati per simulare una conversazione con un essere umano, che apprendono via via dall’interlocutore (da tono, temi, domande…) in modo da fornire risposte sempre più mirate. O della guida autonoma.
Insomma, il futuro è ancora tutto da scrivere. Anzi, da programmare.