Data-powered management: una sfida ambidestra

Dietro all’affermazione di necessità di un potenziamento della cultura dei dati in una impresa, risiede un bisogno profondo di consolidare, potenziare, far evolvere o modificare in modo consapevole il proprio modello di business o il modo di gestire l’impresa. Si tratta di un bisogno cogente e pervasivo, connesso alla constatazione di alcuni trend che modificano lo scenario competitivo.

 

Giuliano Noci, Professore di Strategy and Marketing e Prorettore del Polo territoriale cinese del Politecnico di Milano

 

E’ esperienza comune di chi interagisce con le imprese sentirsi dire “avremmo bisogno di potenziare la nostra cultura del dato”.

Il concetto di “cultura del dato” ha diverse sfumature: la presenza di competenze di analisi dei dati, la capacità di lettura e interpretazione delle analisi, la predisposizione di individui e gruppi di lavoro a poggiare le proprie decisioni su evidenze e dati piuttosto che su sensazioni e istinti, lo sforzo a raccogliere e condividere i dati giusti per supportare le decisioni proprie e altrui.

Evidentemente, la “cultura del dato” è l’insieme di queste dimensioni, e dietro all’affermazione di necessità di un potenziamento risiede un bisogno profondo di consolidare, potenziare, far evolvere o modificare in modo consapevole il proprio modello di business o il modo di gestire l’impresa. Si tratta di un bisogno cogente e pervasivo, connesso alla constatazione di alcuni trend che modificano lo scenario competitivo.

In primo luogo, le pressioni della concorrenza, in mercati sempre più saturi e al contempo sempre più interconnessi, forzano alla ricerca di modelli di business e innovazioni che abilitino funzionalità tanto utili quanto sofisticate. Ciò porta alla ricerca di un arricchimento del contenuto dell’offerta (anche) grazie al lavoro sui dati. A titolo d’esempio, se voglio differenziare radicalmente un elettrodomestico nel mercato occidentale, ragionevolmente dovrò renderlo connesso alla rete e utilizzare i dati che raccoglie per offrire servizi a valore aggiunto per il cliente (ad esempio, in un frigorifero, non solo segnalare anomalie per un intervento tecnico in tempo reale, ma essere in grado di verificare la presenza di un cartone di latte quasi vuoto, e magari, sulla base del tasso di suo utilizzo, stimare quando il latte finirà o con che frequenza suggerire di riacquistarlo). E’ peraltro evidente, che da questo tipo di innovazioni possono nascere evoluzioni del modello di business. Nel caso precedente, ad esempio, l’integrazione con sistemi di eCommerce per offrire refill tempestivi subscription-based.

In secondo luogo, la diversità nei mercati di destinazione sta chiedendo risposte sempre più differenziate a segmenti di mercato molto eterogenei per gusti, preferenze, abitudini di utilizzo del prodotto/servizio, comportamenti di utilizzo dei canali fisici e digitali per interagire con l’impres, implicando una capacità di risposta pressochè one-to-one da parte dell’impresa. Dalla marketing automation alla service automation, le imprese sono sempre più alla ricerca di modelli e algoritmi in grado di comprendere lo stato di salute della relazione con un cliente, la sua propensione a una nuova offerta o ad abbandonare l’impresa.

In terzo luogo, e, di fatto, conseguenza dei precedenti, il focus dell’azione manageriale è sempre più improntato sulla ricerca di precisione, puntualità, riduzione degli sprechi – tanto a livello produttivo quanto di marketing, vendita, customer service, ecc. Anche in questo caso, il dato e la capacità di leggerlo rappresentano leve fondamentali.

Quindi, al netto dell’efficacia comunicativa della locuzione “cultura del dato”, il tema che si pone è lo sviluppo della capacità di ibridare competenze analitiche avanzate con senso del business. Si tratta di una competenza nuova in impresa, e spesso di una competenza che difficilmente è riconducibile ad un profilo professionale, quanto piuttosto a un team. Infatti, spesso le imprese inseriscono figure di data scientist portatrici di grande competenza analitica e tecnica, ma non sempre hanno profili manageriali in grado di far da tramite tra i bisogni di business e le applicazioni tecnico-modellistiche e, di converso, di traduzione degli output analitici in piani di azione in grado di guidare il business.

La nostra Scuola ha recepito questa necessità nell’interazione con le imprese, e da questo ha fatto derivare un profondo potenziamento della propria offerta di corsi di machine learning, statistica applicata e corsi di analytics applicati a discipline manageriali (es. performance measurement, marketing, e anche public sector), con un Major del Master of Science a forte vocazione analitica.  Il notevole successo in termini di scelta di questi corsi da parte degli studenti testimonia una forte sensibilità dei nostri giovani allo sviluppo di una carriera e di una professionalità fortemente “data-powered”.

La sfida pedagogica, in questo contesto, è quella di compendiare una solida preparazione analitica e una altrettanto solida conoscenza degli impatti di business dei sistemi decisionali oggetto dell’analisi modellistica, con un approccio incentrato sulla contestualizzazione di tali modelli negli ambiti applicativi in cui sono utili e promuovendo una discussione ricca ed estensiva sulle ulteriori ricadute nei modelli di funzionamento delle organizzazioni.

Machine Learning & Big Data Analytics

Le tecnologie digitali e gli algoritmi per analizzare i dati rappresentano l’evoluzione più recente delle tecnologie intellettuali. Grazie ad esse ci siano trasformati in quello che oggi siamo, in quello che sappiamo, nei nostri modi di pensare. Viviamo in stretta simbiosi con le tecnologie intellettuali e sarà sempre più così anche nei confronti degli algoritmi dell’intelligenza artificiale

 

Carlo Vercellis, Professore Ordinario di Machine Learning, School of Management, Politecnico di Milano

La maggior parte dei nostri gesti quotidiani, acquisti, spostamenti, decisioni personali o professionali sono orientati da un algoritmo di Machine Learning: è comodo ricevere suggerimenti circa prodotti da acquistare, di alberghi e mezzi di trasporto per i viaggi, le indicazioni di film o brani musicali che potrebbero piacerci.

Molte aziende da decine di anni raccolgono grandi moli di dati nei loro sistemi informativi. Gestori di carte di credito, che nel corso di un weekend registrano quasi due miliardi di transazioni, grandi retailer, operatori delle Telco e delle Utility.

Tuttavia, la vera rivoluzione che ha portato ai Big Data coincide con l’avvento dei social network, fenomeno indicato con il termine Internet of People. Ognuno di noi si è trasformato da lettore di informazioni in autore di contenuti. La necessità di immagazzinare questa mole di dati immensa e in rapida crescita ha indotto le grandi aziende del web a creare un nuovo tipo di database basato su architetture a rete distribuite e di fatto a dare vita al cloud.

Accanto alle persone, ormai in Internet ci sono anche le “cose”: si tratta della Internet of Things, costituita da innumerevoli oggetti dotati di sensori e spesso capaci di comportamenti intelligenti e autonomi. Siamo in grado di accendere le luci di casa a km di distanza, di regolare il termostato e di osservare attraverso l’impianto di videosorveglianza. L’automobile potrà guidare in modalità autonoma senza il nostro intervento. Si tratta di un universo composto da quasi 30 trilioni di sensori che registrano valori numerici con altissima frequenza temporale (un trilione è pari a “uno” seguito da 18 “zero”!). Abbiamo inoltre i contatori digitali per gas e power, capaci di registrare puntualmente i nostri consumi e di suggerire comportamenti che rendano più efficiente e sostenibile il nostro utilizzo dell’energia. Indossiamo dispositivi di fitness e smart watch al polso, che registrano la nostra attività fisica, i principali parametri vitali, le nostre abitudini alimentari, la qualità del sonno, e ci forniscono suggerimenti utili a migliorare le nostre condizioni fisiche. Oggetti intelligenti che contribuiranno a rendere sempre più comoda la nostra vita.

Da quanto abbiamo detto finora, è chiaro che il valore predittivo e il valore applicativo contribuiscono a generare un grande valore economico, per le imprese, per la pubblica amministrazione, per i cittadini nel loro complesso.

Tuttavia, i dati di per sé non servono a nulla se non vengono analizzati automaticamente da algoritmi intelligenti. In particolare, gli algoritmi di machine learning nell’ambito dell’intelligenza artificiale vengono applicati a grandi moli di dati per riconoscere regolarità ricorrenti e per estrarre conoscenze utili che permettono di prevedere con notevole accuratezza eventi futuri. Si tratta di una logica induttiva, un po’ come il meccanismo di apprendimento di un bimbo, cui la mamma indica alcuni esempi di lettere dell’alfabeto ponendolo in breve tempo in grado di identificarle autonomamente e quindi di imparare a leggere.

Ad esempio, gli algoritmi sono in grado di interpretare l’umore, il cosiddetto “sentiment”, di post testuali sulle reti sociali con accuratezze del 95-98%, maggiore di quella che potrebbe ottenere un lettore umano. Analogamente, oggi gli algoritmi sono in grado di effettuare con grande precisione il riconoscimento automatico dei contenuti e del contesto delle immagini analizzate.

Le tecnologie digitali e gli algoritmi per analizzare i dati rappresentano l’evoluzione più recente delle tecnologie intellettuali e ci aiuteranno a vivere meglio. Pensiamo infatti che lungo il corso della storia, dai primi strumenti preistorici all’invenzione della scrittura, dall’invenzione della stampa all’ideazione dei computer, le tecnologie intellettuali sono state il motore dell’evoluzione umana. Grazie ad esse noi ci siano trasformati in quello che oggi siamo, in quello che sappiamo, nei nostri modi di pensare. Viviamo in stretta simbiosi con le tecnologie intellettuali e sarà sempre più così anche nei confronti degli algoritmi dell’intelligenza artificiale.

Sul versante economico, osserviamo che le imprese più mature nell’analisi dei dati hanno una maggiore capacità di competere e continuano a rafforzarsi nei confronti delle imprese meno evolute e meno tempestive nell’adozione di strategie di innovazione digitale. Da anni si parla di digital divide in riferimento alle diverse opportunità di accesso alle risorse digitali da parte dei cittadini. Nell’ambito dell’Osservatorio Big Data Analytics che abbiamo avviato al Politecnico di Milano sin dal 2008, abbiamo introdotto dallo scorso anno il termine Analytics Divide per indicare il gap che si è venuto a creare e che purtroppo si sta ampliando tra le imprese virtuose nell’impiego di big data e intelligenza artificiale e quelle meno innovative, che faticheranno di più a uscire dalla palude in cui il virus ci ha spinti.

Per poter progredire come azienda data driven occorre tuttavia disporre di talenti e competenze adeguate, che possono essere ottenute mediante l’acquisizione di nuove risorse o il reskilling di risorse già disponibili in azienda. In questa prospettiva, presso il MIP-Politecnico di Milano abbiamo avviato diverse attività formative su temi di Machine Learning, Artificial Intelligence, Big Data Analytics, Data Science, quali il master internazionale in Business Analytics & Big Data e il percorso executive in Data Science & Business Analytics.