Talents and the challenges for education: pubblicato il nuovo numero di SOMe Magazine

Il mondo della formazione sta evolvendo molto velocemente: cambiano le modalità di relazione tra docenti e studenti, le piattaforme per l’apprendimento, l’esperienza in aula e online, grazie anche alle innovazioni offerte dal digitale.

Di questo e di cosa possiamo aspettarci per il futuro parliamo nel nuovo numero di SOMe: dall’evoluzione della didattica nei corsi undergraduate e negli open programs, alla necessità di nuove competenze dei docenti, all’efficacia dell’insegnamento, le sfide del settore sono presentate da Marika Arena, Antonella Moretto, Tommaso Buganza, Mara Soncin e Tommaso Agasisti.

In “Stories” raccontiamo due progetti di ricerca volti rispettivamente al miglioramento delle condizioni di vita di soggetti non vedenti e al monitoraggio del benessere dei giovani durante lo sport, per terminare con una esperienza di networking internazionale tra giovani ricercatori europei.

Per leggere SOMe #9 clicca qui.

Per riceverlo direttamente nella tua casella di posta, iscriviti qui.

I numeri precedenti:

  • #8 “The challenge of pursuing impact in research”
  • #7 “From data science to data culture: the emergence of analytics-powered managers”
  • #6 “Innovation with a human touch”
  • #5 “Inclusion: shaping a better society for all”
  • #4 “Multidisciplinarity: a new discipline”
  • #3 “New connections in the post-covid era”
  • #2 “Being entrepreneurial in a high-tech world”
  • Special Issue Covid-19 – “Global transformation, ubiquitous responses”
  • # 1 “Sustainability – Beyond good deeds, a good deal?”

Train the trainers

Le tecnologie digitali stanno cambiando profondamente le dinamiche dell’insegnamento: è necessaria una riprogettazione dell’intera esperienza formativa che richiede ai formatori lo sviluppo di nuove competenze non solo digitali ma anche pedagogiche.

Tommaso Buganza, Professore di Leadership & Innovation, School of Management Politecnico di Milano

 

La pandemia ci ha resto tutti cintura nera di Teams, Zoom, Webex, ecc.
Ci ha catapultati in un mondo digitale e ci ha obbligati a sviluppare competenze digitali in tempi brevi e senza possibilità di sottrarci. In alcuni casi questo ha funzionato molto bene (ci dicono gli studenti) in altri casi meno.

Ora non siamo sicuri che la pandemia sia solo un ricordo del passato, ma possiamo essere almeno sicuri che non torneremo mai indietro per molti aspetti delle nostre vite, e la formazione è sicuramente uno di questi. Queste competenze digitali ci sono costate fatica e ora le terremo con noi.

Forse è arrivato un momento in cui abbiamo la maturità per cominciare a chiederci come è cambiato (o deve ancora cambiare?) il nostro set di competenze come formatori.

Possiamo partire da una considerazione semplice sul concetto di digitale: l’equazione

digitale = online a distanza

si è dimostrata falsa.

Infatti, dobbiamo distinguere la natura e le funzionalità dei molti strumenti che abbiamo imparato ad usare. Da un lato, come detto, Zoom, Teams, Webex, ecc, sono strumenti che ci permettono di interagire a distanza. Ma la pandemia ha portato anche strumenti per l’interazione che abilitano attività innovative e che possono essere fruiti tranquillamente anche in una situazione di aula fisica.

Pensiamo a software di instant polling come Socrative, Kahoot! o Poll Everywhere. Oggi possiamo allargare l’interazione anche a centinaia di studenti in pochi secondi. Avere il polso delle emozioni puntuali con tag cloud o di quanto abbiano capito un concetto con risposte multiple in tempo reale.

Ma possiamo anche fare di più; possiamo innescare dinamiche di interazione interne all’aula. Per esempio chiedendo di scrivere pareri e poi di votare quelli scritti da altri in una sorta di semplice ma rapido ed interessante brainstorming.

Poi esistono altri strumenti, come MIRO, Mural o Jamboard, che invece permettono di creare uno spazio condiviso per permettere a team di studenti di interagire in modo più profondo, agendo un artefatto virtuale in modo coordinato e contemporaneo, mantenendo traccia di ciò che è stato fatto anche nelle lezioni passate, se necessario, e guidandoli con template e passi di processo che una volta avrebbero richiesto carta, stampe, gestione logistica, perdita di informazioni, ecc.

Dobbiamo riconoscere però che tutti questi strumenti, e la nostra capacità di usarli, si incrociano con un cambio nel modo in cui la società interagisce con il concetto di apprendimento. Grosse piattaforme digitali, come YouTube o Instagram, hanno rivoluzionato il modo di interagire con la conoscenza. Lo hanno reso più rapido, frazionato, interattivo e a richiesta. Il micro-learning, lo spacchettamento della parte pratica in piccoli pezzi più facilmente digeribili, la multimodalità della comunicazione (slide, parlato, filmati etc.) sono esperienza di molti noi, sia come utenti che come formatori. Soprattutto la dinamicità dell’azione formativa si è modificata. Non possiamo più pensare di avere lunghi periodi di trasferimento frontale e poi lunghi periodi di applicazione. Il paradigma dello studio di caso da 20 pagine da leggere per poi discuterne non è tramontato (ancora) ma inizia a sembrare in alcuni casi lento e un po’ datato.

In questo scenario non è rilevante se la formazione avviene in presenza o online tramite una piattaforma di comunicazione, quello che dobbiamo fare è cambiare il flusso logico esperienziale delle nostre lezioni.

Ma quali sono le competenze che dobbiamo sviluppare perché ciò accada?

In che modo, per cambiare quello che facciamo in aula, dobbiamo cambiare ciò che facciamo prima di andare in aula?

Io credo che ci siano 3 cose fondamentali che dobbiamo apprendere sempre meglio.

La prima è concepire (e quindi progettare) una lezione come un servizio da erogare. Dobbiamo progettare non solo i contenuti (che sono e rimangono il punto centrale ovviamente) ma anche come saranno fruiti. Dove vogliamo mettere una interazione, dove vogliamo mettere un controllo, dove vogliamo mettere una attività di gruppo per rinforzare un concetto. Tutto questo richiede una progettazione, e non può essere gestito in modo estemporaneo una volta in aula. Progettare un lavoro di gruppo in 4 passi richiede di progettare una board di MIRO specifica, fare un brainstorming, richiede di preparare la slide interattiva, ecc. In moltissimi casi scopriremo che la risorsa scarsa sarà il tempo e dovremo scegliere cosa e come farlo per massimizzare l’efficacia formativa. Il contenuto è condizione necessaria ma non più sufficiente, dobbiamo immaginarci come dei progettisti di processi di formazione.

Ovviamente esiste un dark side di questo approccio ed è quello di mettere l’enfasi sul così detto infotainment e di perdere di vista la centralità del contenuto. L’esperienza formativa significativa ed appagante è un mezzo e non il fine. Dobbiamo però accettare che oggi non dedicare la giusta attenzione alla progettazione della fruizione rischia di ridurre drasticamente l’efficacia formativa.

La seconda cosa che dobbiamo imparare a fare sempre più e meglio è esplorare lo spazio digitale. Tutti gli strumenti che abbiamo nominato prima aggiungono continuamente funzionalità e dettagli. Ognuna di esse abilita nuove interazioni o attività. Non potremo mai utilizzarle se non le conosciamo, dobbiamo essere curiosi per avere nuove idee. Per esempio, quado Miro ha introdotto la possibilità di nascondere alcuni contenuti e mostrarli solo al momento opportuno sono nate idee di come strutturare processi complessi con più passaggi; o quando Poll Everywhere ha inserito la possibilità di votare le idee di altri si sono aperti spazi per brainstorming collettivi che prima sarebbero stati impossibili (o avrebbero richiesto troppo tempo).

Anche in questo caso esiste un possibile dark side, quello di innamorarsi dello strumento e di aggiungere attività per utilizzarlo e non per il loro reale impatto sul processo formativo. Dobbiamo ricordarci anche in questo caso che lo strumento è un mezzo e non un fine.

Infine, personalmente, ho aggiunto una attività che una volta non facevo. Nel progettare nuove lezioni con interazioni digitali di varia natura e durata e mischiando strumenti differenti ho dovuto iniziare ad aggiungere una fase di test. Una volta creavo le slide, pesavo come raccontarle e andavo in aula. Oggi testo tutti gli strumenti e le interazioni come se fossi un partecipante. Infatti, la nostra capacità di gestire la situazione sul momento con creatività è ridotta in modo drastico dall’utilizzo di sistemi ricchi ma rigidi. Se manca un link, se la pagina non si aggiorna, se non riesco a entrare in Mural, la gestione del problema è lunga e il tempo perso senza che accada nulla riduce drasticamente l’esperienza formativa rischiando di vanificare tutto il lavoro svolto.

Progettare l’esperienza formativa, esplorare costantemente le potenzialità degli spazi digitali e inserire una fase di test sono nuove competenze ed attività che dobbiamo aggiungere a ciò che già facciamo. Non vi è una sostituzione o l’eliminazione di vecchie attività. Sono semplici e pure aggiunte. Il nostro lavoro, come tutti i lavori, sta diventando più complicato e richiede livelli di specializzazione crescente. Personalmente non credo che questo sia stato innescato dalla pandemia. Questo cambiamento era già in atto, la pandemia ha agito come catalizzatore e lo ha solo reso più veloce dandoci minor tempo di reazione.

“The challenge of pursuing impact in research”: è online il nuovo numero di SOMeMagazine

E’ uscito l’ottavo numero di SOMe, l’eMagazine della nostra Scuola in cui raccontiamo storie, punti di vista e progetti attorno a temi-chiave della nostra missione.

In questa edizione parliamo di impatto della ricerca: definire cosa sia e come misurarlo rappresenta una sfida sempre più attuale.
Con lo sviluppo di un framework metodologico per valutare l’impatto della ricerca della School of Management, Stefano Magistretti e Federico Caniato spiegano come la nostra Scuola stia lavorando per creare una “cultura dell’impatto” incoraggiata e sostenuta nel tempo.

E per mostrare alcuni impatti specifici, Enrico Cagno, Giulia Felice e Lucia Tajoli raccontano il ruolo fondamentale della ricerca accademica nel supportare la transizione green dei paesi in via di sviluppo.

Diletta Di Marco racconta alcune evidenze sul ruolo dell’opinione pubblica nel valutare l’impatto sociale della ricerca scientifica e come si sceglie se sostenere o meno un progetto. Angelo Cavallo presenta le opportunità di innovazione e sostenibilità emergenti dalle tecnologie space-based che impongono nuovi modelli di business.

Infine nelle “Stories” raccontiamo gli effetti del Covid sulla vita delle donne lavoratrici, e alcuni progetti per la promozione della sostenibilità nell’ambito della moda e dei comportamenti aziendali.

 

 

Per leggere SOMe #8 clicca qui.

Per riceverlo direttamente nella tua casella di posta, iscriviti qui.

I numeri precedenti:

  • # 1 “Sustainability – Beyond good deeds, a good deal?”
  • Special Issue Covid-19 – “Global transformation, ubiquitous responses
  • #2 “Being entrepreneurial in a high-tech world”
  • #3 “New connections in the post-covid era”
  • #4 “Multidisciplinarity: a new discipline”
  • #5 “Inclusion: shaping a better society for all”
  • #6 “Innovation with a human touch”
  • #7 “From data science to data culture: the emergence of analytics-powered managers”

La sfida di perseguire l’impatto nella ricerca

Intervista a:
Federico Caniato, Full Professor of Supply Chain & Procurement Management, School of Management, Politecnico di Milano
Stefano Magistretti, Assistant Professor of Agile Innovation, School of Management, Politecnico di Milano

 

Le università sono sempre più impegnate a dimostrare l’impatto della loro ricerca. Qual è l’impatto della ricerca? 

L’impatto della ricerca è fondamentale non solo per il Politecnico di Milano, ma per l’intero sistema universitario italiano e più in generale per le università di tutto il mondo. Non è facile definire quale sia l’impatto della ricerca. Possiamo dire che l’impatto della ricerca comprende tutti i risultati, le implicazioni e le conseguenze derivanti dalle attività di ricerca scientifica volte a generare conoscenza, ma ci si aspetta anche che forniscano benefici concreti. Nella nostra scuola, abbiamo definito l’impatto della ricerca secondo tre livelli progressivi di maturità: diffusione, adozione e benefici. Per diffusione si intende la diffusione dei risultati e delle scoperte tra gli stakeholder, l’adozione è l’uso dei risultati della ricerca da parte degli stakeholder e i benefici sono le conseguenze di questa adozione.

Perché l’impatto è così importante per la ricerca?

La ricerca è spesso accusata di essere autoreferenziale, cioè di «parlare» solo ai membri della comunità accademica senza fornire un contributo significativo alla società in generale. Al contrario, la ricerca può avere un impatto molto più ampio e significativo del previsto. Pertanto, è fondamentale illustrare tali impatti a un pubblico più ampio, richiedendo ai ricercatori di imparare a valutare e condividere il valore del loro lavoro con un maggior numero di stakeholder.

Qual è l’approccio alla valutazione dell’impatto nella School of Management?

Nel 2017, abbiamo iniziato un percorso nella School of Management per sviluppare una cultura della valutazione dell’impatto della ricerca. Questo percorso ha comportato una riflessione sul quadro di valutazione, lo sviluppo di un metodo e la raccolta e l’analisi delle valutazioni di impatto della ricerca. Abbiamo iniziato esaminando la letteratura per le valutazioni d’impatto, intervistando esperti e interagendo con il nostro comitato consultivo internazionale per definire il nostro quadro. Il quadro comprende i tre livelli di maturità (diffusione, adozione e benefici) e cinque settori degli stakeholder (istituzioni, imprese, studenti e docenti, cittadini e comunità accademica). Il secondo passo è stato l’adozione del quadro, avviata inizialmente nel 2019 con una serie di 16 progetti pilota, che si sono poi estesi a una serie più ampia di progetti (42 nel 2020; 43 nel 2021).

L’idea convenzionale di «impatto» ha senso in un modello lineare: i cambiamenti o le scoperte nella scienza e nella ricerca dovrebbero causare cambiamenti nella società, ma i quadri di valutazione dell’impatto sono generalmente molto più complessi, può spiegare perché?

La valutazione dell’impatto della ricerca è più complessa perché l’impatto non è lineare. Alcuni elementi hanno un impatto su una delle parti interessate, causando effetti indiretti su altre parti interessate. Ad esempio, i risultati della ricerca adottati dalle istituzioni pubbliche possono andare a beneficio dei cittadini, oppure i risultati diffusi agli studenti possono essere adottati in seguito, quando gli studenti sono professionisti all’interno delle aziende. Pertanto, la rete di impatto è intrecciata. Vedere il legame tra i settori e il livello di maturità e come un’iniziativa possa influenzare altre aree di impatto richiede un quadro in grado di riunire tutti gli elementi. Facciamo un esempio. Quando si pubblica un articolo accademico, c’è una diffusione all’interno della comunità accademica, ma se lo si condivide in classe, vi è anche un impatto sugli studenti; se si usa nella formazione aziendale, quel nuovo progetto di ricerca può diventare il seme di un potenziale progetto aziendale. Quindi da una singola azione – la diffusione della ricerca tra la comunità accademica – si può avere un impatto su più stakeholder a diversi livelli.

In che misura questa analisi d’impatto deve essere effettuata ex ante, durante la pianificazione dell’attività, e in che misura ex post?

La valutazione dell’impatto è uno strumento utile in ogni momento di un progetto di ricerca. Abbiamo visto colleghi adottarlo nel presentare proposte per un progetto dell’UE o un’iniziativa di ricerca interna. Questo perché l’impatto è sia ex ante che ex post. La cosa più importante è immaginare il potenziale impatto ex ante, che aiuta a stabilire le aspettative e l’obiettivo del progetto. La valutazione ex post mira invece a misurare i risultati ottenuti in termini di impatto, monitorare i risultati delle attività pianificate e dimostrare i risultati effettivi. Pertanto, non c’è un solo momento per l’analisi d’impatto; è sempre bene misurarlo prima, durante e dopo l’iniziativa di ricerca.

L’impatto è «originale» o costruito nel tempo? Abbiamo bisogno che i nostri dottorandi siano «impattatori nativi» o è un orientamento che può essere incoraggiato e sostenuto nel tempo?

La cultura dell’impatto non è nativa. È qualcosa per cui i dottorandi e i ricercatori in generale dovrebbero ricevere una formazione. In effetti, alcuni impatti sono facili da progettare e ottenere, ma gli impatti di livello superiore sono più impegnativi e richiedono un’attenta considerazione, quindi è importante costruire un impatto nel tempo. In effetti, è difficile ottenere tutto con un unico nuovo programma di ricerca. Per quanto riguarda i dottorandi, è probabilmente qualcosa che dovremmo condividere con loro e su cui incoraggiarli a riflettere. Abbiamo avviato questo approccio durante l’ultima Summer School AIiG (Associazione Italiana Ingegneria Gestionali) tenuta dal Politecnico di Bari nel settembre 2021, in occasione della quale abbiamo condiviso il framework con più di 50 dottorandi italiani e abbiamo chiesto loro di applicarlo alla loro ricerca di dottorato. I dottorandi sono rimasti positivamente sorpresi dagli esiti inaspettati di questo esercizio di valutazione. Diffondere la cultura della valutazione d’impatto della ricerca è qualcosa che dobbiamo fare a tutti i livelli.

Transizione alle tecnologie verdi nei Paesi emergenti: come la ricerca può aiutare a indirizzare le risorse

Selezionare le aree geografiche e le tecnologie verdi per il finanziamento di successo di una crescita economica sostenibile è un compito difficile, soprattutto nei Paesi emergenti. La ricerca accademica è fondamentale per fornire strumenti a supporto delle istituzioni pubbliche e private in questo compito.

 

Enrico Cagno, Full Professor in Industrial Systems Engineering, School of Management, Politecnico di Milano
Giulia Felice, Associate Professor in Economics, School of Management, Politecnico di Milano
Lucia Tajoli, Full Professor in Economics, School of Management, Politecnico di Milano

Di recente, la crisi del COVID ha portato alla luce nell’opinione pubblica in che misura la ricerca è per molti versi fondamentale per la sopravvivenza della comunità. Ciò è parso estremamente evidente per le discipline con un impatto diretto e riconosciuto sulla vita umana e sullo sviluppo. Tuttavia, l’impatto diretto e indiretto della ricerca accademica in molte altre aree e discipline potrebbe essere considerevole per il benessere delle persone e l’evoluzione delle società in numerosi ambiti.

Un caso importante, particolarmente rilevante nell’attuale fase economica, è il ruolo della ricerca accademica nel fornire analisi e metodologie che possano supportare le istituzioni pubbliche e private nel veicolare e utilizzare in modo appropriato le risorse in paesi, regioni, settori per favorire una crescita economica equa e sostenibile.

Un esempio pertinente riguarda le risorse a sostegno della transizione dei Paesi verso le tecnologie verdi. I finanziamenti per il clima svolgono un ruolo fondamentale nella lotta al cambiamento climatico e nella promozione di una crescita sostenibile dal punto di vista ambientale nelle economie in transizione e in via di sviluppo. Un presupposto per avere successo è la capacità di selezionare quei paesi in cui il sostegno agli investimenti green non va a scapito degli investimenti privati, ma apre invece spazio alla loro espansione, in linea con il potenziale di mercato esistente. Diverse banche e istituzioni operano con questo obiettivo e, come è noto, gran parte dei finanziamenti di Next Generation EU è destinata al Green Deal europeo. Contemporaneamente, il vertice Cop26 di Glasgow ha evidenziato ancora una volta l’inevitabile dimensione globale della transizione green e la posizione asimmetrica delle economie in via di sviluppo e mature a causa del loro diverso stadio di sviluppo.

Una questione importante nel mantenere i diversi approcci delle economie in via di sviluppo e mature verso le tecnologie green è che in molti casi non è facile sostenere la transizione green nei paesi in via di sviluppo a causa della mancanza di informazioni adeguate sull’accesso e sulle opportunità offerte dalle tecnologie. I finanziamenti potrebbero essere allocati in modo errato, vale a dire, potrebbero essere convogliati laddove eliminano gli investimenti privati o dove non vi è alcun potenziale per la diffusione dell’investimento nella nuova tecnologia dopo il sostegno iniziale. È qui che la ricerca diventa utile. È possibile sviluppare metodologie e strumenti a supporto delle istituzioni nella selezione di aree e tecnologie per un finanziamento di successo.

In questo contesto e a questo scopo, la ricerca del SOM può contribuire a sviluppare un quadro concettuale e fornire metodologie per ottenere una valutazione complessiva della disponibilità di paesi, regioni o settori ad adottare tecnologie verdi, classificando paesi o aree in termini di esposizione a queste tecnologie. In un recente progetto sviluppato per la Banca Europea per la Ricostruzione e lo Sviluppo (BERS), l’obiettivo finale era quello di cogliere la misura in cui i paesi interessati potrebbero trarre vantaggio dal finanziamento delle tecnologie green, in particolare quei paesi in via di sviluppo ed emergenti per i quali i dati sulla diffusione di queste tecnologie sono scarsi o non disponibili. La creazione e l’utilizzo di una tecnologia da parte di un Paese o di un’impresa è il presupposto per la sua diffusione ed eventuale adozione. Pertanto, per beneficiare della promozione degli investimenti verdi, il paese target dovrebbe già disporre di un livello e di un mix adeguati di utilizzo e produzione della tecnologia verde. Questo mix dipende dalla situazione economica complessiva e dal livello di sviluppo del Paese, come indicato, ad esempio, dal reddito pro capite, dalla capacità produttiva installata e dal livello di tecnologia nei prodotti a economia chiusa. Non esiste una definizione o misurazione specifica universalmente accettata della diffusione di una tecnologia. Il commercio internazionale di prodotti che incorporano una tecnologia specifica rivela la presenza di tale tecnologia nei paesi commerciali. Pertanto, il commercio è spesso utilizzato nella letteratura economica per tracciare la diffusione della tecnologia. I vantaggi dell’utilizzo di dati commerciali e metodologie avanzate per elaborarli sono che sono affidabili e disponibili per la maggior parte dei paesi a un livello di categoria di prodotto molto raffinato e per un lungo arco di tempo.

Seguendo questo approccio, i ricercatori del SOM hanno utilizzato i dati commerciali e pubblici ufficiali dei “green goods” (come definiti dall’Organizzazione mondiale del commercio e dall’OCSE) che coprono tutti i paesi per valutare la potenziale diffusione e adozione di tecnologie “verdi”, costruendo una serie di indicatori per misurare la maturità del mercato e la capacità di produzione di un paese per un determinato prodotto. Sulla base di questi indicatori, è stata sviluppata una sequenza di passaggi per identificare l’opportunità di azioni di successo. La metodologia è stata poi discussa e migliorata durante l’attuazione del progetto con gli esperti della BERS che l’avrebbero utilizzata, per poi essere validata con gli esperti del Paese sull’effettiva diffusione dei prodotti analizzati in termini di domanda e capacità produttiva.

La BERS utilizzerà la metodologia sopra descritta come strumento per selezionare i potenziali obiettivi del finanziamento, ovvero il binomio paese-tecnologia. La metodologia è facilmente replicabile su dati pubblicamente disponibili e quindi idonea ad orientare l’ente nelle sue scelte. La BERS è di proprietà di una settantina di paesi dei cinque continenti, nonché dell’Unione Europea e della Banca Europea per gli Investimenti. Ciò implica che le sue attività hanno un impatto su una vasta popolazione, di imprese, che saranno sostenute finanziariamente dalla BERS per l’adozione/produzione di tecnologie verdi, e di cittadini che trarranno vantaggio da una crescita sostenibile e da una migliore qualità della vita grazie all’adozione da parte delle imprese di tecnologie verdi.

Il progetto potrebbe potenzialmente incidere su diversi Obiettivi di Sviluppo Sostenibile (Salute e Benessere, Acqua pulita e servizi igienico-sanitari, Energia accessibile e pulita, Città e comunità sostenibili, Consumo e produzione responsabili, Azione per il clima) nella misura in cui dovrebbe supportare la diffusione delle tecnologie verdi e merci nei paesi in via di sviluppo ed emergenti.

 

Space Economy: verso una nuova frontiera per l’innovazione e la sostenibilità

La combinazione di tecnologie spaziali e digitali rappresenta una forza pervasiva che abilita una innovazione di tipo cross-settoriale, ed al contempo rende il mondo più sostenibile. Tuttavia le opportunità tecnologiche sono solo un terreno fertile che per concretizzarsi necessita di strategie manageriali ed imprenditoriali per il rinnovamento strategico di organizzazioni consolidate e per la creazione e crescita di startup innovative

 

Angelo Cavallo, Assistant Professor in Strategy & Entrepreneurship, School of Management, Politecnico di Milano

La Space Economy è un fenomeno di frontiera dell’innovazione e della sostenibilità che si concretizza nella combinazione di tecnologie spaziali e digitali utili a sviluppare opportunità di business che danno la possibilità a molte imprese, in svariati settori, di accrescere la propria competitività su scala globale attraverso l’innovazione a tutti i livelli – dal prodotto/servizio, ai processi, sino al modello di business complessivo.

Il valore economico generato dall’uso combinato di tecnologie dello spazio e digitali è stimato per circa 371 miliardi di dollari nel 2021 (Satellite Industry Association). Tuttavia, il valore della Space Economy va oltre una stima di mercato e si distingue per la possibilità di innovare in tanti ambiti ed al contempo contribuire a rendere il nostro pianeta più sostenibile attraverso l’integrazione dei dati terrestri e satellitari, alla base di nuovi servizi space-based.
Mediante delle mappe globali di copertura del suolo ad alta risoluzione, i climatologi possono sviluppare modelli climatici e capire come sta evolvendo il clima sulla superficie terrestre. Tramite immagini multispettrali e radar, combinate con tecniche di machine learning e deep learning è possibile oggi creare modelli predittivi circa la deforestazione. Il monitoraggio tempestivo e continuo delle dinamiche della foresta è fondamentale per l’attuazione delle politiche di conservazione. Un altro campo di applicazione dei dati satellitari è nel monitoraggio dell’inquinamento. Un caso ormai molto noto riguarda il monitoraggio dei livelli di inquinamento durante il periodo di lockdown dovuto alla pandemia Covid-19. Ad oggi moltissime di queste analisi vengono fatte tramite dati provenienti da sensori a terra, largamente diffusi nel territorio europeo. Le tecnologie satellitari sono complementari e utili in aree dove non vi siano sensori terrestri.

Un numero sempre maggiore di studiosi inserisce la combinazione di tecnologie digitali e dello spazio tra i driver che possono abilitare il raggiungimento dei Sustainable Development Goals (SDGs), strumento adottato a livello globale per indirizzare le attività economiche e sociali verso il raggiungimento di obiettivi di sostenibilità.
Ad esempio, servizi space-based contribuiscono al SDG 7 “Affordable and Clean Energy” che si prefigge di garantire l’accesso all’energia per una più vasta platea di utenti e può essere favorito attraverso sistemi di monitoraggio remoto degli impianti in luoghi in cui condizioni atmosferiche e altri fenomeni naturali possono portare ingenti danni all’infrastruttura e dove la manutenzione può risultare difficoltosa.

Lo sviluppo di un mercato delle space economy e di soluzioni space-based passa però necessariamente dalla strutturazione e esplorazione di nuovi modelli di business ripercor­rendo tutta la catena del valore, da chi sviluppa i servizi a chi crea nuove in­frastrutture fino agli utilizzatori finali di tali servizi che possono rendere più efficienti le loro operations e/o creare nuovi prodotti. Innovare i modelli di business tradizionali e muoversi verso una logica di platformization, servitization e open innovation è fondamentale per far sì che i nuovi servizi space-based abbiano impatto economico, ambientale e sociale su larga scala.

 

I cittadini la sanno più lunga?

Un team di scienziati hanno chiesto ai cittadini di valutare l’impatto sociale e scegliere quale ricerca sostenere. Ecco cos’hanno scoperto.

 

Diletta Di Marco, PhD Student in Management Engineering – Innovation and Public Policy 

La scienza si adopera per migliorare le condizioni dell’Umanità e della natura. Tuttavia, non è sempre facile capire come individuare la ricerca capace di soddisfare le esigenze più impellenti. Per tanto tempo la direzione della scienza è stata decisa unicamente da scienziati professionisti mediante peer review. Esistono però nuove iniziative di democrazia partecipata che stanno tentando di assecondare il desiderio dei cittadini di assumere un ruolo attivo nelle decisioni importanti in ambito scientifico. Ad esempio, un’amministrazione locale danese ha chiesto ai cittadini di scegliere tramite votazione online i progetti di ricerca medica da finanziare.[1] Anche il Canadian Fathom Fund ha scelto di finanziare gli scienziati che presentano i propri progetti su piattaforme di crowdfunding e che raccolgono online almeno il 25% del budget prefissato.[2] 

In un mondo che affronta sfide sociali, ambientali ed economiche senza precedenti, l’idea alla base di queste iniziative è quella di coinvolgere i destinatari principali dei problemi e delle loro conseguenze – ossia i cittadini.

Mentre gli scienziati, gli istituti di ricerca e i finanziatori stanno sperimentando nuove modalità per collaborare attivamente con i cittadini, una delle perplessità è il fatto che la definizione di questione ad alto impatto sociale è problematica e soggettiva. Inoltre, il meccanismo utilizzato per coinvolgere attivamente i cittadini nel processo di definizione dell’agenda può generare preconcetti oppure conferire un’influenza sproporzionata ai gruppi più ricchi e potenti.

Per queste ragioni, la valutazione dell’impatto della ricerca è fonte di emozione per scienziati professionisti, agenzie finanziatrici e politici: ognuno di essi desidera individuare nuovi criteri per giudicare la sostenibilità e il valore della ricerca. Questi integrano quelli tradizionali, più incentrati su prerequisiti quali età, genere, esperienze pregresse nella ricerca e nei progetti nello stesso campo di ricerca.

Nel tentativo di esaminare quest’area tanto importante quanto inesplorata, un team di ricerca della nostra School of Management ha studiato le modalità con cui l’opinione pubblica valuta l’impatto sociale e sceglie di concedere o rifiutare il sostegno alla ricerca scientifica. Il team è composto da Chiara Franzoni e Diletta Di Marco del Politecnico di Milano, in collaborazione con Henry Sauermann di ESMT Berlin.

Il team ha selezionato quattro autentiche proposte di ricerca che hanno raccolto attivamente dei fondi sulla piattaforma Experiment.com. I progetti riguardavano settori molto diversi, e spaziavano dagli studi ambientali sulla diffusione delle lontre in Florida, passando per studi sociali sull’orientamento sessuale e i divari di retribuzione, fino a studi per la ricerca di una cura per la malattia di Alzheimer e il Covid-19. Hanno reclutato oltre 2300 cittadini su Amazon Mechanical Turk e chiesto loro di valutare uno dei quattro progetti in base ai tre criteri normalmente utilizzati nella valutazione delle ricerche: i) impatto sociale, ii) merito scientifico e iii) qualifiche del team.
Successivamente, hanno chiesto ai cittadini se avevano un interesse o un’esperienza diretti del problema che la ricerca stava tentando di risolvere (es. un familiare affetto dalla malattia di Alzheimer in fase di valutazione di un progetto che studiava una cura per l’Alzheimer), e infine hanno chiesto ai cittadini se il progetto in questione andasse finanziato o meno. A tale scopo, hanno utilizzato due meccanismi di voto differenti: i) una raccomandazione semplice e gratuita a finanziare o meno il progetto (voto senza costi) e ii) una piccola donazione destinata al progetto (voto con costi), che i valutatori potevano effettuare scegliendo di non incassare un bonus da 1 USD fornito dal team. Alla fine della giornata, il team ha quindi devoluto i bonus donati a progetti di ricerca autentici.
Il team ha poi analizzato le risposte con modelli statistici ed econometrici, come pure con una codifica qualitativa delle risposte testuali.

Le analisi hanno rivelato tre risultati fondamentali:

  1. In primo luogo, i cittadini hanno posto una forte enfasi sull’impatto sociale. Erano più propensi a sostenere un progetto se gli attribuivano un impatto sociale elevato, anche se a loro avviso il merito scientifico o le qualifiche del team erano ridotti. Un’analisi complementare delle opinioni fornite sotto forma di risposte aperte ha corroborato la suddetta prospettiva. I cittadini tendevano a concentrarsi sull’importanza percepita del problema (es. dimensione della popolazione interessata, gravità del problema), prestando meno attenzione alla capacità del progetto di risolvere il problema.
  2. In secondo luogo, il sistema di voto adottato ha influenzato notevolmente la composizione dei votanti. Il voto con costi ha fatto sì che a votare fossero persone con un livello d’istruzione e di reddito superiori. Se ne deduce che i meccanismi che impongono anche solo un piccolo costo personale spingeranno i cittadini coinvolti a rinunciare ai vantaggi dell’inclusione e della rappresentatività.
  3. In terzo luogo, i cittadini che avevano un interesse personale nel problema affrontato dal progetto erano più propensi a votare a favore del progetto, indipendentemente dal meccanismo di voto utilizzato (con o senza costi). Tuttavia, non sembravano sopravvalutare le aspettative in termini di impatto sociale del progetto. Di conseguenza, il crowdsourcing può conferire un potere maggiore a gruppi di interesse e membri dell’opinione pubblica con interessi personali nella ricerca. Al tempo stesso, persino i cittadini con un interesse personale nel progetto sembravano essere in grado di valutare l’impatto sociale in modo oggettivo, se veniva loro richiesto di farlo indipendentemente dall’espressione del proprio sostegno al progetto stesso.

Le scoperte di questo ampio progetto di ricerca contribuiscono al progresso del dibattito accademico in varie aree, tra cui la gestione delle comunità online (facendo luce sulla correlazione tra i meccanismi di voto, l’auto-selezione e la letteratura che confronta il pubblico e i contributi degli esperti con il finanziamento scientifico).
Soprattutto, tali scoperte hanno un’utilità pratica e immediata per politici, agenzie finanziatrici e gruppi d’interesse che lavorano per promuovere la democrazia partecipata.

Considerando che i tradizionali meccanismi di finanziamento della ricerca così come quelli di revisione si concentrano su ciò che potrebbe andare storto e non dedicano la giusta attenzione ai potenziali vantaggi, questi risultati indicano che le valutazioni dell’impatto sociale da parte dei cittadini non sono necessariamente “migliori”, tuttavia potrebbero fornire una prospettiva diversa e potenzialmente complementare.

 

[1] https://www.sdu.dk/da/forskning/forskningsformidling/citizenscience/afviklede+cs-projekter/et+sundere+syddanmark Accesso effettuato il 15 novembre 2021.

[2] https://fathom.fund/ Accesso effettuato il 15 novembre 2021.

“From data science to data culture: the emergence of analytics-powered managers”: è online il nuovo numero di SOMeMagazine

E’ uscito il #7 di SOMe, l’eMagazine della nostra Scuola in cui raccontiamo storie, punti di vista e progetti attorno a temi-chiave della nostra missione.

In questo numero intitolato “From data science to data culture: the emergence of analytics-powered managers” affrontiamo il tema della cultura dei dati che impone, tra le altre cose, anche un ripensamento dei modelli organizzativi e di business.

Ne abbiamo parlato con Carlo Vercellis, che spiega come le tecnologie digitali e gli algoritmi per analizzare i dati abbiano giocato un ruolo cruciale nell’evoluzione umana e nella trasformazione del nostro modo di pensare e di vivere.

Lato imprese, il potenziamento della cultura dei dati è indice generale della necessità di far fronte ai cambiamenti dello scenario competitivo, argomenta Giuliano Noci. E, secondo Filomena Canterino, questo nuovo approccio porta con sé anche la revisione dei modelli organizzativi e di leadership.

Nelle “Stories” raccontiamo lo straordinario risultato ottenuto dagli Hub di quartiere di Milano contro lo spreco elementare: il progetto, di cui la School of Management è partner dal 2017, ha vinto la prima edizione del prestigioso premio internazionale Earthshot Prize per le migliori soluzioni per proteggere l’ambiente nella categoria “un mondo senza sprechi”.
A seguire facciamo il punto sull’impatto della nostra ricerca con alcuni dati relativi al Research Impact Assessment, lo strumento che la Scuola ha recentemente implementato a questo scopo con riferimento a diversi stakeholder e la società in generale.
Infine il progetto Erasmus+ WiTECH (Entrepreneurship for Women in Tech) che ha l’obiettivo di promuovere la presenza femminile nel settore ICT.

 

 

Per leggere SOMe #7 clicca qui.

Per riceverlo direttamente nella tua casella di posta, iscriviti qui.

I numeri precedenti:

  • # 1 “Sustainability – Beyond good deeds, a good deal?”
  • Special Issue Covid-19 – “Global transformation, ubiquitous responses”
  • #2 “Being entrepreneurial in a high-tech world”
  • #3 “New connections in the post-covid era”
  • #4 “Multidisciplinarity: a new discipline”
  • #5 “Inclusion: shaping a better society for all”
  • #6 “Innovation with a human touch”

Data-powered management: una sfida ambidestra

Dietro all’affermazione di necessità di un potenziamento della cultura dei dati in una impresa, risiede un bisogno profondo di consolidare, potenziare, far evolvere o modificare in modo consapevole il proprio modello di business o il modo di gestire l’impresa. Si tratta di un bisogno cogente e pervasivo, connesso alla constatazione di alcuni trend che modificano lo scenario competitivo.

 

Giuliano Noci, Professore di Strategy and Marketing e Prorettore del Polo territoriale cinese del Politecnico di Milano

 

E’ esperienza comune di chi interagisce con le imprese sentirsi dire “avremmo bisogno di potenziare la nostra cultura del dato”.

Il concetto di “cultura del dato” ha diverse sfumature: la presenza di competenze di analisi dei dati, la capacità di lettura e interpretazione delle analisi, la predisposizione di individui e gruppi di lavoro a poggiare le proprie decisioni su evidenze e dati piuttosto che su sensazioni e istinti, lo sforzo a raccogliere e condividere i dati giusti per supportare le decisioni proprie e altrui.

Evidentemente, la “cultura del dato” è l’insieme di queste dimensioni, e dietro all’affermazione di necessità di un potenziamento risiede un bisogno profondo di consolidare, potenziare, far evolvere o modificare in modo consapevole il proprio modello di business o il modo di gestire l’impresa. Si tratta di un bisogno cogente e pervasivo, connesso alla constatazione di alcuni trend che modificano lo scenario competitivo.

In primo luogo, le pressioni della concorrenza, in mercati sempre più saturi e al contempo sempre più interconnessi, forzano alla ricerca di modelli di business e innovazioni che abilitino funzionalità tanto utili quanto sofisticate. Ciò porta alla ricerca di un arricchimento del contenuto dell’offerta (anche) grazie al lavoro sui dati. A titolo d’esempio, se voglio differenziare radicalmente un elettrodomestico nel mercato occidentale, ragionevolmente dovrò renderlo connesso alla rete e utilizzare i dati che raccoglie per offrire servizi a valore aggiunto per il cliente (ad esempio, in un frigorifero, non solo segnalare anomalie per un intervento tecnico in tempo reale, ma essere in grado di verificare la presenza di un cartone di latte quasi vuoto, e magari, sulla base del tasso di suo utilizzo, stimare quando il latte finirà o con che frequenza suggerire di riacquistarlo). E’ peraltro evidente, che da questo tipo di innovazioni possono nascere evoluzioni del modello di business. Nel caso precedente, ad esempio, l’integrazione con sistemi di eCommerce per offrire refill tempestivi subscription-based.

In secondo luogo, la diversità nei mercati di destinazione sta chiedendo risposte sempre più differenziate a segmenti di mercato molto eterogenei per gusti, preferenze, abitudini di utilizzo del prodotto/servizio, comportamenti di utilizzo dei canali fisici e digitali per interagire con l’impres, implicando una capacità di risposta pressochè one-to-one da parte dell’impresa. Dalla marketing automation alla service automation, le imprese sono sempre più alla ricerca di modelli e algoritmi in grado di comprendere lo stato di salute della relazione con un cliente, la sua propensione a una nuova offerta o ad abbandonare l’impresa.

In terzo luogo, e, di fatto, conseguenza dei precedenti, il focus dell’azione manageriale è sempre più improntato sulla ricerca di precisione, puntualità, riduzione degli sprechi – tanto a livello produttivo quanto di marketing, vendita, customer service, ecc. Anche in questo caso, il dato e la capacità di leggerlo rappresentano leve fondamentali.

Quindi, al netto dell’efficacia comunicativa della locuzione “cultura del dato”, il tema che si pone è lo sviluppo della capacità di ibridare competenze analitiche avanzate con senso del business. Si tratta di una competenza nuova in impresa, e spesso di una competenza che difficilmente è riconducibile ad un profilo professionale, quanto piuttosto a un team. Infatti, spesso le imprese inseriscono figure di data scientist portatrici di grande competenza analitica e tecnica, ma non sempre hanno profili manageriali in grado di far da tramite tra i bisogni di business e le applicazioni tecnico-modellistiche e, di converso, di traduzione degli output analitici in piani di azione in grado di guidare il business.

La nostra Scuola ha recepito questa necessità nell’interazione con le imprese, e da questo ha fatto derivare un profondo potenziamento della propria offerta di corsi di machine learning, statistica applicata e corsi di analytics applicati a discipline manageriali (es. performance measurement, marketing, e anche public sector), con un Major del Master of Science a forte vocazione analitica.  Il notevole successo in termini di scelta di questi corsi da parte degli studenti testimonia una forte sensibilità dei nostri giovani allo sviluppo di una carriera e di una professionalità fortemente “data-powered”.

La sfida pedagogica, in questo contesto, è quella di compendiare una solida preparazione analitica e una altrettanto solida conoscenza degli impatti di business dei sistemi decisionali oggetto dell’analisi modellistica, con un approccio incentrato sulla contestualizzazione di tali modelli negli ambiti applicativi in cui sono utili e promuovendo una discussione ricca ed estensiva sulle ulteriori ricadute nei modelli di funzionamento delle organizzazioni.

Machine Learning & Big Data Analytics

Le tecnologie digitali e gli algoritmi per analizzare i dati rappresentano l’evoluzione più recente delle tecnologie intellettuali. Grazie ad esse ci siano trasformati in quello che oggi siamo, in quello che sappiamo, nei nostri modi di pensare. Viviamo in stretta simbiosi con le tecnologie intellettuali e sarà sempre più così anche nei confronti degli algoritmi dell’intelligenza artificiale

 

Carlo Vercellis, Professore Ordinario di Machine Learning, School of Management, Politecnico di Milano

La maggior parte dei nostri gesti quotidiani, acquisti, spostamenti, decisioni personali o professionali sono orientati da un algoritmo di Machine Learning: è comodo ricevere suggerimenti circa prodotti da acquistare, di alberghi e mezzi di trasporto per i viaggi, le indicazioni di film o brani musicali che potrebbero piacerci.

Molte aziende da decine di anni raccolgono grandi moli di dati nei loro sistemi informativi. Gestori di carte di credito, che nel corso di un weekend registrano quasi due miliardi di transazioni, grandi retailer, operatori delle Telco e delle Utility.

Tuttavia, la vera rivoluzione che ha portato ai Big Data coincide con l’avvento dei social network, fenomeno indicato con il termine Internet of People. Ognuno di noi si è trasformato da lettore di informazioni in autore di contenuti. La necessità di immagazzinare questa mole di dati immensa e in rapida crescita ha indotto le grandi aziende del web a creare un nuovo tipo di database basato su architetture a rete distribuite e di fatto a dare vita al cloud.

Accanto alle persone, ormai in Internet ci sono anche le “cose”: si tratta della Internet of Things, costituita da innumerevoli oggetti dotati di sensori e spesso capaci di comportamenti intelligenti e autonomi. Siamo in grado di accendere le luci di casa a km di distanza, di regolare il termostato e di osservare attraverso l’impianto di videosorveglianza. L’automobile potrà guidare in modalità autonoma senza il nostro intervento. Si tratta di un universo composto da quasi 30 trilioni di sensori che registrano valori numerici con altissima frequenza temporale (un trilione è pari a “uno” seguito da 18 “zero”!). Abbiamo inoltre i contatori digitali per gas e power, capaci di registrare puntualmente i nostri consumi e di suggerire comportamenti che rendano più efficiente e sostenibile il nostro utilizzo dell’energia. Indossiamo dispositivi di fitness e smart watch al polso, che registrano la nostra attività fisica, i principali parametri vitali, le nostre abitudini alimentari, la qualità del sonno, e ci forniscono suggerimenti utili a migliorare le nostre condizioni fisiche. Oggetti intelligenti che contribuiranno a rendere sempre più comoda la nostra vita.

Da quanto abbiamo detto finora, è chiaro che il valore predittivo e il valore applicativo contribuiscono a generare un grande valore economico, per le imprese, per la pubblica amministrazione, per i cittadini nel loro complesso.

Tuttavia, i dati di per sé non servono a nulla se non vengono analizzati automaticamente da algoritmi intelligenti. In particolare, gli algoritmi di machine learning nell’ambito dell’intelligenza artificiale vengono applicati a grandi moli di dati per riconoscere regolarità ricorrenti e per estrarre conoscenze utili che permettono di prevedere con notevole accuratezza eventi futuri. Si tratta di una logica induttiva, un po’ come il meccanismo di apprendimento di un bimbo, cui la mamma indica alcuni esempi di lettere dell’alfabeto ponendolo in breve tempo in grado di identificarle autonomamente e quindi di imparare a leggere.

Ad esempio, gli algoritmi sono in grado di interpretare l’umore, il cosiddetto “sentiment”, di post testuali sulle reti sociali con accuratezze del 95-98%, maggiore di quella che potrebbe ottenere un lettore umano. Analogamente, oggi gli algoritmi sono in grado di effettuare con grande precisione il riconoscimento automatico dei contenuti e del contesto delle immagini analizzate.

Le tecnologie digitali e gli algoritmi per analizzare i dati rappresentano l’evoluzione più recente delle tecnologie intellettuali e ci aiuteranno a vivere meglio. Pensiamo infatti che lungo il corso della storia, dai primi strumenti preistorici all’invenzione della scrittura, dall’invenzione della stampa all’ideazione dei computer, le tecnologie intellettuali sono state il motore dell’evoluzione umana. Grazie ad esse noi ci siano trasformati in quello che oggi siamo, in quello che sappiamo, nei nostri modi di pensare. Viviamo in stretta simbiosi con le tecnologie intellettuali e sarà sempre più così anche nei confronti degli algoritmi dell’intelligenza artificiale.

Sul versante economico, osserviamo che le imprese più mature nell’analisi dei dati hanno una maggiore capacità di competere e continuano a rafforzarsi nei confronti delle imprese meno evolute e meno tempestive nell’adozione di strategie di innovazione digitale. Da anni si parla di digital divide in riferimento alle diverse opportunità di accesso alle risorse digitali da parte dei cittadini. Nell’ambito dell’Osservatorio Big Data Analytics che abbiamo avviato al Politecnico di Milano sin dal 2008, abbiamo introdotto dallo scorso anno il termine Analytics Divide per indicare il gap che si è venuto a creare e che purtroppo si sta ampliando tra le imprese virtuose nell’impiego di big data e intelligenza artificiale e quelle meno innovative, che faticheranno di più a uscire dalla palude in cui il virus ci ha spinti.

Per poter progredire come azienda data driven occorre tuttavia disporre di talenti e competenze adeguate, che possono essere ottenute mediante l’acquisizione di nuove risorse o il reskilling di risorse già disponibili in azienda. In questa prospettiva, presso il MIP-Politecnico di Milano abbiamo avviato diverse attività formative su temi di Machine Learning, Artificial Intelligence, Big Data Analytics, Data Science, quali il master internazionale in Business Analytics & Big Data e il percorso executive in Data Science & Business Analytics.