Avanzate tecniche analitiche prese in prestito da una letteratura eterogenea per estrarre dai dati informazioni preziose, stanno guadagnando slancio all’interno della comunità finanziaria. Questo articolo introduce brevemente come gli ecosistemi finanziari siano sempre più sensibili all’applicazione di algoritmi biologici ed evolutivi volti ad analizzare il comportamento e le dinamiche dei loro partecipanti.
Andrea Flori, Ricercatore in Management and Finance, School of Management, Politecnico di Milano
In un popolare lavoro del 1973, Burton Malkiel mostrò come una scimmia bendata che lancia freccette alle pagine finanziarie di un giornale potrebbe selezionare un portafoglio in grado di performare bene come uno accuratamente costruito da esperti (“A Random Walk Down Wall Street”, 1973), contribuendo ad alimentare il dibattito sulla possibilità di estrarre segnali informativi da dati finanziari e dai comportamenti degli operatori di mercato.
I mercati finanziari costituiscono quindi una arena in cui tecniche ed algoritmi di predizione tentano di sfidare l’efficienza dei mercati attraverso l’identificazione di patterns.
È in tale contesto che numerose metodologie, mutuate da vari ambiti scientifici, si sono diffuse e reciprocamente contaminate per fornire una prospettiva nuova per lo studio della dinamica di sistemi finanziari complessi e delle interdipendenze che governano le relazioni tra i loro partecipanti.
L’infrastruttura di mercato, il ruolo dell’informazione ed il comportamento degli operatori rappresentano pertanto alcuni dei pillars ricorrenti nella definizione di questi approcci di analisi in contesti finanziari.
In particolare, il ricorso ad approcci ispirati da contesti biologici ha catturato l’attenzione di molti operatori finanziari interessati ad una nuova generazione di tecniche intelligenti di analisi e calcolo che imitino l’esecuzione di azioni umane.
Algoritmi genetici e reti neurali hanno pertanto pervaso la letteratura in finanza e contribuito alla diffusione di innovazioni metodologiche ispirate all’evoluzione biologica e al funzionamento umano, ottenendo, attraverso l’utilizzo di una prospettiva di analisi multidisciplinare e computazionalmente evoluta, risultati spesso promettenti rispetto ai tradizionali metodi di analisi statistica.
Nello specifico, gli algoritmi genetici utilizzano strumenti e prospettive proprie della selezione naturale e della genetica per identificare la migliore soluzione al problema. Mimando l’evoluzione biologica, una popolazione iniziale viene iterativamente mutata e ricombinata per determinare generazioni successive, in modo tale che le modifiche che hanno un impatto desiderabile vengono mantenute nel bagaglio genetico delle future generazioni nel tentativo di convergere verso soluzioni ottimali. Ad ogni individuo, cioè soluzione candidata, viene quindi assegnato un valore di fitness rispetto ad una funzione obiettivo e agli individui con caratteristiche più promettenti viene assegnata una maggiore probabilità di accoppiarsi per generare nuovi individui, quindi soluzioni al problema, potenzialmente ancora più performanti, in linea con la teoria darwiniana della “sopravvivenza del più adatto”. Le reti neurali, invece, sono costruite per imparare dalla struttura dei dati e processare un segnale attraverso neuroni artificiali tra loro interconnessi per creare una configurazione simile al funzionamento del sistema nervoso umano. Ad ogni connessione è associato un peso che contiene informazioni sul segnale di ingresso, inibendo oppure stimolando il segnale che viene comunicato ai neuroni per risolvere uno specifico problema. L’informazione rinveniente dall’esterno come input viene quindi elaborata internamente in uno o più layers di analisi che attivano determinati neuroni e trasmettono il segnale ad altri, prima di determinare un output la cui accuratezza previsionale può essere incrementata da un processo di apprendimento delle azioni svolte in precedenza. Le reti neurali sono quindi un sistema adattivo complesso in grado di mutare ed adattare la propria struttura interna in base al contesto e alle informazioni che lo attraversano.
Questi approcci risultano essere pertanto flessibili ed in grado di adattarsi a nuove circostanze, eventualmente imparando dall’esperienza passata e reagendo agli stimoli provenienti da nuovi segnali nel sistema.
Non stupisce, quindi, che tali tecniche, separatamente oppure tra loro combinate, siano sempre più spesso applicate in molteplici ambiti in finanza, quali ad esempio in analisi predittive dei mercati e nella selezione di regole di allocazione di portafoglio, hedging di strumenti finanziari, applicazioni di robo-advisoring.
Negli ultimi anni, con l’aumento della potenza e delle risorse di calcolo e la loro ampia disponibilità, tecniche avanzate per analisi massive di dati stanno infatti guadagnando slancio all’interno della comunità finanziaria, contribuendo ad una letteratura in forte crescita che, oltre alle tecniche sopracitate, sfrutta, più in generale, un uso su larga scala di concetti di statistical learning e di deep learning per identificare patterns nei mercati finanziari, studiare le complesse relazioni non lineari tra e all’interno le serie temporali finanziarie, individuare anomalie di mercato.
In aggiunta, ripetuti episodi di crisi finanziaria con le loro esternalità di vasta portata e gli effetti a cascata sui mercati finanziari e sull’economia reale hanno motivato lo studio e predisposizione di nuovi strumenti per monitorare e prevedere la diffusione di instabilità nei sistemi finanziari e per gestire le criticità che possono emergere.
L’adozione di approcci di statistical learning e di tecniche di deep learning nello studio dei sistemi finanziari richiedono tuttavia nuovi paradigmi, conoscenze ed abilità pratiche necessarie per sviluppare una solida base di modelli ed algoritmi che siano opportunamente applicati nei domini di riferimento e capaci, al contempo, di sfruttare le potenzialità che scaturiscono da un approccio transdisciplinare all’investigazione scientifica.
Nel mondo della finanza, tali strumenti di analisi sono della massima importanza per il futuro sviluppo tecnologico, svolgendo un ruolo fondamentale in molti aspetti dell’ecosistema finanziario. L’analisi massiva dei dati con tecniche avanzate di statistical learning e deep learning è infatti molto richiesta in numerosi ambiti ed in una ampia gamma di applicazioni che comprende, oltre la previsione di andamenti di mercato, anche ad esempio lo studio delle dipendenze tra sistemi finanziari, l’approvazione di linee di credito, la gestione efficiente delle risorse finanziarie, l’individuazione di anomalie e frodi, la valutazione di rischi.
Queste sfide sembrano indicarci quindi una nuova prospettiva di ricerca, al crocevia tra data mining, analisi predittiva e modellazione causale, che permetta di sfruttare la forza di questi algoritmi di analisi e calcolo per investigare problemi economico-sociali di contesti reali e mutevoli.