Translate

venerdì 9 ottobre 2015

L' AVVERSIONE ALGORITMICA, CON BREVE DIGRESSIONE SUL FALLIMENTO PATITO DA “ACID PHREAK”

L'essere umano tende, in generale, a non orientare le proprie scelte in ragione dei risultati previsionali di tipo algoritmico preferendo, a questi, modelli operativi elaborati su basi personali. In Europa ed in Italia, molti gestori del risparmio e tanti traders nutrono una forte diffidenza nei confronti delle strutture matematiche di tipo algoritmico, nonostante molte ricerche dimostrino come -mediamente- gli algoritmi battano le capacità predittive degli uomini. Un interessante studio condotto nel 2014 da Berkeley J. Dietvorst, Joseph P. Simmons e Cade Massey, della University of Pennsylvania, ci aiuta a comprendere perché il banchiere medio italiano, il proprietary trader medio italiano, il gestore del risparmio di provincia, non appena sentano la parola algoritmo, inizino a guardarci come per dire: «Ehi, io qui mi occupo di finanza, non riparo notebooks!». La ricerca di cui sopra, pubblicata sul Journal of Experimental Psychology a cura dell' American Psychological Association, ci aiuta a capire il -più marcato rispetto a quello rilevabile nel mondo anglosassone- ritardo culturale del finanziare medio italiano evidenziando come, chiunque necessiti di una previsione, tenda ad affidarsi -con maggior frequenza- agli uomini anziché agli algoritmi. Questo fenomeno, noto come algorithm aversion, è particolarmente costoso nell' erroneità della scelta sottesa ed è importante capire perché ciò avvenga. Gli uomini diffidano dei sistemi di previsione algoritmica anche nelle circostanze in cui godono dell'opportunità di apprezzare direttamente la propria inferiorità operativa; ciò accade perché le persone tendono a perdere la fiducia riposta nelle macchine in maniera molto più rapida e consistente di quanto non facciano nei confronti degli umani, specialmente dopo aver visto entrambe le categorie commettere errori. Lo studio dimostra come gli umani, osservando gli algoritmi, tendano a perdere fiducia in questi anche quando abbiano la certezza matematica che, in un determinato task (compito) previsionale, i modelli previsionali di tipo algoritmico risultino sistematicamente superiori gli esseri umani. Nel momento in cui gli umani osservano il lavoro di un algoritmo e quindi -inevitabilmente- gli errori da questo prodotti, tendono ad optare per sistemi previsionali non algoritmici molto più spesso di quanto non facciano il contrario (ovvero scegliere modelli algoritmici) laddove non abbiano avuto modo di vederli all' opera e quindi sbagliare. Ancor più precisamente, la gente tende ad abbandonare gli algoritmi che commettono qualche errore molto più rapidamente di quanto facciano nei confronti degli esseri umani anche se, come spesso accade, gli errori umani risultano -mediamente- non solo molto più gravi ma anche più frequenti di quelli algoritmici. In altri termini, sembra che la gente abbia più paura dell' errore della macchina che di quello umano, anche laddove il primo risulti inserito nell'ambito di un più ampio modello previsionale in grado di battere sistematicamente quello umano. In alcuni dei casi analizzati dagli studiosi, nonostante gli algos battano clamorosamente gli umani questi, pur consapevoli dei risultati conseguiti dai primi, continuano a mostrare un forte scetticismo nello sceglierli; più nello specifico, coloro i quali godano della possibilità di vedere all'opera sia le macchine che gli umani e di prendere atto della superiorità statistica delle prime rispetto ai secondi, tenderanno -con maggiore probabilità di coloro i quali non abbiano mai visto gli algos operare- a non scegliere modelli previsionali algoritmici. Lo studio riporta alla nostra attenzione anche altre evidenze:
  • gli uomini tendono ad affidarsi ad altri esseri umani allorquando le previsioni sembrino essere più semplici ed alle macchine in caso contrario;
  • la maggioranza delle persone riponenti il medesimo livello di fiducia nelle previsioni umane ed algoritmiche, tendono a far ricadere la loro preferenza sulle prime specie dopo aver visto gli algos in funzione (e quindi talvolta errare). Viceversa, la maggior parte delle persone tendono a preferire i secondi solo quando nutrono una sfiducia di tipo personale nei confronti del soggetto chiamato a fornire le previsioni;
  • la maggioranza delle persone, anche ove consapevoli della superiorità predittiva degli algos, tendono a ritenere gli umani e non i primi gli unici in grado di fornire previsioni quasi perfette.
Dallo studio, possiamo dunque trarre alcuni insegnamenti. Gli esperimenti condotti da Berkeley J. Dietvorst, Joseph P. Simmons e Cade Massey, dimostrano che la verifica diretta degli errori previsionali di tipo algoritmico spinge le persone a scegliere il fattore umano, indipendentemente dal fatto che il soggetto sia chiamato a scegliere tra l' algoritmo da un lato e le sue previsioni o quelle di un soggetto terzo dall'altro, anche quando le performances della persona fisica risultino particolarmente inferiori rispetto a quelle degli algos ed addirittura nei casi in cui gli umani producano mediamente il doppio degli errori di un algoritmo, quindi in condizioni in cui il soggetto selezionatore abbia avuto modo di verificare la circostanza che vede i risultati generati dagli algos connotati da una qualità di gran lunga superiore (minore gravità) rispetto a quelli conseguiti dagli umani. L'avversione algoritmica risulta particolarmente costosa tanto per il singolo -che perde danaro a causa delle previsioni umane errate- sia per la società. La costante crescita di pc, notebooks, I-pads, smartphones, unitamente alla trattazione dei Big Data ha condotto ad una crescita esponenziale degli algoritmi senza tuttavia scalfire la resistenza al loro utilizzo, in parte dovuta ad una intolleranza verso l'errore algoritmico maggiore di quella mostrata per l'errore umano. Questo aspetto è particolarmente problematico in quanto preclusivo dell'utilizzo di approcci qualitativamente superiori in numerosi settori, tra i quali quello del trading e della gestione del risparmio.
Come avrete potuto notare, ho più volte sottolineato come gli algos sovraperformino in media gli umani: in media, appunto. Esistono infatti diversi fallimenti nel mondo dell' intelligenza artificiale applicata al trading. Uno dei più singolari è quello patito da Elias Ladopoulos, conosciuto come Acid Phreak, un personaggio proveniente dall'underground primitivo, vero, originale e puro del phreaking statunitense -newyorkese per la precisione- degli anni '80, nell'ambito del quale fondò -con l'ausilio di Paul Stira conosciuto come Scorpion- un gruppo di hackers d' élite denominato “Masters of Deception”. Nel 1998 Elias conobbe David Shaw, fondatore dell' hedge fund newyorkese D.E. Shaw le cui strategie non discrezionali erano un mix di matematica ed in ingegneria informatica, il quale convinse il primo ad impiegare le sue abilità nel mondo del algo trading. Nei primi anni '2000, conobbe anche David Leinweber, professore di finanza presso l'Università californiana di Berkeley ed esperto di algo trading; i due si unirono a Shaw nella creazione di un' azienda tecnologica chiamata “Monitor110”, deputata a scandagliare il Deep Web alla ricerca di informazioni price sensitive (clicca qui per l'ultimo post sul punto), sfruttabili da hedge funds e proprietary traders. Pur rivelandosi fallimentare, l'avventura di Monitor si dimostrò foriera di nuove conoscenze per Acid Phreak che entrò in contatto con Roger Ehrenberg, venture capitalist ed in precedenza gestore di un Hedge Fund da 6 miliardi di dollari, interno alla Deutsche Bank e con il quale, qualche tempo dopo la chiusura di Monitor110 -avvenuta nel 2008- fondò l' hedge fund Kinetic, un' HFT Firm utilizzante tecniche algoritmiche basate sull'autoapprendimento poggiante sull'utilizzo dei Big Data unitamente ad un algoritmo di lettura delle news, rappresentante l'evoluzione di quelli impiegati al tempo di Monitor110, denominato Selerity. Tuttavia, il codice utilizzato per gestire operativamente la massa di dati acquisiti non funzionava: molte volte i collaboratori di Acid Phreak chiesero in quali condizioni di mercato fosse opportuno spegnere “la macchina” e “to jump in” col trading manuale, ricevendo rassicurazioni sul fatto che il sistema fosse perfetto. Perfetto, però, non era tanto che la macchina cominciò a perdere un sacco di soldi:  Kinetic venne dunque liquidato e Ladopoulos licenziato nell' Agosto del 2011.