Translate

giovedì 29 ottobre 2015

PERCHE' VENDO ALLO SCOPERTO DEUTSCHE BANK - STORIE DI ORDINARIO GAMBLING FINANZIARIO: ECCO COME DEUTSCHE BANK EVITO' IL BAILOUT GOVERNATIVO PT. 8

Nel giorno in cui termina la serie di posts in cui ho provato a spiegare il trucco contabile che permise  alla Deutsche Bank di sopravvivere al collasso del mercato creditizio post Lehman, l'istituto bancario annuncia che: non distribuirà il dividendo né nel 2015 né nel 2016, licenzierà circa 35.000 dipendenti, chiuderà le proprie sedi in 10 Paesi, la perdita trimestrale è pari a circa 6.1 miliardi di €. E credo proprio non sarà l'unica perdita che vedremo per il 2015. 

***
Poiché le posizioni LSS rappresentavano per DB assets illiquidi, sarebbe stato necessario utilizzare una tecnica di valutazione ed un giudizio gestionale ragionevole nel processo di determinazione del rispettivo fair value. Aree connotate da una complessità valutativa, come quella in esame, richiedendo l'esercizio del giudizio postulano l'esistenza di controlli contabili interni particolarmente forti al fine di giungere a valutazioni ponderate nell' ambito della predisposizione dei reports finanziari. Corretti controlli contabili interni sarebbero serviti ad assicurare che, nell' eseguire le valutazioni, fossero considerati i fattori più appropriati, venissero coinvolte nel processo decisionale le sole persone più adeguate e fossero predisposti articolati sistemi di checks and balances. Tuttavia, DB difettò di adeguati controlli interni, atti ad assicurare l'appropriata misurazione del Gap Risk connesso alle LSS Positions, nel rispetto dello IAS 39.
Nel modificare gli approcci di misurazione del Gap Risk, DB omise di assicurare che, alle opinioni di un certo gruppo di individui i cui compiti consistevano nel garantire una funzione di controllo, venisse garantita un'adeguata considerazione o significativa partecipazione al processo decisionale.
Il congelamento dell' haircut pari al 15% dell' ammontare al 31 Dicembre 2007, fu determinato senza preventiva consultazione del MRM il quale, una volta interpellato espresse preoccupazione sia per il freezing dell'ammontare sia sul fatto che la percentuale del 15% fosse o meno abbastanza conservativa.
Il MRM era altresì preoccupato del fatto che non vi fosse stata alcuna analisi idonea a giustificare l'ammontare di $ 200 milioni che Deutsche Bank utilizzò per misurare il Gap Risk nella valutazione delle LSS Positions. Nessuna analisi fu svolta in risposta dei dubbi esposti dal MRM.
Come già detto negli altri posts, intorno al 16 Settembre 2008, DB congelò il valore della misurazione che il Desk Model stava attribuendo al Gap Risk e da lì a poco, con efficacia a decorrere dall' 1 Ottobre 2008, bloccò del tutto l'utilizzo del Desk Model. Piuttosto che implementare un modello o qualsiasi altra metodologia utile a misurare il Gap Risk inerente le LSS Positions, DB assegnò allo stesso un valore pari a $ 0,00.
Nel momento in cui l'istituto di credito bloccò l'utilizzo del Desk Model ed assegnò un valore pari al $0,00 al Gap Risk, alcuni dipendenti furono esclusi dal processo decisionale, ivi compresi quelli dotati di approfondite conoscenze dei controlli interni, il cui coinvolgimento sarebbe stato necessario al fine di stabilire se DB stesse o meno misurando adeguatamente il Gap Risk delle posizioni LSS.

Ad esempio, il dipartimento Modelli&Metodologie, rappresentante la funzione di controllo interno ricompresa nel dipartimento finanziario, responsabile della predisposizione dei metodi appropriati per la realizzazione di ogni rettifica di valutazione, non fu interpellato con riguardo alla decisione di bloccare la valutazione del Gap Risk delle LSS Positions. Di fatto, quando il capo del dipartimento Modelli e Metodologie apprese che DB non stesse assegnando alcun valore al Gap Risk, espresse preoccupazione con riguardo al se la banca avesse o meno sufficienti riserve a fronte del Gap Risk assunto ed al come stesse monitorando l'andamento futuro dello stesso.
Similarmente, nonostante fosse richiesto dalle sue policies e dalle sue procedure, DB non documentò -contemporaneamente- il suo razionale e le sue analisi relative alla decisione di cambiare il metodo di valutazione del Gap Risk. Per esempio, non furono redatte concorrenti analisi scritte per spiegare l'orientamento accolto nel cambiamento delle varie metodologie e nella decisione di bloccare la misurazione del Gap Risk nell' Ottobre 2008. Con riguardo alla decisione di fermare la misurazione del Gap Risk, il dipartimento finanziario ed il MRM cercarono di documentare soltanto più tardi, nel quarto trimestre del 2008 e nel Gennaio 2009 l'orientamento che informò la decisione della Deutsche Bank di non procedere ulteriormente alla sua valutazione. Tuttavia, la carenza di controlli circondanti la decisione creò confusione nella ricostruzione di quali decisioni fossero state adottate con riguardo alla misurazione del Gap Risk, dell' identità dei soggetti responsabili per le decisioni e del tipo di razionale informante le decisioni adottate.
In aggiunta, i controlli interni di DB volti a giudicare in maniera indipendente il processo valutativo delle LSS Positions e del Gap Risk si rivelarono inadeguati. Uno strumento utile per verificare se DB stesse appropriatamente valutando il Gap Risk avrebbe potuto essere il Deutsche Bank's Independent Price Verification (IPV), una divisione appartenente alla Deutsche Bank's Business Area Control. Il ruolo dell' IPV era quello di verificare le valutazioni generate dal trading desk. Qualsiasi discrepanza tra le valutazioni del Desk e quelle dell' IPV poteva essere considerata elemento indicativo di problematiche meritevoli di ulteriori approfondimenti.
Nel settembre 2008, DB classificò le LSS Positions come “non verificate”. Questo significava che solo minimi, se non del tutto inesistenti, controlli furono condotti sulle LSS Positions da parte dell' IPV al fine di assicurare che DB stesse appropriatamente valutandole.
La funzione IPV di DB, all' epoca, non stava conducendo alcun test sul Gap Risk delle LSS Positions. Infatti, all'inizio di Luglio 2008, il control report mensile dell' IPV evidenziava come il Gap Risk dei LSS non fosse stato verificato, in quanto la relativa metodologia era sottoposta a verifica. Sino al primo trimestre del 2009, il Gap Risk della Deutsche Bank nelle LSS Positions rimase privo di verifica da parte dell' IPV.
In conseguenza di quanto sopra ed altro detto, si può ritenere che  i controlli contabili interni della DB, siano stati inadeguati nell'arco temporale compreso tra Gennaio 2008 e Marzo 2009. 

lunedì 26 ottobre 2015

PERCHE' VENDO ALLO SCOPERTO DEUTSCHE BANK - STORIE DI ORDINARIO GAMBLING FINANZIARIO: ECCO COME DEUTSCHE BANK EVITO' IL BAILOUT GOVERNATIVO PT. 7

Allorquando DB cessò di misurare il Gap Risk nell'ambito del processo valutativo avente ad oggetto le LSS Positions, l'istituto di credito tedesco mancò altresì di misurare il fair value delle medesime posizioni, nel rispetto dello IAS 39. In particolar modo, altri partecipanti al mercato avrebbero considerato le condizioni di mercato condizionanti il Gap Risk alla fine del 2008 e nel primo trimestre del 2009, contemporaneamente alla quantificazione del fair value delle LSS Positions. La volatilità del mercato, riflessa nel rapido allargamento dei credit spreads successivo al collasso della Lehman Brothers, determinò un incremento tanto del valore delle posizioni CDO quanto di quello delle LSS Positions. Nel momento in cui il valore delle posizioni LSS aumentava, generalmente, anche quello del Gap Riskvale a dire del rischio che il valore delle LSS Positions avrebbe potuto eccedere quello dei collaterali esistenti- aumentava. I partecipanti al mercato avrebbero tenuto conto di tale rischio nel definire il  valore delle LSS Positions.
DB, riconobbe nei propri documenti finanziari l'incremento del valore delle LSS Positions guidato principalmente dall'incremento dei credit spreads e dalla loro accresciuta volatilità ma, al tempo stesso, non prese in considerazione l'impatto delle stesse informazioni di mercato nella determinazione del valore del Gap Risk riconducibile alle posizioni LSS.
In aggiunta, un qualsiasi altro partecipante al mercato, avrebbe ponderato non soli i termini positivi ma anche quelli avversi del Montreal Accord, nel momento della misurazione del valore delle LSS Positions. Più nello specifico, qualsiasi altro partecipante avrebbe preso in considerazione l'impatto dei New Triggers e della Moratoria nella misurazione del fair value delle LSS Positions.
Date le prevalenti condizioni di mercato in quel periodo storico, la mancata considerazione -da parte della DB- del Gap Risk nel processo valutativo delle LSS Positions, causa dell' attribuzione al Gap Risk di un valore pari a $ 0,00 in chiusura dell' anno 2008 e per il primo trimestre del 2009, non fu ragionevole. In solo un anno, dal 31.12.2007 al 31.12.2008, il valore delle LSS Positions, a causa della degradazione delle condizioni di mercato, quadruplicò, passando da $2.63 miliardi a $10.65 miliardi. Dalla fine del primo trimestre del 2009, le LSS Positions vennero valutate $9.72 miliardi. Nel contabilizzare tali posizioni, DB incorporò nei propri documenti contabili i guadagni risultanti da tali incrementi di valore. Tuttavia, la misurazione del Gap Risk da parte della banca, che avrebbe dovuto muoversi nella stessa direzione del fair value delle LSS Positions, passò da $ 200 milioni a $ 0, nello stesso arco temporale.
La motivazione che spinse DB a non misurare più il Gap Risk, fu individuata nel fatto che non esistessero metodi affidabili per la misurazione di tal genere di rischio interessante le LSS Positions, le quali venivano misurate sulla base di inputs difficilmente osservabili. Mentre la valutazione di assets come le LSS Positions è particolarmente complessa e non esistono standard finanziari uniformemente accettati idonei a modellare il Gap Risk, totalmente irragionevole fu la scelta della DB di non prendere più in considerazione l'esistenza di questo anche ai fini dell' attività di reporting. In realtà, già all'epoca, esistevano metodi atti a stimare il Gap Risk. Per esempio, come discusso negli altri posts, il modello MRM poteva considerarsi potenzialmente idoneo a calcolare dinamicamente il Gap Risk alla luce dei dati di mercato disponibili. Invece, lo stesso strumento non fu mai approvato o implementato nella pratica di reporting. Alcuni esperti, ritengono che ove l' MRM fosse stato applicato correttamente, il valore del Gap Risk sarebbe stato pari ad almeno $1.5 miliardi per la fine del 2008 e durante il primo trimestre del 2009.
Inoltre, come sopra discusso, la DB quantificò il Gap Risk senza esprimerlo nelle proprie comunicazioni finanziarie, in virtù delle negoziazioni inerenti al Montreal Accord, riconoscendone così la portata dell' impatto. Ancor più significativamente, un gruppo separato di dipendenti della DB, nel mentre lavorava alle negoziazioni del Montreal Accord, analizzò l'effetto prodotto dai New Triggers e dalla Moratoria sul Gap Risk. Nel corso di quelle negoziazioni, DB stimò il valore del Gap Risk nel range compreso tra $1.5 e $3.3 miliardi.
Il range di queste stime, seppur generato da approcci differenti applicati per fini diversi dal reporting, avrebbe dovuto far riflettere la DB circa il fatto che il Gap Risk fosse significativo e sicuramente non pari a $ 0.
Per l'anno fiscale 2008 e per il primo trimestre del 2009, una considerazione completa del range potenziale delle stime elaborate alla luce delle condizioni di mercato prevalenti, avrebbe generato una misura del Gap Risk in grado di condizionare il valore delle LSS Positions riportato da DB nelle comunicazioni finanziarie. Omettendo una valutazione adeguata del Gap Risk, da eseguire nel rispetto dello IAS 39, DB gonfiò il fair value delle LSS Positions, generando un' inesattezza di supporto alla documentazione depositata (in data 24 Marzo 2009) con allegato il Form 20-F Fiscal Year end 2008 ed il Form 6-K, depositato in data 28.04.2009, riportanti i risultati delle operazioni per il trimestre terminato in data 31 Marzo 2009. I libri e le registrazioni contabili risultavano altresì inaccurati dall' 1 Ottobre 2008 al 31 Marzo 2009 almeno. 

domenica 25 ottobre 2015

ALL-IN AL BUIO. PERCHE' NESSUNA BANCA O FONDO SA COSA POTREBBE ACCADERE -CON RAGIONEVOLE CONFIDENZA- AI LORO PORTAFOGLI QUALORA LE BANCHE CENTRALI CESSASSERO IL QE ED ALZASSERO I TASSI.

Ogni banca ed ogni investitore istituzionale ha un proprio portafoglio trading composto da azioni, obbligazioni, derivati vari, il cui valore varia al variare di uno o più fattori di rischio del mercato di riferimento. A livello teorico ed astratto, ad ogni immaginabile variazione congiunta interessante tali fattori, è possibile attribuire una data probabilità e la funzione che consente di assegnare una probabilità a ciascuna delle combinazioni -astrattamente- possibili di variazione congiunta dei numerosi fattori di rischio, prende il nome di distribuzione della probabilità congiunta (in maniera più corretta si dovrebbe parlare di densità della probabilità, ma ritengo opportuno evitare un eccessivo livello di dettaglio). La distribuzione congiunta è il miglior strumento disponibile per scandagliare quante più informazioni esistenti su di un dato insieme di quantità casuali.
Questa funzione -consentitemi qualche semplificazione che rende più fluido il discorso pur non intaccandone il filo logico- consente -a livello teorico- di determinare per ogni data variazione congiunta -in un senso o in un altro- dei fattori di rischio del mercato, il livello di profitti e di perdite associato a ciascuna di esse, più o meno plausibile a seconda della probabilità ad essa (cioè alla variazione) attribuita. Quindi, alcuni profitti ed alcune perdite saranno assolutamente poco plausibili mentre altri molto probabili. Nelle sala operative, il VaR (Value at Risk) permetterà ai responsabili del Risk Management di dire ai traders: «Ehi, tenuto conto delle posizioni ad oggi aperte, il VaR dice che rischi di perdere almeno 1 milione di €, in 1 trading day su 20». Questo non significa che il trader perderà, ma semplicemente che in caso di scenario avverso, rappresentato dalla variazione congiunta dei fattori di rischio rispetto ai quali il portafoglio risulta essere esposto, la perdita più probabile si aggirerà sul milione di euro.
L'utilizzo del VaR presenta un altro vantaggio, ovvero, quello di fornire risultati che tengono conto della diversificazione del portafoglio. Immaginiamo che un istituzionale abbia un portafoglio esposto sui prezzi di alcune azioni e sui tassi di interesse a breve termine: più precisamente immaginiamo che le posizioni aperte, gli consentano di guadagnare quando i tassi scendano ed i prezzi delle azioni salgano. Cosa succederebbe al suo portafoglio ed in particolar modo alla componente azionaria qualora venissero tagliati/aumentati -inaspettatamente- di 50 pb i tassi benchmarks? Plausibilmente, si potrebbe pensare che: se la Banca Centrale tagliasse i tassi, l'economia ricomincerebbe a correre e con essa i corsi azionari. Ma l'istituzionale che volesse capire quale potrebbe essere il rischio congiunto dall'avere in portafoglio azioni ed al contempo prodotti esposti ancor più direttamente alle variazioni dei tassi di interesse di breve, a chi dovrebbe rivolgersi? Al VaR, poggiante sulla distribuzione congiunta dei fattori di rischio considerati (tassi e prezzi delle azioni), la quale ci permette di comprendere l'eventuale esistenza nonché il livello della codipendenza di due o più variabili (nel caso di specie, tassi di breve e prezzi della azioni). In altre parole, il VaR aiuterebbe gli istituzionali a rispondere a domande del seguente tenore: cosa accadrebbe alle azioni qualora i tassi di interesse a breve aumentassero di tot punti base? Quale sarebbe la distribuzione condizionata delle variazione del prezzo dell'azione di interesse, nella medesima situazione? Non solo: il VaR, per il tramite della distribuzione congiunta delle variazioni dei fattori di rischio rispetto ai quali il portafoglio risulta essere esposto, fornirà una distribuzione delle ipotetiche perdite del portafoglio già riflettenti le compensazioni parziali e totali tra tutte le trading positions correnti.
Le caratteristiche sopracitate, sono quelle che più di tutte le altre spingono le banche, i fondi ed i regolatori di tutto il mondo, ciascuno nell'ambito delle rispettive finalità, a riporre massima ed assoluta fiducia nel VaR quale strumento cardine della gestione quantitativa del rischio finanziario.
Dopo aver determinato la distribuzione dei profitti e delle perdite, derivati dallo scenario probabilistico plasmato sugli ipotetici movimenti dei fattori di rischio dei mercati su cui il portafoglio degli istituzionali è esposto, cosa succede? Succede che, normalmente, viene scelto una distribuzione in corrispondenza della quale il rischio di una perdita molto elevata, sia molto molto contenuto , ovvero, in corrispondenza del quale le probabilità di una sua realizzazione siano molto basse (percentile piuttosto alto).
Sin qui, tutto sembra molto ragionevole.
Nel momento in cui i gestori dei fondi, delle banche, si impegnano nello stabilire le probabilità delle variazioni dei fattori di rischio ritenuti significativi alla luce della composizione del portafoglio, non fanno altro che dispiegare strumenti statistici da applicare all' assunto che vede il futuro somigliare non ad un passato generico, bensì ad un suo sottoinsieme, qualificabile come passato rilevante cioè contenente eventi che potrebbero riproporsi in futuro e rispetto ai quali occorre, per via probabilistica, elaborare una previsione. Al fine di individuare un passato rilevante, l'attenzione dei gestori tende a focalizzarsi su sottoinsiemi di dati sempre più specifici che, da un lato, includono informazioni sempre più rilevanti grazie alle quali sarà -astrattamente- possibile produrre previsioni sempre più pertinenti ma che dall'altro, limitano la quantità di dati impiegabili nel medesimo processo predittivo. In altri termini, nell' investigare il passato rilevate, gli istituzionali sono chiamati a scegliere il trade-off considerato ottimale tra maggiore pertinenza previsionale e perdita del potere estimativo legato all'esclusione di un gran numero di dati dal campione prescelto.
In genere, la definizione perimetrica di un passato ritenuto rilevante, può avvenire o in forma esplicita, previo utilizzo di data sets giudicati significativi rispetto alle condizioni del presente (come accade nei processi di valutazione del rischio di credito) o in forma implicita, previo utilizzo esclusivo di data sets recenti, che proprio in virtù dell'essere tali sono ritenuti – in via presuntiva- contenitori di dati espressivi delle condizioni recenti (come accade nell'analisi del rischio di mercato). A questo punto, emerge però un altro problema: quello che lega la ricerca degli insiemi di dati significativi alla velocità di frequenza della loro raccolta ed all'orizzonte temporale sul quale proiettare la previsione. Se i dati fossero raccolti su base temporale millesimale, l'analisi di quelli associati ai primi secondi di osservazione, effettuata per stimare eventi collocabili in un arco temporale settimanale, avrebbe poco senso così come inutile sarebbe parlare della stima del 99° percentile delle variazioni annuali, di dati raccolti annualmente vista la lontananza temporale -e dunque la sostanziale inutilità- delle prime osservazioni rispetto alle condizioni attuali. Ne consegue che, al fine di stabilire se e quanto il passato sia rilevante, non è sufficiente raccogliere dati ma è indispensabile interpretarli sulla base di un modello appositamente predisposto la cui scelta in un contesto ricco di alternative potrà influenzare di poco o di molto l'attività previsionale.
Col dispiegamento congiunto -a diverse latitudini- di QE + ZIRP +NIRP la posta in palio o meglio a rischio sull'azionario e per certi versi sull'obbligazionario è cresciuta esponenzialmente, ragion per cui banche e fondi sono chiamati -almeno teoricamente- a stimare con particolare attenzione la distribuzione delle probabilità delle variabili causali dei profitti e delle perdite, in un contesto che, se si eccettua il caso Giapponese, è molto molto recente o giudicabile, se spalmato su di un orizzonte temporalmente più ampio, raro. Ciò che non è raro ma totalmente inedito, qualcosa di mai visto prima d'ora, è la realtà finanziaria osservabile in un cotesto post QE, post ZIRP e post NIRP. Non esistono dati su performances finanziarie osservate in un' epoca segnata dal rialzo dei tassi successivo al QE + ZIRP+ NIRP: queste, sono acque davvero inesplorate. Se l'elaborazione della distribuzione delle probabilità delle perdite e dei profitti (quindi anche dei connessi eventi rari) in costanza di easing monetario, tassi 0% o negativi resta, qualunque sia l'approccio impiegato (non parametrico, empirico, fundamental fitting) e con i tantissimi limiti legati all' esiguità dei dati disponibili connessa alla recente genesi dell'attuale sistema finanziario globale, possibile anche se qualitativamente discutibile, lo stesso non può dirsi con riguardo alle stesse variabili calate nell'era che -presto o tardi nessuno lo sa- sancirà la fine -per come conosciuto in questi anni- dell' easing monetario.
In linea generale i dati finanziari utilizzabili per analisi e previsioni, sono – a tutta evidenza- quantitativamente finiti: questa finitezza, assume un valore qualitativo differente a seconda dell' insieme nel quale essi possono essere inseriti. Gli istituzionali, dispongono di dati (la maggior parte) appartenenti all' era pre-QE+NIRP+ZIRP e dati (la minoranza) appartenenti all' era del QE+NIRP+ZIRP; ciò di cui non dispongono (perché non si può avere ciò che ancora la realtà non ha prodotto) sono i dati dell' era FINE QE+RIALZO DEI TASSI.
Qualora una banca o un fondo volesse determinare la distribuzione delle perdite e dei profitti nell' era post QE, quale porzione di dati, appartenenti al passato, potrà considerare rilevanti? Ritengo che la risposta corretta sia nessuno, in ragione del fatto che la struttura finanziaria mondiale futura sarà molto differente da quella anteriore al QE ed osservabile in costanza di QE; ciò significa che, molto difficilmente, i dati di queste due ere potranno essere considerati idonei a rappresentare un passato rilevante ai fini dell' elaborazione della distribuzione delle probabilità inerenti profitti e perdite dell' era post QE. La carenza di dati significativi, vanifica finanche qualsiasi tipo di approccio del tipo “Fundamental Fitting” volto ad interpretarli -ove disponibili- alla luce di un modello -usato nella meccanica quantistica- descrittivo del come la realtà dovrebbe atteggiarsi. E' pur vero che il Central Limit Theorem potrebbe soccorrere -in combinazione col Fundamental Fitting- gli istituzionali in presenza di dati quantitativamente esigui ma sicuramente non potrà essere impiegato per sopperire ad una loro carenza totale, anche ove si volgesse lo sguardo alle Monte Carlo simulations.
Nessuno, neanche le banche o i fondi, può estraniarsi dal sottile ma solidissimo legame che congiunge i percentili che si intendono osservare, il numero di osservazioni da raccogliere, la frequenza di raccolta dei dati e l'invarianza temporale del fenomeno sottostante. Statisticamente parlando, nessuno può trarre nulla dal nulla: neanche gli investitori istituzionali. 

martedì 20 ottobre 2015

LA STRADA VERSO L'IPO PT. 2 CHI FA IL PREZZO?

Dalla metà degli anni '90, le IPO sono state condotte – un po' in tutto il mondo- con il metodo dell' open price, in virtù del quale il prezzo definitivo viene determinato solo una volta conclusa l'offerta.

  • Per procedere con la quotazione, è necessario definire un range di prezzo in base ai quali condurre il bookbuilding.
  • In corrispondenza e subito dopo il road show, sino a 2 settimane prima dell' IPO, vengono raccolti tutti gli ordini degli istituzionali i quali, a differenza dei retail, possono esprimere una curva di domanda in funzione del prezzo.
  • Tutti gli intermediari coinvolti nel collocamento presso gli istituzionali, raccolgono gli ordini e li trasferiscono alla lead bank del consorzio.
  • La lead bank li riunisce in un unico book.
  • Il global coordinator e la lead bank dei consorzi di collocamento, in genere, sono gli unici a conoscere in tempo reale l'andamento dell'offerta.
  • Prima dell'inizio del periodo di adesione, il pubblico tutto conoscerà il prezzo massimo o più spesso una forchetta di prezzo.
  • Gli intermediari che partecipano al consorzio di collocamento, possono avere o meno funzioni organizzative.
  • Quelli privi di compiti organizzativi, possono assumere il ruolo di selling banks, impegnandosi nella distribuzione dei titoli senza garanzia di riuscita, oppure di underwriters, alternativamente sottoscrivendo direttamente i titoli non collocati e ad essi assegnati o per il quali avevano offerto garanzia di collocamento. Le azioni non collocate dalle selling banks, restano invece sul groppone della lead bank.
  • Se una banca non colloca tutta la tranche retail, può essere chiamata a sottoscrivere quelle per cui aveva garantito il collocamento (in genere questo accordo è siglato prima dell'inizio dell'offerta al pubblico). Tuttavia, di norma, entra in campo la lead bank, che sottoscrive in proprio quanto non collocato dalle altre banche del consorzio presso il pubblico, oppure le gira le azioni non collocate a qualche altro istituzionale o chiede all'emittente di ridurre l'offerta. Viceversa, qualora le singole banche fossero costrette a sottoscrivere troppe azioni invendute e per le quali avevano -tuttavia- prestato garanzia di collocamento, in futuro potrebbero non accettare l'invito di quella lead bank a partecipare ad altri collocamenti. Questo si verifica in tempi di vacche magre e lead banks di scarso prestigio. In caso di vacche grasse e lead banks di grande prestigio, gli altri intemediari si impegnano a collocare grandi ammontari di azioni sottoscrivendo le rimanenti non collocate, al fine di fare una buona impressione sulla banca capofila, strumentale all'ottenimento di ulteriori futuri inviti a partecipare alle IPO.
  • Terminato il bookbuilding della tranche istituzionale, le banche siglano l'underwriting agreement relativo, vale a dire lo sottoscrivono solo dopo aver saputo quale quota sia stata collocata ed a quale prezzo. La quota istituzionale non sottoscritta viene o girata ai retail o sottoscritta dalla lead bank o, previa riduzione dell'offerta, sottoscritta solo per la quota rimanente all'esito di questa.
  • Completata la raccolta degli ordini retail ed istituzionali, il global coordinator, il cda della società e gli azionisti, devono decidere: a che prezzo ed a chi – in caso di domanda eccedente l'offerta (c.d. Oversubscription)- assegnare le azioni.
  • La definizione del price, passa attraverso il bilanciamento di interessi contrapposti. Gli azionisti, vorrebbero eseguire il collocamento al prezzo massimo, in modo tale da avere introiti più elevati; la società quotanda, gradirebbe parimenti un collocamento al prezzo massimo, in modo da far affluire maggior cash nelle proprie casse, dovendo però fare i conti sia con il fatto che un prezzo troppo elevato può essere causa del fallimento parziale del collocamento con conseguente danno reputazionale per l'emittente, potenzialmente idoneo a pregiudicare il successo di futuri aumenti di capitale, sia con il rischio di un rapido deprezzamento del titolo nelle settimane successive all'avvio delle negoziazioni. Gli investitori, invece, gradirebbero un prezzo molto contenuto in modo tale da poter disporre -astrattamente- di un margine maggiore di guadagno.
  • Il global coordinator, che offre servizi a tutte le parti in gioco, si ritrova un po' tra l'incudine ed il martello: da un parte, non può scontentare emittente ed azionisti, altrimenti questi in futuro non gli conferiranno più alcun incarico; dall'altra, non può scontentare né gli investitori istituzionali e retail presso i quali in futuro dovrà collocare altri titoli, né gli altri intermediari dai quali potrebbe non essere più invitato a far parte di futuri consorzi di collocamento. Quindi, praticando prezzi troppo alti, il global coordinator rischia di pregiudicare il placing power nonché la capacità di organizzare altri sindacati di collocamento; praticando prezzi troppo bassi, rischia di deludere società ed azionisti dai quali non riceverà più alcun incarico.
  • In linea teorica, ove possibile, il fixing del prezzo avviene in corrispondenza di un livello inferiore a quello che consente di coprire l'intera offerta. In tal modo, infatti, non tutti i richiedenti avranno la possibilità di conseguire la materiale disponibilità del titolo (perché la domanda risulterà maggiore dell'offerta) e saranno costretti ad acquistarlo nei primi minuti o nelle prime ore di contrattazione, premendo sulla bid side dei books di negoziazione, con conseguente aumento dei livelli di prezzo negoziati. In tal caso, possiamo osservare il fenomeno dell' underpricing, consistente in una differenza positiva tra il prezzo fatto segnare in borsa nel primo giorno di scambi e quello richiesto, al momento dell'offerta, dall'emittente.
  • Perché si dovrebbe procedere ad un IPO discount o all'underpricing? Le motivazioni, a livello astratto, sono molteplici ed una tra queste merita di essere valorizzata: allorquando la società comunichi un prezzo massimo e poi in virtù dell'andamento della curva della domanda sia costretta a praticarne uno più basso, il mercato tende a reagire – a differenza di quanto comunemente si pensi- in maniera negativa, perché fa il seguente ragionamento: «Caspita, per effettuare il collocamento han dovuto praticare un prezzo più basso; l'offerta non tira, il mercato non ha fiducia». Infatti, l'underpricing, tenda ad essere minore, quanto più il prezzo richiesto per l'IPO risulti inferiore a quello massimo pre\cedentemente indicato, smentendo chi vede nell'underpricing money left on the table.

domenica 18 ottobre 2015

LA STRADA VERSO L'IPO PT. 1

Questo post nasce con il semplice scopo di contribuire a colmare il gap informativo di chi legge i giornali, senza tuttavia capirci granché su chi faccia cosa nel corso della preparazione ad un IPO.

Dopo che il management o gli azionisti abbiano maturato la volontà di quotare -in tutto o in parte- la società, questa o i suoi azionisti devono -normalmente- scegliere l' advisor, che dovrà assisterli nella scelta della banca o delle banche alle quali verrà affidato il compito di procedere al collocamento dei titoli presso il mercato ed nell'adempimento degli obblighi di quotazione. L' advisor, se nominato, opererà nell'interesse esclusivo degli azionisti e della società quotanda. Spesso, advisor è sinonimo di boutique finanziaria, alla quale non si richiede né un placing power né una sofisticatezza e/o solidità patrimoniale ricercata negli intermediari coinvolti nel processo di quotazione. L' advisor sceglierà il global coordinator dell'offerta di azioni al pubblico e lo sponsor dell'operazione (eventualmente diverso dal global coordinator), sia direttamente sia nell'ambito di un beauty contest, ove più intermediari manifesteranno l'interesse ad assistere la società nella quotazione, divenendo successivamente oggetto di potenziale scelta. Il global coordinator viene scelto previa valutazione del: track record, reputation, placing power, livello di professionalità del team operativo, qualità dell'equity research department, qualità valutativa dell'industry di collocamento, stima preliminare del valore di quotazione in corrispondenza del quale si dichiara in grado di eseguire il collocamento, solidità finanziaria strumentale alla sottoscrizione di parte dell'offerta. Il global coordinator assume un'obbligazione di mezzi e non di risultato, con riguardo all'obiettivo ultimo dell'espletamento delle attività propedeutiche (quindi preliminari) alla quotazione. Ogni società, poi, stabilisce il livello di azioni da mettere sul mercato nel rispetto dei limiti minimi stabiliti normativamente o per via regolamentare alle diverse latitudini. Ma queste azioni, a chi devono essere offerte? A tutto il pubblico indistinto? Ad un suo sottoinsieme definito a livello territoriale? Ai soli investitori istituzionali? A soggetti scelti individualmente? Normalmente, vengono collocate presso ciascuna delle categorie riferite, per quota parte, tramite consorzi di banche dedicati per tipologia di destinataro (istituzionali, retail) guidati -in alcune occasioni- da banche (lead managers) diverse, operanti sotto il controllo del global coordinator (in genere una banca d'affari di maggiori dimensioni). Non mancano casi in cui le due banche lead managers, condividano il ruolo di global coordinator. Nei collocamenti volti a distribuire le azioni a livello internazionale, è possibile notare consorzi dedicati a singoli paesi o aree geografiche continentali, guidati da una o più lead banks locali. Talvolta può accadere che un investitore prenoti un certo lotto di azioni, ma che la società -in presenza di domanda insufficiente- decida di ridurre l'offerta; in tal caso, il sottoscrittore corre il rischio di trovarsi ad investire in una società che riteneva avere un certo flottante e quindi ipotizzava essere inserita in un certo segmento e che invece avendone un altro, verrà quotata in uno differente.
Più sopra, ho parlato dello sponsor dell'operazione, la cui presenza è obbligatoria su moltissimi mercati: questo è chiamato ad effettuare alcune attestazioni circa la qualità della società quotanda, con relativa esposizione reputazionale e legale. Come già detto, lo sponsor -in genere- coincide col global coordinator: tuttavia, se questo non dovesse trovarsi in una situazione terza rispetto alla società quotanda, perché magari vi intrattiene rapporti creditizi o di partecipazione societaria, dovrebbe essere nominato uno sponsor indipendente o un co-sponsor.
Per tutelare i retail, viene redatto un prospetto informativo, sottoscritto – in Italia- dall' emittente e dalla banca capofila dell'offerta al pubblico, coincidente o meno col global coordinator. Prima della sottoscrizione ed al fine di scongiurare il rischio di sottoscrivere balle, il responsabile del collocamento ed il global coordinator o lo sponsor se non coincidenti, fanno eseguire un audit legale, contabile e di business, sulla società oggetto di quotazione, all'esito del quale chiedono l'emissione di comfort letters finalizzate a tutelarsi contro eventuali beghe aventi ad oggetto il prospetto informativo.
Prima della pubblicazione del prospetto informativo, la società che intende quotarsi tiene una serie di presentazioni destinate agli analisti finanziari delle banche che partecipano ai consorzi di collocamento. Gli analisti, a loro volta, predispongono delle ricerche anche di tipo previsionali (forward looking) che girano ai sale desks delle banche di appartenenza, agli istituzionali con cui queste abbiano rapporti ma non al pubblico retail. In alcune giurisdizioni, in corso di IPO, è vietata la pubblicazione di ricerche al fine di evitare fenomeni di booster shoot, cioé di analisi tendenti a pompare le qualità dell'emittente in modo tale da spianare la strada per il successivo collocamento. Ad ogni modo, sia prima dell' avvio delle negoziazioni che per qualche tempo a questo successivo, i membri del consorzio di collocamento, anche ove ammesso, si astengono dal diffondere presso il pubblico le equity researches, specie se contenenti dati previsionali, anche per cautelarsi contro eventuali controversie legali successive. Non è possibile negare, però, come i retail soffrano una certa asimmetria informativa rispetto agli istituzionali: i primi, infatti, possono consultare il solo prospetto informativo, laddove i secondi possono accedere a studi e ricerche elaborati dagli intermediari partecipanti al consorzio di collocamento. Prima della pubblicazione del prospetto, le banche deputate al collocamento presso gli istituzionali, tastano il polso circa l'accoglienza dell'offerta (pre-marketing) in modo da chiarirsi le idee sul range di prezzo al quale sarà possibile collocare le azioni presso il pubblico. Approvato il prospetto informativo, il top management della società avvia il road-show, contemplante incontri collettivi ed individuali con i più importanti gestori dei fondi internazionali di investimento.

martedì 13 ottobre 2015

I PINOCCHI DEI MERCATI

Alla fine, penso che le bugie abbiano le gambe corte tanto nella vita quanto sui mercati. Come forse saprete, ho provato a trattare il tema della manipolazione dei futures su titoli di stato USA ad opera degli HFTs (qui l'ultimo post della serie.). Oggi, sul Wall Street Journal è comparso un articolo (un altro è apparso pubblicato da Bloomberg -clicca qui-), che ripropongo per estratto in screenshot. 
In pratica, dice che il Nasdaq ha approntato un programma in grado di proteggere gli investitori, evitando loro di trovare quali controparti gli HFTs nel trading sui Treasury, responsabili di un forte incremento di volatilità nel mercato. 
Quindi, sul mercato dei titoli di stato gli HFTs sono cattivi, lo dice il NASDAQ: sul mercato azionario e delle opzioni invece?
Nel blog potete trovare, se interessati, decine di posts dedicati all'operatività ad alta frequenza. 

domenica 11 ottobre 2015

PERCHE' VENDO ALLO SCOPERTO DEUTSCHE BANK - STORIE DI ORDINARIO GAMBLING FINANZIARIO: ECCO COME DEUTSCHE BANK EVITO' IL BAILOUT GOVERNATIVO PT. 6

Come molti di voi sapranno, qualche giorno fa, la DB ha emesso un profit warning annunciante una perdita attesa trimestrale pari a 6,2 miliardi di euro e la molto probabile riduzione o futura mancata distribuzione del dividendo. In molti mi hanno chiesto perché -in questi mesi- abbia trattato e tratti tuttora temi molto tecnici, di nicchia. La risposta è molto semplice: si tratta di tematiche trattate -per quanto riguarda l'Italia- soltanto in questo piccolissimo blog, facenti parte della narrativa che tendo ad usare per veicolare concetti un po' più astratti, per definizione maggiormente sfuggenti. Per tutti gli esperti, this time time is different: per me, come dimostrano i recenti casi DB e Credit Suisse, this time is the same. Oggi, come nel 2008 e non diversamente dal 2000-2001, gli operatori finanziari istituzionali si ritrovano a dover fare i conti con il dilemma del prigioniero ,espressione di un inefficiente equilibrio di Nash: dati due CEOs di due banche, A e B, qualora quello di A decidesse di condurre attività fortemente rischiose al fine di guadagnare quote di mercato, quello di B non avrebbe altra scelta se non quello di seguirlo a ruota. Se non operasse in maniera rischiosa, la redditività e le quote di mercato della banca si contrarrebbero rispetto a quelle della diretta concorrente e gli azionisti, molto probabilmente, chiederebbero al CEO poco avvezzo al rischio di passare la mano. Nel caso in cui il CEO della banca A fosse particolarmente attento alla gestione del rischio, quello di B disporrebbe di un' occasione perfetta per poter battere il proprio concorrente innalzando il livello di rischio assunto, la redditività di breve e le quote di mercato: a questo punto, sarebbe il CEO della banca A ad adeguarsi, tuffandosi nel maggior rischio finanziario. Sia A che B sono operatori razionali, sono consapevoli del rischio assunto, ma non hanno via d'uscita a meno che non intervenga qualcuno dall'esterno. Gli Stati, in questo periodo storico, sono totalmente fuorigioco e per motivi culturali e per motivi strettamente finanziari rappresentati dallo schiacciante peso del debito pubblico; inoltre, alla carenza di interventi regolamentari efficaci si è aggiunto l'easing monetario che, a mio modestissimo parere, ha strutturalmente innalzato il livello del rischio, come ho provato a spiegare qui.
Torniamo alla nostra DB. Nell'autunno del 2008, nel momento in cui i mercati creditizi iniziarono a deteriorarsi e gli spreads ad allargarsi, i calcoli del Gap Risk generati dal Desk Model della DB, iniziarono a restituire valori contabili maggiori, passanti -a metà Settembre 2008- da 20 milioni di dollari a 78. A decorrere dall' 1 Ottobre 2008, DB smise di utilizzare il Desk Model; piuttosto che completare il lavoro su modelli idonei a misurare il Gap Risk o considerare metodologie alternative, DB -nell' Ottobre del 2008- attribuì arbitrariamente al rischio un valore pari a $ 0, confluito poi nel bilancio consuntivo dello stesso anno e nella prima trimestrale del 2009. Anche se dopo il 30 Settembre 2008 la DB cessò di misurare il Gap Risk legato alle posizioni LSS in portafoglio, nel Dicembre del 2008 iniziò a calcolarlo nuovamente per fini diversi da quelli strettamente finanziari, connessi alle negoziazioni del Montreal Accord. In data 14 Dicembre 2008, DB utilizzò il Desk Model per quantificare il Gap Risk. La banca intendeva usare il proprio modello di calcolo come leva da impiegare nella rinegoziazione dell' Accordo di Montreal, stipulato con i vari livelli governativi canadesi. Il Desk Model quantificava, al 14/12/2008, il Gap Risk in circa $ 1,5 miliardi. Infatti, il Desk Model predisposto prima della rinegoziazione dell' Accordo di Montreal non prendeva in considerazione, nel calcolo del Gap Risk, la moratoria avente ad oggetto la richiesta di collaterali. In aggiunta, in data 15 Dicembre 2008, nel tentativo di misurare – per scopi negoziali- l'impatto prodotto dalla moratoria sul Gap Risk, i dipendenti della banca utilizzarono la metodologia Black-Scholes, ottenendo come risultato un Gap Risk pari a $ 3.3 miliardi. Lo scopo era quello di utilizzare questa cifra nell'ambito delle negoziazioni, imputando alla moratoria l'incremento del Gap Risk.

sabato 10 ottobre 2015

COME VIENE MANIPOLATO IL MERCATO DEI TREASURY FUTURES PT. 6 – BREVE ANATOMIA DEGLI ORDINI INGANNEVOLI.

Gli attacchi manipolativi, non hanno interessato il solo T-Note 5 Y (clicca qui) o il solo T-Note 10 Y (clicca qui), ma anche il T -Bond 30 Y. In particolar modo, in data 27 Agosto 2014, nel mercato dei U.S Treasury Futures a 30 anni (simbolo ZBU4), uno o più ignoti hanno costruito artatamente l' ask side dell' order book tramite l'immissione e modificazione di almeno 8 sell orders aventi ad oggetto lo ZBU4 al prezzo di 140 17/32 (fase di build up). Successivamente, i manipolatori (o il manipolatore) cancellava tutti i sell orders inserendo -simultaneamente- un buy order con size pari a 573 contratti in corrispondenza dello stesso prezzo (fase di flip). La piattaforma CME Globex, procedeva dunque a crossare gli ordini di vendita pendenti con quelli di acquisto inseriti dal/ dai traders disonesto/i, facendo sì che i traders onesti mantenessero una posizione short in un mercato predisposto al rialzo, a causa del momentum innescato dal flipping prodotto tramite l'inserimento dell'ordine sulla buy side. Infatti, il mercato subito dopo invertiva al rialzo, causando una perdita al trader/s onesto/i.
In ciascuno dei tre casi esaminati nella serie di posts trattanti il tema, l'ignoto ha eseguito il trade nella direzione opposta a quella illusoriamente costruita nella fase di build up, con lo scopo di manipolare il mercato al fine di ingannare il resto dei partecipanti a proprio esclusivo vantaggio. Da quanto scritto qui ed altrove, emerge anche la ricorrenza del pattern indicativo della manipolazione a mezzo spoofing, costituito dalla tre tipiche fase di build-ups, cancellazioni, flips ed eseguiti sulla side opposta a quella inizialmente “occupata” tramite gli ordini cancellati. Ogni giorno, chissà quante migliaia di condotte simili vengono ed ipotizzando che sui 3 futures l'ignoto abbia sfruttato un solo movimento dell'ampiezza di un tick, lo stesso avrebbe conseguito su quello a 5 anni, su quello a 10 e su quello a 30 profitti rispettivamente pari a $ 6. 125, 00 $ 17.718,00 e $ 17.906,00, sottratti dalle tasche dei traders ingannati. 


Fase di build-up

Fase di cancellazione e flip
Risultato finale

venerdì 9 ottobre 2015

L' AVVERSIONE ALGORITMICA, CON BREVE DIGRESSIONE SUL FALLIMENTO PATITO DA “ACID PHREAK”

L'essere umano tende, in generale, a non orientare le proprie scelte in ragione dei risultati previsionali di tipo algoritmico preferendo, a questi, modelli operativi elaborati su basi personali. In Europa ed in Italia, molti gestori del risparmio e tanti traders nutrono una forte diffidenza nei confronti delle strutture matematiche di tipo algoritmico, nonostante molte ricerche dimostrino come -mediamente- gli algoritmi battano le capacità predittive degli uomini. Un interessante studio condotto nel 2014 da Berkeley J. Dietvorst, Joseph P. Simmons e Cade Massey, della University of Pennsylvania, ci aiuta a comprendere perché il banchiere medio italiano, il proprietary trader medio italiano, il gestore del risparmio di provincia, non appena sentano la parola algoritmo, inizino a guardarci come per dire: «Ehi, io qui mi occupo di finanza, non riparo notebooks!». La ricerca di cui sopra, pubblicata sul Journal of Experimental Psychology a cura dell' American Psychological Association, ci aiuta a capire il -più marcato rispetto a quello rilevabile nel mondo anglosassone- ritardo culturale del finanziare medio italiano evidenziando come, chiunque necessiti di una previsione, tenda ad affidarsi -con maggior frequenza- agli uomini anziché agli algoritmi. Questo fenomeno, noto come algorithm aversion, è particolarmente costoso nell' erroneità della scelta sottesa ed è importante capire perché ciò avvenga. Gli uomini diffidano dei sistemi di previsione algoritmica anche nelle circostanze in cui godono dell'opportunità di apprezzare direttamente la propria inferiorità operativa; ciò accade perché le persone tendono a perdere la fiducia riposta nelle macchine in maniera molto più rapida e consistente di quanto non facciano nei confronti degli umani, specialmente dopo aver visto entrambe le categorie commettere errori. Lo studio dimostra come gli umani, osservando gli algoritmi, tendano a perdere fiducia in questi anche quando abbiano la certezza matematica che, in un determinato task (compito) previsionale, i modelli previsionali di tipo algoritmico risultino sistematicamente superiori gli esseri umani. Nel momento in cui gli umani osservano il lavoro di un algoritmo e quindi -inevitabilmente- gli errori da questo prodotti, tendono ad optare per sistemi previsionali non algoritmici molto più spesso di quanto non facciano il contrario (ovvero scegliere modelli algoritmici) laddove non abbiano avuto modo di vederli all' opera e quindi sbagliare. Ancor più precisamente, la gente tende ad abbandonare gli algoritmi che commettono qualche errore molto più rapidamente di quanto facciano nei confronti degli esseri umani anche se, come spesso accade, gli errori umani risultano -mediamente- non solo molto più gravi ma anche più frequenti di quelli algoritmici. In altri termini, sembra che la gente abbia più paura dell' errore della macchina che di quello umano, anche laddove il primo risulti inserito nell'ambito di un più ampio modello previsionale in grado di battere sistematicamente quello umano. In alcuni dei casi analizzati dagli studiosi, nonostante gli algos battano clamorosamente gli umani questi, pur consapevoli dei risultati conseguiti dai primi, continuano a mostrare un forte scetticismo nello sceglierli; più nello specifico, coloro i quali godano della possibilità di vedere all'opera sia le macchine che gli umani e di prendere atto della superiorità statistica delle prime rispetto ai secondi, tenderanno -con maggiore probabilità di coloro i quali non abbiano mai visto gli algos operare- a non scegliere modelli previsionali algoritmici. Lo studio riporta alla nostra attenzione anche altre evidenze:
  • gli uomini tendono ad affidarsi ad altri esseri umani allorquando le previsioni sembrino essere più semplici ed alle macchine in caso contrario;
  • la maggioranza delle persone riponenti il medesimo livello di fiducia nelle previsioni umane ed algoritmiche, tendono a far ricadere la loro preferenza sulle prime specie dopo aver visto gli algos in funzione (e quindi talvolta errare). Viceversa, la maggior parte delle persone tendono a preferire i secondi solo quando nutrono una sfiducia di tipo personale nei confronti del soggetto chiamato a fornire le previsioni;
  • la maggioranza delle persone, anche ove consapevoli della superiorità predittiva degli algos, tendono a ritenere gli umani e non i primi gli unici in grado di fornire previsioni quasi perfette.
Dallo studio, possiamo dunque trarre alcuni insegnamenti. Gli esperimenti condotti da Berkeley J. Dietvorst, Joseph P. Simmons e Cade Massey, dimostrano che la verifica diretta degli errori previsionali di tipo algoritmico spinge le persone a scegliere il fattore umano, indipendentemente dal fatto che il soggetto sia chiamato a scegliere tra l' algoritmo da un lato e le sue previsioni o quelle di un soggetto terzo dall'altro, anche quando le performances della persona fisica risultino particolarmente inferiori rispetto a quelle degli algos ed addirittura nei casi in cui gli umani producano mediamente il doppio degli errori di un algoritmo, quindi in condizioni in cui il soggetto selezionatore abbia avuto modo di verificare la circostanza che vede i risultati generati dagli algos connotati da una qualità di gran lunga superiore (minore gravità) rispetto a quelli conseguiti dagli umani. L'avversione algoritmica risulta particolarmente costosa tanto per il singolo -che perde danaro a causa delle previsioni umane errate- sia per la società. La costante crescita di pc, notebooks, I-pads, smartphones, unitamente alla trattazione dei Big Data ha condotto ad una crescita esponenziale degli algoritmi senza tuttavia scalfire la resistenza al loro utilizzo, in parte dovuta ad una intolleranza verso l'errore algoritmico maggiore di quella mostrata per l'errore umano. Questo aspetto è particolarmente problematico in quanto preclusivo dell'utilizzo di approcci qualitativamente superiori in numerosi settori, tra i quali quello del trading e della gestione del risparmio.
Come avrete potuto notare, ho più volte sottolineato come gli algos sovraperformino in media gli umani: in media, appunto. Esistono infatti diversi fallimenti nel mondo dell' intelligenza artificiale applicata al trading. Uno dei più singolari è quello patito da Elias Ladopoulos, conosciuto come Acid Phreak, un personaggio proveniente dall'underground primitivo, vero, originale e puro del phreaking statunitense -newyorkese per la precisione- degli anni '80, nell'ambito del quale fondò -con l'ausilio di Paul Stira conosciuto come Scorpion- un gruppo di hackers d' élite denominato “Masters of Deception”. Nel 1998 Elias conobbe David Shaw, fondatore dell' hedge fund newyorkese D.E. Shaw le cui strategie non discrezionali erano un mix di matematica ed in ingegneria informatica, il quale convinse il primo ad impiegare le sue abilità nel mondo del algo trading. Nei primi anni '2000, conobbe anche David Leinweber, professore di finanza presso l'Università californiana di Berkeley ed esperto di algo trading; i due si unirono a Shaw nella creazione di un' azienda tecnologica chiamata “Monitor110”, deputata a scandagliare il Deep Web alla ricerca di informazioni price sensitive (clicca qui per l'ultimo post sul punto), sfruttabili da hedge funds e proprietary traders. Pur rivelandosi fallimentare, l'avventura di Monitor si dimostrò foriera di nuove conoscenze per Acid Phreak che entrò in contatto con Roger Ehrenberg, venture capitalist ed in precedenza gestore di un Hedge Fund da 6 miliardi di dollari, interno alla Deutsche Bank e con il quale, qualche tempo dopo la chiusura di Monitor110 -avvenuta nel 2008- fondò l' hedge fund Kinetic, un' HFT Firm utilizzante tecniche algoritmiche basate sull'autoapprendimento poggiante sull'utilizzo dei Big Data unitamente ad un algoritmo di lettura delle news, rappresentante l'evoluzione di quelli impiegati al tempo di Monitor110, denominato Selerity. Tuttavia, il codice utilizzato per gestire operativamente la massa di dati acquisiti non funzionava: molte volte i collaboratori di Acid Phreak chiesero in quali condizioni di mercato fosse opportuno spegnere “la macchina” e “to jump in” col trading manuale, ricevendo rassicurazioni sul fatto che il sistema fosse perfetto. Perfetto, però, non era tanto che la macchina cominciò a perdere un sacco di soldi:  Kinetic venne dunque liquidato e Ladopoulos licenziato nell' Agosto del 2011.