Translate

domenica 25 ottobre 2015

ALL-IN AL BUIO. PERCHE' NESSUNA BANCA O FONDO SA COSA POTREBBE ACCADERE -CON RAGIONEVOLE CONFIDENZA- AI LORO PORTAFOGLI QUALORA LE BANCHE CENTRALI CESSASSERO IL QE ED ALZASSERO I TASSI.

Ogni banca ed ogni investitore istituzionale ha un proprio portafoglio trading composto da azioni, obbligazioni, derivati vari, il cui valore varia al variare di uno o più fattori di rischio del mercato di riferimento. A livello teorico ed astratto, ad ogni immaginabile variazione congiunta interessante tali fattori, è possibile attribuire una data probabilità e la funzione che consente di assegnare una probabilità a ciascuna delle combinazioni -astrattamente- possibili di variazione congiunta dei numerosi fattori di rischio, prende il nome di distribuzione della probabilità congiunta (in maniera più corretta si dovrebbe parlare di densità della probabilità, ma ritengo opportuno evitare un eccessivo livello di dettaglio). La distribuzione congiunta è il miglior strumento disponibile per scandagliare quante più informazioni esistenti su di un dato insieme di quantità casuali.
Questa funzione -consentitemi qualche semplificazione che rende più fluido il discorso pur non intaccandone il filo logico- consente -a livello teorico- di determinare per ogni data variazione congiunta -in un senso o in un altro- dei fattori di rischio del mercato, il livello di profitti e di perdite associato a ciascuna di esse, più o meno plausibile a seconda della probabilità ad essa (cioè alla variazione) attribuita. Quindi, alcuni profitti ed alcune perdite saranno assolutamente poco plausibili mentre altri molto probabili. Nelle sala operative, il VaR (Value at Risk) permetterà ai responsabili del Risk Management di dire ai traders: «Ehi, tenuto conto delle posizioni ad oggi aperte, il VaR dice che rischi di perdere almeno 1 milione di €, in 1 trading day su 20». Questo non significa che il trader perderà, ma semplicemente che in caso di scenario avverso, rappresentato dalla variazione congiunta dei fattori di rischio rispetto ai quali il portafoglio risulta essere esposto, la perdita più probabile si aggirerà sul milione di euro.
L'utilizzo del VaR presenta un altro vantaggio, ovvero, quello di fornire risultati che tengono conto della diversificazione del portafoglio. Immaginiamo che un istituzionale abbia un portafoglio esposto sui prezzi di alcune azioni e sui tassi di interesse a breve termine: più precisamente immaginiamo che le posizioni aperte, gli consentano di guadagnare quando i tassi scendano ed i prezzi delle azioni salgano. Cosa succederebbe al suo portafoglio ed in particolar modo alla componente azionaria qualora venissero tagliati/aumentati -inaspettatamente- di 50 pb i tassi benchmarks? Plausibilmente, si potrebbe pensare che: se la Banca Centrale tagliasse i tassi, l'economia ricomincerebbe a correre e con essa i corsi azionari. Ma l'istituzionale che volesse capire quale potrebbe essere il rischio congiunto dall'avere in portafoglio azioni ed al contempo prodotti esposti ancor più direttamente alle variazioni dei tassi di interesse di breve, a chi dovrebbe rivolgersi? Al VaR, poggiante sulla distribuzione congiunta dei fattori di rischio considerati (tassi e prezzi delle azioni), la quale ci permette di comprendere l'eventuale esistenza nonché il livello della codipendenza di due o più variabili (nel caso di specie, tassi di breve e prezzi della azioni). In altre parole, il VaR aiuterebbe gli istituzionali a rispondere a domande del seguente tenore: cosa accadrebbe alle azioni qualora i tassi di interesse a breve aumentassero di tot punti base? Quale sarebbe la distribuzione condizionata delle variazione del prezzo dell'azione di interesse, nella medesima situazione? Non solo: il VaR, per il tramite della distribuzione congiunta delle variazioni dei fattori di rischio rispetto ai quali il portafoglio risulta essere esposto, fornirà una distribuzione delle ipotetiche perdite del portafoglio già riflettenti le compensazioni parziali e totali tra tutte le trading positions correnti.
Le caratteristiche sopracitate, sono quelle che più di tutte le altre spingono le banche, i fondi ed i regolatori di tutto il mondo, ciascuno nell'ambito delle rispettive finalità, a riporre massima ed assoluta fiducia nel VaR quale strumento cardine della gestione quantitativa del rischio finanziario.
Dopo aver determinato la distribuzione dei profitti e delle perdite, derivati dallo scenario probabilistico plasmato sugli ipotetici movimenti dei fattori di rischio dei mercati su cui il portafoglio degli istituzionali è esposto, cosa succede? Succede che, normalmente, viene scelto una distribuzione in corrispondenza della quale il rischio di una perdita molto elevata, sia molto molto contenuto , ovvero, in corrispondenza del quale le probabilità di una sua realizzazione siano molto basse (percentile piuttosto alto).
Sin qui, tutto sembra molto ragionevole.
Nel momento in cui i gestori dei fondi, delle banche, si impegnano nello stabilire le probabilità delle variazioni dei fattori di rischio ritenuti significativi alla luce della composizione del portafoglio, non fanno altro che dispiegare strumenti statistici da applicare all' assunto che vede il futuro somigliare non ad un passato generico, bensì ad un suo sottoinsieme, qualificabile come passato rilevante cioè contenente eventi che potrebbero riproporsi in futuro e rispetto ai quali occorre, per via probabilistica, elaborare una previsione. Al fine di individuare un passato rilevante, l'attenzione dei gestori tende a focalizzarsi su sottoinsiemi di dati sempre più specifici che, da un lato, includono informazioni sempre più rilevanti grazie alle quali sarà -astrattamente- possibile produrre previsioni sempre più pertinenti ma che dall'altro, limitano la quantità di dati impiegabili nel medesimo processo predittivo. In altri termini, nell' investigare il passato rilevate, gli istituzionali sono chiamati a scegliere il trade-off considerato ottimale tra maggiore pertinenza previsionale e perdita del potere estimativo legato all'esclusione di un gran numero di dati dal campione prescelto.
In genere, la definizione perimetrica di un passato ritenuto rilevante, può avvenire o in forma esplicita, previo utilizzo di data sets giudicati significativi rispetto alle condizioni del presente (come accade nei processi di valutazione del rischio di credito) o in forma implicita, previo utilizzo esclusivo di data sets recenti, che proprio in virtù dell'essere tali sono ritenuti – in via presuntiva- contenitori di dati espressivi delle condizioni recenti (come accade nell'analisi del rischio di mercato). A questo punto, emerge però un altro problema: quello che lega la ricerca degli insiemi di dati significativi alla velocità di frequenza della loro raccolta ed all'orizzonte temporale sul quale proiettare la previsione. Se i dati fossero raccolti su base temporale millesimale, l'analisi di quelli associati ai primi secondi di osservazione, effettuata per stimare eventi collocabili in un arco temporale settimanale, avrebbe poco senso così come inutile sarebbe parlare della stima del 99° percentile delle variazioni annuali, di dati raccolti annualmente vista la lontananza temporale -e dunque la sostanziale inutilità- delle prime osservazioni rispetto alle condizioni attuali. Ne consegue che, al fine di stabilire se e quanto il passato sia rilevante, non è sufficiente raccogliere dati ma è indispensabile interpretarli sulla base di un modello appositamente predisposto la cui scelta in un contesto ricco di alternative potrà influenzare di poco o di molto l'attività previsionale.
Col dispiegamento congiunto -a diverse latitudini- di QE + ZIRP +NIRP la posta in palio o meglio a rischio sull'azionario e per certi versi sull'obbligazionario è cresciuta esponenzialmente, ragion per cui banche e fondi sono chiamati -almeno teoricamente- a stimare con particolare attenzione la distribuzione delle probabilità delle variabili causali dei profitti e delle perdite, in un contesto che, se si eccettua il caso Giapponese, è molto molto recente o giudicabile, se spalmato su di un orizzonte temporalmente più ampio, raro. Ciò che non è raro ma totalmente inedito, qualcosa di mai visto prima d'ora, è la realtà finanziaria osservabile in un cotesto post QE, post ZIRP e post NIRP. Non esistono dati su performances finanziarie osservate in un' epoca segnata dal rialzo dei tassi successivo al QE + ZIRP+ NIRP: queste, sono acque davvero inesplorate. Se l'elaborazione della distribuzione delle probabilità delle perdite e dei profitti (quindi anche dei connessi eventi rari) in costanza di easing monetario, tassi 0% o negativi resta, qualunque sia l'approccio impiegato (non parametrico, empirico, fundamental fitting) e con i tantissimi limiti legati all' esiguità dei dati disponibili connessa alla recente genesi dell'attuale sistema finanziario globale, possibile anche se qualitativamente discutibile, lo stesso non può dirsi con riguardo alle stesse variabili calate nell'era che -presto o tardi nessuno lo sa- sancirà la fine -per come conosciuto in questi anni- dell' easing monetario.
In linea generale i dati finanziari utilizzabili per analisi e previsioni, sono – a tutta evidenza- quantitativamente finiti: questa finitezza, assume un valore qualitativo differente a seconda dell' insieme nel quale essi possono essere inseriti. Gli istituzionali, dispongono di dati (la maggior parte) appartenenti all' era pre-QE+NIRP+ZIRP e dati (la minoranza) appartenenti all' era del QE+NIRP+ZIRP; ciò di cui non dispongono (perché non si può avere ciò che ancora la realtà non ha prodotto) sono i dati dell' era FINE QE+RIALZO DEI TASSI.
Qualora una banca o un fondo volesse determinare la distribuzione delle perdite e dei profitti nell' era post QE, quale porzione di dati, appartenenti al passato, potrà considerare rilevanti? Ritengo che la risposta corretta sia nessuno, in ragione del fatto che la struttura finanziaria mondiale futura sarà molto differente da quella anteriore al QE ed osservabile in costanza di QE; ciò significa che, molto difficilmente, i dati di queste due ere potranno essere considerati idonei a rappresentare un passato rilevante ai fini dell' elaborazione della distribuzione delle probabilità inerenti profitti e perdite dell' era post QE. La carenza di dati significativi, vanifica finanche qualsiasi tipo di approccio del tipo “Fundamental Fitting” volto ad interpretarli -ove disponibili- alla luce di un modello -usato nella meccanica quantistica- descrittivo del come la realtà dovrebbe atteggiarsi. E' pur vero che il Central Limit Theorem potrebbe soccorrere -in combinazione col Fundamental Fitting- gli istituzionali in presenza di dati quantitativamente esigui ma sicuramente non potrà essere impiegato per sopperire ad una loro carenza totale, anche ove si volgesse lo sguardo alle Monte Carlo simulations.
Nessuno, neanche le banche o i fondi, può estraniarsi dal sottile ma solidissimo legame che congiunge i percentili che si intendono osservare, il numero di osservazioni da raccogliere, la frequenza di raccolta dei dati e l'invarianza temporale del fenomeno sottostante. Statisticamente parlando, nessuno può trarre nulla dal nulla: neanche gli investitori istituzionali.