Translate

giovedì 24 dicembre 2015

LA STORIELLA DEL CET 1 RATIO VENDUTA DAI GIORNALISTI AI RISPARMIATORI ITALIANI.

Nei giorni in cui diversi tonni hanno compreso di essere finiti nelle reti delle banche del paesello, molti esperti del giorno dopo (su Facebook, il sottoscritto sconsigliò -vivamente e con tanto di screenshot della chat pubblicato sulla bacheca- ad un utente di acquistare subordinate delle predette in ragione dell' elevato e contingente rischio di haircut) hanno iniziato non solo a pubblicare le solite guide al risparmio (e guide per comprendere le guide) ma a confrontare la solidità delle banche basandosi sull' indicatore noto come CET 1 Ratio. A parte l'ovvietà dell'auspicabile presenza di valori elevati inerenti il parametro richiamato ritengo, sommessamente, che il problema dei rischi e delle connesse potenziali perdite bancarie sia un po' più complesso e dunque e meno visibile di quanto sembri.
Non è corretto, a mio modo di vedere, ritenere il CET 1 Ratio&C., di per sé, espressione ultima e massima della solidità di una banca; più che valutazione di solidità, messo così, il processo si accosta alla pratica adolescenziale del confronto delle lunghezze dei piselli, volto a certificare il rispettivo grado di virilità dei partecipanti al contest.
Prima di domandarci se e quanto sia solida una banca (o l'intero sistema bancario), prima di eccitarci per un CET 1 Ratio elevato, prima di ponderare gli attivi per il rischio e di rapportarli al capitale proprio, bisognerebbe provare a capire se la definizione del fattore ponderale “rischio” costituisca o meno la derivata di un processo corretto, logico, plausibile oppure quella di uno condotto un po' ad minchiam (vedi crisi subprime related).
Da un punto di vista della mera gestione quantitativa del rischio, le sole informazioni di carattere probabilistico servono a poco, trattandosi di dati dal valore meramente descrittivo e non esplicativo.
Il problema di base, ignorato da gestori del rischio bancario e regolatori, è che senza un modello causale interpretativo della realtà e quindi dei rischi latenti, anche le più raffinate elaborazioni probabilistiche (congiunte, condizionate, soggettive, frequentiste, ecc.) interessanti la materializzazione di eventi avversi, continueranno a non dirci nulla su “cosa causi cosa”, perché correlazione (associazione), di per sé, non significa causazione.
Sono i modelli causali a consentire ai banchieri di interagire con la realtà, dunque con il rischio ed a dir loro quali tra le associazioni osservate nel passato siano, nel presente, divenute o meno prive di significatività informativa. L'approccio prevalente nella gestione quantitativa del rischio continua ad essere -quasi esclusivamente- basata su di una visione associativa dei problemi, la cui superficialità consta dei seguenti passaggi:
  • raccolta di più quanti dati possibili;
  • costruzione dei fattori rischio;
  • focalizzazione dell'attenzione sulla coda;
  • ottenimento di tutte le risposte cercate.
Questo modo di affrontare i problemi, tipico dei banchieri a noi contemporanei, porta loro a ritenere che tutto ciò di cui abbiano bisogno, al fine di gestire i rischi, sia da rintracciare nell' associazione di eventi rilevata dai dati.
Ma le associazioni, tra gli eventi, sono instabili ed anche qualora i fenomeni osservati fossero temporalmente omogenei (e non lo sono) e le associazioni sottostanti invariabili (e non lo sono), la mera analisi associativa non ci porterebbe molto lontano. Senza un modello di analisi causale, per quanto imperfetto o approssimativo questo possa essere, il risk manager è -fondamentalmente- privo della capacità di prevedere l'incidenza della variazione degli eventi sulle associazioni di natura strettamente probabilistica.
Le banche -anche italiane- adottano modelli di gestione quantitativa del rischio focalizzati -quasi unicamente- sulla distribuzione delle perdite e sull' osservazione di alti percentili, non poggiando su alcun modello di comprensione causale dei fenomeni letti con lenti statistiche. Forse solo l'Econophysics ha provato, negli ultimi anni, ad offrire un approccio meno stilizzato e compassato, ferma restando la necessità di colmare il vuoto esistente tra la raccolta di informazioni risk sensitive e la necessità di una loro spiegazione utile ai fini della gestione delle componenti dei rischi medesimi. Il fatto che nel passato alcuni cigni neri si siano materializzati, non ci dice nulla sul presente. Una distribuzione fat-tailed può dirci come un certo fenomeno si sia atteggiato in passato, ma non ci dirà perché lo abbia fatto proprio in quel modo.
Partendo dal presupposto in base al quale  non sia possibile proteggersi contro tutti i rischi per tutto il tempo, si dovrebbe accettare, per provare (almeno provare) a comprendere il funzionamento degli eventi, quindi la genesi e l'evoluzione quali-quantitativa dei rischi, l' insufficienza dei soli processi probabilistici di tipo associativo; c'è bisogno di modelli che facciano emergere i nessi causali tra eventi osservati in un' ottica probabilistica. Le banche hanno bisogno di modelli in cui una variabile “causi” un'altra variabile e non di modelli in cui le variabili vengano messe in fila a seguito della loro osservazione quantitativa.
Noi sappiamo che il vento causa il movimento delle foglie e che non sono le foglie a causare il vento: nel momento in cui ci soffermiamo unicamente sul versante associativo della gestione quantitativa del rischio, ignoriamo questa semplice verità e le grosse perdite arrivano poco dopo.
Quindi, se ad essere fortemente fallaci sono i modelli che tendono a stimare i rischi, il CET RATIO 1 lo sarà di conseguenza, al pari della capacità di far fronte ad eccezionali ma plausibili shocks di mercato ed eventi rari.