Metodo di previsione
Il nostro approccio alla previsione dei prezzi delle criptovalute si basa su un modello stocastico multivariato sviluppato dal Prof. Mario Abundo. Questo modello considera i mercati delle criptovalute come sistemi complessi caratterizzati da dinamiche non lineari e da una significativa componente aleatoria.
Il fondamento matematico del nostro modello poggia sull’equazione differenziale stocastica di Itō, che descriviamo come: dS(t) = μ(S,t)dt + σ(S,t)dW(t)
S(t) rappresenta il prezzo dell’asset al tempo t, μ(S,t) è il termine di drift (tendenza), σ(S,t) è la volatilità e W(t) è un processo di Wiener standard. L’unicità del nostro approccio risiede nella parametrizzazione adattiva di μ e σ, che vengono continuamente ricalibrati in base alle condizioni di mercato emergenti.
A differenza dei modelli tradizionali che assumono una distribuzione gaussiana dei rendimenti, il nostro modello incorpora la presenza di code pesanti (heavy tails) nella distribuzione, un fenomeno ben documentato nei mercati delle criptovalute dove eventi estremi si verificano con frequenza maggiore rispetto a quanto previsto dalla distribuzione normale.
Integrazione di dati on-chain e analisi del sentiment
La distintività del nostro modello predittivo deriva dall’integrazione di tre classi di dati: metriche on-chain, analisi del sentiment e dati di mercato.
Per iniziare, analizziamo parametri fondamentali come il volume delle transazioni, l’attività degli indirizzi, il costo di mining, e la distribuzione della ricchezza attraverso l’indice di Gini applicato agli indirizzi blockchain. Questi dati vengono filtrati attraverso una trasformata wavelet per separare il segnale dal rumore.
Di seguito, passiamo all’analisi del sentiment. Per farla utilizziamo algoritmi di elaborazione del linguaggio naturale per quantificare il sentiment degli investitori su piattaforme social e forum specializzati. Il nostro modello di sentiment impiega un classificatore bayesiano che assegna pesi variabili alle fonti in base alla loro correlazione storica con i movimenti di prezzo.
Infine, incorporiamo serie storiche di prezzi, volumi, volatilità implicita ed esplicita, e correlazioni con altri asset. Questi dati vengono normalizzati e processati attraverso un filtro di Kalman per gestire il problema dell’overfitting. L’integrazione di questi dati avviene attraverso un processo di ottimizzazione stocastica basato sull’algoritmo di Metropolis-Hastings, che ci permette di esplorare efficacemente lo spazio dei parametri del modello.
Calibrazione e validazione del modello
Il processo di calibrazione del nostro modello segue un rigoroso protocollo statistico che comprende:
La stima dei parametri, in cui utilizziamo un approccio di metodo della massima verosomiglianza combinato con tecniche di regolarizzazione L1 (LASSO) per evitare l’overfitting e selezionare automaticamente le variabili più significative.
Di seguito facciamo un backtesting sistematico. Il modello viene testato su periodi storici caratterizzati da diverse condizioni di mercato, con particolare attenzione alle fasi di elevata volatilità e alle transizioni di regime. Infine, facciamo una cross-validazione. Impieghiamo una cross-validazione temporale (time-series cross-validation) per valutare la robustezza delle previsioni in contesti out-of-sample.
Per concludere, pratichiamo una quantificazione dell’incertezza. Ogni previsione è accompagnata da intervalli di confidenza calcolati attraverso simulazioni Monte Carlo e tecniche di bootstrap. La validità del nostro approccio è misurata non solo in termini di accuratezza puntuale delle previsioni, ma anche attraverso metriche come l’Information Ratio e l’indice di Sortino, che valutano il rapporto tra rendimento e rischio delle strategie basate sulle nostre previsioni.