Il grande accumulo di dati in tutti i campi rappresenta un nuovo fenomeno con un grande potenziale ma che a volte porta ad aspettative eccessive e perfino mitiche. La nostra strategia originale alla base di questa proposta è di sviluppare strumenti quantitativi che superino il Machine Learning standard per aumentare la capacità di comprendere ed avvalerci di queste immense quantità di informazioni.

L’idea è di sviluppare un approccio scientifico, trasparente e testabile. Questa filosofia ha già trovato una concreta applicazione nello sviluppo del metodo Fitness Economica. L’uso di algoritmi e di metodi di Machine Learning va adattato e ottimizzato per ogni classe di problemi per identificare e comprendere gli elementi essenziali dei vari fenomeni.

In generale i dati non parlano da soli e non c’è una ricetta di validità generale. Il punto fondamentale è di superare il mero accumulo dei dati e, piuttosto, focalizzarsi sulla analisi ottimale dei dati disponibili nella prospettiva del rapporto tra segnale e rumore. Infatti, l’idea che più dati diano necessariamente luogo ad analisi e previsioni migliori è, in generale, non valida. Questo fenomeno è ben noto nella Fisica dei sistemi dinamici in cui l’aumento della dimensionalità dello spazio implica un aumento esponenziale dei dati necessari.

In pratica questo è un problema molto generale: se si sommano dati eterogenei che descrivono la struttura produttiva di una nazione, come ad esempio educazione e inquinamento, si devono assegnare inevitabilmente dei pesi arbitrari. La strategia sarà di valutare scientificamente queste problematiche. Questo rappresenta un elemento originale ma essenziale del nostro approccio per introdurre elementi scientifici verificabili nell’ambito dei Big Data. In pratica l’idea è di ridurre o eliminare gli elementi soggettivi e arbitrari e trattare i dati in modo gerarchico e sistematico. Questo porta a notevoli vantaggi in termini di scientificità e capacità predittiva come dimostrato dal metodo della Fitness Economica.