Loading...
A seguito di incendi o pratiche funerarie, spesso i siti archeologici e paleontologici possono contenere resti scheletrici bruciati. Studiare le ossa in questo stato non è semplice, a causa dei cambiamenti nella struttura atomica dell'osso causati dalla combustione.
Lo studio a cui è stata dedicata una pagina del rapporto annuale s’intitola “MAPS, Tosca - First analysis of ancient burned human skeletal remains probed by neutron and optical vibrational spectroscopy”. I ricercatori impegnati in questo progetto hanno utilizzato, per la prima volta, un approccio integrato, che combina tecniche spettroscopiche vibrazionali complementari compreso lo scattering anelastico dei neutroni, per studiare le ossa bruciate antiche.
Confrontando la loro analisi con le ossa umane moderne che hanno subito un processo di combustione controllata, i ricercatori sono stati in grado di definire le condizioni a cui le ossa antiche sono state soggette.
Il gruppo di ricercatori ha studiato resti ossei di esseri umani e animali provenienti da diversi siti archeologici italiani e da distinti periodi storici: neolitico, età del rame, età romana e Medioevo. Grazie alle loro analisi sono stati in grado di ottenere informazioni sulla differenza nelle pratiche di cremazione nell'età del rame, che si verificava principalmente negli incendi domestici, e in età romana, dove i corpi venivano cremati all'interno delle loro tombe a diretto contatto con il suolo.
Il lavoro portato avanti da questo gruppo di ricerca è molto importante perché fornisce agli archeologi e agli antropologi nuove informazioni sulle civiltà passate, comprese le loro sepolture e le pratiche di cucina. Capire il rapporto con i morti, stabilire quali fossero le pratiche rituali di sepoltura in termini così specifici, come quelli che riguardano le tecniche di cremazione, permette di conoscere in maniera più approfondita le civiltà antiche e i loro valori.
L’articolo pubblicato in Nature Physics, Donadi, S., Piscicchia, K., Curceanu, C. et al. Underground test of gravity-related wave function collapse. Nat. Phys. (2020). https://doi.org/10.1038/s41567-020-1008-4, che presenta un nuovo record nello studio del modello di collasso della funzione d'onda indotto dalla gravità, proposto da Lajos Diósi e Roger Penrose (modello DP) per risolvere il famoso problema della misura, ottenuto con una ricerca sperimentale che ha visto il ricercatore del CREF Kristian Piscicchia come responsabile dell’analisi dei dati, ha ottenuto un gratificante primato: e’ stato selezionato nella lista Top 10 al livello mondiale delle ricerche scientifiche in tutti i campi da due prestigiosi siti:

  • Our favorite science news stories of 2020 (nonCOVID-19 edition) da:


Science - sciencemag.org (dove la ricerca e’ al  numero 2 subito dopo una ricerca sui virus):
https://www.sciencemag.org/news/2020/12/our-favorite-science-news-stories-2020-non-covid-19-edition

  • Les 10 articles que vous avez préférés en 2020, da puorlascience.org (Les 10 articles que vous avez prfrs en 2020) dove la ricerca e’ al numero 9:


https://www.pourlascience.fr/sr/actualites/les-10-articles-que-vous-avez-preferes-en-2020-20609.php
Questo dimostra ancora una volta quanto questo tipo di ricerche, sulle fondamenta della teoria quantistica, siano attuali e di grande interesse non soltanto in fisica, ma in tutti i campi della scienza.
La collaborazione VIP, della quale il ricercatore CREF Kristian Piscicchia è anche responsabile INFN, sta attualmente procedendo ad un upgrade dell’apparato sperimentale e sta sviluppando più sofisticati modelli di analisi statistica, nonché collaborando con i teorici, fra i quali anche il recente premio Nobel Sir Roger Penrose, ad ulteriori refinements di modelli nei quali la teoria quantistica e la gravità si intrecciano nell’ambito dei modelli di collasso.
Qualche giorno Roberto Benzi ha preso parte ad un seminario nel quale ha spiegato le origini della risonanza stocastica e il perché questo fenomeno sia collegato, in qualche modo, al cambiamento climatico. Si tratta di un ciclo di conferenze, iniziate con i modelli caotici di Michael Ghil e chiuso con la stochastic resonance, per analizzare le prospettive future delle scienze climatiche.
Roberto Benzi è intervenuto per presentare la risonanza stocastica. Il meccanismo di risonanza stocastica, infatti, è stato introdotto circa quaranta anni fa da Roberto Benzi, Giorgio Parisi, Alfonso Sutera e Angelo Vulpiani. È un meccanismo generale e intuitivo che ha trovato applicazioni in migliaia di sistemi fisici diversi.
Analizzando la variazione di temperatura della Terra in relazione al movimento di rivoluzione intorno al Sole, ci si accorse che gli sbalzi di temperatura durante le ere glaciali erano fortemente correlati alla distanza della Terra dal Sole. Ma, in qualche modo, l’aumento o abbassamento della temperatura possono essere spiegati solo in parte dalla lontananza dal Sole, perché per altre frazioni si osservano dei cambiamenti non corrispondenti proporzionalmente all’effettiva distanza Terra-Sole.
La motivazione di questa eccezionalità è spiegata dalla risonanza stocastica. La cosiddetta risonanza stocastica (RS) è, propriamente, un fenomeno statistico recentemente studiato in un'ampia gamma di sistemi fisici non lineari.
Il clima è uno dei sistemi più complessi in natura ed il suo studio rappresenta una delle più dure sfide concettuali e tecnologiche in atto. L’aumentare dei dati climatici a disposizione ed il miglioramento dei modelli numerici di simulazione richiedono, in parallelo, lo sviluppo di concetti base, di modelli, che permettano la comprensione dei fenomeni osservati e simulati, come quello elaborato da Benzi e i suoi colleghi.
Ecco il video in cui Roberto Benzi racconta la sua esperienza di ricerca con la risonanza stocastica e il cambiamento climatico.
https://www.youtube.com/watch?v=ifuSJrE_bfE&feature=youtu.be
L’attività cerebrale è basata principalmente sul metabolismo ossidativo. Per questa ragione, la misura del tasso di consumo metabolico di ossigeno (CMRO2) è un ottimo biomarker per la quantificazione dell’attività cerebrale e dello stato fisiologico dei tessuti, con potenziali applicazioni nella diagnosi precoce dei carcinomi, ictus, patologie neurologiche e neurodegenerative.
Esistono diversi metodi MRI per la misurazione di CMRO2, basati su diversi approcci tecnologici e caratteristiche fisiologiche. Si può citare, ad esempio, lo sfruttamento delle differenze di campo magnetico associate alle disomogeneità tissutali tra seno sagittale superiore o vene principali.
Davis e Hoge hanno introdotto a fine anni ’90 un altro gruppo di tecniche, basate su metodi di calibrazione del BOLD, che mirano a stimare il CMRO2 dai segnali BOLD e ASL (Arterial Spin Labeling), sfruttando task respiratori (ipercapnia e iperossia) e modelli matematici che descrivono la complessa relazione tra metabolismo dell’ossigeno, segnale BOLD e flusso sanguigno cerebrale (CBF).
Il CBF è un biomarker diretto per la funzione cerebrovascolare e la salute neurovascolare; la correlazione tra CBF, attività neuronale locale e metabolismo, noto come accoppiamento neurovascolare, è, inoltre, un marker surrogato della funzione cerebrale.
Un progetto del CREF presente nel piano triennale s’impegnerà di studiare, sia a livello nazionale sia internazionale, lo sviluppo produttivo, scientifico e tecnologico dei paesi, basandosi su dati di produzione industriale, scientifica e brevettuale disaggregati rispettivamente per categorie industriali, settori scientifici e codici tecnologici.
Un proposito di questo progetto è quello di estendere tali metodologie a un livello geografico più dettagliato, studiando quello che avviene in diverse aree dei vari paesi. Per quanto riguarda l’Italia questo implicherebbe lo studio delle unità regionali, a cui dati, sulla produzione industriale e tecnologica, ha accesso anche il CREF. Allo scopo di avere una prospettiva nello stesso tempo più ampia e più precisa sulle prospettive di sviluppo delle diverse regioni italiane, l’intenzione è di unire dati sulla produzione industriale e tecnologica con quelli che riguardano la produzione di capitale umano di quella parte della popolazione che accede agli studi superiori e che necessariamente è l’attore principale dello sviluppo scientifico e tecnologico e, perciò, anche economico.
Le principali fonti di dati a disposizione del CREF sono: Scival e Microsoft Academic Graph per la produzione scientifica, Patstat per i brevetti, Istat per la produzione industriale a livello nazionale e regionale e Comtrade delle Nazioni Unite per la produzione industriale dei diversi paesi.
Il sistema solare si è formato circa cinque miliardi di anni fa: i diversi pianeti hanno dunque avuto il tempo di compiere più di un miliardo di rivoluzioni intorno al sole. In particolare, Mercurio, che ha un periodo orbitale di 88 giorni, ne ha fatte circa 25 miliardi, la Terra 5 miliardi, mentre Nettuno, con un periodo orbitale di 160 anni, 250 milioni. In tutto questo tempo il sistema solare ha raggiunto una situazione di stabilità in cui i tutti pianeti, anche i più esterni, ruotano in orbite chiuse dove la forza gravitazionale di attrazione del sole è controbilanciata dalla forza centrifuga che ha ugual modulo di questa ma verso opposto.
Per effetto della forza gravitazionale esercitata sui pianeti dal sole le velocità orbitali dei pianeti variano secondo la loro distanza dal sole: Mercurio si muove a 48 km/sec, la Terra a 30 km/sec e Nettuno a 5 km/sec. Questo equilibrio dinamico, una volta stabilito, rimane invariato e dura finché cause esterne non ne causano la rottura.
Che succede quando si formano delle galassie dalla dinamica gravitazionale fuori dall’equilibrio? Per approfondire scarica l'articolo completo qui.
La diffusione delle tecnologie dell'informazione e della comunicazione e la conseguente disponibilità di una ricchezza di dati senza precedenti hanno aperto nuove opportunità per un'indagine scientifica sulla complessità degli ambienti urbani.
Questa disponibilità di dati ha favorito studi volti ad identificare i modelli di coevoluzione dei comportamenti umani e sociali (così come l'innovazione a livello di infrastrutture e servizi). Mappare i fenomeni che ci interessano all’interno di una città può permettere di progettare soluzioni che rendano lo spazio urbano più efficiente ed inclusivo.
A tal fine, ci si concentra su un aspetto specifico delle città, ovvero il tema dell'accessibilità. L'accessibilità può essere descritta come la capacità delle città di consentire alle persone di muoversi in modo efficiente garantendo equità e pari accesso alle opportunità personali e professionali. In questa prospettiva, accessibilità non significa solo la capacità complessiva di transito urbano: deve anche essere declinata come accessibilità di aree specifiche, per persone particolari con scopi specifici. Ancora più semplicemente si può dire che con l’accessibilità s’intende una valutazione complessiva dei servizi pubblici, non sempre distribuiti omogeneamente.
Non è raro, infatti, che i progetti di trasporto pubblico guidati dai governi beneficino solo una piccola parte della popolazione, mentre le condizioni di viaggio medie rimangono scarse per la maggior parte della popolazione. È quindi importante essere in grado di quantificare l'accessibilità in un modo che rappresenti da vicino l'esperienza dei cittadini, concentrandosi sui tempi di percorrenza tra le varie aree geografiche. La nozione matematica chiave utilizzata per quantificare i tempi di viaggio sarà quella delle mappe isocroniche, cioè mappe che mostrano le aree relative alle isocrone tra diversi punti.
Clicca qui per leggere l'intero articolo scientifico.
Clicca qui per visualizzare la mappatura dei risultati.
Studiare la crescita economica significa indagare sia l’andamento dei paesi industrializzati e sviluppati, che quello dei paesi in via di sviluppo. Durante lo studio dei paesi sviluppati, la maggior parte della crescita è vista come un processo di equilibrio, un trend di crescita continua su uno standard ben consolidato. Entrambi i modelli, quelli in cui la crescita è esogena e quelli in cui è endogena, possono essere rappresentati come processi che percorrono un percorso di equilibrio.
Questa focalizzazione sugli stati di equilibrio ha portato l’attenzione verso il Total Factor Productivity. La ricerca empirica mostra che, in effetti, la maggior parte delle differenze nella crescita tra i paesi sono spiegate dalle differenze nella crescita della produttività totale dei fattori.
Lungo il percorso verso l'industrializzazione, le capacità industriali del paese, i prodotti corrispondenti e le preferenze dei consumatori si viene a riorganizzare l’ecosistema economico, portando alla libertà della popolazione di perseguire i propri interessi in settori e attività imprenditoriali nuovi. Questo fatto aumenta notevolmente la diversificazione e la complessità dell'economia di una nazione.
Misurando quantitativamente la complessità di un'economia attraverso una nuova dimensione, la fitness del Paese, è possibile comprende l’importanza della diversificazione per lo status di un paese. I sistemi economici condividono con i sistemi complessi tradizionali l'emergere di comportamenti collettivi inediti generati da interazioni tra le loro componenti di base.
Secondo degli studi condotti da studiosi attualmente in carica al CREF, l'industrializzazione di un paese è un processo dinamico in cui emerge una rete complessa che rafforza le capacità di produzione e la domanda di prodotti su scala nazionale. La prosperità e le potenzialità di un Paese, quindi, possono essere analizzate considerando questa nuova dimensione, che tiene conto della diversificazione e della complessità del sistema produttivo.
La legge di Zipf è una regolarità statistica ubiqua nei sistemi complessi. Ad esempio, considerando le città di una nazione, tale legge sostiene che la popolazione della seconda città più popolosa all’interno di uno stato è pari alla metà della prima. La terza sarà un terzo. La quarta sarà un quarto. E così via. Questo andamento caratterizza anche le città italiane: Roma 2.84 M, Milano 1.40 M, Napoli 0.90 M.
Se sostituiamo alle città i crateri lunari e alla popolazione il diametro del cratere, osserviamo lo stesso andamento, così come considerando le persone più ricche del mondo e la loro ricchezza o le parole più usate e la loro frequenza. La legge di Zipf è infatti osservata in moltissimi sistemi complessi e ciò è in parte dovuto alla sua stretta relazione con le distribuzioni a potenza.
Nonostante questa ubiquità e i molteplici tentativi fatti per spiegare l'origine della legge di Zipf, non è ancora stato individuato un unico meccanismo generativo capace di spiegare tutte le sue manifestazioni, dalla popolazione delle città ai crateri lunari.
A riprova delle molteplici manifestazioni di questa regolarità statistica, alcuni ricercatori del CREF stanno utilizzando la legge di Zipf per studiare la distribuzione delle galassie nell'universo.
Qui un articolo scientifico in cui viene analizzata la relazione tra legge di Zipf e distribuzioni di probabilità a potenza.
Nella giornata di venerdì 20 novembre Andrea Gabrielli è stato nominato direttore scientifico delle attività museali e di ricerca del CREF.
Negli ultimi venti anni ha lavorato a numerosi problemi di fisica statistica, che vanno dai fenomeni di crescita frattale, percolazione, criticità auto-organizzante ad applicazioni dei metodi della fisica statistica alla cosmologia, problemi gravitazionali e reti complesse che rappresentano ora il suo principale interesse di ricerca. Ha, inoltre, contribuito al progetto di ricerca Economic Fitness.
Il nuovo direttore scientifico si occuperà della gestione della struttura museale e di ricerca.
Andrea Gabrielli provvederà al coordinamento dei progetti interdisciplinari del CREF e alla loro attuazione; nonché s’impegnerà nella valorizzazione e diffusione dei risultati delle attività di ricerca, nella promozione delle attività di disseminazione della cultura scientifica e delle attività del Museo Storico della Fisica.
#direttorescientifico #andreagabrielli #cref