Linee guida di prevedibilità dei terremoti

1213
La scuola di San Giuliano di Puglia dopo il sisma
Tempo di lettura: 16 minuti

La soluzione delle difficoltà di previsione sismica impone la soluzione di enormi problemi matematici che non sono stati risolti nonostante i tanti sforzi di singoli matematici, geofisici, geologi, ingegneri e tecnici specifici. I vertici degli analisti e ricercatori incaricati di sviluppare il compito delle previsioni sismiche hanno deciso di creare varie organizzazioni, che collaborano fra di loro, allo scopo di risolvere il problema sismico per eccellenza. Quindi sono state create e funzionano operativamente ed attivamente varie organizzazioni internazionali e sovrannazionali

Il professore Giuseppe Quartieri, che dal 1968 si occupa di qualità, ambiente e sicurezza/affidabilità di grandi sistemi complessi, sta scrivendo una serie di articoli in cui si occupa di previsioni operative e prevenzione di terremoto, modelli matematici di previsione e profilo della sicurezza in relazione alla presenza di centrali nucleari.

 

«As countries develop, and both economic conditions and governance improve, vulnerability decreases but not sufficiently rapidly to compensate for the increase in exposure, particularly in the case of very rapidly growing low income and low-to-middle-income countries».
United Nations International Strategy for Disaster Reduction Secretariat [2009]

 

Nell’articolo precedente in argomento, si è cercato di illustrare e descrivere inizialmente il meccanismo che regola i fenomeni sismici, ed in particolare la difficoltà e la complessità dei vari processi fisici coinvolti a causa, prima di tutto, della inaccessibilità della conoscenza diretta o indiretta della struttura e della costituzione degli strati terrestri più interni oltre alla relativa dinamica.

Gli aspetti fisici

Purtroppo non è possibile eseguire misure fisiche specifiche e precipue in loco. Ad esempio non si riesce sempre a localizzare e allocare la strumentazione adatta (sensori sismici ecc.) e di rilievo in prossimità delle sorgenti sismiche al fine di monitorare la generazione delle onde sismiche. Di conseguenza, l’informazione sperimentalmente utile ai fini del rilievo sismico è unicamente riferibile a quanto accade alla superficie terrestre o poco al di sotto di essa. E questo tipo di informazione si ottiene solo mediante opportuni sismografi ed altri eventuali tipi di sensori sismici appropriatamente collocati in luoghi strategici rispetto alla faglia sismica. Inoltre, laddove si conosca veramente l’esistenza di una faglia sismica (ad esempio la faglia di San Andrea in California oppure la faglia di San Giuliano di Puglia in Molise ecc.) allora si può procedere alla installazione di stazioni di misura disposte nelle zone di faglia attiva. In questa maniera si costruisce un insieme di punti di misura (test points) che costituiscono, nel loro insieme, una rete di rilevazione di dati locali, indispensabile per la costruzione del catalogo sismico (Francesca Manoni; Ricerca Aerospaziale, 2010, 2011).

Nonostante queste difficoltà, come si è cercato di illustrare nell’articolo precedente di questa serie, la soluzione delle difficoltà di previsione sismica impone la soluzione di enormi problemi matematici che non sono stati risolti nonostante i tanti sforzi di singoli matematici, geofisici, geologi, ingegneri e tecnici specifici. Come accennato, i vertici degli analisti e ricercatori incaricati di sviluppare il compito delle previsioni sismiche hanno deciso di creare varie organizzazioni, che collaborano fra di loro, allo scopo di risolvere il problema sismico per eccellenza. Quindi sono state create e funzionano operativamente ed attivamente varie organizzazioni internazionali e sovrannazionali.
La realizzazione di una ricerca specifica che sia utile, innovativa ed altamente informativa, viene attuata, da un punto di vista «empirico», sia mediante la correlazione dei vari fenomeni precursori ai conseguenti terremoti sia attraverso un approccio teorico di tipo stocastico applicabile al catalogo sismico completo.
In altre parole, dopo un’appropriata analisi di precisione o completezza dello stesso catalogo sismico regionale, si costruiscono i famosi modelli di calcolo e di simulazione di fenomeni sismici.

Come già detto, il numero di questi modelli è abbastanza grande. Si parla di 250 modelli matematici di cui in Italia si sfruttano solo meno di 50. Recentemente, alcuni modelli matematici classici basati su aspetti dinamici deterministici e meccanicistici, di tipo sostanzialmente geologici, in particolare sulle dinamiche delle zolle o almeno di alcuni tipi di zolle singole, sono stati aggiornati e consentono di ottenere delle accuratezze di previsioni abbastanza interessanti. Pertanto, nella vasta gamma di modelli matematici sviluppati si sono reinseriti, in maniera forte e robusta, alcuni modelli deterministici o meccanicistici di tipo geologico che tentano di sviluppare la fenomenologia con una sorta di teoria deterministica di generazione del fenomeno sismico.
In tempi molto recenti, l’attenzione dei geofisici e geologi è stata catturata dalla convenienza dell’impiego di talune osservabili fisiche direttamente connesse all’attività sismica. In particolare, questi fenomeni fisici osservabili sono:

1) La lenta deformazione del suolo.
2) La diminuzione temporanea del tasso di sismicità antecedente le scosse principali.
3) La presenza di anomalie nello stile tettonico della zona d’interesse.

Le osservazioni, il controllo e monitoraggio di tali tipi di misure consente di assemblare un insieme di dati specifici che costituiscono un complesso utile di confronto con i modelli teorici per la comprensione del comportamento delle diverse faglie attive e dei processi meccanici di scorrimento lungo i margini delle singole zolle.

Nell’articolo precedente è stato presentato un elenco dei precursori tipici che devono essere considerati gli indicatori essenziali di probabile attività sismica emergente. Ovviamente una delle prime regole dell’applicazione del principio di precauzione è di garantire il monitoraggio costante di questi indicatori in modo da poterne anche garantire l’integrazione nell’ambito di un «modulo di previsione globale» sempre in continuo aggiornamento con il quadro più vasto di una previsione sismica locale e globale. Alla stessa stregua, la conoscenza degli aggiornamenti degli indicatori si inserisce molto bene nell’ambito dell’analisi di rischio sismico. Più di recente, sono stati particolarmente studiati i dati relativi alla variabilità locale geoelettrica, geomagnetica e geochimica in relazione alla comparsa sismica.
Prima però di analizzare in maniera più analitica e profonda i vari modelli di calcolo e riportare i risultati ottenuti dalle analisi e dalle comparazioni con i dati reali provenienti dai vari terremoti recenti, si ritiene utile riportare i concetti e le definizioni delle grandezze fisiche fondamentali necessarie allo studio e alle analisi sismiche.

 

Qua-1Fig. N. 1 – La mappa dei rischi sismici in Italia che mostra la localizzazione del terremoto di L’Aquila del 6 aprile 2009. I colori delle varie zone colorate indicano la accelerazione del moto del terreno con una probabilità del 10% di eccedere detto valore in 50 anni misurato in unità di accelerazione di gravità 9,8 m/sec2 (Fonte Icef Final Report)

 

Fondamenti dell’approccio classico all’analisi

 

Il Governo italiano ha commissionato, alla Commissione Internazionale di Previsione dei Terremoti per la Protezione Civile, uno studio ed analisi per valutare la conoscenza scientifica della prevedibilità terremoto e fornire orientamenti per l’attuazione della previsione operativa dei terremoti. Secondo la definizione accettata le «previsioni operative» coinvolgono due tipi attività:
1) L’aggiornamento costante delle informazioni autorevoli sulla presenza futura di terremoti potenzialmente dannosi.
2) La diffusione ufficialmente sanzionata delle relative informazioni per migliorare la preparazione al terremoto in comunità minacciate.

Le considerazioni qui di seguito riportate sono in parte il risultato dello studio analitico e critico della relazione finale della Commissione suddetta oltre alle esperienze di lavoro in campo di calcolo delle probabilità e analisi statistiche di vario tipo e di natura sistemica ad ampio spettro. L’approccio per sistemi consente, di fatto, di analizzare i singoli problemi specifici con una visione globale e diffusamene critica che allarga la visione e consente di finalizzare le similarità e le uguaglianze in modo da ricercare gli «invarianti strutturali» fra i vari campi di applicazione del calcolo delle probabilità e dell’analisi strutturale dinamica.

L’approccio alla prevedibilità dei terremoti introdotto nell’articolo precedente ha tentato di dimostrare le difficoltà che si incontrano nell’esprimere le probabilità dei terremoti, in generale. La proposta presentata è di specificare meglio le probabilità di calcolo supportandole sempre con la definizione delle relative accuratezze che richiedono l’impiego dei concetti di livelli (o intervallo) di confidenza. La stessa definizione del concetto di «accuratezza della previsione» conduce alla ben nota curva di accrescimento di accuratezza con il passare del tempo o a tempi diversi, e la ripetizione del calcolo della previsione partendo da valori molto ampi e laschi dell’ordine pure del 200% di errore di accuratezza iniziale. Alla fine dei conti si riesce forse a raggiungere un’accuratezza dell’ordine del 20%, al massimo. Si tratta pur sempre di valori molto elevati di errori di calcolo che non garantiscono affatto di riuscire a definire il tempo il luogo e la magnitudo di un terremoto.
Alcuni fisici sostengono: «qui si cade nel più nero sconforto» e, in parte si perde la fiducia nel valore della scienza ed in particolare della profondità e del rigore della scienza. Si è di fronte alla stessa sfiducia e posizione intellettuale espressa da Susan. E. Hough nel suo libro «Prevedere l’imprevedibile» Ed. Springer Verlag 2012. Questa sismologa americana descrive le imprevedibilità dei terremoti in base all’analisi delle sequenze storiche e dei cataloghi sismici costruiti in base alle rilevazioni sismiche in varie parti del mondo.

Purtroppo, anche in questo caso si potrebbe «cadere nel più nero sconforto», tuttavia la ricerca deve continuare sempre con maggiore lena e maggiore sforzo. Nonostante la analisi e i confronti dei dati storici e dei dati di catalogo eseguiti dalla Hough, lo sconforto e la sfiducia non intacca molti spiriti ricercatori che continuano a eseguire analisi e studi approfonditi per determinare nuovi metodi modelli matematici di calcolo delle previsioni oppure indicatori più affidabili e concreti.

Recentemente, come già accennato, da molti pulpiti piuttosto meccanicistici e deterministici è stato espresso ripetutamente un maggiore ottimismo circa i calcoli di previsioni di terremoti commisti soprattutto alle conoscenze delle serie storiche di eventi similari anche in altri posti della Terra.
Si assume quindi dimostrato che il compito di creare una struttura e dei metodi di calcolo delle probabilità di effetti sismici è compito arduo che può essere affrontato solo con un «atteggiamento o approccio di sistema» basato su una grande organizzazione che, dotata di mezzi robusti e moderni, sia strutturata a livello internazionale con l’apporto di molte organizzazioni specifiche di diversi Paesi del Mondo.

Come accennato nell’articolo precedente, questo tipo di compito viene perseguito, ormai, dalle maggiori Organizzazioni ed Enti internazionali che, specializzate in campo sismico, si interessano di questo antico problema dell’Umanità sia a livello organizzativo sia con lo sviluppo ed applicazione di modelli teorici per il calcolo ed analisi dei rischio e della prevedibilità dei terremoti. La gestione è affidata ad una grande società scientifica alla «Collaboratory for the Study of Earthquake Predictability» (Csep), per lo Studio della prevedibilità dei terremoti. Questo progetto è stato inizialmente avviato dal Centro della «Southern California Earthquake».

Come in parte accennato, le logiche di base degli studi ed analisi di prevedibilità dei terremoti possono essere sviluppate solo su conoscenze empiriche e sperimentali ed un apparato organizzativo internazionale funzionante ed operativo dotato di infrastrutture forti, ben organizzate e dotate di sistemi e strumentazione robusta ed tecnologicamente aggiornata. Come accennato, nei decenni passati questo sviluppo è stato ostacolato dalla mancanza di un’adeguata infrastruttura sperimentale. Secondo i requisiti del metodo scientifico galileiano, le previsioni dei fenomeni devono essere paragonate ai risultati sperimentali possibilmente ottenuti con esperimenti progettati ad hoc. Nel campo della ricerca sismica, purtroppo, non c’è stata alcuna possibilità di realizzare esperimenti scientifici di previsione rigorosa, predefinita e controllata [Condizioni Jordan 2006].

Anche per porre rimedio a questa carenza strutturale, il Csep (nel corso degli ultimi 5 anni) ha progettato e messo in cantiere l’esecuzione di un ampio programma di previsione probabilistica dei terremoti del modello test.
Questo programma di lavoro è stato concepito e strutturato in modo operativo in quattro prove centri [Schorlemmer e Gerstenberger 2007], negli Stati Uniti, in Giappone, in Nuova Zelanda e in Europa. In questi Paesi è stata eseguita una ampia varietà di prove in varie regioni specifiche e i risultati sono stati elaborati in varie maniere (Fig. N. 1).
In particolare, va ricordato che Csep promuove la rigorosa ricerca scientifica sulla predicibilità dei terremoti attraverso:

i) Una visione aperta, internazionale e sistemica del problema sismico e tettonico.
ii) Prove rigorose e analisi prospettiche di terremoto, previsione/pronostico modelli e ipotesi.
iii) Un programma globale che copre una vasta gamma di ambienti tettonici.

La previsione operativa probabilistica dei terremoti comprende procedure di raccolta e le procedure di diffusione autorevole delle informazioni sulla dipendenza dal tempo della pericolosità sismica per aiutare le comunità a prepararsi potenzialmente distruttiva terremoti. È ben noto che i rischi sismici cambiano con il tempo, in parte perché i terremoti liberano energia e improvvisamente modificano le condizioni all’interno delle faglie da cui scaturiscono i futuri terremoti. Recentemente, alcuni modelli statistici e fisici d’interazioni dei terremoti hanno iniziato a comprendere e catturare il senso ed il comportamento di molte caratteristiche della sismicità naturale, come le scosse di assestamento e il raggruppamento delle sequenze sismiche (scaimi). Questi modelli possono essere utilizzati per stimare le probabilità di terremoti futuri condizionati alla storia dei terremoti di una regione.

Fondamenti e definizioni

I terremoti più dannosi sono prodotti dalla rottura o frattura di difetti pre-esistenti nel suolo ad una profondità inferiore a 50 km, laddove, in passato, altri terremoti hanno già indebolito le rocce fragili all’interno di una zona di faglia attiva (Annales of Geophysics, 54, 4, 2011; doi: 10.4401/ag-5350). Normalmente, si verifica un terremoto, quando, lentamente si presentano delle sollecitazioni tettoniche che producono un guasto improvviso che induce una grave frattura o rottura (una frattura critica). La rottura è processo dinamico che si diffonde rapidamente dall’iniziale piccolo guasto, detto zona di nucleazione, fino a coprire tutta la superficie di faglia (o più superfici) in modo da spostare la terra da entrambi i lati del guasto iniziale e capace di irradiare energia sotto forma di onde sismiche.

La elaborazione della previsione o predizione (forecast) dei terremoti comporta definire e asserire proposizioni circa la posizione, l’ora e l’entità del guasto futuro prodotto dalla rottura iniziale. Di solito, la posizione spaziale della rottura iniziale è presa come il punto, in profondità, da cui una faglia procede partendo dalla rottura nucleata (ossia iniziale) che viene definita «ipocentro». La coordinata temporale del fenomeno di rottura è definita dall’instante origine del suo primo movimento dinamico. Nel caso di grandi terremoti con dimensioni rottura di decine di chilometri o più, s’impiegano normalmente altre specifiche tecniche di posizione, ad esempio si usa il centroide spazio-temporale della distribuzione del guasto.
La misura standard, accettata ed affidabile delle dimensioni di un terremoto è data dalla sua «magnitudo del momento», MW. Si tratta di una grandezza fisica basata sulla definizione dei concetti fisici di momento sismico e energia sismica. La magnitudo del momento può differire in modo significativo da altre scale di magnitudine di uso comune, come ad esempio il «Momento locale» ML, che è derivato dalle ampiezze registrate da sismografi localizzati nelle vicinanze del fenomeno sismico.
Ad esempio, il valore misurato di ML durante il terremoto di L’Aquila è stato originariamente riportato pari a 5,8, ossia di circa mezza unità inferiore al valore vero misurato di 6,3 MW, e, successivamente, aggiornato a 5,9. Tali variazioni sono comuni e generalmente riflettono differenze dei metodi e tecniche di taratura (ad es. impiego di diverse scale di grandezze ecc.) degli strumenti così come vengono eseguiti dai tecnici dei vari Enti locali addetti alla esecuzione. Alla stessa stregua, vengono adottate variazioni diverse delle ampiezze delle onde sismiche prodotte dalla rottura implicata da diverso tipo di orientamento, diversa complessità e eterogeneità geologiche.

Fenomenologia del Terremoto

I grandi terremoti (Icef Final Report – 30 May 2011) che rilasciano molta energia sismica sono eventi molto rari. In un dominio spazio-temporale di dimensioni sufficienti, il numero N di terremoti con magnitudo maggiore di M (valore generico) che si possono osservare segue l’andamento determinato della reazione di scala di Gutenberg-Richter definito da:
log10 N = a – bM.
dove la lettera «a» rappresenta il valore del tasso di terremoto mentre la cosiddetta pendenza b (detto pure b-value) è, di solito, vicino all’unità. In questa maniera, la frequenza di eventi si riduce di dieci volte per ogni incremento unitario di magnitudo. In un sistema di guasti attivi nel lungo termine, si verificheranno approssimativamente 2 terremoti di magnitudo 10.000 per ogni evento di magnitudo -6.

In regioni sismicamente attive e monitorate da una fitta rete di sismografi, si possono osservare valori di scala Gutenberg-Richter che arrivano fino a grandezze molto piccole (MW<0). In queste condizioni, dagli esperimenti di laboratorio si riesce a dedurre che la dimensione minima di rottura che produce il guasto (la cosiddetta scala interna delle dinamiche dei guasti) è molto piccola (<10 m). Qualsiasi rete costituita da un numero finito di sismometri consente di individuare solo i terremoti di dimensioni abbastanza grandi da potere essere rilevati sopra del livello di rumore ambientale. In questa maniera, i cataloghi di sismicità saranno incompleti poiché includeranno solo i terremoti la cui magnitudo sarà superiore ad una certa soglia. Nel caso del terremoto di L’Aquila, per esempio, la soglia di completezza del momento locale in corrispondenza del terremoto del 6 Aprile 2009, è stata di circa 1,5 ML.
Poiché i sistemi di guasto hanno grandezza (o magnitudo) finita, non si può ritenere valida l’applicabilità della scala Gutenberg-Richter fino a magnitudo arbitrariamente grandi. Al di sopra di una certa magnitudo di taglio superiore, la frequenza degli eventi deve scendere a zero più rapidamente di quanto avviene in una caduta ad andamento esponenziale, in modo da definire una scala spaziale esterna del processo di rottura. La massima magnitudo, che dipende dalla geometria della tettonica del sistema di faglie, può essere difficile da stimare con precisione.
I terremoti hanno la tendenza a verificarsi vicini nel tempo e nello spazio come dei «cluster» o sequenze di terremoti (Fig. N. 2).

Qua-2Fig. N. 2 – Sequenza dei terremoti nella zona di subduzione indonesiana, a partire dal terremoto di magnitudo 9,2 MW di Sumatra del 26 dicembre 2004 (triangolo rosso) e continuando fino all’inizio del 2011. L’asse verticale dà la latitudine in gradi geografici. I punti rossi sono i punti di innesco di eventi con MW ≥ 7; i cerchi blu sono eventi minori. A Sumatra la scossa principale è stata seguita da una scossa di assestamento molto grande, il cosiddetto caso Nias con magnitudo di 8,7 MW, del 28 marzo 2005. Tale scossa di assestamento era stata prevista dai calcoli di sopra-sollecitazione a sud dell’epicentro scossa principale. Questo grafico spazio-temporale illustra le statistiche di attivazione dei terremoti: in particolare, mostra come le scosse di assestamento generano le loro stesse sequenze dopo il proprio colpo principale. Fonte: J. Donovan e T. Jordan

 

Durante la sequenza delle scosse di terremoto, il valore più grande che si verifica in sequenza, si chiama la «scossa principale». Una volta che la «scossa principale» (mainshock) è stata definita in una sequenza di terremoti, allora le scosse di terremoti che si sono verificate prima dell’istante corrispondente alla scossa principale e vicino al suo ipocentro, sono chiamate scosse preliminari (foreshocks) e, quelle che si verificano dopo la scossa principale, si chiamano scosse di assestamento. Quando il tasso di sismicità è alto, e non si riesce a distinguere la scossa principale, allora la sequenza è chiamata «sciame sismico».

Scosse preliminari, scosse principali, scosse di assestamento e sciami sono denominazioni retrospettive, ossia possono solo essere identificate come tali solo dopo che la sequenza dei terremoti sia stata completata. Inoltre, i singoli eventi di una sequenza non possono essere fisicamente distinti dal fondo di sismicità che è estraneo alla scossa principale. Il fondo di sismicità (o sismicità di fondo) può aggiungere e normalmente aggiunge una notevole incertezza al processo di determinazione e isolamento delle scosse preliminari e delle sequenze di assestamento nello spazio e nel tempo, così come fa pure la semplice sovrapposizione di sequenze sismiche diverse fra di loro. Quasi tutti i grandi terremoti producono scosse di assestamento dopo la sollecitazione di attivazione, che può essere causata dallo scorrimento del guasto permanente e dal rilassamento relativo della crosta e del mantello (come effetto di un innesco quasi-statico) o dal passaggio di onde sismiche (innesco dinamico). Si osserva che il numero di scosse di assestamento aumenta esponenzialmente con la grandezza della magnitudo della scossa principale (scala Utsu), e il tasso di scosse di assestamento tende a diminuire con il tempo (Scala Omori).

Le relazioni fra le scale di Gutenberg-Richter, Utsu, e Omori possono essere combinate fra di loro in un modello stocastico di sismicità, chiamato modello Epidemic Type Aftershock Sequence (Etas) [Sequenza di Scosse di Assestamento di Tipo Epidemico]. In uno dei prossimi articoli si analizzerà a fondo questo modello basilare di sismicità. In questo modello le sequenze comprendono più generazioni di innescato eventi ed è inclusa anche la possibilità che la sequenza venga inizializzata da sismicità di fondo spontanea.
Purtroppo il modello di tipo Etas non consente di riconoscere le differenze fisiche tra le scosse quali scosse preliminari, scossa principale, scosse di assestamento (diverse da luogo, tempo e grandezza). Inoltre non è in grado di riprodurre molte delle statistiche a breve termine delle caratteristiche osservate nei cataloghi di sismicità, tra cui scossa di assestamento, le relative magnitudo i tassi di produzione, la diffusione delle scosse di assestamento, e alcuni aspetti statistici delle scosse preliminari (foreshock) retrospettivamente identificate a posteriori nelle sequenze.

Le statistiche di lungo termine dei terremoti sono comunemente rappresentate in termini di numero medio di eventi in una specifica finestra spazio-magnitudine o in termini di media temporale fra successive rotture in un intero segmento di faglia. Talvolta queste medie vengono assunte come terremoti caratteristici con lo stesso errore (stessa varianza).
Secondo la teoria del rimbalzo elastico dei cicli di terremoto (vedi prossimo articolo della serie), l’intervallo di ricorrenza media è il tempo richiesto per accumulare la tensione di guasto che quindi verrà rilasciata nel successivo terremoto caratteristico. L’intervallo medio di ricorrenza di un segmento di guasti può essere calcolato dividendo l’errore previsto di un terremoto caratteristico, misurato in lunghezza di scala del segmento stesso, per il tasso a lungo termine degli errori (slittamenti) dei guasti, che possono essere stimati da osservazioni geologiche o geodetiche. A causa di diversi effetti, tra cui il rilascio di sollecitazioni incomplete, variazioni di aree di rottura e terremoti mediati da interazioni con altri difetti, il ciclo di terremoto non è periodico, e i tempi di occorrenza tra terremoti successivi possono essere molto irregolari. Per tenere conto di questo tipo di variazione, la ricorrenza dei terremoti viene spesso trattata con il modello matematico di processo di rinnovamento stocastico descritto da un intervallo di ricorrenza media e con un coefficiente di variazione.
Si coglie l’occasione per ricordare che il termine «terremoto caratteristico» fu coniato per descrivere la ripetizione dei terremoti che presentano rotture superficiali con caratteristiche similari, ed in particolare con spostamenti superficiali similari fra di loro [Schwartz and Coppersmith 1984]. Ricerche più recenti indicano che le rotture presentano distribuzioni complesse di spostamento con eterogeneità delle varie scale implicate [e.g., Konca et al. 2008]. Perciò il Rapporto più volte citato (Icef Final Report – 30 May 2011) adotta normalmente una definizione più generale: i terremoti caratteristici sono quelli che presentano rotture di un intero segmento di guasti approssimativamente con uno spostamento medio uguale ad esempio momenti sismici simili.

Nella teoria dei processi di rinnovamento, i tempi fra successivi eventi sono considerati eventi aleatori ossia eventi indipendenti fra di loro ed identicamente distribuiti. Quando avviene una rottura del segmento (di suolo), il processo di rinnovamento viene riportato allo stato iniziale (resettato). La costruzione del modello degli intervalli di distribuzione viene elaborata con una funzione di densità di probabilità con parametri definiti da un intervallo medio di ricorrenza e un fattore specifico di aperiodicità. Quest’ultimo parametro viene normalmente stimato con un coefficiente di variazione (la deviazione standard normalizzata all’intervallo di ricorrenza media). Alcuni esempi di tale coefficiente di variazione sono offerti dalle distribuzioni log-normale, la distribuzione di Weibull, la distribuzione dei tempi di passaggio nel moto Browniano ecc. [Working Group on California Earthquake Probabilities (2003)].

Simboli matematici
Acronimi e abbreviazioni di Organizzazioni ed Enti

 

Riferimenti

[0] Giuseppe Quartieri, Prevedibilità dei terremoti, «Villaggio Globale», 2012.
[1] Carlo Paracchini, Geofisica, (Crosta, mantello e nucleo), Ed. Isedi, Enciclopedia dalla Fisica, Vol. N° 2
[3] Susan E. Hough (06/12/2012) «Prevedere l’imprevedibile», Ed. Springer Verlag Italia
[4] Gruppo di Lavoro [2004], available at http://zonesismiche.mi.ingv.it/. The source model for the 2004 Italian seismic hazard map has been published in Meletti et al. [2008].
[5] Chiarabba et al. [2009], Anzidei et al. [2009], Atzori et al. [2009]. The Paganica fault was identified as an active structure by Bagnaia et al. [1992].
[6] Basili et al. [2008].
[7] Marzocchi and Lombardi [2009]. This application of an aftershock forecasting model appears to have been the first operational use of short-term forecasting methods in Italy. The assessment of «significant skill» is with respect to a time-independent forecast.
[8] Grandori and Guagenti [2009].
[9] The Commission interviewed Mr Giuliani on 13 May 2009.
[10] Mr Giuliani made contradictory statements to the media before and after the mainshock of 6 April 2009; see http://www.youtube. com/INGVterremoti#p/u/13/c7-9lNkA-y4 for a compilation of Giuliani’s interviews.
[11] Jordan et al. [2009].
[12] For example, seismic data for the L’Aquila mainshock estimate the epicenter (the point on the ground surface above the hypocenter) at 42.342°N, 13.380°E, the hypocenter depth of 8.3 km, and the origin time of 01:32:40.4 UT (03:32:40.4 local time).
[13] Seismic moment M0 is proportional to the area of faulting times the average fault displacement. Moment magnitude is defined by MW = 2/3 log M0 – 6.03, where the units of M0 are newton-meters (Nm). The seismic moment of the L’Aquila mainshock determined from teleseismic waves was about 3.4 × 1018 Nm, which corresponds to MW = 6.3 [Pondrelli et al. 2010].
[14] The seismic energy E radiated by fault rupture is observed to be approximately proportional to its seismic moment M0 over many orders of magnitude, which implies log E ~ 3/2 Mw; therefore, a unit increase of moment magnitude corresponds to a 32-fold increase in seismic energy. On average E/M0 ≈ 3 × 10–5, which corresponds to an apparent stress of ~1 MPa [Ide and Beroza 2001].
[15] INGV [2009]. La sequenza sismica de L’Aquilano – Aprile 2009, http://portale.ingv.it/primo-piano/archivio-primo-piano/notizie-2009/terremoto-6-aprile/copy_of_la-sequenza-sismica-dell-aquilano-aprile-2009/view?set_language=it.
[16] Gutenberg and Richter [1956]. Gutenberg-Richter scaling implies that event frequency falls off as a power law in seismic moment: N ~ M0–2b/3.
[17] Marone [1998], Boettcher et al. [2009].
[18] Schorlemmer et al. [2010]. Analysis of the seismic bulletin since April 16, 2005, shows that the Italian National Seismic Network is complete at ML 2.9 for the entire territory, excluding the islands of Sardinia, Pantelleria, and Lampedusa. At the DPC reporting threshold of ML 2.5, the network may miss events in southern parts of Apulia and the western part of Sicily. In the Abruzzo region, as well as elsewhere in Central and Southern Apennines, the catalogs are complete to thresholds as low as ML 1.5.
[19] Utsu [1978], Kagan [1997b], Bird et al. [2002].
[20] Voisin et al. [2000], Kilb et al. [2000], Freed [2005].
[21] The number of aftershocks N above some threshold magnitude M0 generated by a mainshock of magnitude M scales as exp [a(M −M0)], where the triggering exponent a is approximately constant [Utsu and Seki 1955, Utsu 1971].
[22] The modified Omori scaling relation states that the aftershock rate decays as a power law in time: n(t) = K(t + c)−p, where K, c, and p are constants, and p is usually near unity [Utsu 1961].
[23] Ogata [1988], Ogata et al. [1993], Ogata and Zhuang [2006], Helmstetter and Sornette [2002], Marzocchi and Zhuang [2011].
[24] Helmstetter et al. [2003], Sornette and Werner [2005].
[25] Helmstetter and Sornette [2003], Felzer et al. [2004].
[26] The term “characteristic earthquake” was coined to describe the repetition of earthquakes which have surface ruptures with similar characteristics, in particular similar surface displacements [Schwartz and Coppersmith 1984]. More recent research indicates that ruptures have complex displacement distributions with heterogeneities at every scale [e.g., Konca et al. 2008]. Therefore, this report adopts a more general definition: characteristic earthquakes are ruptures of an entire fault segment with approximately equal average displacement; i.e., similar seismic moments.
[27] In a renewal point process, the times between successive events are considered to be independent and identically distributed random variables. When a rupture occurs on the segment, it resets the renewal process to its initial state. The distribution of recurrence intervals is modeled as a probability density function parameterized by a mean recurrence interval and an aperiodicity factor; an estimate of the latter is the coefficient of variation (the standard deviation normalized by the mean recurrence interval). Examples include the log-normal, Weibull, and Brownian passage time (BPT) distributions. See Working Group on California Earthquake Probabilities [2003].
[28] Jordan [2009].
[29] Cutter et al. [2008], Multidisciplinary Center for Earthquake Engineering Research [2008]
[30] Somerville et al. [2003].