Archivio del Tag ‘ricerca’
-
La Cia mi disse: piazzeremo il nostro uomo a Mosca (Gorby)
Fui esiliato in Occidente nel 1978, quando il corso trentennale della guerra fredda ebbe una svolta radicale. I capi della guerra fredda studiavano la società sovietica fin dall’inizio. La nuova scienza della sovietologia fu sviluppata impiegando migliaia di esperti e coinvolgendo centinaia di centri di ricerca. Al suo interno, un ramo distinto della cremlinologia apparve. In modo pedante studiava la struttura dello Stato sovietico, l’apparato del partito, l’apparato centrale del partito, il Comitato Centrale del Partito Comunista dell’Unione Sovietica, il Politburo e i singoli dipendenti dell’apparato governativo. Ma per molto tempo (forse fino alla fine degli anni ’70), l’obiettivo principale era la manipolazione ideologica e psicologica della popolazione, la creazione di masse pro-occidentali di cittadini sovietici che in realtà avrebbero giocato il ruolo di “quinta colonna” dell’Occidente (intenzionalmente o meno) lavorando alla disgregazione ideologica e morale della popolazione sovietica (per non parlare di altre operazioni). Così fu creato il movimento dei dissidenti. In breve, il lavoro principale fu svolto attraverso la distruzione della società sovietica “dal basso”.Gli importanti risultati ottenuti divennero i fattori della futura controrivoluzione. Ma non bastava per far collassare la società sovietica. Alla fine degli anni ’70, i capi occidentali della guerra fredda capirono che il sistema di governo era la base del comunismo sovietico e l’apparato di partito era il suo nucleo. Dopo aver studiato a fondo l’apparato di partito, la natura delle relazioni tra i suoi membri, la loro psicologia e loro qualifiche, i metodi di selezione e altre caratteristiche, i capi della guerra fredda conclusero che la società sovietica poteva essere distrutta solo dall’alto, distruggendone il sistema di governo. Per distruggerlo fu necessario e sufficiente distruggere l’apparato di partito, a partire dal vertice, il Comitato Centrale del Pcus. Così puntarono i loro principali sforzi in tale direzione. Trovarono i punti più vulnerabili nella struttura sociale sovietica. Non mi fu difficile notare tale cambiamento, perché ebbi l’opportunità di osservare e studiare la parte occulta della guerra fredda. Nel 1979, in una mia conferenza (“Come uccidere un elefante con un ago”), mi fu chiesto quale a mio parere fosse il punto più vulnerabile del sistema sovietico. Risposi: ciò che è considerato il più affidabile, l’apparato del Partito Comunista dell’Unione Sovietica, e al suo interno, il Comitato Centrale, e all’interno di questi, il segretario generale.Tra le risate omeriche del pubblico, dissi: «Se mettete il vostro uomo in quella posizione rovinerà l’apparato di partito, dando così inizio a una reazione a catena con conseguente frattura del sistema di governo e di amministrazione. La conseguenza sarà la dissoluzione della società». Feci riferimento al precedente di Pizarro. Il lettore non deve pensare che diedi l’idea agli strateghi della guerra fredda. Se ne resero conto senza di me. Uno degli impiegati dell’intelligence mi disse che presto (le forze occidentali) avrebbero messo il loro uomo sul “trono sovietico”. Al momento non credevo fosse possibile. Parlai ipoteticamente del segretario generale come “ago” dell’Occidente. Ma gli strateghi occidentali già sapevano che era una proposta realistica. Svilupparono un piano per vincere la guerra: prendere il controllo del potere supremo in Unione Sovietica, promuovendo il “loro” uomo a segretario generale del Comitato Centrale del Partito Comunista dell’Unione Sovietica, costringerlo a distruggere l’apparato del Pcus, attuando la revisione (“perestroika”) per avviare la reazione a catena e conseguente frantumazione della società sovietica.Tale piano era realistico, allora, perché la crisi ai vertici del potere sovietico era già evidente, a causa della senescenza del Politburo del Comitato Centrale del Pcus. Presto il “loro” uomo nel ruolo di “ago” occidentale apparve (se non fu “preparato” in anticipo). Certo, il piano funzionò bene. Ciò che distingue tale operazione da guerra fredda è che il metodo per “uccidere l’elefante con un ago” fu applicato a un meno potente, ma comunque potente, avversario, evitando la possibilità che la “guerra fredda” diventasse pericolosa al punto in cui i vantaggi dell’Occidente scomparissero, come accaduto nella guerra della Germania contro l’Unione Sovietica nel 1941-1945. Il metodo in questione permise di evitare rischi e perdite, risparmiare tempo e vincere per procura. Il metodo inventato dai deboli per combattere gli avversari più forti fu adottato dalle forze più potenti del pianeta nella loro guerra per il dominio sulla razza umana.(Alexandr Zinoviev, “Come uccidere un elefante con un ago”, dal blog “Aurora” del 23 novembre 2015. Filosofo dissidente, Zinoviev è autore di un saggio su come l’Occidente ha distrutto l’Unione Sovietica. “Aurora” pubblica anche l’introduzione della vedova, Olga, presidentessa dello Zinoviev Club, anticipato da “Rossija Segodnija”, agenzia di stampa russa. «Zinoviev – scrive Aurora” – diceva spesso che, a giudicare dal comportamento di Gorbaciov, non si poteva escludere la possibilità che lavorasse per l’Occidente, ma che infine non ha molta importanza, perché quello che fece servì esattamente gli interessi dell’Occidente». Il saggio “Come uccidere un elefante con un ago” è stato scritto da Zinoviev nel 2005, un anno prima della morte. Si basa sui ricordi di numerosi incontri che ebbe con i rappresentanti della élite politica occidentale responsabili della politica verso l’Urss, impegnati a «lavorare sul punto debole del nemico». Zinoviev cita l’episodio di Francisco Pizarro, conquistatore del Perù, che dimostrò straordinaria vivacità mentale nel trovare il punto debole degli indios, che capitolarono senza combattere perché scioccati per l’attacco al loro capo, «che consideravano un dio invulnerabile e intoccabile». Nel saggio, Zinoviev scrive che il tallone d’Achille dell’Urss era la sua dirigenza. «Zinoviev fu spesso chiamato dissidente, ma non si ritenne mai tale», precisa la moglie, Olga Zinovieva. «Era critico del sistema sovietico, ma non suo nemico». E negli ultimi anni «spesso ripeteva che, se avesse saputo quale destino terribile attendeva l’Urss, non avrebbe scritto un solo libro o articolo che la criticasse»).Fui esiliato in Occidente nel 1978, quando il corso trentennale della guerra fredda ebbe una svolta radicale. I capi della guerra fredda studiavano la società sovietica fin dall’inizio. La nuova scienza della sovietologia fu sviluppata impiegando migliaia di esperti e coinvolgendo centinaia di centri di ricerca. Al suo interno, un ramo distinto della cremlinologia apparve. In modo pedante studiava la struttura dello Stato sovietico, l’apparato del partito, l’apparato centrale del partito, il Comitato Centrale del Partito Comunista dell’Unione Sovietica, il Politburo e i singoli dipendenti dell’apparato governativo. Ma per molto tempo (forse fino alla fine degli anni ’70), l’obiettivo principale era la manipolazione ideologica e psicologica della popolazione, la creazione di masse pro-occidentali di cittadini sovietici che in realtà avrebbero giocato il ruolo di “quinta colonna” dell’Occidente (intenzionalmente o meno) lavorando alla disgregazione ideologica e morale della popolazione sovietica (per non parlare di altre operazioni). Così fu creato il movimento dei dissidenti. In breve, il lavoro principale fu svolto attraverso la distruzione della società sovietica “dal basso”.
-
L’ufologo Churchill e il segreto di Stato sugli avvistamenti
C’è vita, là fuori? Possibile che siamo davvero soli, nell’universo? Parola di Winston Churchill, uno dei grandi leader del Novecento. Per la vastità della sua conoscenza e la varietà dei suoi interessi, il leggendario premier inglese della Seconda Guerra Mondiale continua a sorprendere. «Ufo, galassie, pianeti: undici pagine di ragionamenti sulla vita nello spazio che anticipano l’impostazione delle ricerche contemporanee», scrive il “Corriere della Sera”, citando uno scritto inedito del 1939, da allora custodito negli archivi del National Churchill Museum di Fulton, Missouri. Il testo, mai pubblicato, era stato ceduto al museo americano negli anni Ottanta. Dopo essere stato contattato dall’istituto per esaminarlo, è stato l’astrofisico e divulgatore scientifico israeliano Mario Livio a rivelarne l’esistenza, commentandolo in un articolo sulla rivista “Nature”. Livio trova incredibilmente innovativo il pensiero di Churchill: «Pensa come un astrofisico di oggi. E in un’epoca in cui i politici rifiutano la scienza, è commovente ricordare un leader che si è impegnato così profondamente per questa disciplina».Una passione influenzata anche dal dibattito scientifico – e fantascientifico – dell’epoca, scrove il blog “Il Navigatore Curioso”, citando il “Corriere”. Solo un anno prima della stesura dell’articolo, nel 1938, negli Stati Uniti la “Cbs” aveva trasmesso lo sceneggiato radiofonico di Orson Welles “La guerra dei mondi”. «Tratto dall’omonimo romanzo di Herbert George Wells, raccontava uno sbarco di extraterrestri in territorio americano. A sentirlo per radio sembrò vero. E fu il panico». Churchill parte dalla domanda fondamentale: c’è vita, lassù? «Il sole è semplicemente una stella come milioni di altre nell’universo. Perché non potrebbero esistere altri sistemi planetari?». Quindi passa in rassegna le condizioni principali perché si sviluppi «la capacità di riprodursi e moltiplicarsi», arrivando a teorizzare la necessità dell’acqua allo stato liquido. Fino a individuare in Marte e Venere gli unici pianeti del sistema solare capaci di ospitare la vita.Zone abitabili, lontane dalla Terra dove in quel 1939 si addensavano le nubi del secondo conflitto mondiale. Troppo profonda era la sua conoscenza del genere umano e della storia, perché lo statista Churchill, massone, non sentisse il bisogno di immaginare “zone franche” dalla follia della guerra, in un altrove interstellare. Non sono poi così convinto, scriveva, «che noi rappresentiamo il culmine dello sviluppo nel vasto orizzonte del tempo e dello spazio». Ma Winston Churchill, indossari i panni prudenti del politico, avrebbe anche “insabbiato” alcuni avvistamenti Ufo avvenuti durante il secondo conflitto mondiale. Secondo la testimonianza del nipote di una sua guardia del corpo, il primo ministro britannico «vietò di diffondere la notizia dell’avvistamento di un Ufo da parte di un bombardiere della Raf (Royal Air Force), che rientrava da un’azione militare contro la Germania». La circostanza è stata rivelata poco tempo fa, in seguito alla pubblicazione online di file finora secretati dai National Archives, in cui è contenuta la documentazione su decine di incontri con “oggetti volanti non identificati”.Chruchill aveva timore di creare un’ondata di isteria collettiva, gettando nel panico la nazione in guerra. Ma la notizia è rimasta poi sepolta negli archivi per oltre mezzo secolo. Soltanto nel 1999, infatti, il nipote di un militare della Raf, guardia del corpo di Churchill, scrisse una serie di lettere al ministero della difesa inglese per ottenere chiarimenti su un misterioso incidente di cui il nonno era stato testimone: «Al rientro da una missione sul continente europeo occupato dalle truppe naziste, il bombardiere britannico su cui si trovava l’aviatore sarebbe stato affiancato da un Ufo sopra la Cumbria, regione a nord ovest dell’Inghilterra». Membri dell’equipaggio avrebbero pure «scattato alcune foto di un oggetto volante di natura metallica» che si era «librato in volo senza far rumore». Il nipote dell’aviatore è un fisico di Leicester, esperto di astronomia. E’ scettico: non crede che l’equipaggio della Raf sia davvero venuto a contatto con gli extraterrestri. Ipotizza invece che lo strano oggetto fosse in realtà un velivolo sperimentale, impiegato in qualche esercitazione segreta. Una potenza straniera non identificata stava testando una nuova tecnologia bellica? Ma Churchill non la pensava così: dopo aver ascoltato un esperto militare, che aveva escluso si trattasse di un missile, il premier «ordinò che il segreto sull’episodio si mantenesse almeno per 50 anni».C’è vita, là fuori? Possibile che siamo davvero soli, nell’universo? Parola di Winston Churchill, uno dei grandi leader del Novecento. Per la vastità della sua conoscenza e la varietà dei suoi interessi, il leggendario premier inglese della Seconda Guerra Mondiale continua a sorprendere. «Ufo, galassie, pianeti: undici pagine di ragionamenti sulla vita nello spazio che anticipano l’impostazione delle ricerche contemporanee», scrive il “Corriere della Sera”, citando uno scritto inedito del 1939, da allora custodito negli archivi del National Churchill Museum di Fulton, Missouri. Il testo, mai pubblicato, era stato ceduto al museo americano negli anni Ottanta. Dopo essere stato contattato dall’istituto per esaminarlo, è stato l’astrofisico e divulgatore scientifico israeliano Mario Livio a rivelarne l’esistenza, commentandolo in un articolo sulla rivista “Nature”. Livio trova incredibilmente innovativo il pensiero di Churchill: «Pensa come un astrofisico di oggi. E in un’epoca in cui i politici rifiutano la scienza, è commovente ricordare un leader che si è impegnato così profondamente per questa disciplina».
-
Twin Towers, esplosivi: le prove. Ma l’America non le vuole
Le torri del World Trade Center di New York non sarebbero state distrutte dall’impatto di due aerei di linea, ma da un’operazione di “demolizione controllata”, condotta con esplosivi militari a base di nano-termite. Un’accusa pesantissima, che costringe a rileggere sotto una nuova e drammatica luce l’attentato dell’11 Settembre 2001, confermando i sospetti iniziali sull’assoluta inattendibilità della versione ufficiale. A muoverla è l’associazione americana no-profit “Architects & Engineers for 9/11 Truth”, architetti & ingegneri per la verità sull’11 Settembre. E’ costituita dai 2.363 architetti e ingegneri statunitensi che nell’autunno 2016 hanno firmato una petizione indirizzata al Congresso Usa per riaprire una vera investigazione indipendente sulla distruzione del World Trade Center. Lo ricorda Rino Di Stefano in un’accurata ricostruzione, sul suo blog, del maxi-attentato di New York che ha innescato le guerre in Afghanistan e in Iraq, seguite dai conflitti a catena in Libia e Siria, in cui la sigla terroristica iniziale, Al-Qaeda, ha lasciato il posto alla sua filiazione diretta, Isis, in una spirale di violenza e orrore che, da allora, ha giustificato l’impiego sistematico di eserciti, impensabile prima dell’11 Settembre.Gli “Architects & Engineers for 9/11 Truth”, ricorda Di Stefano, hanno inviato un dettagliato report (“Oltre la disinformazione”) a oltre 20.000 americani: professionisti, professori, legislatori e giornalisti. L’autore del dossier è Ted Walter, alla guida di un team dal curriulum ragguardevole: tra i membri Sarah Chaplin, architetto (università londinese di Kingston), Mohibullah Durrani (docente di ingegneria e fisica al Montgomery College del Maryland), Richard Gage (fondatore dell’associazione per la verità sull’11 Settembre), Robert Korol e Graeme McQueen (Università McMaster dell’Ontario), più l’architetto Roberto McCoy e l’ingegnere Oswald Rendon-Herrero, docente dell’Università Statale del Mississippi. «Secondo la versione ufficiale rilasciata dal governo Bush – ricorda Di Stefano – le Torri Gemelle del World Trade Center di New York (entrambe di 110 piani per un’altezza di 415 metri) sono crollate a causa dell’impatto, e del conseguente incendio, provocato da due aerei di linea nel corso di un attentato portato a termine da un gruppo di terroristi mediorientali. Inoltre, anche la terza Torre, chiamata Wtc 7, un edificio di 47 piani alto 174 metri, sarebbe crollata simmetricamente su se stessa nel pomeriggio di quel giorno, in seguito all’incendio provocato dai detriti della Torre 1».Ebbene, questa soluzione non viene accettata, in quanto definita “non scientifica”, da buona parte degli architetti e degli ingegneri americani. «Questi esperti dell’edilizia dichiarano, infatti, che le tre torri siano state fatte crollare in seguito ad un’accurata operazione di demolizione controllata provocata dalla disposizione di esplosivi e altri dispositivi, fatti detonare al momento opportuno per far crollare le strutture nel modo desiderato». Non solo. «L’associazione degli Architetti & Ingegneri – continua Di Stefano – dice chiaramente che l’operazione sarebbe stata preparata prima dell’11 Settembre da specialisti della demolizione che hanno avuto libero accesso alle torri nei giorni precedenti l’attentato». L’analisi offerta è esclusivamente scientifica. La storia del crollo di edifici a completa struttura metallica (come le Torri Gemelle) è lunga almeno cento anni: durante questo periodo, non si è mai verificato che un edificio di quel genere fosse crollato a causa di un incendio. Tutti, infatti, sono stati abbattuti nel corso di operazioni di demolizione controllata. Nonostante questo dato di fatto, il Nist (National Institute of Standards and Technology), incaricato dal governo Bush di indagare sul disastroso attentato, nei risultati della sua indagine ufficiale ha scritto che ha trovato 22 casi di incendio che tra il 1970 e il 2002 hanno portato al crollo di altrettanti palazzi.Di questi 22 casi, 15 furono crolli parziali, dei quali cinque superavano i 20 piani di altezza. Analizzando invece ogni singolo caso, prosegue Di Stefano, lo studio accertò che soltanto in quattro casi si verificò un totale crollo dell’edificio interessato all’incendio, ma nessuno di questi aveva una struttura metallica, e il più alto era di appena 9 piani. «Vennero fatti anche diversi test presso il Building Research Establishment (Bre) Laboratories di Cardington, in Inghliterra, ma in nessun caso risultò che edifici con una struttura metallica potessero crollare completamente a causa di un incendio, per quanto devastante». La probabilità che un’evenienza di questo tipo potesse accadere, venne scritto, era “extremely low” (estremamente bassa). «Se poi si confrontano gli effetti di un crollo dovuto ad incendio rispetto ad un crollo da demolizione controllata, le differenze saltano agli occhi. Nel primo caso, infatti, il collasso dell’edificio è sempre parziale e si ferma ai piani inferiori. In una demolizione controllata, invece, il collasso è totale, avviene in pochi secondi e la caduta è libera, con una discesa simmetrica sul proprio asse».C’è poi il discorso delle esplosioni, sottolinea Di Stefano: mentre un crollo da incendio, se mai si dovesse verificare un’esplosione, avverrebbe là dove le fiamme si sono sviluppate, «nel crollo da demolizione controllata le esplosioni si vedono chiaramente piano per piano, all’esterno dell’edificio: ed è quello che è accaduto nelle Torri Gemelle». La probabilità di un incendio che possa aver causato il crollo totale di un edificio molto alto con una struttura metallica è estremamente basso, sostengono gli “Architetti & Ingegneri”. «Un evento di questo genere non è mai accaduto prima dell’11 Settembre 2001. D’altra parte, nella storia, ogni crollo totale di un edificio molto alto a struttura metallica, è stato causato da demolizione controllata». Secondo punto: un incendio che induce un cedimento delle strutture, di fatto, non mostra alcuna delle caratteristiche di una demolizione controllata. Inoltre, come può essere visto in ciò che è accaduto l’11 Settembre 2001, la distruzione di Wtc 1, Wtc 2 e Wtc 7 mostra «quasi tutte le caratteristiche della demolizione controllata e nessuna caratteristica del collasso provocato da un incendio». Aggiunge Edward Munyak, ingegnere specializzato in misure anti-incendio: «Un collasso globale progressivo potrebbe anche essere straordinario. Ma averne tre in un giorno va oltre ogni comprensione».Buio pesto dalle indagini ufficiali: «Per oltre un anno dal disastro, il governo Bush ha impedito qualunque investigazione su quanto accadde quel giorno», premette Di Stefano. Prima del Nist, le indagini ufficiali erano state condotte dalla Fema (Federal Emergency Management Agency). «Il primo a parlare di bombe situate all’interno delle Torri Gemelle fu l’ingegner Ronald Hamburger della Asce (American Society of Civil Engineers), che collaborava con la Fema». Tuttavia, Hamburger «si rimangiò i propri dubbi quando gli venne detto che nessuno aveva sentito esplosioni nei pressi delle Torri Gemelle». Non fu il solo a smentire la propria prima impressione: Van Romero, un esperto di esplosivi della New Mexico Tech, rilasciò un’intervista al quotidiano “Albuquerque Journal” sostenendo: «Il crollo dei palazzi è stato troppo ordinato per essere il risultato fortuito dell’impatto di aeroplani contro le strutture». E aggiunse: «La mia opinione, basata su quanto ho visto nei filmati, è che dopo che gli aerei hanno colpito il World Trade Center, ci siano stati dei congegni esplosivi dentro i palazzi che hanno causato il crollo delle torri».Il 21 settembre, dopo aver parlato con non meglio identificati “ingegneri strutturali”, Romero ritrattò tutto. Il fatto è che il fuoco dell’incendio doveva essere ufficialmente la causa del disastro, spiega Di Stefano. I dubbi, però, non mancavano. Il 29 novembre del 2001 William Baker, uno degli ingegneri della Fema, rilasciò al “New York Times” la seguente affermazione: «Noi sappiamo che cosa è accaduto alle Torri 1 e 2, ma perché la 7 è venuta giù?». Come scrissero i cronisti James Glanz ed Eric Lipton del “New York Times”, per mesi dopo l’11 Settembre gli investigatori non riuscirono a ottenere i progetti dettagliati degli edifici crollati, ad ascoltare i testimoni del disastro, a fare ispezioni a Ground Zero e ad ascoltare le voci registrate della gente che era rimasta intrappolata all’interno delle torri. Inoltre, la Fema «impedì che gli investigatori si rivolgessero al pubblico per ottenere fotografie e video che avrebbero potuto aiutarli nelle indagini».Un comportamento “incomprensibile”, da parte del governo. «Gli investigatori non riuscirono neppure a prelevare campioni dei detriti delle Torri in quanto, con una fretta sospetta, le migliaia di tonnellate di macerie vennero prelevate, caricate su alcune navi e inviate in Cina e in India per essere smaltite». Così, il 1° maggio 2002, la Fema presentò un dossier preliminare «nel quale non forniva una spiegazione definitiva per la distruzione di ogni singolo edificio», preferendo proporre la cosiddetta “teoria pancake”. Ovvero: le singole solette di cemento dei vari piani superiori, colpiti dall’aereo, sarebbero crollate sul piano inferiore determinando un effetto domino. «Il punto, però, è che il piano sottostante in condizioni normali avrebbe resistito all’impatto», obiettano i tecnici indipendenti. Se non è accaduto, «è perché è venuta meno la forza della sua resistenza». In altre parole, sintetizza Di Stefano, «quando un piano crollava su quello inferiore, alcune cariche esplosive distruggevano le colonne portanti di quella seconda soletta, innescando un effetto a catena».Il Nist si è fermato alla “teoria del pancake”, mentre per il terzo edificio, il Wtc 7, se l’è cavata sostenendo di non aver notato «alcuna prova» che il crollo dell’Edificio 7 sia stato «causato da bombe, missili o demolizione controllata». Ultimo verdetto nell’agosto 2008: edificio crollato anch’esso a causa del fuoco. A smentire il Nist è un libro firmato da due ricercatori, Frank Legge e Anthony Szamboti, il cui libro è intitolato, esplicitamente “9/11 and the Twin Towers: Sudden Collapse Initiation was Impossible”, cioè “Torri Gemelle, l’inizio del crollo repentino era impossibile”. Sostengono gli autori: «Un lento, prolungato e cedevole collasso non è stato osservato». Lo confermano i video: «La sezione più alta improvvisamente ha iniziato a cadere e a disintegrarsi». Un punto di vista tecnico largamente condiviso nel dossier degli “Architetti & Ingegneri”. Il governo sostiene che le colonne portanti delle torri si sarebbero deformate diversi minuti prima del crollo? I tecnici indipendenti smentiscono: non si sono visti affatto gli «inconfondibili segni d’avvertimento» e le «grandi deformazioni» che ci si aspetterebbe prima di un crollo.Se questo processo è avvenuto, scrivono i professionisti, allora è stato invisibile. Ed è avvenuto nel singolo istante in cui le strutture sono crollate. Secondo Kevin Ryan, un ex direttore della Underwriters Laboratories, «la diffusione dell’instabilità avrebbe richiesto molto più tempo e non risulterebbe nella caduta libera delle sezioni superiori sulle strutture inferiori». Il Nist, ricorda Di Stefano, afferma che il Wtc 1 è crollato in appena 11 secondi, mentre la Torre 2 in 9 secondi. Sempre il Nist afferma che la “caduta libera” delle Torri Gemelle è dimostrata dai video, in quanto «i piani inferiori al livello del crollo hanno offerto una minima resistenza alla tremenda energia rilasciata dalla massa dell’edificio che stava cadendo». Per gli scienziati indipendenti, autori di un primo esposto insieme a familiari delle vottime, le motivazioni del Nist «non erano scientificamente valide». L’autorità non avrebbe affatto spiegato le cause tecniche: che cosa è realmente accaduto, e perché. In altre parole, come poi lo stesso Nist fu costretto ad ammettere, gli esperti del governo «non erano in grado di fornire una spiegazione completa del crollo totale».Un’altra osservazione che mette in forte dubbio i risultati del Nist, continua Di Stefano nella sua ricostruzione, riguarda l’assoluta mancanza di decelerazione durante il crollo delle torri. «Una mancanza di decelerazione – riporta il dossier – indicherebbe con assoluta certezza che la struttura inferiore è stata distrutta da un’altra forza, prima che la parte superiore la raggiungesse». Il primo studio a mettere in dubbio i risultati ufficiali (“Il colpo mancante”) è stato firmato da Anthony Szamboti, ingegnere meccanico, e Richard Johns, professore di filosofia della scienza. La tesi: il Nist aveva calcolato male la resistenza delle colonne all’interno delle Torri Gemelle. Successivi studi hanno accertato che «la costante accelerazione e la mancanza di una osservabile decelerazione, per se stesse, costituiscono una irrefutabile evidenza che siano stati usati esplosivi per distruggere le Torri Gemelle». Inoltre, una delle caratteristiche più evidenti della distruzione delle Twin Towers è stata la quasi totale polverizzazione del cemento. L’allora governatore di New York, George Pataki, scrisse nella sua relazione sul disastro: «Non c’è cemento. C’è veramente poco cemento. Tutto quello che si vede è alluminio e acciaio. Il cemento è stato polverizzato».Oltre a questo, continua Di Stefano, le strutture d’acciaio delle torri erano quasi interamente smembrate. A parte alcuni muri esterni ancora in piedi alla base di ogni edificio, virtualmente tutti gli scheletri d’acciaio erano rotti in diversi pezzi, con la parte centrale separata dalle colonne esterne. «Che cosa potrebbe mai spiegare la quasi totale polverizzazione di circa 3 milioni di metri quadrati di solette di cemento e il quasi totale smembramento di 220 piani di struttura d’acciaio? Il Nist non fornisce alcuna spiegazione e la sola forza di gravità non appare plausibile. Anche perché, viene spiegato nel dossier, l’energia necessaria per polverizzare il cemento e smembrare le strutture d’acciaio è calcolabile in 1.255 gigajoule. Una misura decisamente lontana dagli stimati 508 gigajoule di potenziale energia gravitazionale contenuta negli edifici». L’enorme nuvola di cemento polverizzato che ha sommerso Manhattan «diventa ancora più incomprensibile se si pensa che il crollo è avvenuto “essenzialmente in caduta libera”». Secondo il dottor Steven Jones, ex professore di fisica presso la Brigham Young University, «il paradosso è facilmente risolvibile con l’ipotesi della demolizione esplosiva, là dove gli esplosivi facilmente rimuovono i materiali dei piani inferiori, incluse le colonne portanti, permettendo di fatto un crollo in caduta libera».Altro fattore “inspiegabile”, il lancio di materiali verso l’alto e lateralmente, piuttosto distanti dal perimetro degli edifici. Secondo la Fema, i materiali dei due edifici sono stati lanciati fino a oltre 150 metri dalla base di ogni torre. In video prodotto dal fisico David Chandler, si nota l’espulsione esplosiva di materiali dalla Torre 1, «continui e molto estesi», anche alla velocità di 170 chilometri orari. «Il palazzo – afferma – è stato progressivamente distrutto, a partire dalla cima, da ondate di esplosioni che hanno creato una spessa coltre di detriti». E aggiunge: «Insieme alla nuvola di polvere vi sono pesanti travi e intere sezioni di frammenti d’acciaio che sono stati lanciati fuori dal palazzo: alcuni sono finiti così lontano, come due campi di football dalla base della torre». A chi sostiene che l’espulsione “esplosiva” di quei frammenti sia stata un semplice prodotto del crollo, il professor Chandler risponde: «Non abbiamo visto isolate travi lanciate all’esterno. Noi abbiamo visto la maggior parte della massa dell’edificio ridotta in piccoli pezzi di pietrisco e polvere fina, espulsa esplosivamente in tutte le direzioni».Secondo lo scienziato Kevin Ryan, l’espulsione esplosiva dei materiali dalle Torri Gemelle è spiegabile soltanto come «scoppi ad alta velocità di detriti espulsi da precisi punti degli edifici». L’ipotesi della demolizione, afferma Ryan, «suggerisce che questi scoppi di detriti siano il risultato della detonazione di cariche esplosive piazzate in punti chiave della struttura, per facilitare la rimozione della resistenza». E specifica: «Ognuno di questi scoppi era costituito da un’improvvisa e secca emissione che appariva provenire da un preciso punto, espellendo approssimativamente tra i 15 e i 30 metri dal lato del palazzo, in una frazione di secondo». Dai fotogrammi estratti da un video, «possiamo stimare che uno di questi scoppi è durato complessivamente 0,45 secondi: questo ci fornisce una velocità media di circa 52 metri al secondo». Rileva Di Stefano: «E’ significativo che il Nist non abbia nemmeno parlato di questi scoppi nella sua relazione finale, mentre nelle sue “Faq” cita gli scoppi come “sbuffi di fumo”, sostenendo che “la massa crollante del palazzo aveva compresso l’aria sottostante – quasi come l’azione di un pistone – forzando il fumo e i detriti fuori dalle finestre mentre i piani inferiori crollavano sequenzialmente».Secondo Ryan, la spiegazione del Nist non è valida. «I piani delle torri – sostiene lo scienziato – non erano containers chiusi e altamente pressurizzati in grado di generare alte pressioni abbastanza forti da far scoppiare le finestre. La massa crollante avrebbe dovuto agire come un disco piatto che esercita una pressione uniforme su tutti i punti. Ma le sezioni superiori, esse stesse disintegrate come si vede nei video, non possono esercitare una pressione uniforme». Anche prendendo in considerazione un ipotetico perfetto container e una pressione uniforme, usando la “Legge del Gas Ideale” per calcolare il cambiamento della pressione, «possiamo determinare che la pressione dell’aria non potrebbe aumentare abbastanza per far scoppiare le finestre». Tanto più che «gli scoppi contenevano detriti polverizzati, non fumo e polvere». Inoltre, «i detriti del palazzo da 20 a 30 piani sotto la zona del crollo, non potevano essere polverizzati ed espulsi lateralmente dalla pressione dell’aria».Oltre al ricco materiale fotografico e televisivo riguardante la distruzione delle Torri Gemelle, continua Rino Di Stefano, bisogna considerare anche il numero delle testimonianze raccolte dai vigili del fuoco (Fdny, New York Fire Department) nella loro relazione, più di 10.000 pagine di dichiarazioni giurate di oltre 500 pompieri. In più, come documentato dal dottor Graeme McQueen, ben 156 testimoni oculari hanno parlato esplicitamente delle esplosioni che hanno visto e sentito durante il crollo delle torri. Tra questi, 121 sono pompieri e 14 sono agenti della polizia portuale (Port Authority Police Department). Altri 13 sono giornalisti presenti sul posto. In caso di normali incendi, si registrano quattro tipi di esplosioni: da vapore, da impianti elettrici, da fumo e da combustione. I vigili del fuoco di New York «sanno riconoscere questi fenomeni, anche perché sono irregolari e certamente non sincronizzati». Invece, nel caso delle Torri Gemelle, «i testimoni hanno parlato di esplosioni precise e distanziate di pochi secondi l’una dall’altra», tanto che alcuni si sono spinti ad affermare che «le Torri Gemelle sono state distrutte dalle esplosioni».«Si è arrivati al punto che è infuriata una discussione sulla percezione che abbiamo avuto circa il fatto che il palazzo sembrava fosse stato fatto saltare in aria con delle cariche», racconta Cristopher Fenyo in un’intervista rilasciata al “Wtc Task Force”. «In effetti, ho pensato che stava esplodendo», ricorda John Coyle, un altro testimone: «Questo è ciò che ho pensato in seguito per diverse ore. Penso che chiunque a quel punto pensasse che quei palazzi fossero esplosi». Nonostante il Nist si ostini ad ignorare le testimonianze, sostenendo invece che non ci siano prove di esplosioni nelle Torri Gemelle, il professor McQueen, riferendosi alla relazione dei vigili del fuoco di New York, afferma: «Abbiamo avuto 118 testimoni su 503 intervistati. Circa il 23% del gruppo sono testimoni delle esplosioni. A mio avviso, questa è un’alta percentuale di testimoni, specialmente considerando che a queste persone non sono state rivolte domande circa le esplosioni e, nella maggior parte dei casi, neanche sono state poste domande circa il crollo delle torri». In conclusione, il dossier sostiene che il Nist, decidendo di non indagare a fondo su quelle che sono state le vere cause del crollo delle Torri Gemelle, ha condotto una “piccola analisi” sul comportamento tenuto dalle strutture edilizie, ignorando volutamente qualunque prova ne potesse derivare. Di conseguenza, il Nist non è riuscito a fornire convincenti prove scientifiche.Poi c’è il “mistero” del crollo, quasi simmetrico dell’Edificio 7, a parecchia distanza dalle due torri colpite dagli aerei. La terza torre, ricorda Di Stefano, è crollata su se stessa intorno alle 17 dell’11 settembre 2001, senza essere stata colpita da nessun jet o comunque coinvolta nel crollo delle altre due torri principali. Per il Nist, l’evento è normale e rientra nella logica delle cose. L’incendio si sarebbe esteso anche al terzo edificio del complesso, indebolendone le strutture e facendolo crollare. «Oltre alla spiegazione verbale, il Nist non ha fornito alcuna motivazione strutturale o scientifica». Secondo David Chandler, docente di fisica, questa spiegazione non regge. «La caduta libera – afferma – non è compatibile con qualunque scenario naturale che abbia a che fare con la debolezza, la deformazione o la frantumazione delle strutture, in quanto in ognuno di questi scenari ci sarebbero grandi forze di interazione con le sottostanti strutture, che avrebbero fatto rallentare la caduta… Il crollo naturale risultante da caduta libera, semplicemente non è plausibile». Per Chandler, il crollo del Wtc 7 è la prova lampante della demolizione controllata. Il Nist obietta: non vi fu vera “caduta libera”, poiché 18 piani dell’edificio sono crollati in 5,4 secondi, cioè con un margine del 40% più lungo (circa 1,5 secondi) rispetto al tempo stimato della caduta libera. Ma Chandler taglia corto: «Il crollo non è avvenuto per il cedimento di una colonna, o di alcune colonne o di una sequenza di colonne. Tutte le 24 colonne interne e le 58 perimetrali sono state rimosse simultaneamente nell’arco di otto piani e in una frazione di secondo. In questo modo la metà superiore dell’edificio è rimasta intatta».Così come le Torri Gemelle, anche la struttura metallica dell’Edificio 7 è stata completamente smembrata. E i detriti hanno formato un compatto cumulo di rifiuti lungo il perimetro del palazzo. Anche in questo caso, sospetta Di Stefano, lo smembramento dell’edificio si può spiegare soltanto con la demolizione controllata. Lo spiegava già nel 1996 Stacey Loizeaux, della Controlled Demolition Inc., azienda specializzata: i demolitori agiscono da due a sei piani, a seconda dell’altezza del palazzo, per colpire le colonne portanti e far crollare l’edificio su se stesso, riducendo anche la grandezza degli eventuali detriti. Inoltre, più che di “esplosione” si dovrebbe parlare di “implosione”, in quanto il palazzo deve crollare senza uscire dal proprio perimetro. Come, appunto, è accaduto nel caso del Wtc 7. Altra omissione del Nist, le testimonianze: l’agenzia governativa sostiene che non esistano, ma è smentita da svariati video. «Improvvisamente ho guardato verso l’alto e ho visto che il palazzo crollava su se stesso», racconta Craig Bartmer, ex agente della polizia di New York. «Ho cominciato a correre e per tutto il tempo ho sentito “thum, thum, thum, thum, thum”. Credo di riconoscerla, un’esplosione, quando la sento».Conferma un volontario, Kevin McPadden: «Abbiamo sentito delle esplosioni, come ba-booom! Era un suono distinto, ba-boom. Si poteva sentire un rombo nel terreno, come se ci si volesse aggrappare a qualcosa». La reporter televisiva Ashleigh Banfield della “Msnbc” era sul posto. Nel servizio in diretta a un certo punto si sente una forte esplosione e lei dice: «Oh, mio Dio… Ci siamo». Circa 7 secondi dopo, il Wtc 7 è crollato. E appena un’ora dopo la distruzione delle Torri Gemelle, le autorità hanno cominciato a parlare del crollo dell’Edificio 7 con un alto grado di sicurezza e di precisione. «Le loro anticipazioni erano talmente certe – scrive Di Stefano – che alcuni giornali hanno scritto del crollo del Wtc 7 ancora prima che avvenisse». Una previsione azzeccata? Non esattamente: «Quando i filmati video furono esaminati con calma, ci si accorse che la notizia era basata su una precisa conoscenza dei fatti. Dal momento che gli ingegneri si definivano sbalorditi per quanto era accaduto al Wtc 7, come facevano le autorità a “predire” un evento che neanche gli ingegneri sapevano spiegarsi quattro anni e mezzo dopo?». Del resto, aggiunge Di Stefano, «ci sono prove inconfutabili di esplosioni avvenute nell’edificio: durante una ripresa televisiva, la “Cnn” ha registrato l’inconfondibile suono di un’esplosione proveniente dal Wtc 7 e l’urlo di un operaio che avvertiva come l’edificio “stava esplodendo”, pochi secondi prima del crollo. Nonostante tutto questo, il Nist si è rifiutato di prendere in considerazione qualunque prova».Secondo la Nfpa 921, cioè la guida ufficiale americana le cui norme devono essere seguite in caso di indagini inerenti eventuali incendi o esplosioni, è necessario valutare tutte le possibili fonti per accertare le cause dei disastri sui quali si indaga. Una di queste fonti, da prendere in considerazione nell’eventualità di fusione dell’acciaio, è la termite. Si tratta – spiega Di Stefano – di una miscela esplosiva altamente incendiaria, a base di polvere di alluminio e triossido di ferro, in grado di sciogliere istantaneamente l’acciaio. Normalmente, la termite viene usata per saldare i binari e per usi militari (all’interno delle granate). «Ebbene, per evitare di parlare della termite nel caso dell’11 Settembre, il Nist si è rifiutato di adottare la consueta procedura della Nfpa 921», secondo “Architetti e Ingegneri” «negando, ignorando o accampando spiegazioni di carattere speculativo, non basate su analisi di tipo scientifico». E questo, afferma il dossier, «in quanto non esiste alcuna plausibile e logica spiegazione della presenza di reazioni chimiche ad alta temperatura, se non quella di una demolizione controllata, usando meccanismi a base di termite».Secondo il Nist, i rivoli di metallo fuso che fuoriuscivano già dalla Torre 2 prima del crollo totale, erano di alluminio fuso. «C’è un problema, però. Come si vede distintamente dai video sul disastro di New York, i rivoli di metallo fuso che fuoriuscivano dalle Torri Gemelle erano di un giallo-fuoco brillante, mentre l’alluminio fuso è di colore argenteo». Come spiega il dottor Steven Jones nel suo “Why Indeed Did the Wtc Buildings Completely Collapse” (Perché davvero gli edifici del Wtc sono completamente crollati), «il color giallo implica un metallo fuso con una temperatura approssimativa di 1000 °C, evidentemente al di sopra di quella che l’incendio da idrocarburi avvenuto all’interno delle Torri avrebbe potuto produrre». Inoltre, «il fatto che il metallo liquido tendesse ad una sfumatura color arancio in prossimità del terreno esclude ulteriormente la presenza di alluminio». Non appena si è reso conto che la sua posizione era indifendibile, il Nist ha cercato di correre ai ripari sostenendo che «il color arancio era dovuto al fatto che l’alluminio liquido si era mescolato con solidi materiali organici, cambiando colore». Ma Jones smentisce categoricamente: «L’alluminio fuso non altera affatto il suo colore».A complicare la situazione, ci sono altre testimonianze. Leslie Robertson, uno dei progettisti delle Torri Gemelle, racconta: «Eravamo al livello B-1 e uno dei vigili del fuoco ha detto: “Credo che questo dovrebbe interessarvi”. E ci ha mostrato un grosso blocco di cemento sul quale scorreva un piccolo rivo di acciaio fuso». Ma non è l’unico testimone. Il capitano Philip Ruvolo ricorda la scena a cui assistette insieme ad altri vigili del fuoco: «Se guardavi sotto, vedevi acciaio fuso, acciaio fuso che scorreva giù, lungo i canali delle inferriate, come se fossimo stati in una fonderia, come lava». Secondo il Nist, il più alto grado di temperatura raggiunto nelle Torri in fiamme è stato di 1.100 gradi. Ma l’acciaio delle strutture non comincia a fondere con meno di 1.482 gradi. Come si spiega, dunque, la presenza del metallo fuso? «Il Nist semplicemente non risponde, ignorando il problema». Altro guaio: come riportato da James Glanz e Eric Lipton sul “New York Times” già nel febbraio del 2002, i detriti delle Torri Gemelle (analizzati dal Worcester Polytechnic Institute) hanno rivelato la presenza di residui di zolfo combinatosi con l’acciaio, «formando un composto che si scioglie a temperature più basse». Com’era potuto accadere? La risposta, per Steven Jones, sta proprio nella termite, l’esplosivo della demolizione controllata: quel composto infiammabile, dice, «viene prodotto quando lo zolfo è aggiunto alla termite, e questo fa in modo che l’acciaio fonda a una temperatura molto più bassa e più velocemente, grazie alla solforazione e all’ossidazione dell’acciaio attaccato».Ancora una volta, aggiunge Di Stefano, il Nist ha ignorato l’evidenza, rispondendo che di fatto non era più possibile analizzare rottami di acciaio provenienti dall’Edificio 7, in quanto tutti i detriti erano stati portati via da un pezzo, già all’inizio delle indagini. La situazione si aggrava ulteriormente, con vari studi tecnici: il primo, “The Rj Lee Report” (maggio 2004), rileva nella polvere «sfere di ferro e vescicole di particelle di silicio», prodotte a temperature altissime. Il microscopio elettronico ha individuato «sferette di ferro» nella polvere della Torre 2 (“The Usgs Report, prodotto nel 2005 dall’Us Geological Survey). Un terzo studio, del 2008, prodotto da otto scienziati, ha confermato la presenza di sfere di ferro, più silicati e sfere disciolte di molibdeno, materiale che fonde a 2.623 gradi. Ma le sorprese non sono finite, continua Di Stefano. Nell’aprile del 2009, un gruppo di scienziati guidati dal dottor Niels Harrit, un esperto di nano-chimica che ha insegnato per oltre 40 anni all’Università di Copenaghen, ha pubblicato sulla rivista internazionale “Open Chemical Physics Journal” un articolo che denuncia la presenza di “materiali termitici attivi” scoperti nella polvere della catastrofe dell’11 Settembre. «Questo studio ha rivelato la presenza di nano-termite (e cioè una specie di termite esplosiva progettata a livello di nano-particelle) nella polvere seguita al disastro».I campioni da analizzare furono prelevati in due riprese: il primo venti minuti dopo il crollo del Wtc 1, gli altri due nel giorno successivo. Lo studio giunse alla conclusione che i grattacieli di Mahnattan, le due Torri Gemelle più l’Edificio 7, «furono tutti distrutti da demolizione controllata e altri materiali incendiari». Inutile dire che, anche questa volta, le autorità hanno ignorato i ricercatori indipendenti. «In tutti i modi il Nist ha provato a ribattere alla pioggia di critiche di chi portava prove e fatti a dimostrazione che le tre Torri siano state intenzionalmente distrutte con esplosivi», conclude Di Stefano. «Il problema è che, in realtà, non ci sono prove a supporto della teoria che gli incendi abbiano fatto crollare edifici a struttura metallica come quelli». Il Nist ha anche fornito modelli digitali per dimostrare le proprie tesi, «ma sono sempre mancate le prove scientifiche per poter affermare senza possibilità di dubbio che, in effetti, siano proprio stati gli incendi ad abbattere quei giganti della moderna edilizia e ad uccidere quasi tremila persone». Servirebbe una nuova indagine, ma c’è un problema a monte. Enorme: «L’americano medio non può e non vuole accettare l’idea che il proprio governo sia implicato in un atto criminale di quelle proporzioni». L’unica certezza è che le 2.974 vittime degli attentati (2.999 se si calcolano anche quelle morte in seguito) restano ancora in attesa di giustizia: di fronte all’America, e all’umanità intera.Le torri del World Trade Center di New York non sarebbero state distrutte dall’impatto di due aerei di linea, ma da un’operazione di “demolizione controllata”, condotta con esplosivi militari a base di nano-termite. Un’accusa pesantissima, che costringe a rileggere sotto una nuova e drammatica luce l’attentato dell’11 Settembre 2001, confermando i sospetti iniziali sull’assoluta inattendibilità della versione ufficiale. A muoverla è l’associazione americana no-profit “Architects & Engineers for 9/11 Truth”, architetti & ingegneri per la verità sull’11 Settembre. E’ costituita dai 2.363 architetti e ingegneri statunitensi che nell’autunno 2016 hanno firmato una petizione indirizzata al Congresso Usa per riaprire una vera investigazione indipendente sulla distruzione del World Trade Center. Lo ricorda Rino Di Stefano in un’accurata ricostruzione, sul suo blog, del maxi-attentato di New York che ha innescato le guerre in Afghanistan e in Iraq, seguite dai conflitti a catena in Libia e Siria, in cui la sigla terroristica iniziale, Al-Qaeda, ha lasciato il posto alla sua filiazione diretta, Isis, in una spirale di violenza e orrore che, da allora, ha giustificato l’impiego sistematico di eserciti, impensabile prima dell’11 Settembre.
-
Indagine-choc: fibre di plastica nell’acqua del rubinetto
Quanta plastica beviamo? Molte ricerche ormai mostrano la presenza di fibre plastiche, praticamente ovunque: negli oceani, nelle acque dolci, nel suolo e nell’aria. E oggi uno studio americano prova l’esistenza di una contaminazione da plastica persino nell’acqua corrente domestica, spiegano Dan Morrison e Chris Tyree in un report su “Repubblica”. «Dai rubinetti di casa di tutto il mondo, da New York a Nuova Delhi, sgorgano fibre di plastica microscopiche», secondo una ricerca originale di “Orb Media”, un sito di informazione no-profit di Washington. Insieme ai ricercatori dell’università statale di New York e dell’università del Minnesota, “Orb Media” ha testato 159 campioni di acqua potabile di città grandi e piccole nei cinque continenti. L’83% dei campioni contiene microscopiche fibre di plastica: compresa l’acqua che esce dai rubinetti del Congresso degli Stati Uniti. E se la plastica è nell’acqua di rubinetto, probabilmente sarà presente anche nei cibi preparati con l’acqua, come pane, pasta, zuppe e latte artificiale. «È una notizia che dovrebbe scuoterci», dice Muhammad Yunus, Premio Nobel per la Pace 2006. «Sapevamo che questa plastica tornava da noi attraverso la catena alimentare. Ora scopriamo che torna da noi attraverso l’acqua potabile. Abbiamo una via d’uscita?».Yunus, il fondatore della banca di microcredito Grameen Bank, progetta di lanciare un’iniziativa contro lo spreco di plastica nei prossimi mesi. Ricerche sempre più numerose, aggiungono Morrison e Tyree, dimostrano la presenza di microscopiche fibre di plastica negli oceani, nelle acque dolci, nel suolo e nell’aria: «Questo studio è il primo a provare l’esistenza di una contaminazione da plastica nell’acqua corrente di tutto il mondo». Attenzione: «Gli scienziati non sanno in che modo le fibre di plastica arrivino nell’acqua di rubinetto, o quali possano essere le implicazioni per la salute. Qualcuno sospetta che possano venire dai vestiti sintetici, come gli indumenti sportivi, o dai tessuti usati per tappeti e tappezzeria. Il timore è che queste fibre possano veicolare sostanze chimiche tossiche, come una sorta di navetta che trasporta sostanze pericolose dall’acqua dolce al corpo umano». Negli studi su animali, «era diventato chiaro molto presto che la plastica avrebbe rilasciato queste sostanze chimiche, e che le condizioni dell’apparato digerente avrebbero facilitato un rilascio piuttosto rapido», racconta Richard Thompson, direttore della ricerca all’università di Plymouth, Gran Bretagna.Dalle osservazioni sulla fauna selvatica e l’impatto che sta avendo questa cosa abbiamo dati a sufficienza per essere preoccupati, aggiunge Sherri Mason, una delle pioniere della ricerca sulla microplastica, che ha supervisionato lo studio della “Orb Media”: «Se sta avendo un impatto sulla fauna selvatica, come possiamo pensare che non avrà un impatto su di noi?». La contaminazione, scrive “Repubblica”, sfida le barriere geografiche e di reddito: il numero di fibre trovate nel campione di acqua di rubinetto prelevato nei bagni del Trump Grill, il ristorante della Trump Tower a New York, è uguale a quello dei campioni prelevati a Quito, la capitale dell’Ecuador. “Orb Media” ha rilevato fibre di plastica persino nell’acqua in bottiglia, e nelle case in cui si usano filtri per l’osmosi inversa. Le autorità sono spiazzate: gli Usa non hanno nemmeno inserito le particelle di plastica nella lista delle possibili sostanze contaminanti rintracciabili nell’acqua di rubinetto. Dei 33 campioni d’acqua prelevati in varie città degli Stati Uniti, il 94% è risultato positivo alla presenza di fibre di plastica. E’ la stessa media dei campioni raccolti a Beirut, Libano. Fra le altre città monitorate figurano Delhi (India, 82%), Kampala (Uganda, 81%), Giacarta (Indonesia, 76%), nonché Quito (Ecuador, 75%) e varie città europee (72%).La ricerca, precisa “Repubblica”, è stata progettata dal dipartimento di geologia e scienza ambientale dell’università statale di New York, e i test sono stati eseguiti dalla ricercatrice Mary Kosuth, della scuola di salute pubblica dell’università del Minnesota. «E’ la prima indagine a livello globale sull’inquinamento da plastica nell’acqua di rubinetto», afferma la Kosuth. I risultati rappresentano «un primo sguardo sulle conseguenze dell’uso e dello smaltimento della plastica». I campioni sono stati raccolti da scienziati, giornalisti e volontari addestrati, seguendo i protocolli stabiliti. «Questa ricerca si limita a scalfire la superficie, ma ha l’aria di essere una questione molto seria», ammette Hussan Hawwa, amministratore delegato della società di consulenze ambientali Difaf, che si è occupata della raccolta dei campioni in Libano. «La ricerca sulle conseguenze per la salute umana è appena agli inizi», dice Lincoln Fok, studioso dell’ambiente presso l’Education University di Hong Kong. In ogni caso, la ricerca «solleva più interrogativi di quelli che risolve», secondo Albert Appleton, già commissario alle acque del Comune di New York. «C’è un bioaccumulo? Influisce sulla formazione delle cellule? È un vettore per la trasmissione di agenti patogeni nocivi? Se si scompone, che cosa produce?».Il mondo, riassume “Repubblica”, sforna ogni anno 300 milioni di tonnellate di plastica. Oltre il 40% di questa massa «viene usato una volta soltanto, a volte per meno di un minuto, e poi buttato via». Ma la plastica «rimane nell’ambiente per secoli». Secondo un recente studio, dagli anni ‘50 a oggi sono stati prodotti in tutto il mondo oltre 8,3 miliardi di tonnellate di plastica. Sono migliaia di miliardi le scorie plastiche disseminate sulla superficie dell’oceano: fibre di plastica sono state ritrovate «dentro i pesci venduti nei mercati, nel Sudest asiatico, nell’Africa orientale e in California». E la plastica dal rubinetto di casa? «È una cosa brutta: si sentono così tante cose sul cancro», ha detto Mercedes Noroña, 61 anni, dopo essere stata informata che un campione di acqua prelevato dal suo rubinetto di casa, a Quito, conteneva fibre di plastica. «Forse esagero, ma ho paura delle cose che ci beviamo con l’acqua». Non è sola, nella sua inquietudine: un recente sondaggio Gallup svela che il 63% degli americani è «fortemente preoccupato» per l’inquinamento dell’acqua potabile.Tra le fonti inquinanti, aggiungono Dan Morrison e Chris Tyree, c’è anche l’abbigliamento: gli indumenti sintetici emettono fino a 700.0006 fibre a lavaggio, ma gli impianti di depurazione delle acque ne intercettano solo la metà (il resto finisce nei corsi d’acqua, per un totale di 29 tonnellate di microfibre di plastica al giorno, secondo l’università di Plymouth). E poi l’aria: uno studio del 2015 calcolava che a Parigi, ogni anno, si depositano sulla superficie fra le 3 e le 10 tonnellate di fibre sintetiche. Laghi e fiumi possono essere contaminati da deposizioni atmosferiche cumulative, afferma Johnny Gasperi, professore dell’università di Parigi-Est Créteil: «Nelle ricadute atmosferiche è presente un’enorme quantità di fibre». Questo, osserva “Repubblica”, potrebbe spiegare perché si trovano fibre di plastica anche in sorgenti idriche sperdute, in tutto il mondo. Ma la “Orb” ha trovato fibre di plastica anche in acque di rubinetto provenienti da falde sotterranee. Tante le incognite: quanto è grande il pericolo se le fibre di plastica assorbono “perturbatori endocrini” che alterano i nostri sistemi ormonali? «Non abbiamo mai veramente preso in considerazione questo rischio prima», ammette Tamara Galloway, ecotossicologa all’università di Exeter.Le città stanno appena cominciando a fare i conti con l’inquinamento da fibre di plastica e con il ruolo che giocano in tutto questo le lavatrici di casa, continua il report su “Repubblica”. Rallentare il processo di trattamento delle acque reflue consentirebbe di intercettare una maggior quantità di fibre di plastica, dice Kartik Chandran, ingegnere ambientale della Columbia University. Ma potrebbe anche accrescere i costi. «I grandi marchi dell’abbigliamento dicono che stanno lavorando per migliorare i loro tessuti sintetici in modo da ridurre l’inquinamento da fibre. E sta venendo fuori tutta una serie di filtri, di prodotti da inserire nel cestello della lavatrice durante il lavaggio e di altri prodotti per ridurre le emissioni di fibre durante i lavaggi. Test indipendenti mostreranno quale di questi metodi è più efficace». Sherri Mason, la prima ricercatrice a scoprire la forte presenza di inquinamento da microplastica nella regione americana dei Grandi Laghi, si dice «sconvolta» dai risultati dei test sull’acqua potabile: «La gente mi chiedeva sempre: “Ma queste cose ci sono anche nell’acqua che beviamo?”. Io rispondevo sempre che non lo sapevo». Ora invece, purtroppo, lo sa.Quanta plastica beviamo? Molte ricerche ormai mostrano la presenza di fibre plastiche, praticamente ovunque: negli oceani, nelle acque dolci, nel suolo e nell’aria. E oggi uno studio americano prova l’esistenza di una contaminazione da plastica persino nell’acqua corrente domestica, spiegano Dan Morrison e Chris Tyree in un report su “Repubblica”. «Dai rubinetti di casa di tutto il mondo, da New York a Nuova Delhi, sgorgano fibre di plastica microscopiche», secondo una ricerca originale di “Orb Media”, un sito di informazione no-profit di Washington. Insieme ai ricercatori dell’università statale di New York e dell’università del Minnesota, “Orb Media” ha testato 159 campioni di acqua potabile di città grandi e piccole nei cinque continenti. L’83% dei campioni contiene microscopiche fibre di plastica: compresa l’acqua che esce dai rubinetti del Congresso degli Stati Uniti. E se la plastica è nell’acqua di rubinetto, probabilmente sarà presente anche nei cibi preparati con l’acqua, come pane, pasta, zuppe e latte artificiale. «È una notizia che dovrebbe scuoterci», dice Muhammad Yunus, Premio Nobel per la Pace 2006. «Sapevamo che questa plastica tornava da noi attraverso la catena alimentare. Ora scopriamo che torna da noi attraverso l’acqua potabile. Abbiamo una via d’uscita?».
-
Quelli delle cause vinte: Davide ha battuto Golia, 80 volte
Nel libro Michele Boato e altri autori raccontano 80 storie in cui i Lillipuziani dei comitati e delle associazioni ambientaliste sono riusciti nell’intento. Intenti, che sembravano impossibili, di impedire enormi disastri, speculazioni ed inquinamenti. Nei primi mesi del 2017 Michele Boato ha censito quasi 200 storie di battaglie ambientali vinte. Ambientalista di ferro, responsabile del Ecoistituto “Alexander Langer” del Veneto, Michele Boato a raccolto 80 di queste “cause vinte”, casi in cui il bene comune è riuscito a prevalere sugli interessi di qualche cricca che punta solo a fare soldi, alla faccia della salute delle persone e dell’ambiente. Si tratta di casi localizzati nel Veneto e situazioni fuori dal Veneto che Michele Boato ha conosciuto personalmente. Metà delle storie racconta lui, l’altra metà li raccontano persone protagoniste dei fatti e osservatrici dirette, per lo più attivisti di iniziative e associazioni ambientaliste.Si va dall’abbattimento del Fuenti (l’ecomostro di Amalfi) alla chiusura della base missilistica di Comiso (in Sicilia), passando per i due referendum nazionali contro il nucleare, i veleni chimici a Marghera, i 1.000 giorni di digiuno contro l’inceneritore di Trento e gli 880 di presidio contro la discarica di Buscate, il secolo di lotte per risanare la Val Bormida, i “100mila passi” dal Grappa a Venezia che hanno salvato la valle di Schievenin. Alcune vittorie risalgono già agli anni ’80, ma la maggior parte di verificata negli anni 2000-2017. Un esempio: all’inizio del 2017 la lotta di tanti cittadini contro la costruzione di crematori ha avuto uno sbocco positivo nel Consiglio regionale del Veneto. I crematori sono molto inquinanti, pochi lo sanno, pure quello di Bolzano. L’unico esempio riportato dal Sudtirolo è quello del referendum sui pesticidi di Malles del 2014, una causa purtroppo non ancora vinta del tutto.È una lunga storia di vittorie, balsamo per l’anima ambientalista e conferma impressionante che la resistenza e l’impegno pagano. A parte tante sconfitte, le cause vinte ci sono e questo va detto ad alta voce. Aggiungerei: ogni tanto la popolazione interessata farebbe anche bene di ringraziare gli ambientalisti battaglieri e volontari che spesso restano poi anonimi. L’attenzione principale, più ancora del tema della lotta in questo lavoro, viene messa sul come si è arrivati alla vittoria, cioè sugli strumento che hanno portato a vincere. Ad alcuni di questi mezzi è dedicato l’importante capitolo “cassetta degli attrezzi”, quali l’esposto, la denuncia, il ricorso al Tar e alla Corte dei Conti, l’interrogazione, l’interpellanza, la mozione, l’ordine del giorno, referendum locali e nazionali, statuti e regolamenti comunali e via dicendo. Poi ancora altri strumenti di lotta: manifestazioni, flash mob, raccolta di firme, boicottaggio, fino al blocco stradale. Così il libro, oltra ad una documentazione molto viva di cause vinte, è anche un manualetto sui metodi di lotta nonviolenti per difendere l’ambiente. Tutto sommato: una pubblicazione preziosa, un libro incoraggiante, di alto valore, ma basso prezzo (5 euro).(Thomas Benedikter, “Ambiente e beni comuni: quando Davide la spunta contro Golia”, presentazione del libro “Quelli delle cause vinte”, pubblicata su “Il Cambiamento” il 31 luglio 2017. Benedikter è un ricercatore economico-sociale e collaboratore dell’Accademia Europea di Bolzano Eurac. Il libro: Michele Boato, “Quelli delle cause vinte”, Libri di Gaia, 250 pagine, 5 euro, prefazione di Marinella Correggia. Da ordinare anche presso l’autore: micheleboato@tin.it).Nel libro Michele Boato e altri autori raccontano 80 storie in cui i Lillipuziani dei comitati e delle associazioni ambientaliste sono riusciti nell’intento. Intenti che sembravano impossibili, di impedire enormi disastri, speculazioni ed inquinamenti. Nei primi mesi del 2017 Michele Boato ha censito quasi 200 storie di battaglie ambientali vinte. Ambientalista di ferro, responsabile dell’Ecoistituto “Alexander Langer” del Veneto, Michele Boato ha raccolto 80 di queste “cause vinte”, casi in cui il bene comune è riuscito a prevalere sugli interessi di qualche cricca che punta solo a fare soldi, alla faccia della salute delle persone e dell’ambiente. Si tratta di casi localizzati nel Veneto e situazioni fuori dal Veneto che Boato ha conosciuto personalmente. Metà delle storie le racconta lui, l’altra metà le raccontano persone protagoniste dei fatti e osservatrici dirette, per lo più attivisti di iniziative e associazioni ambientaliste.
-
Sos, rischiamo un’estinzione di massa: la sesta, sulla Terra
Si avvicina il rischio di un’estinzione di massa, la sesta nella storia della Terra. Lo affermano Daniele Conversi e Luis Moreno, commentando una recentissima ricerca statunitense: secondo la prestigiosa Pnas, “Proceedings of the National Academy of Sciences of the United States of America”, per la sesta volta, saremmo nell’imminenza di un evento chiamato “biological annihilation”, annientamento biologico. Miliardi di animali sono stati eliminati negli ultimi decenni, conseguenza diretta e indiretta dell’attività umana. Come se non bastassero gli allarmi che ci giungono da tutti i fronti, le ricerche confermano un’unica tendenza: l’impatto del consumo di massa promosso dal neoliberismo imperante sta alterando la superficie terrestre in maniera irreversibile, fino a cambiare lo stesso suolo su cui poggiamo i piedi. Nel corso dell’ultimo secolo, con l’uso generalizzato dell’automobile, ci si è adagiati sullo sfruttamento dei combustibili fossili attraverso un aumento massiccio dei consumi, promuovendo inoltre una divisione internazionale del lavoro tra regioni destinate all’estrazione e altre destinate all’industrializzazione. Tutto questo, dicono i ricercatori, sta semplicemente portando al collasso l’ecosistema terrestre.Resa popolare dal Nobel per la chimica Paul Crutzen per designare un nuovo periodo geologico separato dall’Olocene (l’ultimo periodo geologico dell’era Quaternaria), la nozione di Antropocene ci richiama all’impatto determinante, permanente e irreversibile del comportamento umano sulla superficie terrestre. Nel suo libro tradotto in italiano come “Benvenuti nell’Antropocene”, Crutzen argomenta che le prove per stabilire l’inizio del nuovo periodo sono già visibili sia nelle rocce (in forma di isotopi nucleari, sedimenti, scorie, particelle di alluminio, cemento, plastica e carbone), sia negli oceani e nelle zone costiere, con l’innalzamento del livello del mare conseguente allo scioglimento dei ghiacci. L’aumento rapido dei gas serra è probabilmente segna l’inizio della nuova era, che si può collocare all’incirca verso la metà del 20º secolo. Negli ultimi decenni, aggiungono Conversi e Moreno in un’analisi su “Micromega”, la crescita abnorme dei consumi di gran parte della popolazione terrestre ha prodotto gravi effetti sul nostro pianeta, con conseguenze potenzialmente catastrofiche per il futuro di tutte le specie viventi.Purtroppo però questa massa di studi fatica a trovare spazio sui grandi media, spesso «ostacolata e contraddetta dalla visibilità istrionica di pseudo-scienziati portavoce, riconosciuti o meno, delle lobbies petrolifere e dei combustibili fossili». Data l’assenza di vere informazioni, «non c’è da sorprendersi che il pubblico sia più orientato a crucciarsi per i prezzi di consumo dell’energia elettrica piuttosto che a chiedersi come ridurre le emissioni». Come ridurre il climate change? Nebbia fitta. «Raggiungendo livelli sempre più alti, l’aumento costante dei gas serra, accoppiato alla diffusione della fratturazione idraulica (fracking), è in grado di produrre un impatto incontrollabile, minacciando la continuità stessa della vita sulla Terra». L’attuale modello iper-consumistico «è stato responsabile non solo di un aumento senza precedenti delle emissioni di CO2, ma anche di un processo a senso unico di omogeneizzazione culturale, a seguito del quale mai prima d’ora così tante persone hanno assunto abitudini di consumo originariamente proprie delle vecchie élites occidentali». Processi che «hanno contribuito ad aumentare i livelli di povertà e di emarginazione sociale, sia nei paesi sviluppati che in quelli in via di sviluppo».Secondo un noto rapporto di Oxfam, la stragrande maggioranza delle vittime del cambiamento climatico sono proprio coloro che vivono in paesi che contribuiscono di meno al fenomeno. «E per di più, le regioni più vulnerabili ospitano circa la metà più povera della popolazione mondiale: un grafico assai rivelatore dell’ingiustizia climatica, che non lascia dubbi su come la metà più povera della popolazione mondiale produca solo il 10% delle emissioni globali di carbonio, mentre il 10% più ricco del pianeta contribuisce a oltre il 50% delle emissioni», aggiungono Conversi e Moreno. Inoltre, questo sembra dimostrare che, sebbene il problema demografico non debba essere sottovalutato, l’impatto più consistente non è prodotto dai numeri di bocche da sfamare, ma da modelli acquisiti di consumo, sperpero, abitudini e stili di vita insostenibili. Intanto, sempre secondo Oxfam, l’81% dei decessi causati dai disastri ambientali colpisce le aree a reddito basso e medio-basso. Secondo un altro studio, “Carbon and inequality from Kyoto to Paris”, diretto da Lucas Chancel e Thomas Piketty della Paris School of Economics, l’1% delle famiglie statunitensi, singaporesi o saudite a reddito più elevato sono annoverabili tra i maggiori responsabili di inquinamento, con più di 200 tonnellate annuali di emissione di CO2.Di conseguenza, continuano Conversi e Moreno, una visione semplicistica della frattura Est-Ovest o Nord-Sud, appare inadeguata: tra l’1% dei super-emettitori vanno anche incluse le élites dei super-ricchi di Cina, Russia, India e Brasile, per fare un esempio. E un terzo studio, pubblicato di recente (“The Carbon Majors Report” 2017) mostra che circa 100 aziende sono responsabili del 71% delle emissioni globali, cioè un numero significativamente infimo di grandi produttori legati ai combustibili fossili arreca un danno assolutamente sproporzionato rispetto ai guadagni astronomici di pochi. In America Latina, quasi tre quarti dei cittadini – una delle percentuali più alte al mondo – riconoscono fermamente la gravità e la serietà del cambiamento climatico: i paesi latinoamericani e caraibici sono molto vulnerabili al problema del riscaldamento globale. «Un aumento rilevante e sostenuto delle temperature porterebbe in un intervallo non molto lungo a una riduzione drastica dei terreni coltivabili, alla scomparsa di atolli, barriere coralline, isole basse e intere regioni costiere, così come ad una estrema variabilità del tempo».Per Conversi e Moreno, non sarebbe realistico ipotizzare una risposta unica ai difficili e complessi problemi legati al cambio climatico. I punti di vista normativi variano: dall’illusione di “miracoli tecnologici” all’espansione massiccia delle energie rinnovabili (dal 2019 la Volvo produrrà solo auto elettriche o ibride), dalla decrescita volontaria dei consumi alla rivalutazione delle conoscenze ecologiche tradizionali. Si pensa alla protezione delle economie pre-industriali residue, all’economia circolare, al riciclaggio, alla pratica della “sovranità alimentare” (km zero, filiere corte), fino all’opzione estrema della geo-ingegneria, «che implicherebbe la costruzione di dighe per proteggere città o paesi dall’innalzamento delle maree e altre soluzioni provvisorie per tamponare effetti localizzati di un fenomeno che non ha nulla di locale». In ogni caso, aggiungono Conversi e Moreno, sarà vitale «ambire alla massima eterogeneità e creatività in termini di soluzioni, adattamento, conoscenze o tecniche di sopravvivenza».Da parte sua, l’Ue si sta adoperando per trasformare i rifiuti in materiali rinnovabili in una nuova “economia circolare”. Secondo la Commissione Europea, l’Europa produce più di 2,5 milioni di tonnellate di rifiuti l’anno, oltre la metà dei quali (63%) è derivata dal settore minerario e delle costruzioni. Ma spesso l’accento è posto sul cittadino, nonostante solo l’8% dei rifiuti sia di origine domestica. «Così l’Europa perde ogni anno circa 600 milioni di tonnellate di materiali contenuti nei rifiuti che potrebbero essere riciclati o riutilizzati – mentre si ricicla solo il 40% dei rifiuti prodotti dalle famiglie». A livello planetario, i problemi restano di portata incalcolabile. «Questa nuova geografia del cambiamento climatico, accompagnata dall’aumento delle disuguaglianze di reddito e dell’emarginazione sociale, rende più che mai urgente un’azione concertata da parte di tutti i paesi». Unica possibilità di salvezza, trovare i mezzi per «controllare questa ristretta élite, detentrice di un potere economico e mediatico immenso». Ma le cose non stanno andando esattamente così: restano modesti gli obiettivi dei trattati internazionali finora firmati, da Rio (1992) all’accordo di Parigi del 2015, in vigore dal 2016 «in vista della sua piena applicabilità nel 2020», a seguito del Protocollo di Kyoto del 1997.Non mancano ulteriori complicazioni: «Donald Trump ha annunciato il ritiro degli Stati Uniti dall’Accordo di Parigi, in conformità alle promesse elargite durante la campagna elettorale in combutta con le élites dei combustibili fossili». In contrasto con l’allarme che si sta diffondendo in molti paesi, il nuovo protezionismo degli Stati Uniti, accompagnato dalle iperboli della negazione, «indica che ci stiamo avvicinando a passi da gigante verso il suicidio climatico, incoraggiato da un modello economico neoliberista inarrestabile», concludono Conversi e Moreno. «Di fronte al pressoché unanime consenso scientifico sulle origini antropogeniche di un riscaldamento globale indotto da modelli di consumo selvaggio, si erge un revisionismo corporativo militante impostato sulla manipolazione dei mezzi di comunicazione e ostile a ogni possibile mobilitazione sociale volta a salvare il pianeta». Ciò che si profila è un mondo nuovo, un “brave New World”, come annunciava Aldous Huxley, condannato a finire in tempi brevissimi. «Un mondo, insomma, in cui una percentuale irrisoria ma ultra-potente del genere umano sembra pronta a immolare i destini della Terra sull’altare dei propri guadagni mai soddisfatti».Conmversi e Moreno parlano di “classicidio”, vista l’enorme sproporzione numerica tra vittime e carnefici, ancora più accentuata tra i redditi delle vittime e quelli dei carnefici. «Ma nessuno potrà ritenersi al sicuro ed esente dal pericolo di estinzione: se il secolo 20º è stato spesso definito il “secolo del genocidio”, c’è da temere che il secolo 21º potrebbe essere identificato, da un punto di vista terminologico, come il “secolo dell’omnicidio”, dello sterminio potenziale della gran parte delle specie viventi, tra cui bisognerà annoverare gli esseri umani». Ma, onestamente, «piuttosto che di un epilogo casuale, è bene comprendere che si tratta una “cronaca” lungamente preannunciata». Bisognerà quindi «combattere il negazionismo, incarnato successivamente nell’anti-scienza, nella marginalizzazione degli esperti e nell’anarchia informativa della post-verità». Appello inevitabile: «Contro quest’Idra dalle multipli teste, siamo chiamati a mobilitarci. Meglio tardi che mai».Si avvicina il rischio di un’estinzione di massa, la sesta nella storia della Terra. Lo affermano Daniele Conversi e Luis Moreno, commentando una recentissima ricerca statunitense: secondo la prestigiosa Pnas, “Proceedings of the National Academy of Sciences of the United States of America”, per la sesta volta, saremmo nell’imminenza di un evento chiamato “biological annihilation”, annientamento biologico. Miliardi di animali sono stati eliminati negli ultimi decenni, conseguenza diretta e indiretta dell’attività umana. Come se non bastassero gli allarmi che ci giungono da tutti i fronti, le ricerche confermano un’unica tendenza: l’impatto del consumo di massa promosso dal neoliberismo imperante sta alterando la superficie terrestre in maniera irreversibile, fino a cambiare lo stesso suolo su cui poggiamo i piedi. Nel corso dell’ultimo secolo, con l’uso generalizzato dell’automobile, ci si è adagiati sullo sfruttamento dei combustibili fossili attraverso un aumento massiccio dei consumi, promuovendo inoltre una divisione internazionale del lavoro tra regioni destinate all’estrazione e altre destinate all’industrializzazione. Tutto questo, dicono i ricercatori, sta semplicemente portando al collasso l’ecosistema terrestre.
-
Tempo Fantasma, tre secoli inventati (anche Carlo Magno)
Non saremmo nel 2017, ma nel 1721. Di mezzo ci sarebbero tre secoli “mai esistiti, completamente inventati”. «Se fosse vero, non sarebbe semplicemente una cospirazione, ma la madre di tutte le cospirazioni: un vero e proprio complotto temporale: ben 297 anni di storia, quelli tra il 614 e il 911, non sarebbero mai avvenuti e quindi deliberatamente inventati o volutamente datati in maniera erronea», scrive il blog “Il Navigatore Curioso” a proposito della teoria del Tempo Fantasma, in base alla quale, ricorda Wikipedia, in quei quasi trecento anni «gli eventi accaduti in Europa e nelle regioni limitrofe in realtà sono accaduti in un altro lasso temporale oppure non sono affatto accaduti». E’ una teoria conosciuta come “Ipotesi del Tempo Fantasma”, formulata da tre studiosi in tempi diversi: l’ingegnere tedesco Hans-Ulrich Niemitz, ex direttore del Centro di Storia della Tecnologia di Berlino (1946-2010), lo storico tedesco Heribert Illig (nato nel 1947), e il matematico e fisico russo Anatolij Timofeevič Fomenko, professore all’università statale di Mosca (nato nel 1954). L’ipotesi: è stato un “errore voluto”, nel 1582, al momento di sostituire il vecchio calendario giuliano con il nuovo calendario gregoriano, dal nome del Papa Gregorio XIII.Questa tesi suggerisce una cospirazione ad opera dell’imperatore del Sacro Romano Impero Ottone III, di Papa Silvestro II e forse anche dell’imperatore bizantino Costantino VII per costruire artificiosamente il sistema di datazione “Anno Domini”, «in modo che essi potessero trovarsi a cavallo dell’anno 1000: per fare ciò avrebbero riscritto la storia aggiungendo interi secoli e inventando di sana pianta la figura di Carlo Magno», scrive il “Navigatore Curioso”. Nel suo articolo “The Phantom Time Hypothesis”, del 2014, il dottor Hans-Ulrich Niemitz espone la sua tesi fondamentale: centinaia di anni fa, il nostro calendario è stato manipolato aggiungendovi 297 anni che non si sono mai verificati. La teoria del Tempo Fantasma suggerisce che il medioevo (614-911 d.C.) non sia mai avvenuto, ma che questo periodo sarebbe stato aggiunto al calendario molto tempo fa, per caso, o per errata interpretazione dei documenti, o per falsificazione deliberata da cospiratori del tempo. «Ciò significa che tutti gli eventi attribuiti a questi tre secoli appartengono ad altri periodi, o che si siano verificati nello stesso momento, o che sono stati inventati di sana pianta». Ma che prove ci sono a sostegno di queste affermazioni?Sembrerebbe che gli storici siano afflitti da una quantità significativa di documenti falsificati in età medievale: questo è stato, infatti, il tema di un convegno archeologico tenutosi a Monaco nel 1986, ricorda il “Navigatore Curioso”. Nel suo intervento, Horst Fuhrmann, presidente di Monumenta Germaniae Historica, ha spiegato come alcuni documenti siano stati falsificati durante il medioevo, creando eventi datati centinaia di anni prima, entrando poi nella cronologia storica ufficiale. «Questo implicava che chiunque abbia prodotto le falsificazioni, aveva voluto molto abilmente anticipare il futuro, oppure introdurre qualche discrepanza nelle date». Tanto è bastato per suscitare la curiosità di Heribert Illig, diventato uno dei principali sostenitori della teoria. «Illig si è chiesto perchè qualcuno avrebbe dovuto falsificare documenti centinaia di anni prima che potessero diventare utili. Così, lui, insieme al suo gruppo, ha esaminato altri falsi dei secoli precedenti».La ricerca, continua il blog, li ha portati a indagare sull’origine del calendario gregoriano, introdotto da papa Gregorio XIII nel 1582 e che ancora oggi utilizziamo. Il calendario gregoriano fu progettato per sostituire il calendario giuliano (45 a.C.), per correggere una differenza di dieci giorni causata dal fatto che l’anno Giuliano è 10,8 minuti più lungo. Ma, secondo i calcoli matematici di Illig, l’accumulo dei dieci giorni si sarebbe realizzato solo dopo 1.257 anni, e non dopo “appena” 16 secoli. «Sulla base di questi calcoli, il ricercatore suggerisce che il calendario sia stato riavviato, introducendo 297 anni di storia mai avvenuti, o riformulati cronologicamente. La conclusione più sconcertante di Illig è che la dinastia carolingia non sia mai esistita e che Carlo Magno sia un personaggio di fantasia!». Per sostenere ulteriormente la sua ipotesi, Illig «sottolinea la scarsità di prove archeologiche attendibili», databili al periodo tra il 614 e il 911 dopo Cristo, nonché «l’eccessiva dipendenza degli storici medievali dalle fonti scritte e la presenza di architettura romanica nell’Europa occidentale del X secolo». Tuttavia, la comunità scientifica ha proposto diversi metodi di datazione che sembrerebbero contraddire l’ipotesi di Illig. Innanzitutto, le osservazioni astronomiche antiche concordano nelle datazioni, come gli avvistamenti della cometa di Halley.Inoltre, per quanto riguarda la riforma gregoriana, «l’intento non era quello di portare il calendario in linea con quello giuliano, come era stato concepito nel 45 a.C., ma come era nel 325 d.C., anno del Concilio di Nicea, nel quale era stato stabilito il criterio per la data della domenica di Pasqua, fissando l’equinozio di primavera al 20 marzo del calendario giuliano». Nel 1582, l’equinozio di primavera cadeva il 10 marzo del calendario giuliano, ma la Pasqua era ancora calcolata sull’equinozio nominale del 20 marzo. «C’era, dunque, una discrepanza tra le osservazioni astronomiche e la data nominale del calendario giuliano». Così, i “tre secoli mancanti” di Illig corrispondono ai 369 anni tra l’istituzione del calendario giuliano, nel 45 avanti Cristo, e la fissazione della Pasqua nel Concilio di Nicea del 325 dopo Cristo. Ma, nonostante la difesa della cronologia ufficiale da parte della comunità scientifica, un altro ricercatore ha proposto una teoria simile in maniera indipendente. E’ il russo Anatolij Timofeevič Fomenko, matematico e fisico. Uno scienziato autorevole: si occupa di topologia ed è membro dell’Accademia Russa delle Scienze, nonché autore di 180 pubblicazioni scientifiche, 26 monografie e libri di testo.Fomenko, aggiunge il “Navigatore Curioso”, è noto per essere autore della teoria conosciuta come Nuova Cronologia, secondo la quale tutti gli avvenimenti storici della storia del mondo sarebbero avvenuti in tempi diversi da quelli comunemente riconosciuti. La teoria di Anatolij Fomenko vuole che la cronologia tradizionale consista in realtà di quattro copie della “vera” cronologia (ciò che è veramente accaduto) che si sovrappongono, spostate indietro nel tempo di intervalli significativi (da 300 a 2000 anni), con alcune revisioni. «Tutti gli eventi e i personaggi convenzionalmente datati prima dell’XI secolo sono o fittizi, o più comunemente rappresentanti “immagini riflesse fantasma” di eventi e personaggi medievali, trasportati da errori intenzionali o errate datazioni accidentali di documenti storici». La nuova cronologia è radicalmente più corta della cronologia convenzionale, perché «tutta la storia dell’Antico Egitto, quella della Grecia antica e la storia romana vengono comprese nel medioevo, e l’Alto Medioevo viene eliminato». Secondo Fomenko, la storia dell’umanità «risale solo fino all’anno 800», visto che – a suo dire – non avremmo quasi informazioni sugli eventi fra l’800 ed il 1000, e la maggior parte degli eventi storici che conosciamo «sarebbero avvenuti tra il 1000 ed il 1500».Dunque, i nostri antenati erano tutti dei gran bugiardi? Oppure l’Ipotesi del Tempo Fantasma è solo il parto di menti pseudoscientifiche particolarmente fervide? È possibile che la figura di Carlo Magno, ricca di aneddoti leggendari, sia simile a quella che ci ha tramandato la figura di Re Artù? Esistono migliaia di falsi riconosciuti prodotti nel medioevo: testamenti, testi di storia, cronache. Come riconoscere i documenti veritieri da quelli fittizi? Inoltre, continua il “Navigatore Curioso”, l’alfabetizzazione non era molto diffusa: e dato che i più non sapevano leggere né scrivere, come potevano verificare i fatti registrati nei documenti ufficiali? Non esistevano organi di informazione real-time: dunque, di quali eventi storici la popolazione medievale era realmente al corrente? In realtà, come rivela la “Bbc”, le confutazioni sull’Ipotesi del Tempo Fantasma non sono approfondite, si limitano a «commenti sprezzanti e indignati». È difficile trovare testi accessibili che dimostrino, in dettagliom perché quella teoria sarebbe inverosimile. Ad ogni modo, conclude il blog, staremo a vedere: gli studiosi accetteranno di ri-verificare l’intera cronologia che abbiamo studiato sui banchi di scuola, oppure continueranno a difenderla strenuamente “a prescindere”? «L’unica riflessione che sembra suggerire questa teoria è che anche la cultura, se ci fosse ancora bisogno di conferme, può diventare uno strumento di controllo e di potere».Non saremmo nel 2017, ma nel 1721. Di mezzo ci sarebbero tre secoli “mai esistiti, completamente inventati”. «Se fosse vero, non sarebbe semplicemente una cospirazione, ma la madre di tutte le cospirazioni: un vero e proprio complotto temporale: ben 297 anni di storia, quelli tra il 614 e il 911, non sarebbero mai avvenuti e quindi deliberatamente inventati o volutamente datati in maniera erronea», scrive il blog “Il Navigatore Curioso” a proposito della teoria del Tempo Fantasma, in base alla quale, ricorda Wikipedia, in quei quasi trecento anni «gli eventi accaduti in Europa e nelle regioni limitrofe in realtà sono accaduti in un altro lasso temporale oppure non sono affatto accaduti». E’ una teoria conosciuta come “Ipotesi del Tempo Fantasma”, formulata da tre studiosi in tempi diversi: l’ingegnere tedesco Hans-Ulrich Niemitz, ex direttore del Centro di Storia della Tecnologia di Berlino (1946-2010), lo storico tedesco Heribert Illig (nato nel 1947), e il matematico e fisico russo Anatolij Timofeevič Fomenko, professore all’università statale di Mosca (nato nel 1954). L’ipotesi: è stato un “errore voluto”, nel 1582, al momento di sostituire il vecchio calendario giuliano con il nuovo calendario gregoriano, dal nome del Papa Gregorio XIII.
-
Tumori che non sappiamo di avere: il corpo li neutralizza
Luigi De Marchi, psicologo clinico e sociale, autore di numerosi saggi conosciuti a livello internazionale, parlando con un amico anatomo-patologo del Veneto sui dubbi dell’utilità delle diagnosi e delle terapie anti-tumorali, si sentì rispondere: «Sì, anch’io ho molti dubbi. Sapessi quante volte, nelle autopsie sui cadaveri di vecchi contadini delle nostre valli più sperdute ho trovato tumori regrediti e neutralizzati naturalmente dall’organismo: era tutta gente che era guarita da sola del suo tumore ed era poi morta per altre cause, del tutto indipendenti dalla patologia tumorale». «Se la tanto conclamata diffusione delle patologie cancerose negli ultimi decenni – si chiese Luigi De Marchi – in tutto l’Occidente avanzato fosse solo un’illusione ottica, prodotta dalla diffusione delle diagnosi precoci di tumori che un tempo passavano inosservati e regredivano naturalmente? E se il tanto conclamato incremento della mortalità da cancro fosse solo il risultato sia dell’angoscia di morte prodotta dalle diagnosi precoci e dal clima terrorizzante degli ospedali, sia della debilitazione e intossicazione del paziente prodotte dalle terapie invasive, traumatizzanti e tossiche della medicina ufficiale? Insomma, se fosse il risultato del blocco che l’angoscia della diagnosi e i danni delle terapie impongono ai processi naturali di regressione e guarigione dei tumori?».Con quanto detto da Luigi De Marchi – confermato anche da autopsie eseguite in Svizzera su cadaveri di persone morte non per malattia – si arriva alla sconvolgente conclusione che moltissime persone hanno (o avevano) uno o più tumori, ma non sanno (o sapevano) di averli. In questa specifica indagine autoptica (autopsie) fatta in Svizzera, ed eseguita su migliaia di persone morte in incidenti stradali (quindi non per malattia), è risultato qualcosa di sconvolgente: il 38% delle donne (tra i 40 e 50 anni) presentavano un tumore (in situ) al seno; il 48% degli uomini sopra i 50 anni presentavano un tumore (in situ) alla prostata; il 100% delle donne e uomini sopra i 50 anni presentavano un tumore (in situ) alla tiroide. Con tumore “in situ” s’intende un tumore “chiuso”, chiuso nella sua capsula, non invasivo, che può rimanere in questo stadio per molto tempo e anche regredire. Nel corso della vita è infatti “normale“ sviluppare tumori, e non a caso la stessa medicina sa bene che sono migliaia le cellule tumorali prodotte ogni giorno dall’organismo. Queste, poi, vengono distrutte e/o fagocitate dal sistema immunitario, se l’organismo funziona correttamente.Molti tumori regrediscono o rimangono incistati per lungo tempo quando la Vis Medicratix Naturae (la forza risanatrice che ogni essere vivente possiede) è libera di agire. Secondo la medicina omeopatica, «la “Legge di Guarigione” descrive il modo con cui tale forza vitale di ogni organismo reagisce alla malattia e ripristina la salute». Cosa succede alla Legge di Guarigione, al meccanismo vitale di autoguarigione, se dopo una diagnosi di cancro la vita viene letteralmente sconvolta dalla notizia del male? E cosa succede all’organismo (e al sistema immunitario) quando viene fortemente debilitato dai farmaci? Poco nota al grande pubblico è la vasta ricerca condotta per 23 anni dal professor Hardin B. Jones, fisiologo dell’Università della California, e presentata nel 1975 al Congresso di cancerologia presso l’Università di Berkeley. Oltre a denunciare l’uso di statistiche falsate, egli prova che i malati di tumore che non si sottopongono alle tre terapie canoniche (chemio, radio e chirurgia) sopravvivono più a lungo, o almeno quanto coloro che ricevono queste terapie.Il professor Jones dimostra che le donne malate di cancro alla mammella che hanno rifiutato le terapie convenzionali mostrano una sopravvivenza media di 12 anni e mezzo, quattro volte superiore a quella di 3 anni raggiunta da coloro che si sono invece sottoposte alle cure complete. Un’altra ricerca pubblicata su “The Lancet” del 13 ducembre 1975 (che riguarda 188 pazienti affetti da carcinoma inoperabile ai bronchi), dimostra che la vita media di quelli trattati con chemioterapia è stata di 75 giorni, mentre quelli che non ricevettero alcun trattamento ebbero una sopravvivenza media di 120 giorni. Se queste ricerche sono veritiere, una persona malata di tumore ha statisticamente una percentuale maggiore di sopravvivenza se non segue i protocolli terapeutici ufficiali.Con questo non si vuole assolutamente spingere le persone a non farsi gli esami, gli screening e i trattamenti oncologici ufficiali, ma si vogliono fornire, semplicemente, delle informazioni che di norma vengono oscurate, censurate, e che possono – proprio per questo – aiutare la scelta terapeutica di una persona. Ma ricordo che la scelta è sempre e solo individuale: ogni persona, sana o malata che sia, deve assumersi la propria responsabilità, deve prendere in mano la propria vita. Dobbiamo smetterla di delegare il medico, lo specialista, il mago, il santone che sia, per questo o quel problema. Dobbiamo essere gli unici artefici della nostra salute e nessun altro deve poter decidere al posto nostro. Possiamo accettare dei consigli, quelli sì, ma niente più.(“Studi: dalle autopsie degli incidenti stradali verità sconvolgente, 100% di tumori che però regrediscono…”, dal blog “Life120”, luglio 2017).Luigi De Marchi, psicologo clinico e sociale, autore di numerosi saggi conosciuti a livello internazionale, parlando con un amico anatomo-patologo del Veneto sui dubbi dell’utilità delle diagnosi e delle terapie anti-tumorali, si sentì rispondere: «Sì, anch’io ho molti dubbi. Sapessi quante volte, nelle autopsie sui cadaveri di vecchi contadini delle nostre valli più sperdute ho trovato tumori regrediti e neutralizzati naturalmente dall’organismo: era tutta gente che era guarita da sola del suo tumore ed era poi morta per altre cause, del tutto indipendenti dalla patologia tumorale». «Se la tanto conclamata diffusione delle patologie cancerose negli ultimi decenni – si chiese Luigi De Marchi – in tutto l’Occidente avanzato fosse solo un’illusione ottica, prodotta dalla diffusione delle diagnosi precoci di tumori che un tempo passavano inosservati e regredivano naturalmente? E se il tanto conclamato incremento della mortalità da cancro fosse solo il risultato sia dell’angoscia di morte prodotta dalle diagnosi precoci e dal clima terrorizzante degli ospedali, sia della debilitazione e intossicazione del paziente prodotte dalle terapie invasive, traumatizzanti e tossiche della medicina ufficiale? Insomma, se fosse il risultato del blocco che l’angoscia della diagnosi e i danni delle terapie impongono ai processi naturali di regressione e guarigione dei tumori?».
-
Summa Symbolica: noi e la memoria ancestrale dell’universo
C’è un non-luogo, chiamato “memoria ancestrale”, in cui è depositata ogni traccia di vita: l’impronta invisibile di pensieri e azioni, eventi materiali e immateriali. Una banca dati sconfinata, una sorta di “preistoria del tempo”. L’ipotesi è profondamente suggestiva: ogni nostra cellula conterrebbe in sé una parte di quella “memoria universale”: la condivide, le corrisponde – per vie analogiche e misteriose, attraverso processi istantanei che non possiamo controllare, e di cui non abbiamo neppure consapevolezza. Tutto quello che riusciamo a verificare è soltanto a valle del “prima”, è qualcosa che avviene dopo. E’ la nostra imperfetta traduzione di quel “grande prima”. E può esprimersi in due modi: sotto forma di miti, cioè narrazioni, oppure di simboli, ovvero rappresentazioni. Ma gli eventi, raccontati o rappresentati, sono i medesimi: si chiamano archetipi, e popolano (da sempre) un non-tempo che ci riguarda da vicinissimo. Una dimensione che “frequentiamo” soltanto in sogno. Per tentare di risalire all’origine, scoprendone il senso segreto, uno strumento efficace è quello che Gianfranco Carpeoro chiama “scienza simbolica”. Materia vastissima, spesso sfiorata da svariati campi del sapere (dalla filosofia alla psicologia, fino alla semiotica) ma mai affrontata separatamente e in modo analitico, sistematico – scientifico, appunto.Proprio l’approccio razionale al mondo sfuggente dei simboli è l’ambizioso l’obiettivo di “Summa Symbolica”, primo volume – introduttivo, metodologico – del vasto lavoro di Carpeoro, simbologo di formazione massonica e rosicruciana, con alle spalle trent’anni di studi sul mondo dei segni tradotti in simboli – segni visivi ma anche sonori, musicali, e persino olfattivi, tattili e gustativi. E’ una dimensione, quella simbolica, nella quale siamo costantemente immersi: meno ce ne rendiamo conto, e più rischiamo di subirla. Esempio: «Verso mezzogiorno, nei supermercati, viene spesso diffuso il profumo del pane caldo, appena sfornato: è un odore che diventa simbolo, innesca la memoria di ciascuno e serve a incrementare la motivazione d’acquisto, da parte degli ignari consumatori». Un simbolo può essere acustico: è il caso del segnale di pericolo emesso dalla gazzella quando, nella savana, avvista la leonessa in caccia. E’ un richiamo straziante, drammatico: l’imitazione perfetta dell’ultimo rantolo esalato, chissà quando, da una gazzella catturata e sbranata. Lo hanno scoperto gli etologi: le gazzelle superstiti assistettero alla predazione e udirono quel grido. Che da allora, una volta riprodotto, avverte le consimili, in modo inequivocabile, dell’imminente pericolo di morte.Ricostruendo l’origine del simbolo, a partire dal “simbolo Universo” e dal “simbolo prima del segno”, Carpeoro si sofferma a lungo sull’analisi del mondo originario da cui il simbolo discende, cioè la dimensione degli archetipi che affollano la “memoria ancestrale”. L’autore esamina le diverse interpretazioni del mondo archetipico sviluppate dal pensiero contemporaneo a partire da Jung, per poi passare attraverso studiosi come Mircea Eliade, Elémire Zolla, il simbologo René Guénon, pensatori meno noti come Réné Alleau e autori controversi come Julius Evola. «A nostro avviso – scrive Carpeoro – i nostri primi grandi archetipi, che noi denominiamo “protoarchetipi” o “specula” sono quelli fondati appunto sulla specularità: buio-luce, silenzio-suono, dolore-piacere, vita-morte». Che cosa sono? «Sono le nostre prime cognizioni o percezioni», cioè «gli eventi primari, fisici o metafisici», tutti derivanti dall’evento base, primigenio, espresso da Amleto: “Essere o non essere”». La cronologia esatta va invertita, e cioè: “non-essere, essere”. Prima il nulla, poi la creazione. Quel motto di Amleto caratterizza anche «il dubbio esistenziale, psicoanalitico e letterario, relativo ai sogni e alla distinzione dei medesimi rispetto alla vita reale, sintetizzato dalla massima “La vita è un sogno e la morte è il risveglio”, del grande scrittore spagnolo Pedro Calderón de la Barca”».«L’evento base “non essere, essere”, o anche “tutto e il contrario di tutto”, realizza il Primo Archetipo», che Carpeoro chiama “Speculum”, specchio. Da quello, e dagli altri “protoarchetipi”, «derivano tutti gli schemi simbolici che ci circondano e ci spiegano la storia e il cosmo, se e quando ci troviamo nella condizione di interpretarli». Fiabe, leggende e allegorie ripropogono sistemi simbolici anche complessi, poi tradotti nella stessa interpretazione dei sogni, a cui tanta importanza ha attribuito la psicanalisi. Sono tutte porte aperte sul misterioso mondo del “prima”, dove la nostra cognizione della vita comincia a nascere, in modo inafferrabile, a partire dallo “speculum” iniziale, l’opposizione tra “non essere” e “essere”, in realtà destinata poi a ricomporsi in modo complementare, nella comprensione del tutto. In altre parole, il linguaggio dei simboli – in cui si specchiano gli archetipi – può dirci qualcosa di importante sul vero luogo in cui nasce, da sempre, la nostra possibilità di pensiero. Il simbolo, poi, fa a meno dell’ordinario codice alfabetico: può viaggiare per secoli e millenni, conservando intatto il suo messaggio primigenio, a prescindere dale epoche e dalle civiltà attraversate. E’ un messaggero del “grande prima”: ci parla del nostro passato più in ombra, quello che non finisce sui libri di storia: è la meta-storia, quella del pensiero (anche invisibile) da cui poi sgorga la storia vera e propria.Nell’agile narrazione del primo volume di “Summa Symbolica”, arricchita da rapide escursioni nel mondo dell’arte, fino al cinema contemporaneo, si coglie lo sforzo di collocare la “scienza simbolica” in un preciso contesto di ricerca, a metà strada tra filosofia e neuroscienze, nell’intento di restituire piena dignità a una materia sempre e solo affrontata in modo tangenziale, periferico e accessorio. Fondamentale, nel lavoro di Carpeoro, la precisione con cui l’autore descrive la meccanica del simbolo, il suo funzionamento, che risponde a regole precise (l’autore le chiama “leggi”). La prima è quella che definisce il simbolo come rappresentazione di un archetipo. Fondamentale la Prima Legge di Guénon: nel simbolo, il piccolo può rappresentare il grande, l’inferiore il superiore, la parte il tutto – mai viceversa. Esistono leggi statiche, che espandono il simbolo in orizzontale, e leggi di corripondenza, secondo cui il simbolo deve contenere le esatte corripondenze della realtà rappresentata (nella frase “come in cielo, così in terra” rivive il motto esoterico “quod superius, sicut inferius” degli antichi alchimisti: al microcosmo corrisponde sempre il macrocosmo).Il simbolo, riassume Carpeoro, obbedisce anche a leggi dinamiche: può essere trasmesso in modo consapevole, mediante iniziazione, o in maniera inconsapevole, per semplice ripetizione (tradizione). Il simbolo ha inoltre precise funzioni: sintetica ed evocativa. «Se per la funzione sintetica è sufficiente un unico simbolo, per la funzione evocativa è necessaria una pluralità di simboli organizzata in linguaggio». A cascata, i sistemi simbolici che costituiscono il cuore delle fiabe vivono in un habitat narrativo fatto di emotività (pathos), mentre è l’epos a “ingigantire” la narrazione delle leggende, e una terza chiave – l’ethos – governa l’allegoria, imponendovi un preciso ordine. Nel sogno, infine, si articola il lògos (parola, racconto), che deriva la greco léghein (legare, collegare) da cui derivano vocaboli come “intelligenza”. Proprio nel sogno, scrive Carpeoro, il cerchio si chiude: in quella esclusiva dimensione, gli archetipi rivivono in purezza. Durante il sonno, la “memoria ancestrale” ci parla direttamente, senza mediazioni. Non disponendo di un linguaggio per tradurla, siamo costretti a ricorrere a espedienti ingegnosi: i simboli, appunto. Per questo è importante imparare il loro linguaggio: potremmo scoprire qualcosa di fondamentale della nostra storia, del nostro pensiero, della nostra vita. Fino a “riconoscere” che molte cose che sappiamo, o crediamo di sapere, hanno un’origine remotissima: “abitano”, da sempre, nella “memoria ancestrale” dell’universo.(Il libro: Giovanni Francesco Carpeoro, “Summa Symbolica. Istituzioni di studi simbolici e tradizionali”, parte prima, “Origine e dinamica dei simboli”, edizioni L’Età dell’Acquario, 221 pagine, 24 euro).C’è un non-luogo, chiamato “memoria ancestrale”, in cui è depositata ogni traccia di vita: l’impronta invisibile di pensieri e azioni, eventi materiali e immateriali. Una banca dati sconfinata, una sorta di “preistoria del tempo”. L’ipotesi è profondamente suggestiva: ogni nostra cellula conterrebbe in sé una parte di quella “memoria universale”: la condivide, le corrisponde – per vie analogiche e misteriose, attraverso processi istantanei che non possiamo controllare, e di cui non abbiamo neppure consapevolezza. Tutto quello che riusciamo a verificare è soltanto a valle del “prima”, è qualcosa che avviene dopo. E’ la nostra imperfetta traduzione di quel “grande prima”. E può esprimersi in due modi: sotto forma di miti, cioè narrazioni, oppure di simboli, ovvero rappresentazioni. Ma gli eventi, raccontati o rappresentati, sono i medesimi: si chiamano archetipi, e popolano (da sempre) un non-tempo che ci riguarda da vicinissimo. Una dimensione che “frequentiamo” soltanto in sogno. Per tentare di risalire all’origine, scoprendone il senso segreto, uno strumento efficace è quello che Gianfranco Carpeoro chiama “scienza simbolica”. Materia vastissima, spesso sfiorata da svariati campi del sapere (dalla filosofia alla psicologia, fino alla semiotica) ma mai affrontata separatamente e in modo analitico, sistematico – scientifico, appunto.
-
Rousseau: noi, schiavi del benessere indotto dalla scienza
«Mentre il governo e le leggi provvedono alla sicurezza e al benessere degli uomini consociati, le scienze, le lettere e le arti, meno dispotiche e forse più potenti, stendono ghirlande di fiori sulle catene di ferro ond’essi son carichi, soffocano il loro sentimento di quella libertà originaria per la quale sembravan nati, fan loro amare la loro schiavitù e ne formano i così detti ‘popoli civili’. Se le nostre scienze son vane nell’oggetto che si propongono, sono ancor più pericolose per gli effetti che producono. Quanti pericoli, quante false vie nella ricerca scientifica! Era antica tradizione, passata d’Egitto in Grecia, che un Dio nemico della quiete degli uomini fosse l’inventore delle scienze. Popoli, sappiate dunque una buona volta che la natura ha voluto preservarvi dalla scienza, come una madre strappa un’arma pericolosa dalle mani del figlio. Le apparenze di tutte le virtù, pur senza il possesso di alcuna… La preferenza degli ingegni piacevoli sugli utili… Hanno messo una gioventù frivola in grado di dare il tono alla vita. Che penseremo mai di quei compilatori di opere, che hanno indiscretamente infranta la porta delle scienze e introdotto nel loro santuario una plebaglia indegna d’accostarvisi… Socrate non aiuterebbe mai ad accrescere questa folla di libri che ci inonda d’ogni parte… I disordini orribili che la stampa ha già prodotto in Europa».«Da che i sapienti han cominciato ad apparir fra noi, dicevan i loro propri filosofi, le persone dabbene sono scomparse…S enza saper discernere l’errore dalla verità, possederanno l’arte di renderli irriconoscibili agli altri con argomenti speciosi…A sentirli non li si piglierebbe per un branco di ciarlatani, gridanti ognuno dal canto suo sopra una piazza pubblica: ‘Venite da me, io solo non inganno nessuno’?… Il falso è suscettibile d’una infinità di combinazioni; ma la verità non ha che un sol modo di essere. Oggi, che le ricerche più sottili e un gusto più fine hanno ridotto a princìpi l’arte di piacere, regna nei nostri costumi una vile e ingannevole uniformità, e tutti gli spiriti sembrano esser stati fusi in uno stesso stampo: senza posa la civiltà esige, la convenienza ordina; senza posa si seguono gli usi e mai il proprio genio».«Non si osa più apparire ciò che si è…Che se per caso, fra gli uomini straordinari per il loro ingegno, se ne trovi qualcuno che abbia fermezza nell’anima e che rifiuti di prestarsi al genio del suo secolo e di avvilirsi con produzioni puerili, guai a lui! Morrà nell’indigenza e nell’oblio. Gli antichi politici parlavano senza posa di costumi e di virtù: i nostri non parlano che di commercio e di danaro… un uomo non vale per lo Stato che il consumo che vi fa… i Principi sanno benissimo che tutti i bisogni che il popolo si dà, sono altrettante catene di cui si carica… qual giogo potrebbe imporsi ad uomini che non han bisogno di nulla?… L’anima si proporziona insensibilmente agli oggetti che l’occupano. O Dio onnipotente, tu che tieni nelle tue mani gli spiriti, liberaci dai lumi e dalle funeste arti e rendici l’ignoranza, l’innocenza e la povertà, i soli beni che possan fare la nostra felicità e che sian preziosi al tuo cospetto».Queste espressioni sono tratte dal “Discorso sulle scienze e sulle arti” di Rousseau del 1750. Rousseau è un illuminista – perché il “contratto sociale” è uno dei fondamenti della democrazia, peraltro intesa come democrazia diretta, in spazi limitati – ma è un illuminista molto, molto particolare. In questo straordinario “Discorso sulle scienze e sulle arti”, non a caso pochissimo richiamato ai giorni nostri, Rousseau anticipa alcune delle conseguenze più devastanti della democrazia. Si oppone alle scienze, “idola” che oggi dominano incontrastate, in quanto asserviscono a sé gli uomini e invece di renderli liberi li fa schiavi («soffocano il loro sentimento di quella libertà originaria per la quale sembravan nati, fan loro amare la loro schiavitù»). Anticipa la società dello spettacolo con le sue futilità, il prevalere dell’apparire sull’essere («Le apparenze di tutte le virtù, pur senza il possesso di alcuna»). Sottolinea come l’eccesso di comunicazione e di divulgazione abbia dato spazio a ogni tipo di ciarlatani. E come la parola possa essere fonte di ogni falsità (del resto lo stesso Cristo ha affermato: «Il tuo dire sia sì, sì, no, no. Tutto il resto è farina del diavolo»).Quando Rousseau afferma «a sentirli non li si piglierebbe per un branco di ciarlatani, gridanti ognuno dal canto suo sopra una piazza pubblica: ‘Venite da me, io solo non inganno nessuno’», non sembra di sentir parlar Renzi o Berlusconi o qualsiasi altro leader politico, italiano e anche non italiano? E, in aggiunta, c’è anche un accenno alle “fake news” («Il falso è suscettibile d’una infinità di combinazioni; ma la verità non ha che un sol modo di essere»). Si scaglia contro l’omologazione – tema di scottante attualità, portato al suo apice dalla globalizzazione – che cancella il merito e annulla l’ingegno. Nell’ultima parte del “Discorso” c’è la considerazione che, forse, riguarda più da vicino la modernità. Dopo l’affermarsi della Rivoluzione Industriale sono stati introdotti bisogni di cui l’uomo non aveva mai sentito il bisogno. Si è affermata la pazzesca legge di Say, “l’offerta crea la domanda”, su cui si regge tutta la società di oggi. La stragrande maggioranza degli oggetti che oggi ci circondano e che, come osserva Rousseau contribuiscono a formare la nostra mentalità, sono del tutto superflui ma essenziali al meccanismo che ci domina e che ormai è uscito fuori dal nostro controllo: noi non produciamo più per consumare ma produciamo perché il meccanismo possa costantemente autoriprodursi e autorafforzarsi. Questa è la straordinaria modernità di Rousseau, l’antimoderno.(Massimo Fini, “Rousseau e la lotta al consumismo”, dal “Fatto Quotidiano” del 25 luglio 2017).«Mentre il governo e le leggi provvedono alla sicurezza e al benessere degli uomini consociati, le scienze, le lettere e le arti, meno dispotiche e forse più potenti, stendono ghirlande di fiori sulle catene di ferro ond’essi son carichi, soffocano il loro sentimento di quella libertà originaria per la quale sembravan nati, fan loro amare la loro schiavitù e ne formano i così detti ‘popoli civili’. Se le nostre scienze son vane nell’oggetto che si propongono, sono ancor più pericolose per gli effetti che producono. Quanti pericoli, quante false vie nella ricerca scientifica! Era antica tradizione, passata d’Egitto in Grecia, che un Dio nemico della quiete degli uomini fosse l’inventore delle scienze. Popoli, sappiate dunque una buona volta che la natura ha voluto preservarvi dalla scienza, come una madre strappa un’arma pericolosa dalle mani del figlio. Le apparenze di tutte le virtù, pur senza il possesso di alcuna… La preferenza degli ingegni piacevoli sugli utili… Hanno messo una gioventù frivola in grado di dare il tono alla vita. Che penseremo mai di quei compilatori di opere, che hanno indiscretamente infranta la porta delle scienze e introdotto nel loro santuario una plebaglia indegna d’accostarvisi… Socrate non aiuterebbe mai ad accrescere questa folla di libri che ci inonda d’ogni parte… I disordini orribili che la stampa ha già prodotto in Europa».
-
Qe, truffa da record: soldi facili alle banche, solo per i ricchi
Sembra che l’enorme trasferimento di ricchezza verso i ricchi, durato circa un decennio e noto come ‘quantitative easing’, stia per volgere al termine. Delle quattro principali banche centrali del mondo – la Federal Reserve americana, la Bank of England, la Banca Centrale Europea e la Banca del Giappone – due hanno già abbandonato la politica di acquisto di attività finanziarie (la Fed e la BoE), e la Bce intende smettere gli acquisti da dicembre. La Fed dovrebbe infatti iniziare a vendere nei prossimi due mesi i 3500 miliardi di dollari di titoli acquistati in tre cicli di Qe. Dal momento che – valutato alla luce degli obiettivi ufficiali – il Qe è stato un completo disastro, ciò appare perfettamente sensato. Grazie ad un’“iniezione” di denaro nell’economia, il Qe avrebbe dovuto portare le banche a prestare nuovamente, rilanciando gli investimenti e la crescita economica. In realtà, dopo l’introduzione del Qe il credito bancario totale nel Regno Unito è invece diminuito, e il credito a piccole e medie imprese – responsabili per il 60% dell’occupazione – è in caduta verticale.Come notato da Laith Khalaf, senior analyst presso Hargreaves Lansdown, «dopo la crisi finanziaria, le banche centrali hanno inondato l’economia globale con denaro a buon mercato, ma la crescita globale è tuttora in una situazione di stallo, in particolare in Europa ed in Giappone, dove sono state prese imponenti misure di stimolo per fronteggiare il problema». Persino “Forbes” ammette che il Qe ha «in gran parte fallito nel rivitalizzare la crescita economica». Ciò non sorprende, o quanto meno non dovrebbe. Il Qe era destinato fin dall’inizio a mancare i suoi obiettivi dichiarati, perché il motivo per cui le banche non finanziavano investimenti produttivi non era la carenza di denaro – al contrario, già nel 2013, molto prima degli ultimi cicli di Qe, le imprese inglesi disponevano di quasi 500 miliardi di riserve liquide – ma piuttosto perché l’economia globale si trovava (e si trova tuttora) in una profonda crisi di sovrapproduzione. In poche parole, i mercati erano (e sono) saturi, e non ha senso investire in un mercato saturo.Per questo motivo, tutto il nuovo denaro creato dal Qe ed “iniettato” nelle istituzioni finanziarie – come fondi pensione e compagnie d’assicurazione – non è stato poi investito nelle attività produttive, ma si è invece riversato nei mercati azionari ed immobiliari, gonfiando i prezzi delle azioni e degli immobili, senza generare nulla in termini di ricchezza reale o occupazione. I titolari di beni come azioni e immobili hanno tratto molti vantaggi dal Qe, che in Uk si stima abbia accresciuto la ricchezza del 5 percento più ricco mediamente di 128.000 sterline a testa. Com’è stato possibile? Da dove è venuta tutta questa nuova ricchezza? Dopo tutto, anche se il denaro – a dispetto degli slogan dei Tory – può essere effettivamente creato “dal nulla”, precisamente come è stato fatto col Qe, non è così per la ricchezza reale. Ed il Qe non ha prodotto ricchezza reale. Eppure, il 5% più ricco oggi dispone di 128.000 sterline extra da spendere in yacht, ville principesche, diamanti, caviale e così via. Ma da dove viene questo denaro?Semplice. La ricchezza che il Qe ha trasferito ai titolari di asset proviene, in primo luogo, direttamente dai salari dei lavoratori. Poiché ha praticamente svalutato la moneta, il Qe ha ridotto la capacità d’acquisto del denaro, il che ha causato nei fatti una svalutazione dei salari reali, che in Uk sono tuttora del 6% al di sotto dei loro livelli pre-Qe. Il denaro sottratto ai salari forma dunque parte di quel dividendo di 128.000 sterline. Ma viene anche dagli ultimi arrivati nei mercati gonfiati dal Qe – principalmente gli acquirenti di una prima casa e chi è recentemente andato in pensione. Chi oggi acquista una casa (che il Qe ha reso molto più cara), ad esempio, dovrà lavorare migliaia di ore in più per pagare un mutuo a prezzi più alti. Sono queste ore in più a creare la ricchezza che sovvenziona le stravaganti spese del 5% più ricco. Ovviamente, questi prezzi immobiliari più alti sono pagati da chiunque acquisti una casa, non solo da chi lo fa per la prima volta – ma per chi è già proprietario il costo aggiuntivo è compensato dall’aumento di prezzo della casa già di proprietà (o delle azioni, per chi è abbastanza ricco da possederne).Un’altra conseguenza del Qe è che chi va in pensione adesso è costretto a sovvenzionare il 5% più ricco. I nuovi pensionati usano il loro fondo pensione per acquistare una ‘rendita’ – un pacchetto di titoli azionari fruttiferi che produce reddito. Ma poiché il Qe ha causato un’inflazione del prezzo dei titoli, ciò ha ridotto il numero di titoli acquistabili con questo fondo. E dato che all’aumento di prezzo dei titoli non corrisponde un aumento dei dividendi, ciò si traduce in una pensione ridotta. In realtà, la teoria che il Qe servisse ad incoraggiare gli investimenti e stimolare l’occupazione e la crescita è sempre stata un artificio fantasioso creato per dissimulare quello che stava realmente accadendo – un colossale trasferimento di ricchezza verso i più ricchi. L’economista Dhaval Joshi faceva notare nel 2011: «La cosa più sconvolgente è che, dopo due anni di apparente ripresa, i lavoratori [inglesi] in realtà guadagnano meno che nel momento più drammatico della recessione. Salari e stipendi reali sono calati di 4 miliardi di sterline. I profitti sono aumentati di 11 miliardi. I benefici della ripresa sono stati distribuiti nel modo più iniquo possibile».Nel marzo di quest’anno il “Financial Times” riportava che, nonostante il Pil della Gran Bretagna sia ritornato ai livelli pre-crisi già dal 2014, i salari reali sono ancora più bassi del 10% rispetto al 2008. «La contrazione dei salari reali in Uk si è arrestata nel 2015», aggiungeva, «ma ciò non è destinato a durare». Così è stato. Nello stesso mese di pubblicazione di quell’articolo, i salari reali hanno iniziato nuovamente a scendere, e sono da allora in costante diminuzione. Lo stesso è successo in Giappone, dove, secondo “Forbes”, «il reddito delle famiglie si è effettivamente ridotto dopo l’introduzione del Qe». Il Qe ha sortito un effetto simile nei paesi del sud del mondo: aumentare la ricchezza dei detentori di asset a spese di chi non ne ha. Così come l’afflusso di nuovo denaro crea bolle nei mercati immobiliari e finanziari, allo stesso modo crea una bolla nei prezzi delle materie prime, dovuta ad esempio alla corsa degli speculatori all’acquisto di quote di petrolio e di materie prime alimentari.Per alcuni paesi produttori di petrolio ciò ha comportato effetti positivi, con la messa a disposizione di denaro inatteso da investire in programmi sociali, come inizialmente è accaduto nel caso di Venezuela, Libia ed Iran. In tutti e tre i casi, le forze imperialiste sono state costrette a ricorrere a vari livelli di intervento militare per contrastare queste conseguenze indesiderate. Ma l’aumento del prezzo del petrolio è certamente deleterio per paesi che non ne producono – e qualsiasi aumento dei prezzi alimentari è sempre devastante. Nel 2011 il “Daily Telegraph” sottolineava «la correlazione tra i prezzi alimentari e gli acquisti da parte della Fed di titoli di Stato americani (ossia, programmi di quantitative easing)…Si può notare come l’indice dei prezzi alimentari si è pressoché stabilizzato tra la fine del 2009 e l’inizio del 2010, ed è poi nuovamente salito a partire dalla metà del 2010 dopo il nuovo avvio del quantitative easing… con un aumento dei prezzi di circa il 40% durante un periodo di tempo di otto mesi».L’aumento dei prezzi ha spinto 44 milioni di persone in povertà nel solo 2010 – il “Telegraph” riteneva che ciò stesse alla base del malcontento manifestato nelle cosiddette Primavere Arabe. Robert Zoellick, ex presidente della Banca Mondiale, all’epoca commentava: «L’inflazione dei prezzi alimentari è oggi la più grave minaccia incombente sui poveri del mondo… basta un episodio di maltempo estremo per finire nel baratro». Sono questi i costi del quantitative easing. I paesi Brics erano anche critici nei confronti del Qe per un altro motivo: lo consideravano un metodo subdolo di svalutazione competitiva. Riducendo artificialmente il valore delle loro monete, la “triade imperiale” Usa, Ue e Giappone causavano a tutti gli effetti un apprezzamento delle valute di tutti gli altri paesi, danneggiando così le loro esportazioni.Nel 2015 “Forbes” scriveva: «Gli effetti si iniziano già a sentire anche nei paesi esportatori più dinamici al mondo, nell’est asiatico. Le loro esportazioni in dollari americani hanno subito una drammatica variazione, da una crescita annua del 10% ad una contrazione del 12% nella prima metà di quest’anno, e questi risultati non cambiano, che si tenga conto o no della Cina». Il vantaggio principale del Qe per i paesi in via di sviluppo avrebbe dovuto essere l’enorme afflusso di capitali da esso innescato. Si stima che circa il 40% del denaro generato dalla prima espansione di credito Qe della Fed (‘Qe1’) si è spostato all’estero – in particolare nei cosiddetti ‘mercati emergenti’ del sud del mondo – e circa un terzo durante il Qe. Tuttavia, contrariamente alle apparenze questo non è necessariamente un vantaggio. Gran parte del denaro, come si è visto, è stato utilizzato per acquistare scorte di materie prime (rendendo così beni essenziali come il cibo esorbitanti per i poveri) invece di essere investito in attività di produzione, ed un’altra buona parte è servita per acquistare scorte valutarie, causando ancora una volta un apprezzamento nocivo alle esportazioni.Per di più, un afflusso di ‘hot money’ (capitali speculativi erranti, in contrapposizione al capitale per gli investimenti di lungo termine) accentua la volatilità e vulnerabilità delle valute in caso, ad esempio, di aumenti dei tassi esteri. Se, ad esempio, i tassi d’interesse dovessero nuovamente salire in Usa ed in Europa, ciò rischierebbe di scatenare una fuga di capitali dai mercati emergenti, che potrebbe innescare un tracollo valutario. Fu infatti proprio un afflusso di ‘hot money’ nei mercati valutari asiatici, molto simile a quello visto durante il Qe, a precedere la crisi valutaria asiatica del 1997. La prossima fine del Qe, con il conseguente innalzamento dei tassi d’interesse, rischia di riproporre proprio questa vulnerabilità come una possibilità – se non addirittura come un’opportunità speculativa.(Dan Glazebrook, “Quantitative Easing, il più grande trasferimento di ricchezza della storia”, da un editoriale su “Rt” del 22 luglio 2017, tradotto e ripreso da Margherita Russo per “Voci dall’Estero”. Glazebrook è un giornalista politico freelance che collabora, fra gli altri, con “Russia Today Rt”, “Counterpunch”, “Z Magazine”, il “Morning Star”, il “Guardian”, il “New Statesman”, l’“Independent” e “Middle East Eye”. I suoi saggi esaminano i legami tra la crisi economica, l’ascesa dei Brics, le guerra in Libia e in Siria e l’“austerità” europea. Attualmente conduce ricerche per un libro sull’impiego degli “squadroni della morte” contro Stati sovrani e movimenti politici, dall’Irlanda del Nord e dall’America Centrale negli anni ‘70 e ‘80 fino al Medio Oriente e all’Africa di oggi).Sembra che l’enorme trasferimento di ricchezza verso i ricchi, durato circa un decennio e noto come ‘quantitative easing’, stia per volgere al termine. Delle quattro principali banche centrali del mondo – la Federal Reserve americana, la Bank of England, la Banca Centrale Europea e la Banca del Giappone – due hanno già abbandonato la politica di acquisto di attività finanziarie (la Fed e la BoE), e la Bce intende smettere gli acquisti da dicembre. La Fed dovrebbe infatti iniziare a vendere nei prossimi due mesi i 3500 miliardi di dollari di titoli acquistati in tre cicli di Qe. Dal momento che – valutato alla luce degli obiettivi ufficiali – il Qe è stato un completo disastro, ciò appare perfettamente sensato. Grazie ad un’“iniezione” di denaro nell’economia, il Qe avrebbe dovuto portare le banche a prestare nuovamente, rilanciando gli investimenti e la crescita economica. In realtà, dopo l’introduzione del Qe il credito bancario totale nel Regno Unito è invece diminuito, e il credito a piccole e medie imprese – responsabili per il 60% dell’occupazione – è in caduta verticale.
-
Vaccini: la scienza non è conoscenza, non ha verità stabili
“La scienza non è democratica”. Quante volte abbiamo sentito dire questa frase in tv riguardo ai vaccini, oppure da qualcuno che lo ripeteva come un mantra? Ma cosa significa esattamente? Vorrebbe per caso dire che un fatto provato rimane tale anche se non è accettato dal popolo? Detta così potrebbe sembrare ragionevole. Ovviamente tutto ruota intorno al concetto di scienza e cosa esattamente voglia dire. Citando un celebre filosofo diciamo cosa non è la scienza: «La scienza non è un insieme di asserzioni certe, o stabilite una volta per tutte, e non è neppure un sistema che avanzi costantemente verso uno stato definitivo. La nostra scienza non è conoscenza: non può mai pretendere di aver raggiunto la verità, e neppure un sostituto della verità come la probabilità» (Karl Popper, “Logica della scoperta scientifica”). Dovrebbe essere scontato ma bisogna qui ricordare che “la scienza” è un concetto astratto, non esiste se non nella mente degli uomini. Purtroppo sempre più spesso si commette l’errore di indentificare “la scienza” con “la comunità scientifica”, o più maliziosamente qualcuno vorrebbe farlo credere. Ma “la comunità scientifica” a sua volta è un altro concetto astratto, perché anch’essa non esiste; esiste un numero imprecisato di scienziati con le più diverse opinioni, basate tutte su concetti scientifici, chi più chi meno.Chiarito il fatto che “la scienza” non scrive le sue leggi sulla pietra, cerchiamo di capire in particolare nella “scienza medica” cosa significa una “verità scientifica”. Il metodo scientifico, su cui gli scienziati si basano, prevede l’osservazione del fenomeno e la sua ripetibilità con un esperimento. Il medico (scienziato?) tuttavia osserva un essere umano che per definizione è un essere unico e irripetibile in un laboratorio, quindi già qui dovremmo cominciare a domandarci quanto un medico possa mai essere uno scienziato. In ogni caso la comunità medica (scientifica?) si è data delle regole proprie per misurare l’“autorevolezza” (concetto che poco si sposa con l’idea di oggettività che siamo abituati a confondere con “scienza”) di una determinata ricerca rispetto ad un’altra. Nel mondo delle pubblicazioni scientifiche, per misurare la prolificità e l’impatto scientifico di un autore, si utilizzano tre numeri: il primo è il numero di citazioni dirette ricevute negli studi altrui, cioè quante volte gli studi di quello scienziato/autore vengono citati e referenziati nelle pubblicazioni, anch’esse accreditate, di altri autori.Il secondo numero è l’“i10-index” e rappresenta il numero di pubblicazioni accreditate che hanno al loro interno almeno 10 citazioni degli studi dello scienziato/autore. Il terzo numero è il più indicativo, e il più difficile da calcolare: l’“Indice H” o “Indice di Hirsch” si basa contemporaneamente sul numero di citazioni e sul numero di pubblicazioni: indica quant’è il massimo numero H per autore, con H pubblicazioni che abbiano ciascuna al proprio interno almeno H citazioni degli studi dello scienziato/autore. Per andare sul pratico, prendiamo 3 soggetti coinvolti nel dibattito sui vaccini: il professor Yehuda Shoenfeld, il padre della ricerca sulle malattie autoimmunitarie, spesso citato come fonte autorevole dai free-vax; il professor Roberto Burioni, l’esperto che vediamo sempre in tv e che sponsorizza senza se e senza ma il recente decreto Lorenzin sui vaccini; il dottor Salvo Di Grazia, ginecologo, noto per il suo sito “Medbunker”, su cui si impegna ad attaccare qualsiasi tipo di dubbio riguardo alle pratiche mediche “ufficiali”, o qualsiasi terapia alternativa a quelle ufficiali.Ecco i loro punteggi. Professor Yehuda Shoenfeld: citazioni 78.584, i10-index 1.146, indice H: 121 (fonte). Professor Roberto Burioni: citazioni: 2.567, i10-index 61, indice H 27 (fonte). Dottor Salvo Di Grazia: citazioni 0, i10-index 0, indice H: 0. Fonte: nessun link, non risulta proprio su “Google Scholar”. Secondo le stesse regole che si è data la comunità scientifica, quindi, a chi dovremmo dare retta? La cosa più paradossale, di cui chi è arrivato fin qui ormai dovrebbe essersi accorto, è che in realtà “la scienza”, definita come è stata dalla comunità scientifica, somiglia pericolosamente a una moda. Paradossalmente, rispetto al titolo dell’articolo, “la scienza” sembra avere dei tratti “democratici” nel senso che citando gli autori gli si conferisce “autorità” scadendo in un preoccupante “benpensantismo”, “rigorosamente” scientifico. In altre parole, un’idea scientifica in realtà è una moda (o convinzione) fatta dal consenso degli addetti ai lavori e non dal popolo (forse è quello il vero senso della frase “la scienza non è democratica”?). E a questo punto sarebbe lecito anche domandarsi cosa significhi radiare un medico che la pensa diversamente (o almeno questo ci hanno fatto credere) dal pensiero dominante, dalla moda del momento. La storia, tragicamente, si ripete, sempre. Nota: questo articolo chiarisce il pensiero del professor Yehuda Shoenfeld in merito ai vaccini.(Federico Giovannini, “La scienza non è democratica”, dal blog “Luogo Comune” del 25 luglio 2017).“La scienza non è democratica”. Quante volte abbiamo sentito dire questa frase in tv riguardo ai vaccini, oppure da qualcuno che lo ripeteva come un mantra? Ma cosa significa esattamente? Vorrebbe per caso dire che un fatto provato rimane tale anche se non è accettato dal popolo? Detta così potrebbe sembrare ragionevole. Ovviamente tutto ruota intorno al concetto di scienza e cosa esattamente voglia dire. Citando un celebre filosofo diciamo cosa non è la scienza: «La scienza non è un insieme di asserzioni certe, o stabilite una volta per tutte, e non è neppure un sistema che avanzi costantemente verso uno stato definitivo. La nostra scienza non è conoscenza: non può mai pretendere di aver raggiunto la verità, e neppure un sostituto della verità come la probabilità» (Karl Popper, “Logica della scoperta scientifica”). Dovrebbe essere scontato ma bisogna qui ricordare che “la scienza” è un concetto astratto, non esiste se non nella mente degli uomini. Purtroppo sempre più spesso si commette l’errore di indentificare “la scienza” con “la comunità scientifica”, o più maliziosamente qualcuno vorrebbe farlo credere. Ma “la comunità scientifica” a sua volta è un altro concetto astratto, perché anch’essa non esiste; esiste un numero imprecisato di scienziati con le più diverse opinioni, basate tutte su concetti scientifici, chi più chi meno.