Archivio del Tag ‘elettricità’
-
Auto elettrica Eni-Enel, l’Italia potrebbe stupire il mondo
Ministro Di Maio, ma perché noi italiani non potremmo sorprendere tutti, per una volta? Disponiamo di due colossi, Eni ed Enel, in grado di trasformarsi in attori mondiali di primo piano nel nuovo business planetario dei veicoli elettrici. «Quello che sta accadendo è lo sbattere assieme di due industrie come non è mai accaduto prima nella storia», assicura Erik Fairbairn di Pod Point Ltd, l’azienda di punta inglese per le stazioni di ricarica degli “electric vehicles” (auto, scooter, camion, bus). Una frase lapidaria, sottolinea Paolo Barnard, che descrive «uno dei fenomeni più impensati ed eclatanti dell’economia globale», ovvero «la forzata fratellanza dei colossi del petrolio con quelli dell’elettricità a fronte della rivoluzione mondiale degli “Ev”, nella consapevolezza che il futuro del motore a combustione è segnato». Infatti, Big Oil e Big Utilities si sono lanciate insieme con acquisizioni miliardarie per non perdere una grossa fetta dell’industria dei trasporti di domani, che sarà sempre più a “carburante” elettrico: un affare globale da trilioni di dollari, euro, yuan e yen. La Royal Dutch Shell, aggiunge Barnard, ha calcolato ormai con certezza che il settore perderà oltre 10 milioni di barili di petrolio al giorno per il consumo nei trasporti entro il 2040, a favore dell’elettricità. Di più: la Cina ha stabilito per legge la più alta quota obbligatoria al mondo di “Ev” sul suo mercato, e nelle aziende, entro il 2030.Il governo del gigante asiatico ha stanziato 50 miliardi di dollari d’incentivi per gli “electric vehicles” per i prossimi due anni: Pechino sarà il maggior mercato di veicoli “Ev” del pianeta entro 12 anni, con una richiesta da far impallidire il resto del mondo. «La Volkswagen l’ha capito da un pezzo e ha sborsato subito un anticipo di 10 miliardi per arrivare per prima in Cina (poi la gente si chiede perché la Germania vince)». Per i prossimi sette anni, prosegue Barnard, aziende come Volkswagen, Bmw, Ford e Toyota hanno investito un totale di 165 miliardi di dollari nei veicoli elettrici, «non solo perché gli idrocarburi stanno distruggendo il clima e saranno man mano banditi, ma anche (più cinicamente) perché la tecnologia ha già oggi superato i due ostacoli maggiori allo sviluppo degli “Ev”, che erano l’autonomia (oggi siamo oltre i 500 km con una carica) e i tempi per le ricariche (le batterie Toshiba ricaricano un’auto in 6 minuti)». E poi, appunto, c’è l’immensa torta del mercato cinese. Per questo, oggi, le stime della maggiori “consultancies” internazionali danno il mercato globale degli “Ev” in crescita a ritmi pazzeschi: si parla dell’8.600% (ottomilaseicento per cento) nei prossimi 22 anni. E qui, scrive Barnard rivolgendosi a Di Maio, l’Italia potrebbe avere un’idea dirompente che la proietterebbe ai primi posti al mondo nella Disruption, la rivoluzione del lavoro indotta dalle nuove tecnologie, rilanciando economia e occupazione.Basterebbe che Eni ed Enel, cioè Big Oil e Big Utility in Italia, si lanciassero in una joint-venture «ben oltre il solito mercato delle stazioni di ricarica per “Ev”». Secondo Barnard potrebbero unire le loro imponenti forze (tecnologie avanzate, risorse e know-how) per sbarcare sul mercato dei produttori di veicoli elettrici, «in diretta competizione coi leader mondiali come Volkswagen, Bmw o Tesla, per anche superarli e divenire protagonisti di quello che è destinato a essere il più ricco mercato globale dei trasporti su terra». Ragiona Barnard: Eni ed Enel sono “sorelle”, insieme al ministero del Tesoro, e quindi – nel giro di neppure vent’anni – le ricadute sarebbero immense, per lo Stato e per l’economia, per il lavoro e per l’ambiente. «Un picco verso l’alto di Pil fra meno di vent’anni non è futurismo», assicura Barnard. Al contrario, sarebbe «l’occupazione e la società dei nostri figli alle elementari o alle medie adesso, ma anche di molti di noi, e con ricadute essenziali sui pensionati per ovvi motivi». Eni ed Enel potrebbero cioè attuare la Disruption del settore auto, senza più Sergio Marchionne e John Elkann. Basterebbe allineare l’Italia alle maggiori potenze economiche, dove i giganti petroliferi si stanno “gemellando” con i giganti delle utilities, mettendo in campo un’arma in più: la capacità competitiva del binomio Eni-Enel.Mentre il fenomeno si concentra sulla distribuzione del nuovo “carburante” elettrico, scrive Barnard, citando joint-ventures «tutte dedicate alle stazioni di ricarica degli “Ev”», non risulta che nessuno dei colossi mondiali abbia ancora pensato di «usare il proprio strapotere economico e tecnologico per entrare nel mercato dei veicoli, non solo rifornirli». E c’è un buon motivo, spiega Barnard: nella quasi totalità dei casi studiati – Usa e Gran Bretagna, Svezia, Giappone, Germania, Francia, Cina – i giganti esteri di petrolio e utilities risiedono in paesi con industrie automobilistiche già in prima linea negli “Ev”. Non l’Italia, però: «La sparpagliata anglo-olandese-italiana Fiat Chrysler Automobiles ha annunciato, con l’evidente riluttanza di Marchionne ben espressa alla “Reuters” nel gennaio 2018, un misero investimento di 9 miliardi di dollari negli “Ev”, che è quasi un decimo di quello della Volkswagen». Ecco il perché della proposta per l’Italia avanzata da Barnard: un marchio automobilistico Eni+Enel+Ev (col Tesoro).«Si tratta di saper vedere avanti, cioè di avere la cosiddetta “vision”», sottolinea il giornalista: «Sono certo che almeno all’Eni esiste una conoscenza approfondita dei mercati cosiddetti South Asia, China and Southeast Asia, e dell’esplosivo potenziale d’acquisto che stanno sviluppando, tale da umiliare tutto l’Occidente fra una manciata d’anni». Quindi, un’impresa come quella delineata non nascerebbe certo senza un mercato, anzi: e domani, quando «le vendite internazionali di “Ev” saranno a 9 zeri e straripanti», è facile prevedere quale indotto di lavoro l’industria automobilistica Eni+Enel+Ev creerebbe in un paese come l’Italia, che – ricorda Barnard – è ancora la prima nazione al mondo «per densità di piccole medie imprese». Praterie sconfinate di occupazione: dall’impiego negli stabilimenti alla costruzione delle infrastrutture sul territorio per le colonne di ricarica. Barnard insiste sul potenziale rivoluzionario della Disruption in atto: Artificial Intelligence e Machine Learning stanno cambiando volto al lavoro sul pianeta, facendo sparire mestieri e creandone di nuovi. Una delle applicazioni più studiate, e su cui sono stati investiti enormi capitali, sono le auto “driverless”: «E’ solo una questione di quando arriveranno, non “se”».E quindi, insiste Barnard, «un’Italia con due colossi tecnologici nazionali, Eni+Enel, già lanciati nel settore automobilistico e dei trasporti con gli “Ev”, diverrebbe anche leader delle “driverless”, con gli sbocchi economici e d’occupazione che si possono immaginare». Cosa stiamo aspettando, se è vero che – per la prima volta nella storia – i giganti del petrolio e quelli delle utilities marciano insieme, mentre l’industria dell’auto sta investendo centinaia di miliardi nei veicoli elettrici? «Non vedo perché il nostro gigante del petrolio, Eni, e il nostro gigante utility, Enel, non possano unire le loro grandi tecnologie per non solo competere nel settore rifornimenti, ma proprio per ridare all’Italia un marchio dell’auto del futuro, per la felicità del Tesoro a Roma, del Pil e dell’occupazione». Scrive Barnard, rivolto a Di Maio: «Ministro, il lavoro per gli italiani non si crea con decreti a mo’ di cerotti occupazionali appiccicati di qua e di là in quello che è un bagno di sangue di disoccupazione a due cifre. Il vero lavoro duraturo, a vita e remunerato bene – aggiunge Barnard – si crea solo con una “vision” di grande respiro». Per una volta, conclude il giornalista, l’Italia potrebbe tornare a stupire tutti, se solo lo volesse.Ministro Di Maio, ma perché noi italiani non potremmo sorprendere tutti, per una volta? Disponiamo di due colossi, Eni ed Enel, in grado di trasformarsi in attori mondiali di primo piano nel nuovo business planetario dei veicoli elettrici. «Quello che sta accadendo è lo sbattere assieme di due industrie come non è mai accaduto prima nella storia», assicura Erik Fairbairn di Pod Point Ltd, l’azienda di punta inglese per le stazioni di ricarica degli “electric vehicles” (auto, scooter, camion, bus). Una frase lapidaria, sottolinea Paolo Barnard, che descrive «uno dei fenomeni più impensati ed eclatanti dell’economia globale», ovvero «la forzata fratellanza dei colossi del petrolio con quelli dell’elettricità a fronte della rivoluzione mondiale degli “Ev”, nella consapevolezza che il futuro del motore a combustione è segnato». Infatti, Big Oil e Big Utilities si sono lanciate insieme con acquisizioni miliardarie per non perdere una grossa fetta dell’industria dei trasporti di domani, che sarà sempre più a “carburante” elettrico: un affare globale da trilioni di dollari, euro, yuan e yen. La Royal Dutch Shell, aggiunge Barnard, ha calcolato ormai con certezza che il settore perderà oltre 10 milioni di barili di petrolio al giorno per il consumo nei trasporti entro il 2040, a favore dell’elettricità. Di più: la Cina ha stabilito per legge la più alta quota obbligatoria al mondo di “Ev” sul suo mercato, e nelle aziende, entro il 2030.
-
Sos Disruption: entro 15 anni sparirà un mestiere su due
Il lavoro di oggi? Sparirà. E quello di domani sarà diverso, gestito in tandem con le macchine. Sta cambiando tutto alla velocità della luce, ma nessuno ce lo sta dicendo: né la politica, né i media, né tantomeno la scuola. Lo afferma Paolo Barnard, il reporter che – per primo, nel saggio “Il più grande crimine” – ricostruì la genesi dell’Ue e dell’Eurozona in termini di criminalità politica da parte dell’élite finanziaria neo-feudale, orientata al “genocidio economico” nel quale si dibatte l’Europa, Italia in primis. Riletto oggi, alla luce della rivoluzione copernicana già in atto nel mondo del lavoro, persino un abominio “golpista” come l’imposizione dell’euro fa quasi sorridere. Motivo: il futuro ci sta venendo addosso con una rapidità inimmaginabile. Più della metà dei mestieri attualmente svolti in Occidente diverranno obsoleti perché antieconomici: al posto di operai, funzionari e ingegneri ci saranno robot evolutissimi, macchine auto-apprendenti forgiate dal Machine Learning garantito da computer “quantistici”. Si chiama Tecnological Disruption, e secondo Barnard è un cambiamento «così potente da trasformare in breve tempo la vita umana sul pianeta Terra». Precedenti nella storia: «La scoperta del fuoco e quella dell’agricoltura, la matematica, la stampa, le macchine a vapore, l’elettricità».Le nuove tecnologie digitali potenziate dall’Artificial Intelligence stanno cambiando davvero tutto: sarà la fine del mondo, così come l’abbiamo conosciuto. E nessuno, a quanto pare, se ne sta accorgendo. Parlano i numeri, già drammatici secondo tutte le proiezioni ufficiali: a livello globale, da 1 a 2 miliardi di lavoratori perderanno il posto entro il 2030, la maggioranza in Occidente. A farne le spese saranno impiegati contabili e amministrativi, aziende manifatturiere e manodopera produttiva, insieme a costruzioni ed estrazioni minerarie, ma anche avvocatura e giudici, lavori di installazione e manutenzione, operatori di gru e trattoristi, meccanici e riparatori. Spariranno posti di lavoro nelle arti e nel design, nell’intrattenimento, nello sport e nei media, insieme a molte mansioni nel settore turistico. In compenso, dalla rivoluzione tecnologica usciranno rafforzati business e finanza, manager, informatica e matematica, architettura e ingegneria, ma anche rappresentanti, camerieri, specialisti in istruzione e formazione, pensatori creativi e manager per la Disruption – nonché farmacisti, infermieri e operatori socio-sanitari.«Entro il 2030 si stima che fino a 375 milioni di posti di lavoro, globalmente, dovranno essere “reskilled”, cioè riqualificati», scrive Barnard nel suo blog. Ad esempio: nel settore manifatturiero, dicono gli esperti, cadranno mansioni nelle mani dell’Artificial Intelligence e della robotica, ma il lavoratore potrà essere re-impiegato in fasi diverse del lavoro, aumentando la produttività: gli servirà però un “reskilling”. Alibaba, colosso cinese dell’e-commerce, ha calcolato che i suoi robot da magazzino risparmiano a ogni magazziniere almeno 50.000 mosse fisiche al giorno, riducendone molto lo stress fisico ma soprattutto liberandogli tempo per aumentarne la produttività ma senza prolungare l’orario di lavoro. Naturalmente, scrive Barnard, Alibaba i suoi dipendenti li ha “reskilled”. Quindi, «l’impresa del “reskilling” di milioni di italiani non è un optional, è l’aria da respirare, e ogni singolo analista al mondo oggi lo dice chiaro: i governi giocano qui il ruolo principale con un intervento generoso nei bilanci». Ma una nazione con vincoli di budget «al limite del sadismo sociale», per citare l’economista Giulio Sapelli, come diavolo farà a riqualificare sul lavoro due o tre milioni di persone?Oltretutto, il “reskilling” è ormai un ordine di scuderia a tappe forzate: «Lasciar languire nella terra di nessuno i lavoratori in transito significa perderli per strada, con danni economici enormi». Si domanda Barnard: «Come farà l’Italia, soffocata nei bilanci dall’Eurozona, quando tutti gli esperti mondiali invocano chiaramente interventi di governo?». Già ora la Disruption, nelle parole di 20.000 imprenditori europei di tutti i settori, «sta imponendo un aumento vertiginoso nella richiesta di alcune professioni, che si prestano per assorbire sia una quota di futuri licenziati (“reskilled”), che i giovani post-laurea». La rivoluzione in arrivo, dice Barnard, avrà bisogno di nuovissime figure professionali, come i rappresentanti di ultima generazione: «Occorrono disperatamente venditori che siano formati prima di tutto a spiegare quei prodotti, poi a venderli a privati e governi, ma anche per raggiungere nuove fasce di clienti». Poi gli analisti dei dati: «Non occorre un dottorato per questa mansione, ma di certo un buon “reskilling” anche in assenza di laurea». Le aziende, aggiunge Barnard, oggi sanno che Big Data è la scoperta “nucleare” del commercio di prodotti e servizi: bisogna quindi «saper analizzare e trarre conclusioni intelligenti dall’immane massa di dati che la Disruption mette a disposizione».«Il successo si gioca qui, nel terzo millennio: la richiesta di analisti dei dati è destinata a esplodere fra pochissimi anni». Per i laureati brillanti «c’è già ora spazio per ricoprire un ruolo dirigente richiestissimo nei maggiori settori di commercio e servizi, cioè il Manager della Disruption: è colui che si specializza nel guidare l’azienda (piccola, media, grande) ma anche il settore pubblico, nella tempesta di cambiamenti che l’era digitale porta ogni minuto». In generale, proprio grazie alla Disruption, entro il 2030 sono previste globalmente 130 milioni di nuove assunzioni in sanità generale e assistenza agli anziani, nonché 50 milioni nelle tecnologie e altri 20 milioni nel settore energetico. Le professioni del tutto nuove che si prevede nascano grazie alla Disruption, spiega Barnard, sono «gli specialisti intra-umani, cioè intelligenza emotiva, capacità di persuasione, gestori delle emozioni umane nel sociale, e i creatori di motivazione; i pensatori creativi in ogni settore, sia scientifico che industriale che amministrativo, poiché essere super-specializzati ma ottuse ‘scatole di dati’ non innova nulla in azienda». E ancora: serviranno «gli ottimizzatori delle energie rinnovabili e gli operatori nella lotta al cambiamento climatico».Ogni singolo esperto in “occupazione & Disruption”, aggiunge Barnard, “grida” sempre la medesima cosa, che la Consultancy McKinsey & Co. ha espresso nel dicembre 2017 con una frase lapidaria: «La moltiplicazione dei lavori potrebbe più che compensare le perdite a causa dell’automazione. Ma nulla accadrà per magia – richiederà che i governi e il business sappiano creare le opportunità». E qui esplode il problema-Italia: chi si farà carico della formazione permanente imposta dalla Disruption, dati gli attuali limiti drammatici imposti alla spesa pubblica? La scuola, scrive Barnard, deve avere una conoscenza avanzatissima della Disruption in continuo aggiornamento, perché è molto probabile che una parte delle competenze insegnate oggi saranno obsolete per il mondo del lavoro nel giro di 5-8 anni, in media. Con un ritardo di questo genere, nelle scuole e università, cosa farà l’Italia? Ha qualche idea in proposito, il governo gialloverde? Il Miur, ministero dell’istruzione, università e ricerca, ammette di essere in emergenza: i dati Ocse dicono che ogni quindicenne italiano usa il computer in classe molto al di sotto della media europea (molto meno dei greci, e quasi un terzo del tempo di un australiano).Sempre per l’Ocse, i docenti italiani sono in assoluto i meno preparati, in Europa, all’era digitale. Ancora: nel Digital Economy Index, l’Italia languisce al 25mo posto su 28 paesi, ha lacune dappertutto. E nella velocità di connessione alla Rete è in fondo alla classifica europea con un umiliante 9.2 Mbps, davanti solo a Grecia e Cipro. Nelle aule si soffre moltissimo, di questo:«Il processo di diffusione della scuola digitale negli ultimi anni è stato piuttosto lento», confessa il Miur, che denuncia «azioni spesso non incisive e non complessive». Aggiunge Barnard: «Sapere è lavoro, ma un buon lavoro – oggi, nella Disruption – significa sapere molto. E con una situazione del genere c’è da mettersi le mani nei capelli». Nessuna area italiana è inclusa tra gli “Innovator leaders” europei. Solo il Piemonte figura tra gli “Strong innovators”, mentre il resto della penisola è in terza posizione, tra i “Moderate innovators”, mentre la Sardegna è relegata tra i “Modest innovators” come Croazia, l’Estremadura, l’Est Europa più povero e arretrato. Una mappa impetosa: «L’Italia non solo sprofonda nell’economia tradizionale (a causa soprattutto dell’Eurozona), ma colpevolmente i suoi governi degli ultimi 15 anni l’hanno tenuta fuori dalla realtà, cioè dalla Disruption, e infatti siamo “gialli”, cioè quasi ultimi nell’innovazione, e dunque fra gli ultimi nelle prospettive di lavoro dei nostri figli».Generalmente, aggiunge Barnard, un paese moderno ospita oltre 900 mestieri. E dato che «una buona parte delle nuove tecnologie della Disruption stanno sbocciando in queste ore o sbocceranno appena domani», è impossibile essere precisi. Ma una cosa è più che evidente: a dettare legge sarà la tecnologia dell’intelligenza artificiale di Machine Learning, «perfetta per sostituire i lavori ripetitivi d’ufficio, per far funzionare la logistica aziendale, per far “pensare” i robot nelle industrie, ma anche per sostituirsi all’umano in compiti complessi all’interno di molti mestieri sofisticati». Giusto per dare al pubblico un’idea del grado di penetrazione del Machine Learning, cioè del fatto che davvero saranno pochissimi i lavori di domani che non avranno almeno in qualche segmento un’intelligenza artificiale a sostituire qualcosa o qualcuno, la Mit Initiative sull’economia digitale «afferma che il mestiere in assoluto più “blidato” contro la Disruption è il… massaggiatore». All’altro estremo, invece, figurano «le mansioni che sembrano davvero destinate a essere falcidiate», ovvero «gli impiegati, i contabili, gli amministrativi in generale».Se è scontato che fra i “colletti blu” (diplomati, ma senza laurea) tanto dovrà cambiare, «molti genitori e studenti ancora non comprendono purtroppo cosa accadrà alle professioni dei “colletti bianchi”, degli specializzati, che siano medici, avvocati, commercialisti, o persino ingegneri informatici (esempio estremo, ma anche fra loro cadranno teste con l’Artrificial Intelligence)». Parla da solo il caso americano: nei primi 15 anni di digitalizzazione dell’economia Usa, ricorda Barnard, le disparità di redditi fra “colletti blu” (licenza liceale) e “colletti bianchi” (lauree) schizzò in alto, perché i secondi – grazie alla formazione digitale universitaria – poterono approfittare dei nuovi lavori ben pagati, gli altri no e subirono in pieno l’impatto devastante del crash bancario del 2008. Addirittura, il fenomeno ha raggiunto un tale livello di gravità che fra i “colletti blu” in America c’è un’epidemia di suicidi per disperazione, descritti in uno studio del 2014 firmato da Anne Case insieme ad Angus Deaton, Premio Nobel per l’Economia. «Vero è che gli Stati Uniti sono un incubo d’abbandono sociale dei deboli, dove il welfare quasi non esiste», ammette Barnard. In compenso, l’Europa si sta auto-sabotando con i tagli sanguinosi al suo welfare.«I criminosi limiti di spesa pubblica che l’Ue impone agli Stati membri – dice Barnard – escludono in via categorica che i vari schemi di Reddito di Cittadinanza abbiano un potere di fuoco sufficiente a evitare al nostro paese un’apartheid fra inclusi ed esclusi nella Disruption». In altre parole: «Finché Eurozona sarà – insiste il giornalista, rivolto ai lettori – il realismo mi costringe a dirvi che l’unica arma che rimane ai vostri figli per difendersi dal destino denunciato da Angus Deaton e Anne Case è una formazione solidissima ai nuovi lavori della Disruption (che non sono solo tecnologia)». Dunque il messaggio per genitori e ragazzi è chiarissimo: «La seconda ondata di digitalizzazione in corso oggi con la Disruption porta soprattutto con sé il pericolo di un enorme divario nei redditi, oltre a una sostanziale dose di lavori perduti». Per mettere al riparo i nostri figli, e i giovani già oggi al lavoro, secondo Barnard c’è una sola arma concreta: per i giovanissimi una formazione scolastica e universitaria più aggiornata possibile, che li presenti al mondo del lavoro come appetibili, e per i già impiegati l’impegno di Stato e aziende nella riqualificazione “a vita”. Il rischio fatale, per l’Italia del lavoro, è di rimanere tragicamente indietro: «Significherebbe un prossimo secolo di arretratezza e bassa economia per tutti i nostri giovani e per i loro figli». Nel 2016 il World Economic Forum lo disse senza mezzi termini: «Chi non si prepara affronterà costi sociali ed economici enormi».Attenzione: qualcosa di analogo a quanto sta per accadere (e di cui nessuno parla) è già avvenuto, nella storia. Per dare un’idea della dimensione planetaria del problema, Barnard cita lo scozzese James Watt: «Nel 1775 diede vita alla più dirompente Disruption della storia con l’invenzione della macchina a vapore». Fece morire di colpo i vecchi mestieri, ma al tempo stesso fece esplodere lo sviluppo sociale umano, il che significa benessere e quindi possibilità democratiche. Per 9.700 anni filati, scrive Barnard, le condizioni di vita del popolo comune «rimasero sostanzialmente identiche, a un livello abominevole, spesso peggio degli animali selvatici». Poi arrivò la Disruption di Watt – e delle scienze post-Galileo con l’elettromagnetismo di Faraday e di Maxwell – e in Occidente tutto cambiò di colpo, perché cambiò il lavoro, aumentarono i redditi e con essi la rivendicazione dei diritti. «E’ vero che la Disruption di allora si portò dietro una buona dose di lacrime e sangue prima di darci la modernità del benessere, che tuttavia furono nulla in confronto a 9.700 anni di standard di vita abietti oltre l’immaginabile. Ma l’altra faccia, gloriosa, di quell’esplosione tecnologica fu di fornire alle lotte sociali mezzi tecnologici di diffusione, e quindi di successo, impensabili prima, fino appunto alla moderna civiltà».Oggi, sottolinea Barnard, la Disruption delle nuove tecnologie digitali potenziate dall’Artificial Intelligence «sta scatenando un’altra storica impennata dell’umanità, che è però di molto superiore a quella di Watt per l’enorme potere tecnologico odierno. E di nuovo, tutto si gioca su come cambierà il lavoro: non chissà quando, ma entro il 2030». Demis Hassabis, Ceo di Google DeepMind (azienda che sta al centro della galassia “Ai”), ha detto: «Il nostro goal è di conquistare l’intelligenza, poi di usarla per risolvere tutti gli altri problemi». Macchine intelligenti, al posto di esseri umani. Ed enorme disparità tra chi resterà al passo e chi sarà tagliato fuori. Lo confermano gli studi delle maggiori “Consultancies” del mondo: Pwc Uk, Deloitte, McKinsey, Accenture. Tutti d’accordo, insieme agli accademici: almeno nella prima fase, la Disruption fondata sull’intelligenza artificiale (robotica, nuove tecnologie), falcerà milioni di posti di lavoro. Ma la stessa Disruption, spiega Barnard, offre possibilità di recupero nella riqualificazione, nell’aumento di richiesta per certe professioni e nel fatto che nasceranno lavori che oggi non esistono.Tutto dipende da due fattori decisivi: la velocità dei governi nel legiferare misure per cavalcare la Disruption, favorendo la nascita dei nuovi lavori, e l’intelligenza dei datori di lavoro «nel capire che l’epoca dell’egoismo del profitto è morta, gli porterà solo fallimenti certi». Il futuro digitale «impone intelligenza», il che significa «coordinamento fra aziende, e fra di esse e lo Stato». Di fatto, avverte Barnard, con la Disruption «oggi saltano le politiche di creazione di lavoro, in Occidente, che i nostri padri e noi abbiamo conosciuto finora». Problema: «I contemporanei di un fenomeno epocale di cambiamento faticano sempre a svegliarsi di fronte al nuovo, e questo si traduce in drammi». Per dire: «Quanti italiani oggi leggono i giornali al mattino cercando ansiosamente notizie sulle politiche del lavoro del ministro Di Maio per la Disruption? Nessuno. Eppure la leadership mondiale non ha più dubbi sul fatto che essa ribalterà, come mai prima nella storia, proprio l’occupazione di numeri impressionanti nel globo». Certo, i politici «hanno il vincolo del breve mandato e l’ossessione cieca del voto-subito entro il mandato, per cui non s’impegneranno mai in politiche e dibattiti che all’italiano medio sembrano fantascienza». Idem per i media: «Sanno che la Disruption è una news che oggi si può vendere agli italiani solo al 300esimo posto dopo la casta, la corruzione, il politici-ladri, gli immigrati, le polemiche Tv, e trattano il tema principalmente come folklore da futuristi. Risultato: non un singolo organo di stampa italiano sta davvero informando su come sarà stravolta l’economia, la politica e la fabbrica sociale di ogni paese moderno per mano della Disruption».E così si compie un circolo vizioso devastante per l’Italia, destinata ad arrancare come fanalino di coda «mentre Francia, Germania, Svezia, Svizzera, Gran Bretagna, Russia, Cina, Sud-Est Asiatico e ovviamente gli Usa si saranno già spartiti l’immensa torta del lavoro e del Pil da Disruption». Risultato: «I giovani italiani nel precariato, in preda alla disoccupazione e ancora disperatamente dipendenti da quel rivolo che gli rimane del risparmio di nonni e genitori degli anni 70’-90’», prigionieri di un paese sempre più confinato tra i “Pigs” con Portogallo, Grecia e Spagna – non più Piigs, annota Barnard, «perché invece l’Irlanda sta capendo e cavalcando la Disruption, è ha già preso il volo da quell’acronimo infame». Ma non è destino degli dèi che debba davvero andare così, aggiunge il giornalista: a sta a noi capire la Disruption per sapere come inciderà sul Pil e sull’occupazione. Ma non c’è tempo da perdere: «La velocità di sviluppo delle nuove tecnologie per il lavoro è talmente forsennata che è già stato calcolato che diversi “skills” – così si chiamano le competenze centrali per la Disruption – che vengono insegnati agli studenti oggi, tempo che gli studenti si presenteranno ai colloqui di lavoro in aziende saranno già obsoleti».In parole semplici: «Mentre tu studi intensamente un’applicazione di Machine Learning per l’edilizia, Machine Learning ne ha scovata una migliore, tu ti presenti al colloquio di lavoro e il datore se ne fa poco, di te». Scrive il Mit di Boston: le tecnologie cambiano i modelli di business e molto spesso questi si traducono in uno sconvolgimento simultaneo del set di “skills” che le aziende richiedono, e questo già oggi crea difficoltà nell’assumere personale. Velocità: «Sarà un problema enorme proprio sul mercato del lavoro dei giovani, e altrettanto enorme per eventuali programmi di apprendistato, che rischiano di diventare degli autogoal con sprechi di finanziamenti enormi», osserva Barnard. Attenzione, però: le stesse tecnologie di Big Data possono dare al governo «un inimmaginabile potere di efficiente governanace». La stessa “cloud” potrà essere usata da tutto il sistema produttivo italiano di beni e servizi in un dialogo diretto, in tempo reale, col ministero dell’istruzione. Pubblico e privato potrebbero scambiarsi informazioni istantanee su «come sta cambiando la natura degli “skills” dentro le aziende, gli ospedali e le varie istituzioni». Lo stesso Miur, come sollecitano gli esperti internazionali, «dovrà avere l’elasticità e la prontezza di riflessi di trasmettere immediatamente a scuola e università il messaggio dei datori di lavoro», per armonizzare domanda e offerta in base ai nuovi parametri in costante evoluzione.Fantascienza? Non ci sono alternative, par di capire. «Questo è il tipo di ambizioso progetto che un paese oggi deve essere in grado d’intraprendere se davvero è serio sulla difesa del lavoro», sostiene Barnard, auspucando «un salto innovativo, in linea con gli attori vincenti nella Disruption». Scrive McKinsey Global: «I governi devono totalmente riconsiderare i modelli scolastici odierni. La questione è urgente, e devono mostrare una leadership di grande coraggio nel riscrivere i curricula. E’ un’elasticità che da decenni il mondo del lavoro attende». Oggi, infatti, il “reskilling” è sulla bocca di tutti gli operatori economici. Per Barnard, a salvare il sistema-Italia sarà un “reskilling” (o “upskilling”) dei lavoratori, da condurre a vita, per ogni settore del Pil italiano. «Dovrà essere intelligente, il che significa innanzi tutto che va fatto in partnership con il settore privato dell’Italia, il quale deve saper dimostrare una “vision” ben oltre la sua tradizionale e provinciale parcellizzazione». Soprattutto, le tecnologie di Big Data «dovranno essere usate da governo e datori di lavoro per “better forecasting data and planning metrics”, cioè saper prevedere le svolte e pianificare con largo anticipo la richiesta dei talenti, su cui poi appunto lanciare in tutto il paese programmi di “reskilling” (o di “upskilling”) con chirurgica precisione».Dunque, secondo Barnard, l’Italia è alla storica sfida dell’occupazione nell’era della Disruption. «Il potere globale di quest’ultima è senza limiti, ma gli Stati possono governarla per tutelare l’impiego nella colossale tempesta dei cambiamenti». In questo sforzo, aggiunge, il governo deve comprendere un aspetto cruciale che distingue le tecnologie della Disruption: si dividono infatti in due rami, quelle di tipo Enabling e quelle di tipo Replacing. «La Disruption porterà sia una richiesta di lavori già esistenti riformulati in nuove versioni, che nuove professioni che oggi non esistono». In questo caso, nella versione Enabling, aprirà vasti bacini di posti di lavoro ma, al tempo stesso, spazzerà via schiere di mestieri perché le macchine “pensanti” li rimpiazzeranno (Replacing, appunto). Ne consegue una scelta politica di orizzonte: «E’ totalmente futile ed economicamente distruttivo continuare a spendere sia fondi pubblici che fondi privati (delle famiglie) per formare giovani, o per incoraggiare lavori, destinati alla categoria dove le tecnologie saranno di tipo Replacing, poiché significa destinare esseri umani a un suicidio lavorativo certo».Per Barnard, l’Italia dovrà quindi «investire massicciamente nell’adozione del maggior numero di tecnologie Enabling per ovvi motivi di creazione di lavoro», ma dovrà anche «essere scaltra nell’incoraggiare quelle che si adattano meglio alla struttura sociale, alla conformazione territoriale e produttiva del nostro paese». Un esempio concreto? «Siamo uno dei popoli più longevi del mondo, perciò la cura extra-ospedaliera dei nostri anziani arricchita dalle nuove tecnologie Enabling del settore è garanzia di creazione d’innumerevoli mansioni a ogni livello di complessità (settore del Personal Care). Sono mansioni che saranno utili a nuovi impieghi sia per i cittadini meno “skilled” che per gli specialisti. La medesima strategia va applicata alla nostra struttura architettonica, geografica, energetica, sempre per generare ampio impiego». Al problema della Disruption, in questi mesi, Barnard ha dedicato il massimo impegno, lavorando in solitudine, convinto che l’umanità sia ormai di fronte «al più dirompente cambiamento occupazionale dal 1775 a oggi», dai tempi della macchina a vapore. «Continuo a ripeterlo: le soluzioni a problemi sistemici devono essere sistemiche, il resto sono truffe vendute da politici cinici a un pubblico stupido, i cui figli poi piangeranno per generazioni».Il lavoro di oggi? Sparirà. E quello di domani sarà diverso, gestito in tandem con le macchine. Sta cambiando tutto alla velocità della luce, ma nessuno ce lo sta dicendo: né la politica, né i media, né tantomeno la scuola. Lo afferma Paolo Barnard, il reporter che – per primo, nel saggio “Il più grande crimine” – ricostruì la genesi dell’Ue e dell’Eurozona in termini di criminalità politica da parte dell’élite finanziaria neo-feudale, orientata al “genocidio economico” nel quale si dibatte l’Europa, Italia in primis. Riletto oggi, alla luce della rivoluzione copernicana già in atto nel mondo del lavoro, persino un abominio “golpista” come l’imposizione dell’euro fa quasi sorridere. Motivo: il futuro ci sta venendo addosso con una rapidità inimmaginabile. Più della metà dei mestieri attualmente svolti in Occidente diverranno obsoleti perché antieconomici: al posto di operai, funzionari e ingegneri ci saranno robot evolutissimi, macchine auto-apprendenti forgiate dal Machine Learning garantito da computer “quantistici”. Si chiama Tecnological Disruption, e secondo Barnard è un cambiamento «così potente da trasformare in breve tempo la vita umana sul pianeta Terra». Precedenti nella storia: «La scoperta del fuoco e quella dell’agricoltura, la matematica, la stampa, le macchine a vapore, l’elettricità».
-
Avete idea di cos’era l’Italia, quando aveva la Montedison?
Probabilmente ci sarebbero un milione di posti lavoro in più in Italia, se non fosse stata “suicidata” la Montedison di Raul Gardini. Era il primo gruppo industriale privato italiano, ricorda Mitt Dolcino: la Fiat, all’epoca, era ben lontana dalle vette dei grandi gruppi di Stato come Eni, Stet (Telecom), Enel e forse la stessa Sme (agroindustriale). «Oggi che si è insediato il primo governo eletto non a seguito di influenze esterne – inclusa l’ingerenza della magistratura (ossia Tangentopoli) – dobbiamo ragionare freddamente su cosa successe veramente con Raul Gardini», scrive Dolcino su “Scenari Economici”. «La situazione oggi è talmente grave che qui ci giochiamo l’italianità». Infatti non è un caso – aggiunge l’analista – che Montedison alla fine fu conquistata e spolpata proprio dai francesi, guardacaso gli stessi che, secondo il giudice Rosario Priore, attentarono alla sovranità italiana durante “l’incidente” di Ustica, e che oggi «sembrano distribuire la Legion d’Onore ad ogni notabile italiano che va contro gli interessi del Belpaese». Caduto il Muro di Berlino, di fatto, l’Italia perse la protezione degli Usa. «E l’Europa, la stessa che oggi ci bastona, organizzò il banchetto dato dalle privatizzazioni italiane a saldo (con Draghi, che casualmente fece una fulgida carriera, ad organizzare il piano sul Britannia)».
-
Addio rondini: clima, il Sahara avanza e ferma i migratori
Vola sulle ali delle rondini il meraviglioso romanzo “Il viaggiatore notturno”, Premio Strega 2005, nel quale il poetico irundologo immaginato da Maurizio Maggiani scommette sulla memoria ancestrale della Terra: vuoi vedere che i piccoli migratori sostano ancora nel deserto algerino, dopo migliaia di anni, perché “si ricordano” che quelle lande bruciate dal sole erano state, un tempo, un vero e proprio paradiso umido, ricco di lagune e insetti? Il problema, oggi, è che la “memoria” delle rondini potrebbe non bastare più, da quando – a causa del surriscaldamento climatico – il Sahara ha preso ad avanzare anche verso Sud, estendendo in modo pericoloso l’habitat proibitivo del deserto: troppi chilometri, senza più la possibilità di rifornirsi di cibo durante l’immensa fatica della migrazione stagionale. Risultato: potremmo dire addio, per sempre, alla presenza delle rondini nei nostri cieli. «Le nostre amate rondini, come anche il balestruccio e il topino, stanno diminuendo a ritmo costante», avverte Marco Gustin, ricercatore della Lipu: «Il deserto Transahariano è la loro casa invernale che, per il riscaldamento globale, si sta allargando verso Sud. Quindi, raggiungere i luoghi dove svernare è sempre più faticoso: le distanze tra Sahara ed Europa aumentano e gli uccelli nel percorso consumano preziose energie. Tanto che molti non sopravvivono, soprattutto le nuove generazioni».E’ sempre più difficile la convivenza tra uomo e natura, ammette Valentina Venturi su “Repubblica”. «Il campanello d’allarme risuona inascoltato per gli uccelli migratori, i grandi viaggiatori della Terra, che di anno in anno diminuiscono, in maniera inesorabile. Vivono letteralmente la fatica di essere migranti». Negli ultimi anni, osservano gli ornitologi, ben 200 specie di volatili nomadi sono state classificate come globalmente minacciate, mentre il 40% delle specie migratrici sono in diminuzione. Le migrazioni sono a ciclo continuo, e le rondini non fanno eccezione: vivono in Africa dalla metà di ottobre alla metà di marzo, mentre nei restanti sei mesi migrano verso l’Europa. Tra le principali cause del flusso migratorio ci sono «la perdita e il degrado dell’habitat, il rischio di collisione con le turbine eoliche e le linee elettriche posizionate in modo sbagliato, l’eccessivo sviluppo non sostenibile delle risorse naturali e ovviamente l’uccisione e la cattura illegale di volatili». Ma il massimo comun denominatore di questa vera e propria ecatombe, aggiunge Venturi, è proprio il riscaldamento globale del pianeta.Un’emergenza ricordata dalla campagna globale di sensibilizzazione e educazione sostenuta dall’Onu per la Giornata mondiale degli uccelli migratori, che pone l’accento sulla necessità di una cooperazione internazionale. «Gli uccelli migratori connettono persone, ecosistemi e nazioni. Sono simboli di pace e di un pianeta unito: i loro epici viaggi ispirano persone di tutte le età, in tutto il mondo», sottolinea il segretario generale delle Nazioni Unite António Guterres. «C’è da dire – conclude Marco Gustin – che il processo è quasi irreversibile: siamo noi uomini la causa di questo dramma ambientale. Occupiamo ogni giorno più spazio fisico, riducendo le zone naturali a disposizione della flora e della fauna. Solo in Italia siamo 60 milioni di persone che volenti o nolenti incidono sull’ambiente. Più cresceremo senza rispettare la natura e più il pianeta ne risentirà». Spariranno un giorno anche le rondini? Nel “Viaggiatore notturno”, sono gli uccelli a “ricordarsi” di com’era la Terra. Verrà un giorno in cui saranno gli uomini a poter solo ricordare gli uccelli migratori, minuscoli ed eroici testimoni di un pianeta verde, estintosi insieme a loro?Vola sulle ali delle rondini il meraviglioso romanzo “Il viaggiatore notturno”, Premio Strega 2005, nel quale il poetico irundologo immaginato da Maurizio Maggiani scommette sulla memoria ancestrale della Terra: vuoi vedere che i piccoli migratori sostano ancora nel deserto algerino, dopo migliaia di anni, perché “si ricordano” che quelle lande bruciate dal sole erano state, un tempo, un vero e proprio paradiso umido, ricco di lagune e insetti? Il problema, oggi, è che la “memoria” delle rondini potrebbe non bastare più, da quando – a causa del surriscaldamento climatico – il Sahara ha preso ad avanzare anche verso Sud, estendendo in modo pericoloso l’habitat proibitivo del deserto: troppi chilometri, senza più la possibilità di rifornirsi di cibo durante l’immensa fatica della migrazione stagionale. Risultato: potremmo dire addio, per sempre, alla presenza delle rondini nei nostri cieli. «Le nostre amate rondini, come anche il balestruccio e il topino, stanno diminuendo a ritmo costante», avverte Marco Gustin, ricercatore della Lipu: «Il deserto Transahariano è la loro casa invernale che, per il riscaldamento globale, si sta allargando verso Sud. Quindi, raggiungere i luoghi dove svernare è sempre più faticoso: le distanze tra Sahara ed Europa aumentano e gli uccelli nel percorso consumano preziose energie. Tanto che molti non sopravvivono, soprattutto le nuove generazioni».
-
Sindacati e Confindustria uniti nella lotta contro i lavoratori
Pochi giorni fa la Corte dei Conti ha espresso un giudizio negativo sui contratti già stipulati nel pubblico impiego. Troppi i soldi dati a tutti e troppo pochi quelli legati al merito individuale, ha sentenziato. Il fatto è che i dipendenti pubblici hanno subìto quasi dieci anni di blocco contrattuale. Solo il recupero del costo della vita avrebbe comportato aumenti attorno ai trecento euro. Invece, come si sa, gli aumenti reali delle buste paga, quelli che ricevono tutti, sono stati tra i 50 e gli 80 euro lordi, cioè tra i 30 e 50 netti. E la magistratura contabile ora considera questi incrementi salariali eccessivi. Quindi per lo Stato il salario dei suoi dipendenti deve ridursi. Per i privati va meglio? Neanche per sogno. L’accordo sul sistema contrattuale firmato con scene di giubilo comune tra i vertici di Cgil, Cisl, Uil e quelli di Confindustria è la peggiore politica di depressione salariale fatta contratto. Esso conclude un percorso iniziato nel 2009 da un’ intesa che la Cgil inizialmente non sottoscrisse, salvo poi cambiare idea successivamente. L’ultimo contratto dei metalmeccanici sottoscritto anche dalla Fiom – il peggiore della storia della categoria con quasi zero aumenti salariali, la flessibilità a go go e i fondi sanitari – ha dato il via libera definitivo a quest’intesa.L’accordo interconfederale programma la riduzione dei salari reali nei contratti nazionali e lega rigidamente quelli aziendali ai massimi profitti dell’impresa. A livello nazionale i soli aumenti previsti saranno quelli che rivalutano i minimi tabellari, che sono solo una parte della retribuzione effettiva di un lavoratore. Si dovrà calcolare quanto cresce il costo della vita, sottrarre da esso i costi energetici e dei beni importati – l’aumento della bolletta elettrica, del gas, della benzina che non si recupera in busta paga – e infine si arriverà a definire quanto sarà l’aumento reale in busta paga. Con questo sistema i metalmeccanici hanno ricevuto l’incremento favoloso di 3 euro mensili. Si crea così più spazio per la contrattazione a livello aziendale, come dicono i firmatari dell’accordo e i soliti esperti liberisti e confindustriali? Certo che no. I lavoratori non possono rivolgersi alla loro azienda dicendole: visto che il contratto nazionale non ci ha dato i soldi che ci spettano, ora ce li dai tu. Eh no, risponderà l’azienda, l’accordo interconfederale stabilisce che ogni centesimo in più debba essere guadagnato con lavoro in più e legato all’andamento dei profitti aziendali. Per essere chiari, se l’azienda va benissimo ai lavoratori tocca qualcosa, che però può essere loro tolto se la situazione cambia.Il salario aziendale diventata totalmente variabile, verso l’alto ma anche verso il basso. Il salario fisso vale sempre meno e quello che dovrebbe integrarlo è sempre più aleatorio: oggi c’è, domani no. Insomma i lavoratori vengono trattati come i manager, ma con retribuzioni mille volte inferiori. In sintesi con questo sistema contrattuale il salario reale può solo calare. Del resto lo stesso concetto di aumento della retribuzione viene bandito dalle regole del gioco. I sindacati non possono rivendicare più soldi solo perché i lavoratori non ce la fanno ad arrivare alla fine del mese. Guai, questo significherebbe alimentare la vecchia lotta di classe e rifiutare la moderna collaborazione con l’impresa! Ci sono voluti quasi trenta anni di accordi, dal taglio della scala mobile negli anni ’80, alle varie intese degli anni ’90 e dell’ultimo decennio; alla fine l’obiettivo storico delle classi imprenditoriali è stato raggiunto: il salario costituzionale, quello che definisce la dignità del lavoro indipendentemente dal mercato, non esiste più. E con esso non esiste neppure più la contrattazione. I sindacati che accettano questo modello non possono e non devono chiedere più nulla, devono solo applicare delle formule rinunciando a fare il loro mestiere.I metalmeccanici tedeschi hanno raggiunto le 28 ore settimanali assieme all’aumento dei salari. L’accordo sul sistema contrattuale italiano non solo impedisce che simili risultati possano essere mai acquisiti, ma vieta persino che possano essere richiesti. La piattaforma della IgMetall, nel sistema sottoscritto da Camusso e compagnia, sarebbe semplicemente fuorilegge. Neppure i vertici della Ue avrebbero saputo imporre ai lavoratori italiani un sistema così capace di farli lavorare sempre di più e guadagnare sempre di meno. Cgil, Cisl, Uil e Confindustria cancellano la possibilità per i lavoratori di ottenere contratti degni di questo nome, ma si mettono definitivamente assieme in affari. Fondi pensione, sanità privata, formazione e traffici vari sul lavoro, di questo si occuperanno davvero.Alla firma dell’intesa i leader sindacali e confindustriali si sono abbracciati e hanno fatto sapere alla politica che essa non deve occuparsi di loro, che i lavoratori sono cosa loro. Pensano così di essersi salvati dal crollo del Pd, partito che, pur con finte polemiche, hanno sempre sostenuto. Hanno organizzato un sindacato unico di regime in cui padroni e vertici sindacali operano affratellati in una sola corporazione. A sua volta lo Stato, con le parole della Corte dei Conti, ha teorizzato la riduzione dei salari dei propri dipendenti. Il Fiscal Compact e il pareggio di bilancio obbligatorio costituzionalmente si fanno contratto. È il tallone di ferro che schiaccia tutto il mondo del lavoro, un regime di austerità e di impoverimento permanente che si afferma con la complicità di Cgil, Cisl e Uil. La ricostruzione del valore costituzionale del lavoro e del suo salario passa attraverso la rottura del sistema di relazioni sindacali che si è affermato in questo decenni. E ovviamente questa rottura dovrà anche riguardare i grandi sindacati confederali, che per salvare sé stessi hanno abbandonato i lavoratori al mercato ed ai tagli della spesa pubblica.(Giorgio Cremaschi, estratto da “E’ nato il nuovo sindacato unitario: Cgil, Cisl, Uil e Confindustria”, da “Carmilla” del 22 aprile 2018).Pochi giorni fa la Corte dei Conti ha espresso un giudizio negativo sui contratti già stipulati nel pubblico impiego. Troppi i soldi dati a tutti e troppo pochi quelli legati al merito individuale, ha sentenziato. Il fatto è che i dipendenti pubblici hanno subìto quasi dieci anni di blocco contrattuale. Solo il recupero del costo della vita avrebbe comportato aumenti attorno ai trecento euro. Invece, come si sa, gli aumenti reali delle buste paga, quelli che ricevono tutti, sono stati tra i 50 e gli 80 euro lordi, cioè tra i 30 e 50 netti. E la magistratura contabile ora considera questi incrementi salariali eccessivi. Quindi per lo Stato il salario dei suoi dipendenti deve ridursi. Per i privati va meglio? Neanche per sogno. L’accordo sul sistema contrattuale firmato con scene di giubilo comune tra i vertici di Cgil, Cisl, Uil e quelli di Confindustria è la peggiore politica di depressione salariale fatta contratto. Esso conclude un percorso iniziato nel 2009 da un’ intesa che la Cgil inizialmente non sottoscrisse, salvo poi cambiare idea successivamente. L’ultimo contratto dei metalmeccanici sottoscritto anche dalla Fiom – il peggiore della storia della categoria con quasi zero aumenti salariali, la flessibilità a go go e i fondi sanitari – ha dato il via libera definitivo a quest’intesa.
-
Reddito di cittadinanza: è il piano (infernale) degli oligarchi
Mark Zuckerberg non ha bisogno di presentazioni: mister Facebook vale 64 miliardi di dollari. Altro paperone-prodigio: il sudafricano Elon Musk, patron di Tesla e Space-X. Cos’hanno in comune, a parte i giacimenti aurei? La fede nel reddito di cittadinanza. La pensano così anche l’americano Richard Branson della Virgin e il canadese Stewart Butterfield, l’inventore della banca-immagini Flickr e di Slack, applicazioni per messaggerie. Uomini d’oro e potenti oligarchi, improvvisamente anche umanitari: si stanno battendo a favore del reddito di base garantito, osserva Chris Hedges, a lungo corrispondente estero del “New York Times”. «Sembra che siano dei progressisti e che esprimano queste loro proposte con parole che parlano di morale, prendendosi cura degli indigenti e dei meno fortunati». Ma dietro questa facciata, scrive Hedges, c’è una cruda consapevolezza: soprattutto la Silicon Valley «vede un mondo – quello che questi oligarchi hanno contribuito a creare – tanto iniquo che i consumatori di domani, che dovranno sopportare la precarietà del lavoro, salari sotto i minimi, l’automazione e la schiavitù di un debito che blocca tutto, non saranno in condizione di spendere abbastanza per comprare i prodotti e i servizi offerti dalle grandi corporations».
-
American Moon: davvero saremmo andati sulla Luna?
“American Moon”, ovvero: ci siamo stati davvero, sulla Luna? E’ la domanda a cui cerca di rispondere Massimo Mazzucco, con l’atteso documentario – appena uscito, acquistabile on-line su “Luogo Comune – che indaga sul mitico “allunaggio” televisivo, in mondovisione, andato in onda a reti unificate il 20 luglio 1969. A metter piede per la prima volta sul satellite sarebbe stato Neil Armstrong, comandante della missione Apollo 11, accompagnato da Buzz Aldrin, mentre un terzo astronauta, Michael Collins, controllava il modulo di comando Columbia. “American Moon” parla della storia dei viaggi lunari a partire dagli anni ’60, spiega Stefania Nicoletti sul blog “Petali di Loto”, condotto insieme a Paolo Franceschetti. «In particolare viene esaminata la veridicità del primo sbarco sulla Luna, ma viene anche descritto il contesto storico e politico in cui nacque e si sviluppò il progetto delle missioni Apollo». Mazzucco analizza le argomentazioni a favore degli allunaggi e quelle contrarie, esaminando video e fotografie, dettagli tecnici, i tanti incidenti e le contraddizioni, i misteriosi silenzi degli astronauti, assai reticenti sull’impresa che li ha consegnati alla storia. L’autore fornisce anche prove inedite. La conclusione? E’ praticamente impossibile credere che quelle immagini siano state davvero girate sulla Luna.Innanzitutto, Mazzucco inquadra il il contesto storico che ha portato al primo allunaggio. Il 18 settembre 1963, il presidente Kennedy espone al direttore della Nasa, James Webb, i suoi dubbi sulle missioni lunari. «A me sembra una montagna di soldi per andare sulla Luna, quando possiamo scoprire scientificamente, con gli strumenti, quasi tutto quello che ci interessa». E aggiunge: «Mandare un uomo sulla Luna è soltanto un numero da circo che non vale tutti quei miliardi di dollari». Parole molto chiare, considerando soprattutto il fatto che a pronunciarle è il presidente degli Stati Uniti. Soltanto due giorni dopo, continua Stefania Nicoletti, sempre nel contesto della guerra fredda tra Usa e Urss, in un discorso all’Onu lo stesso Jfk fa un appello alla collaborazione con i sovietici: chiede che i russi – i primi a mandare un uomo nello spazio, Yurij Gagarin – collaborino con l’America, per una spedizione congiunta sulla Luna. Il capo dell’Urss, Nikita Khrushev, risponde picche. E dive: vedremo cosa riusciranno a combinare gli americani. «In seguito, l’impressione è che Kennedy sia quasi costretto a proseguire nell’impresa e che, pur essendo scettico, non possa rifiutarsi di andare avanti». E il 22 novembre 1963, come sappiamo, viene ucciso a Dallas.«Nel frattempo i russi continuarono ad addestrare i propri astronauti e a portare avanti un programma segreto per andare sulla Luna». Ma nel gennaio 1966, Sergej Korolev, responsabile del programma spaziale sovietico, muore improvvisamente durante un banale intervento chirurgico. Aveva lanciato il primo satellite, lo Sputnik, e aveva messo in orbita Gagarin. Korolev aveva concepito l’intero programma spaziale sovietico, ed era l’unico in grado di mandare avanti la controparte russa del programma americano Apollo. «Una morte assai strana, che causò confusione e disagi nell’agenzia sovietica. Infatti in seguito il programma spaziale russo, dopo diversi incidenti e fallimenti, subì un arresto». Nell’autunno 1965, il generale Samuel Phillips, direttore del progetto Apollo, presentò ai suoi superiori un rapporto che denunciava senza mezzi termini lo stato di confusione e di arretramento del programma lunare. «Dopo 4 anni e mezzo e a poco più di un anno dal primo lancio spaziale – scrive Phillips – vi sono ancora significativi problemi tecnici e incognite che riguardano: le capacità del sistema elettrico, la propulsione secondaria, l’integrità strutturale, l’incremento del peso».Tutti problemi ancora da risolvere. «Cosette da niente, insomma. E sottolineiamo il fatto che a parlare è il direttore stesso del programma Apollo», annota Stefania Nicoletti. «Invece di risolversi, i problemi denunciati da Phillips continuavano ad aumentare: pezzi costruiti e installati male, cavi elettrici fragili e forse rotti, perdite di carburante dappertutto nel sistema, difficoltà con l’equipaggiamento e con le procedure, incidenti e scarsi standard di sicurezza, mancanza di coordinamento fra le persone in posizione di responsabilità, mancanza di comunicazione praticamente fra tutti. Tutte queste cose furono denunciate nel gennaio 1967 da Thomas Baron, un addetto alle verifiche della North American, la società appaltatrice». Proprio in questo contesto di problemi e di approssimazioni si arriva al famoso incidente del 27 gennaio 1967. «Durante una simulazione a terra di Apollo 1, tre astronauti furono bruciati vivi sulla rampa di lancio, all’interno della capsula che avrebbe dovuto portarli nello spazio tre settimane dopo». Poco prima di morire, l’astronauta Virgil Grissom si è lamentato per il malfunzionamento delle comunicazioni fra la capsula e la torre di controllo: «Come faremo ad andare sulla Luna se non riusciamo nemmeno a parlare fra tre edifici?».A questo punto, continua Nicoletti, il programma cominciò ad andare sempre più in crisi. Secondo il direttore della Nasa, Webb (colui che nell’incontro con Kennedy del ’63 si dimostrava entusiasta e ottimista), le possibilità di andare sulla Luna diminuivano di anno in anno, anziché aumentare. Nell’ottobre 1968 Webb lasciò la Nasa, pochi mesi prima della missione Apollo 8. «Strano che un uomo che aveva dedicato la sua vita alle missioni spaziali e che era stato a capo della Nasa negli anni cruciali del programma Apollo, improvvisamente decida di dimettersi, a un passo dalla sua realizzazione». Non solo: all’inizio del 1968 si era già dimesso il vicedirettore dell’agenzia spaziale Usa, Robert Seamans. E quattro giorni dopo le dimissioni di Webb, anche l’astronauta Walter Schirra annuncia le proprie dimissioni e si ritira a vita privata. «Molto strano anche in questo caso che un astronauta che faceva parte dei leggendari Mercury 7 lasci la Nasa pochi mesi prima del primo sbarco sulla Luna, che sarebbe stato una consacrazione, per lui».Sono tanti, poi, gli elementi che non quadrano nella versione ufficiale degli allunaggi, secondo il documentario di Mazzucco. «Le famose “rocce lunari”, che si disse fossero di composizione diversa da quella terrestre, è probabile che in realtà siano meteoriti recuperati in Antartide. Casualmente Werner von Braun, insieme ad altri membri della Nasa, visitò proprio l’Antartide in una spedizione nel 1967 alla ricerca di meteoriti provenienti dalla Luna. Inoltre, molte di queste rocce lunari riportate dagli astronauti di Apollo risultarono essere false o modificate». In occasione del Google Lunar X Prize, un premio assegnato da Google alla prima organizzazione privata che riuscirà a mandare una sonda sulla Luna trasmettendo le immagini in diretta, la Nasa chiede di disporre una “no-fly zone” per «preservare storicamente» i luoghi di allunaggio delle missioni Apollo. «I partecipanti al concorso hanno improvvisamente deciso di ritirarsi, rinunciando così anche al premio di 4 milioni di dollari».Altro scoglio, le Fasce di Van Allen: avvolgono e proteggono l’atmosfera terrestre, «sono radioattive ed è impossibile superarle». Lo stesso scopritore, il fisico statunitense James Van Allen, metteva in guardia dalla pericolosità loro delle radiazioni. «Poi però, quando arrivò il momento dei lanci sulla Luna, il problema della radioattività scomparve: la Nasa disse che le radiazioni a cui sono stati sottoposti gli astronauti erano “trascurabili”». Altrri dubbi sorgono osservando il modulo lunare Lem, piccola navetta spaziale progettata per portare gli astronauti sulla superficie della Luna. «Sembra un modellino in scala gigante: all’esterno sono ben visibili tubi d’acciaio e fogli di cartapesta, tenuti insieme con del semplice scotch appiccicato un po’ dappertutto. Non si capisce come si sia potuti andare sulla Luna con uno strumento costruito in modo così approssimativo. Ed è costato oltre 2 miliardi di dollari dell’epoca, che equivalgono ad oltre 21 miliardi di dollari in valuta attuale». I progetti originali del Lem non esistono più: la ditta costruttrice li ha buttati, ufficialmente perché «occupavano troppo spazio». Quindi, dei documenti così importanti sarebbero stati eliminati come se fossero scarti di magazzino.Molto strani anche i video in cui si vede la partenza del razzo dalla superficie lunare: «Non c’è la fiamma sotto al motore», inoltre «il motore non produce rumore», ma in compenso «si sente ad alto volume la musica di un registratore portatile azionato da uno degli astronauti».In più, ufficialmente, la Nasa ha “perso” i nastri originali del primo passo sulla Luna di Armstrong. O meglio, quei nastri non si trovano più: «Uno dei documenti più importanti della storia dell’umanità, che dovrebbe essere custodito in modo perfetto, semplicemente “non si trova”, e la Nasa lo confessa candidamente». Tra le altre stranezze dell’affare-Luna, spicca la luce che si vede nelle foto: «Sembra un’illuminazione artificiale in uno studio, più che la luce del sole. Anche le ombre prodotte dagli astronauti e dagli oggetti sono tipiche della presenza di luce artificiale e non del sole». E ancora: «In alcuni video si vedono gli astronauti che cadono e si rialzano in maniera non naturale e anche un po’ goffa, come se fossero legati a dei fili che li fanno muovere per simulare l’assenza di gravità. E in effetti in alcuni fotogrammi sembra proprio di vedere i riflessi dei cavi d’acciaio a cui sarebbero appesi gli astronauti».Da segnalare, infine, il comportamento degli astronauti: «Al ritorno dalla prima missione Apollo, in conferenza stampa, i tre astronauti sono tesi, cupi, tristi», annota Stefania Nicoletti. «Danno risposte imbarazzanti e non ricordano cose importanti che gli vengono chieste. Sembrano sconvolti e obbligati a stare lì e a recitare un copione controvoglia». Eppure, in teoria, sono appena tornati dalla missione più emozionante della loro vita: uno degli eventi più importanti della storia dell’umanità. Tre eroi, quindi, che però si affrettano a dire addio alle missioni spaziali, cambiando mestiere: «I primi tre astronauti che sbarcarono sulla Luna, invece di perseguire una carriera di successo ai vertici della Nasa come ci si aspetterebbe, decisero improvvisamente di abbandonare l’agenzia spaziale poco dopo la loro missione. Tutti e tre si licenziano dalla Nasa». Neil Armstrong scompare dalla scena e si ritira a vita privata: «Va a vivere in campagna, decide di non concedere più interviste, diventa schivo e inavvicinabile». Peggio: «Si rifiuta di partecipare alla cerimonia per la conclusione delle missioni Apollo. Proprio Armstrong, l’astronauta più importante di tutti».E il suo collega Buzz Aldrin? «Cadde in depressione e mise in guardia i giovani dal mestiere di astronauta e dalle possibili delusioni», ricorda Stefania Nicoletti. Aldrin esortò gli esordienti a prepararsi al peggio, perché «le cose potrebbero non andare come previsto», disse. E aggiunse:: «La gente ci considera degli eroi, ma la verità è che la Luna ci ha distrutti». Durante una cerimonia alla presenza dell’allora presidente Bill Clinton, Armstrong pronunciò una frase ambigua e misteriosa, parlando della necessità di «rimuovere uno degli strati che proteggono la verità». In seguito, Armstrong si rifiutò di partecipare alle celebrazioni del quarantennale delle missioni Apollo. «Interpellati da un giornalista, Armstrong e gli altri due astronauti di Apollo 11 si rifiutano di giurare sulla Bibbia di essere stati veramente sulla Luna. Il loro comportamento è piuttosto sospetto e le reazioni appaiono esagerate», sottolinea Stefania Nicoletti, ricordando che in America «una testimonianza giurata in video può essere portata in tribunale contro la persona che ha fatto questo giuramento». Il documentario di Mazzucco, quindi, fornisce «un quadro a nostro avviso piuttosto chiaro, che confuta alcune delle più famose argomentazioni proposte dai cosiddetti “debunkers”, ovvero coloro che dedicano il loro lavoro a smontare le teorie alternative». Dopo aver visto “American Moon”, come credere ancora che siamo davvero andati sulla Luna?“American Moon”, ovvero: ci siamo stati davvero, sulla Luna? E’ la domanda a cui cerca di rispondere Massimo Mazzucco, con l’atteso documentario – appena uscito, acquistabile on-line su “Luogo Comune” – che indaga sul mitico “allunaggio” televisivo, in mondovisione, andato in onda a reti unificate il 20 luglio 1969. A metter piede per la prima volta sul satellite sarebbe stato Neil Armstrong, comandante della missione Apollo 11, accompagnato da Buzz Aldrin, mentre un terzo astronauta, Michael Collins, controllava il modulo di comando Columbia. “American Moon” parla della storia dei viaggi lunari a partire dagli anni ’60, spiega Stefania Nicoletti sul blog “Petali di Loto”, condotto insieme a Paolo Franceschetti. «In particolare viene esaminata la veridicità del primo sbarco sulla Luna, ma viene anche descritto il contesto storico e politico in cui nacque e si sviluppò il progetto delle missioni Apollo». Mazzucco analizza le argomentazioni a favore degli allunaggi e quelle contrarie, esaminando video e fotografie, dettagli tecnici, i tanti incidenti e le contraddizioni, dai dubbi di Kennedy alle invalicabili Fasce di Van Allen che avvolgono la Terra. E poi i misteriosi silenzi degli astronauti, assai reticenti sull’impresa che li avrebbe consegnati alla storia. L’autore fornisce anche prove inedite. La conclusione? E’ praticamente impossibile credere che quelle immagini siano state davvero girate sulla Luna.
-
Twin Towers, esplosivi: le prove. Ma l’America non le vuole
Le torri del World Trade Center di New York non sarebbero state distrutte dall’impatto di due aerei di linea, ma da un’operazione di “demolizione controllata”, condotta con esplosivi militari a base di nano-termite. Un’accusa pesantissima, che costringe a rileggere sotto una nuova e drammatica luce l’attentato dell’11 Settembre 2001, confermando i sospetti iniziali sull’assoluta inattendibilità della versione ufficiale. A muoverla è l’associazione americana no-profit “Architects & Engineers for 9/11 Truth”, architetti & ingegneri per la verità sull’11 Settembre. E’ costituita dai 2.363 architetti e ingegneri statunitensi che nell’autunno 2016 hanno firmato una petizione indirizzata al Congresso Usa per riaprire una vera investigazione indipendente sulla distruzione del World Trade Center. Lo ricorda Rino Di Stefano in un’accurata ricostruzione, sul suo blog, del maxi-attentato di New York che ha innescato le guerre in Afghanistan e in Iraq, seguite dai conflitti a catena in Libia e Siria, in cui la sigla terroristica iniziale, Al-Qaeda, ha lasciato il posto alla sua filiazione diretta, Isis, in una spirale di violenza e orrore che, da allora, ha giustificato l’impiego sistematico di eserciti, impensabile prima dell’11 Settembre.Gli “Architects & Engineers for 9/11 Truth”, ricorda Di Stefano, hanno inviato un dettagliato report (“Oltre la disinformazione”) a oltre 20.000 americani: professionisti, professori, legislatori e giornalisti. L’autore del dossier è Ted Walter, alla guida di un team dal curriulum ragguardevole: tra i membri Sarah Chaplin, architetto (università londinese di Kingston), Mohibullah Durrani (docente di ingegneria e fisica al Montgomery College del Maryland), Richard Gage (fondatore dell’associazione per la verità sull’11 Settembre), Robert Korol e Graeme McQueen (Università McMaster dell’Ontario), più l’architetto Roberto McCoy e l’ingegnere Oswald Rendon-Herrero, docente dell’Università Statale del Mississippi. «Secondo la versione ufficiale rilasciata dal governo Bush – ricorda Di Stefano – le Torri Gemelle del World Trade Center di New York (entrambe di 110 piani per un’altezza di 415 metri) sono crollate a causa dell’impatto, e del conseguente incendio, provocato da due aerei di linea nel corso di un attentato portato a termine da un gruppo di terroristi mediorientali. Inoltre, anche la terza Torre, chiamata Wtc 7, un edificio di 47 piani alto 174 metri, sarebbe crollata simmetricamente su se stessa nel pomeriggio di quel giorno, in seguito all’incendio provocato dai detriti della Torre 1».Ebbene, questa soluzione non viene accettata, in quanto definita “non scientifica”, da buona parte degli architetti e degli ingegneri americani. «Questi esperti dell’edilizia dichiarano, infatti, che le tre torri siano state fatte crollare in seguito ad un’accurata operazione di demolizione controllata provocata dalla disposizione di esplosivi e altri dispositivi, fatti detonare al momento opportuno per far crollare le strutture nel modo desiderato». Non solo. «L’associazione degli Architetti & Ingegneri – continua Di Stefano – dice chiaramente che l’operazione sarebbe stata preparata prima dell’11 Settembre da specialisti della demolizione che hanno avuto libero accesso alle torri nei giorni precedenti l’attentato». L’analisi offerta è esclusivamente scientifica. La storia del crollo di edifici a completa struttura metallica (come le Torri Gemelle) è lunga almeno cento anni: durante questo periodo, non si è mai verificato che un edificio di quel genere fosse crollato a causa di un incendio. Tutti, infatti, sono stati abbattuti nel corso di operazioni di demolizione controllata. Nonostante questo dato di fatto, il Nist (National Institute of Standards and Technology), incaricato dal governo Bush di indagare sul disastroso attentato, nei risultati della sua indagine ufficiale ha scritto che ha trovato 22 casi di incendio che tra il 1970 e il 2002 hanno portato al crollo di altrettanti palazzi.Di questi 22 casi, 15 furono crolli parziali, dei quali cinque superavano i 20 piani di altezza. Analizzando invece ogni singolo caso, prosegue Di Stefano, lo studio accertò che soltanto in quattro casi si verificò un totale crollo dell’edificio interessato all’incendio, ma nessuno di questi aveva una struttura metallica, e il più alto era di appena 9 piani. «Vennero fatti anche diversi test presso il Building Research Establishment (Bre) Laboratories di Cardington, in Inghliterra, ma in nessun caso risultò che edifici con una struttura metallica potessero crollare completamente a causa di un incendio, per quanto devastante». La probabilità che un’evenienza di questo tipo potesse accadere, venne scritto, era “extremely low” (estremamente bassa). «Se poi si confrontano gli effetti di un crollo dovuto ad incendio rispetto ad un crollo da demolizione controllata, le differenze saltano agli occhi. Nel primo caso, infatti, il collasso dell’edificio è sempre parziale e si ferma ai piani inferiori. In una demolizione controllata, invece, il collasso è totale, avviene in pochi secondi e la caduta è libera, con una discesa simmetrica sul proprio asse».C’è poi il discorso delle esplosioni, sottolinea Di Stefano: mentre un crollo da incendio, se mai si dovesse verificare un’esplosione, avverrebbe là dove le fiamme si sono sviluppate, «nel crollo da demolizione controllata le esplosioni si vedono chiaramente piano per piano, all’esterno dell’edificio: ed è quello che è accaduto nelle Torri Gemelle». La probabilità di un incendio che possa aver causato il crollo totale di un edificio molto alto con una struttura metallica è estremamente basso, sostengono gli “Architetti & Ingegneri”. «Un evento di questo genere non è mai accaduto prima dell’11 Settembre 2001. D’altra parte, nella storia, ogni crollo totale di un edificio molto alto a struttura metallica, è stato causato da demolizione controllata». Secondo punto: un incendio che induce un cedimento delle strutture, di fatto, non mostra alcuna delle caratteristiche di una demolizione controllata. Inoltre, come può essere visto in ciò che è accaduto l’11 Settembre 2001, la distruzione di Wtc 1, Wtc 2 e Wtc 7 mostra «quasi tutte le caratteristiche della demolizione controllata e nessuna caratteristica del collasso provocato da un incendio». Aggiunge Edward Munyak, ingegnere specializzato in misure anti-incendio: «Un collasso globale progressivo potrebbe anche essere straordinario. Ma averne tre in un giorno va oltre ogni comprensione».Buio pesto dalle indagini ufficiali: «Per oltre un anno dal disastro, il governo Bush ha impedito qualunque investigazione su quanto accadde quel giorno», premette Di Stefano. Prima del Nist, le indagini ufficiali erano state condotte dalla Fema (Federal Emergency Management Agency). «Il primo a parlare di bombe situate all’interno delle Torri Gemelle fu l’ingegner Ronald Hamburger della Asce (American Society of Civil Engineers), che collaborava con la Fema». Tuttavia, Hamburger «si rimangiò i propri dubbi quando gli venne detto che nessuno aveva sentito esplosioni nei pressi delle Torri Gemelle». Non fu il solo a smentire la propria prima impressione: Van Romero, un esperto di esplosivi della New Mexico Tech, rilasciò un’intervista al quotidiano “Albuquerque Journal” sostenendo: «Il crollo dei palazzi è stato troppo ordinato per essere il risultato fortuito dell’impatto di aeroplani contro le strutture». E aggiunse: «La mia opinione, basata su quanto ho visto nei filmati, è che dopo che gli aerei hanno colpito il World Trade Center, ci siano stati dei congegni esplosivi dentro i palazzi che hanno causato il crollo delle torri».Il 21 settembre, dopo aver parlato con non meglio identificati “ingegneri strutturali”, Romero ritrattò tutto. Il fatto è che il fuoco dell’incendio doveva essere ufficialmente la causa del disastro, spiega Di Stefano. I dubbi, però, non mancavano. Il 29 novembre del 2001 William Baker, uno degli ingegneri della Fema, rilasciò al “New York Times” la seguente affermazione: «Noi sappiamo che cosa è accaduto alle Torri 1 e 2, ma perché la 7 è venuta giù?». Come scrissero i cronisti James Glanz ed Eric Lipton del “New York Times”, per mesi dopo l’11 Settembre gli investigatori non riuscirono a ottenere i progetti dettagliati degli edifici crollati, ad ascoltare i testimoni del disastro, a fare ispezioni a Ground Zero e ad ascoltare le voci registrate della gente che era rimasta intrappolata all’interno delle torri. Inoltre, la Fema «impedì che gli investigatori si rivolgessero al pubblico per ottenere fotografie e video che avrebbero potuto aiutarli nelle indagini».Un comportamento “incomprensibile”, da parte del governo. «Gli investigatori non riuscirono neppure a prelevare campioni dei detriti delle Torri in quanto, con una fretta sospetta, le migliaia di tonnellate di macerie vennero prelevate, caricate su alcune navi e inviate in Cina e in India per essere smaltite». Così, il 1° maggio 2002, la Fema presentò un dossier preliminare «nel quale non forniva una spiegazione definitiva per la distruzione di ogni singolo edificio», preferendo proporre la cosiddetta “teoria pancake”. Ovvero: le singole solette di cemento dei vari piani superiori, colpiti dall’aereo, sarebbero crollate sul piano inferiore determinando un effetto domino. «Il punto, però, è che il piano sottostante in condizioni normali avrebbe resistito all’impatto», obiettano i tecnici indipendenti. Se non è accaduto, «è perché è venuta meno la forza della sua resistenza». In altre parole, sintetizza Di Stefano, «quando un piano crollava su quello inferiore, alcune cariche esplosive distruggevano le colonne portanti di quella seconda soletta, innescando un effetto a catena».Il Nist si è fermato alla “teoria del pancake”, mentre per il terzo edificio, il Wtc 7, se l’è cavata sostenendo di non aver notato «alcuna prova» che il crollo dell’Edificio 7 sia stato «causato da bombe, missili o demolizione controllata». Ultimo verdetto nell’agosto 2008: edificio crollato anch’esso a causa del fuoco. A smentire il Nist è un libro firmato da due ricercatori, Frank Legge e Anthony Szamboti, il cui libro è intitolato, esplicitamente “9/11 and the Twin Towers: Sudden Collapse Initiation was Impossible”, cioè “Torri Gemelle, l’inizio del crollo repentino era impossibile”. Sostengono gli autori: «Un lento, prolungato e cedevole collasso non è stato osservato». Lo confermano i video: «La sezione più alta improvvisamente ha iniziato a cadere e a disintegrarsi». Un punto di vista tecnico largamente condiviso nel dossier degli “Architetti & Ingegneri”. Il governo sostiene che le colonne portanti delle torri si sarebbero deformate diversi minuti prima del crollo? I tecnici indipendenti smentiscono: non si sono visti affatto gli «inconfondibili segni d’avvertimento» e le «grandi deformazioni» che ci si aspetterebbe prima di un crollo.Se questo processo è avvenuto, scrivono i professionisti, allora è stato invisibile. Ed è avvenuto nel singolo istante in cui le strutture sono crollate. Secondo Kevin Ryan, un ex direttore della Underwriters Laboratories, «la diffusione dell’instabilità avrebbe richiesto molto più tempo e non risulterebbe nella caduta libera delle sezioni superiori sulle strutture inferiori». Il Nist, ricorda Di Stefano, afferma che il Wtc 1 è crollato in appena 11 secondi, mentre la Torre 2 in 9 secondi. Sempre il Nist afferma che la “caduta libera” delle Torri Gemelle è dimostrata dai video, in quanto «i piani inferiori al livello del crollo hanno offerto una minima resistenza alla tremenda energia rilasciata dalla massa dell’edificio che stava cadendo». Per gli scienziati indipendenti, autori di un primo esposto insieme a familiari delle vottime, le motivazioni del Nist «non erano scientificamente valide». L’autorità non avrebbe affatto spiegato le cause tecniche: che cosa è realmente accaduto, e perché. In altre parole, come poi lo stesso Nist fu costretto ad ammettere, gli esperti del governo «non erano in grado di fornire una spiegazione completa del crollo totale».Un’altra osservazione che mette in forte dubbio i risultati del Nist, continua Di Stefano nella sua ricostruzione, riguarda l’assoluta mancanza di decelerazione durante il crollo delle torri. «Una mancanza di decelerazione – riporta il dossier – indicherebbe con assoluta certezza che la struttura inferiore è stata distrutta da un’altra forza, prima che la parte superiore la raggiungesse». Il primo studio a mettere in dubbio i risultati ufficiali (“Il colpo mancante”) è stato firmato da Anthony Szamboti, ingegnere meccanico, e Richard Johns, professore di filosofia della scienza. La tesi: il Nist aveva calcolato male la resistenza delle colonne all’interno delle Torri Gemelle. Successivi studi hanno accertato che «la costante accelerazione e la mancanza di una osservabile decelerazione, per se stesse, costituiscono una irrefutabile evidenza che siano stati usati esplosivi per distruggere le Torri Gemelle». Inoltre, una delle caratteristiche più evidenti della distruzione delle Twin Towers è stata la quasi totale polverizzazione del cemento. L’allora governatore di New York, George Pataki, scrisse nella sua relazione sul disastro: «Non c’è cemento. C’è veramente poco cemento. Tutto quello che si vede è alluminio e acciaio. Il cemento è stato polverizzato».Oltre a questo, continua Di Stefano, le strutture d’acciaio delle torri erano quasi interamente smembrate. A parte alcuni muri esterni ancora in piedi alla base di ogni edificio, virtualmente tutti gli scheletri d’acciaio erano rotti in diversi pezzi, con la parte centrale separata dalle colonne esterne. «Che cosa potrebbe mai spiegare la quasi totale polverizzazione di circa 3 milioni di metri quadrati di solette di cemento e il quasi totale smembramento di 220 piani di struttura d’acciaio? Il Nist non fornisce alcuna spiegazione e la sola forza di gravità non appare plausibile. Anche perché, viene spiegato nel dossier, l’energia necessaria per polverizzare il cemento e smembrare le strutture d’acciaio è calcolabile in 1.255 gigajoule. Una misura decisamente lontana dagli stimati 508 gigajoule di potenziale energia gravitazionale contenuta negli edifici». L’enorme nuvola di cemento polverizzato che ha sommerso Manhattan «diventa ancora più incomprensibile se si pensa che il crollo è avvenuto “essenzialmente in caduta libera”». Secondo il dottor Steven Jones, ex professore di fisica presso la Brigham Young University, «il paradosso è facilmente risolvibile con l’ipotesi della demolizione esplosiva, là dove gli esplosivi facilmente rimuovono i materiali dei piani inferiori, incluse le colonne portanti, permettendo di fatto un crollo in caduta libera».Altro fattore “inspiegabile”, il lancio di materiali verso l’alto e lateralmente, piuttosto distanti dal perimetro degli edifici. Secondo la Fema, i materiali dei due edifici sono stati lanciati fino a oltre 150 metri dalla base di ogni torre. In video prodotto dal fisico David Chandler, si nota l’espulsione esplosiva di materiali dalla Torre 1, «continui e molto estesi», anche alla velocità di 170 chilometri orari. «Il palazzo – afferma – è stato progressivamente distrutto, a partire dalla cima, da ondate di esplosioni che hanno creato una spessa coltre di detriti». E aggiunge: «Insieme alla nuvola di polvere vi sono pesanti travi e intere sezioni di frammenti d’acciaio che sono stati lanciati fuori dal palazzo: alcuni sono finiti così lontano, come due campi di football dalla base della torre». A chi sostiene che l’espulsione “esplosiva” di quei frammenti sia stata un semplice prodotto del crollo, il professor Chandler risponde: «Non abbiamo visto isolate travi lanciate all’esterno. Noi abbiamo visto la maggior parte della massa dell’edificio ridotta in piccoli pezzi di pietrisco e polvere fina, espulsa esplosivamente in tutte le direzioni».Secondo lo scienziato Kevin Ryan, l’espulsione esplosiva dei materiali dalle Torri Gemelle è spiegabile soltanto come «scoppi ad alta velocità di detriti espulsi da precisi punti degli edifici». L’ipotesi della demolizione, afferma Ryan, «suggerisce che questi scoppi di detriti siano il risultato della detonazione di cariche esplosive piazzate in punti chiave della struttura, per facilitare la rimozione della resistenza». E specifica: «Ognuno di questi scoppi era costituito da un’improvvisa e secca emissione che appariva provenire da un preciso punto, espellendo approssimativamente tra i 15 e i 30 metri dal lato del palazzo, in una frazione di secondo». Dai fotogrammi estratti da un video, «possiamo stimare che uno di questi scoppi è durato complessivamente 0,45 secondi: questo ci fornisce una velocità media di circa 52 metri al secondo». Rileva Di Stefano: «E’ significativo che il Nist non abbia nemmeno parlato di questi scoppi nella sua relazione finale, mentre nelle sue “Faq” cita gli scoppi come “sbuffi di fumo”, sostenendo che “la massa crollante del palazzo aveva compresso l’aria sottostante – quasi come l’azione di un pistone – forzando il fumo e i detriti fuori dalle finestre mentre i piani inferiori crollavano sequenzialmente».Secondo Ryan, la spiegazione del Nist non è valida. «I piani delle torri – sostiene lo scienziato – non erano containers chiusi e altamente pressurizzati in grado di generare alte pressioni abbastanza forti da far scoppiare le finestre. La massa crollante avrebbe dovuto agire come un disco piatto che esercita una pressione uniforme su tutti i punti. Ma le sezioni superiori, esse stesse disintegrate come si vede nei video, non possono esercitare una pressione uniforme». Anche prendendo in considerazione un ipotetico perfetto container e una pressione uniforme, usando la “Legge del Gas Ideale” per calcolare il cambiamento della pressione, «possiamo determinare che la pressione dell’aria non potrebbe aumentare abbastanza per far scoppiare le finestre». Tanto più che «gli scoppi contenevano detriti polverizzati, non fumo e polvere». Inoltre, «i detriti del palazzo da 20 a 30 piani sotto la zona del crollo, non potevano essere polverizzati ed espulsi lateralmente dalla pressione dell’aria».Oltre al ricco materiale fotografico e televisivo riguardante la distruzione delle Torri Gemelle, continua Rino Di Stefano, bisogna considerare anche il numero delle testimonianze raccolte dai vigili del fuoco (Fdny, New York Fire Department) nella loro relazione, più di 10.000 pagine di dichiarazioni giurate di oltre 500 pompieri. In più, come documentato dal dottor Graeme McQueen, ben 156 testimoni oculari hanno parlato esplicitamente delle esplosioni che hanno visto e sentito durante il crollo delle torri. Tra questi, 121 sono pompieri e 14 sono agenti della polizia portuale (Port Authority Police Department). Altri 13 sono giornalisti presenti sul posto. In caso di normali incendi, si registrano quattro tipi di esplosioni: da vapore, da impianti elettrici, da fumo e da combustione. I vigili del fuoco di New York «sanno riconoscere questi fenomeni, anche perché sono irregolari e certamente non sincronizzati». Invece, nel caso delle Torri Gemelle, «i testimoni hanno parlato di esplosioni precise e distanziate di pochi secondi l’una dall’altra», tanto che alcuni si sono spinti ad affermare che «le Torri Gemelle sono state distrutte dalle esplosioni».«Si è arrivati al punto che è infuriata una discussione sulla percezione che abbiamo avuto circa il fatto che il palazzo sembrava fosse stato fatto saltare in aria con delle cariche», racconta Cristopher Fenyo in un’intervista rilasciata al “Wtc Task Force”. «In effetti, ho pensato che stava esplodendo», ricorda John Coyle, un altro testimone: «Questo è ciò che ho pensato in seguito per diverse ore. Penso che chiunque a quel punto pensasse che quei palazzi fossero esplosi». Nonostante il Nist si ostini ad ignorare le testimonianze, sostenendo invece che non ci siano prove di esplosioni nelle Torri Gemelle, il professor McQueen, riferendosi alla relazione dei vigili del fuoco di New York, afferma: «Abbiamo avuto 118 testimoni su 503 intervistati. Circa il 23% del gruppo sono testimoni delle esplosioni. A mio avviso, questa è un’alta percentuale di testimoni, specialmente considerando che a queste persone non sono state rivolte domande circa le esplosioni e, nella maggior parte dei casi, neanche sono state poste domande circa il crollo delle torri». In conclusione, il dossier sostiene che il Nist, decidendo di non indagare a fondo su quelle che sono state le vere cause del crollo delle Torri Gemelle, ha condotto una “piccola analisi” sul comportamento tenuto dalle strutture edilizie, ignorando volutamente qualunque prova ne potesse derivare. Di conseguenza, il Nist non è riuscito a fornire convincenti prove scientifiche.Poi c’è il “mistero” del crollo, quasi simmetrico dell’Edificio 7, a parecchia distanza dalle due torri colpite dagli aerei. La terza torre, ricorda Di Stefano, è crollata su se stessa intorno alle 17 dell’11 settembre 2001, senza essere stata colpita da nessun jet o comunque coinvolta nel crollo delle altre due torri principali. Per il Nist, l’evento è normale e rientra nella logica delle cose. L’incendio si sarebbe esteso anche al terzo edificio del complesso, indebolendone le strutture e facendolo crollare. «Oltre alla spiegazione verbale, il Nist non ha fornito alcuna motivazione strutturale o scientifica». Secondo David Chandler, docente di fisica, questa spiegazione non regge. «La caduta libera – afferma – non è compatibile con qualunque scenario naturale che abbia a che fare con la debolezza, la deformazione o la frantumazione delle strutture, in quanto in ognuno di questi scenari ci sarebbero grandi forze di interazione con le sottostanti strutture, che avrebbero fatto rallentare la caduta… Il crollo naturale risultante da caduta libera, semplicemente non è plausibile». Per Chandler, il crollo del Wtc 7 è la prova lampante della demolizione controllata. Il Nist obietta: non vi fu vera “caduta libera”, poiché 18 piani dell’edificio sono crollati in 5,4 secondi, cioè con un margine del 40% più lungo (circa 1,5 secondi) rispetto al tempo stimato della caduta libera. Ma Chandler taglia corto: «Il crollo non è avvenuto per il cedimento di una colonna, o di alcune colonne o di una sequenza di colonne. Tutte le 24 colonne interne e le 58 perimetrali sono state rimosse simultaneamente nell’arco di otto piani e in una frazione di secondo. In questo modo la metà superiore dell’edificio è rimasta intatta».Così come le Torri Gemelle, anche la struttura metallica dell’Edificio 7 è stata completamente smembrata. E i detriti hanno formato un compatto cumulo di rifiuti lungo il perimetro del palazzo. Anche in questo caso, sospetta Di Stefano, lo smembramento dell’edificio si può spiegare soltanto con la demolizione controllata. Lo spiegava già nel 1996 Stacey Loizeaux, della Controlled Demolition Inc., azienda specializzata: i demolitori agiscono da due a sei piani, a seconda dell’altezza del palazzo, per colpire le colonne portanti e far crollare l’edificio su se stesso, riducendo anche la grandezza degli eventuali detriti. Inoltre, più che di “esplosione” si dovrebbe parlare di “implosione”, in quanto il palazzo deve crollare senza uscire dal proprio perimetro. Come, appunto, è accaduto nel caso del Wtc 7. Altra omissione del Nist, le testimonianze: l’agenzia governativa sostiene che non esistano, ma è smentita da svariati video. «Improvvisamente ho guardato verso l’alto e ho visto che il palazzo crollava su se stesso», racconta Craig Bartmer, ex agente della polizia di New York. «Ho cominciato a correre e per tutto il tempo ho sentito “thum, thum, thum, thum, thum”. Credo di riconoscerla, un’esplosione, quando la sento».Conferma un volontario, Kevin McPadden: «Abbiamo sentito delle esplosioni, come ba-booom! Era un suono distinto, ba-boom. Si poteva sentire un rombo nel terreno, come se ci si volesse aggrappare a qualcosa». La reporter televisiva Ashleigh Banfield della “Msnbc” era sul posto. Nel servizio in diretta a un certo punto si sente una forte esplosione e lei dice: «Oh, mio Dio… Ci siamo». Circa 7 secondi dopo, il Wtc 7 è crollato. E appena un’ora dopo la distruzione delle Torri Gemelle, le autorità hanno cominciato a parlare del crollo dell’Edificio 7 con un alto grado di sicurezza e di precisione. «Le loro anticipazioni erano talmente certe – scrive Di Stefano – che alcuni giornali hanno scritto del crollo del Wtc 7 ancora prima che avvenisse». Una previsione azzeccata? Non esattamente: «Quando i filmati video furono esaminati con calma, ci si accorse che la notizia era basata su una precisa conoscenza dei fatti. Dal momento che gli ingegneri si definivano sbalorditi per quanto era accaduto al Wtc 7, come facevano le autorità a “predire” un evento che neanche gli ingegneri sapevano spiegarsi quattro anni e mezzo dopo?». Del resto, aggiunge Di Stefano, «ci sono prove inconfutabili di esplosioni avvenute nell’edificio: durante una ripresa televisiva, la “Cnn” ha registrato l’inconfondibile suono di un’esplosione proveniente dal Wtc 7 e l’urlo di un operaio che avvertiva come l’edificio “stava esplodendo”, pochi secondi prima del crollo. Nonostante tutto questo, il Nist si è rifiutato di prendere in considerazione qualunque prova».Secondo la Nfpa 921, cioè la guida ufficiale americana le cui norme devono essere seguite in caso di indagini inerenti eventuali incendi o esplosioni, è necessario valutare tutte le possibili fonti per accertare le cause dei disastri sui quali si indaga. Una di queste fonti, da prendere in considerazione nell’eventualità di fusione dell’acciaio, è la termite. Si tratta – spiega Di Stefano – di una miscela esplosiva altamente incendiaria, a base di polvere di alluminio e triossido di ferro, in grado di sciogliere istantaneamente l’acciaio. Normalmente, la termite viene usata per saldare i binari e per usi militari (all’interno delle granate). «Ebbene, per evitare di parlare della termite nel caso dell’11 Settembre, il Nist si è rifiutato di adottare la consueta procedura della Nfpa 921», secondo “Architetti e Ingegneri” «negando, ignorando o accampando spiegazioni di carattere speculativo, non basate su analisi di tipo scientifico». E questo, afferma il dossier, «in quanto non esiste alcuna plausibile e logica spiegazione della presenza di reazioni chimiche ad alta temperatura, se non quella di una demolizione controllata, usando meccanismi a base di termite».Secondo il Nist, i rivoli di metallo fuso che fuoriuscivano già dalla Torre 2 prima del crollo totale, erano di alluminio fuso. «C’è un problema, però. Come si vede distintamente dai video sul disastro di New York, i rivoli di metallo fuso che fuoriuscivano dalle Torri Gemelle erano di un giallo-fuoco brillante, mentre l’alluminio fuso è di colore argenteo». Come spiega il dottor Steven Jones nel suo “Why Indeed Did the Wtc Buildings Completely Collapse” (Perché davvero gli edifici del Wtc sono completamente crollati), «il color giallo implica un metallo fuso con una temperatura approssimativa di 1000 °C, evidentemente al di sopra di quella che l’incendio da idrocarburi avvenuto all’interno delle Torri avrebbe potuto produrre». Inoltre, «il fatto che il metallo liquido tendesse ad una sfumatura color arancio in prossimità del terreno esclude ulteriormente la presenza di alluminio». Non appena si è reso conto che la sua posizione era indifendibile, il Nist ha cercato di correre ai ripari sostenendo che «il color arancio era dovuto al fatto che l’alluminio liquido si era mescolato con solidi materiali organici, cambiando colore». Ma Jones smentisce categoricamente: «L’alluminio fuso non altera affatto il suo colore».A complicare la situazione, ci sono altre testimonianze. Leslie Robertson, uno dei progettisti delle Torri Gemelle, racconta: «Eravamo al livello B-1 e uno dei vigili del fuoco ha detto: “Credo che questo dovrebbe interessarvi”. E ci ha mostrato un grosso blocco di cemento sul quale scorreva un piccolo rivo di acciaio fuso». Ma non è l’unico testimone. Il capitano Philip Ruvolo ricorda la scena a cui assistette insieme ad altri vigili del fuoco: «Se guardavi sotto, vedevi acciaio fuso, acciaio fuso che scorreva giù, lungo i canali delle inferriate, come se fossimo stati in una fonderia, come lava». Secondo il Nist, il più alto grado di temperatura raggiunto nelle Torri in fiamme è stato di 1.100 gradi. Ma l’acciaio delle strutture non comincia a fondere con meno di 1.482 gradi. Come si spiega, dunque, la presenza del metallo fuso? «Il Nist semplicemente non risponde, ignorando il problema». Altro guaio: come riportato da James Glanz e Eric Lipton sul “New York Times” già nel febbraio del 2002, i detriti delle Torri Gemelle (analizzati dal Worcester Polytechnic Institute) hanno rivelato la presenza di residui di zolfo combinatosi con l’acciaio, «formando un composto che si scioglie a temperature più basse». Com’era potuto accadere? La risposta, per Steven Jones, sta proprio nella termite, l’esplosivo della demolizione controllata: quel composto infiammabile, dice, «viene prodotto quando lo zolfo è aggiunto alla termite, e questo fa in modo che l’acciaio fonda a una temperatura molto più bassa e più velocemente, grazie alla solforazione e all’ossidazione dell’acciaio attaccato».Ancora una volta, aggiunge Di Stefano, il Nist ha ignorato l’evidenza, rispondendo che di fatto non era più possibile analizzare rottami di acciaio provenienti dall’Edificio 7, in quanto tutti i detriti erano stati portati via da un pezzo, già all’inizio delle indagini. La situazione si aggrava ulteriormente, con vari studi tecnici: il primo, “The Rj Lee Report” (maggio 2004), rileva nella polvere «sfere di ferro e vescicole di particelle di silicio», prodotte a temperature altissime. Il microscopio elettronico ha individuato «sferette di ferro» nella polvere della Torre 2 (“The Usgs Report, prodotto nel 2005 dall’Us Geological Survey). Un terzo studio, del 2008, prodotto da otto scienziati, ha confermato la presenza di sfere di ferro, più silicati e sfere disciolte di molibdeno, materiale che fonde a 2.623 gradi. Ma le sorprese non sono finite, continua Di Stefano. Nell’aprile del 2009, un gruppo di scienziati guidati dal dottor Niels Harrit, un esperto di nano-chimica che ha insegnato per oltre 40 anni all’Università di Copenaghen, ha pubblicato sulla rivista internazionale “Open Chemical Physics Journal” un articolo che denuncia la presenza di “materiali termitici attivi” scoperti nella polvere della catastrofe dell’11 Settembre. «Questo studio ha rivelato la presenza di nano-termite (e cioè una specie di termite esplosiva progettata a livello di nano-particelle) nella polvere seguita al disastro».I campioni da analizzare furono prelevati in due riprese: il primo venti minuti dopo il crollo del Wtc 1, gli altri due nel giorno successivo. Lo studio giunse alla conclusione che i grattacieli di Mahnattan, le due Torri Gemelle più l’Edificio 7, «furono tutti distrutti da demolizione controllata e altri materiali incendiari». Inutile dire che, anche questa volta, le autorità hanno ignorato i ricercatori indipendenti. «In tutti i modi il Nist ha provato a ribattere alla pioggia di critiche di chi portava prove e fatti a dimostrazione che le tre Torri siano state intenzionalmente distrutte con esplosivi», conclude Di Stefano. «Il problema è che, in realtà, non ci sono prove a supporto della teoria che gli incendi abbiano fatto crollare edifici a struttura metallica come quelli». Il Nist ha anche fornito modelli digitali per dimostrare le proprie tesi, «ma sono sempre mancate le prove scientifiche per poter affermare senza possibilità di dubbio che, in effetti, siano proprio stati gli incendi ad abbattere quei giganti della moderna edilizia e ad uccidere quasi tremila persone». Servirebbe una nuova indagine, ma c’è un problema a monte. Enorme: «L’americano medio non può e non vuole accettare l’idea che il proprio governo sia implicato in un atto criminale di quelle proporzioni». L’unica certezza è che le 2.974 vittime degli attentati (2.999 se si calcolano anche quelle morte in seguito) restano ancora in attesa di giustizia: di fronte all’America, e all’umanità intera.Le torri del World Trade Center di New York non sarebbero state distrutte dall’impatto di due aerei di linea, ma da un’operazione di “demolizione controllata”, condotta con esplosivi militari a base di nano-termite. Un’accusa pesantissima, che costringe a rileggere sotto una nuova e drammatica luce l’attentato dell’11 Settembre 2001, confermando i sospetti iniziali sull’assoluta inattendibilità della versione ufficiale. A muoverla è l’associazione americana no-profit “Architects & Engineers for 9/11 Truth”, architetti & ingegneri per la verità sull’11 Settembre. E’ costituita dai 2.363 architetti e ingegneri statunitensi che nell’autunno 2016 hanno firmato una petizione indirizzata al Congresso Usa per riaprire una vera investigazione indipendente sulla distruzione del World Trade Center. Lo ricorda Rino Di Stefano in un’accurata ricostruzione, sul suo blog, del maxi-attentato di New York che ha innescato le guerre in Afghanistan e in Iraq, seguite dai conflitti a catena in Libia e Siria, in cui la sigla terroristica iniziale, Al-Qaeda, ha lasciato il posto alla sua filiazione diretta, Isis, in una spirale di violenza e orrore che, da allora, ha giustificato l’impiego sistematico di eserciti, impensabile prima dell’11 Settembre.
-
Siamo seri, pensate davvero che il futuro sia l’auto elettrica?
Il futuro non è dell’auto elettrica. La questione infatti non è solo con cosa sono alimentate le auto, ma soprattutto quante se ne producono e se ci siano sufficienti materiali, energia e risorse per produrle. Aspetto di sapere chi può rispondere in maniera ovviamente non fantasiosa alla domanda su dove, come e con quale energia si ricaveranno i materiali e le risorse per costruire e alimentare miliardi di automobili elettriche. E la risposta ovviamente non può essere: “Qualcosa ci inventeremo”. Visti anche questi non piccoli problemi di impossibile soluzione, la conclusione è assai facile e veloce a cui giungere, anche perchè il miglior mezzo per muoversi, soprattutto nelle città, non è l’automobile, elettrica o meno. Primo, perché essere imbottigliati nel traffico con una macchina, a benzina o elettrica, è esattamente la stessa cosa; secondo, perché le auto elettriche costano normalmente di più, poi hanno bisogno comunque di elettricità per essere alimentate e bisogna vedere come e dove si troverà questa elettricità che potrebbe anche essere il cavallo di Troia per una riscossa del nucleare. E ci vuole veramente un grande sforzo di fantasia, che sconfina appunto nell’impossibile, a pensare che tutta questa energia verrà prodotta da fonti rinnovabili, perché non solo servirà energia per produrre le automobili, ma anche per tutto il resto.Dove si trova l’energia per costruire ad esempio pannelli solari, che in teoria dovebbero coprire l’intero pianeta per alimentare tutto ciò? E non si tirino fuori assurdità tipo fusione nucleare, energie cosmiche o altre fantasiose storielle e si rimanga nel razionale e fattibile. Non si scappa: per fortuna non si possono eludere i limiti del pianeta e delle risorse, per quanti voli pindarici e illusioni tecnologiche si possano immaginare. L’auto, con tutta l’enfasi data alla presunta libertà che ci permette (poi la realtà è che si è quasi sempre bloccati nel traffico) e al fascino della velocità (che significa migliaia di morti l’anno e centinaia di migliaia di feriti per i quali non si fa nessuna campagna di prevenzione reale e non si strepita certo così come per imporre l’obbligatorietà ai vaccini), è solo una grande occasione di profitto, non risolve affatto la mobilità, casomai la congestiona. Comprare un’automobile nuova è il peggior investimento che chiunque possa fare, anche a rate, poiché si svaluta immediatamente e ha costi di mantenimento esorbitanti. Eppure. in Italia, malgrado la miseria in cui si dice versino milioni di poveri e disoccupati, nonostante la crisi, le automobili aumentano le vendite con percentuali a due cifre.Sono i famosi misteri italiani dove tutti si lamentano, tutti sono poveri ma poi siamo al secondo posto al mondo per numero di automobili ogni mille abitanti, che pascolano nell’immenso garage asfaltato che è diventata la nostra penisola per fare ricchi i Marchionne della situazione. E intanto noi imprechiamo nel traffico, moriamo di inquinamento, di incidenti, e lui e i suoi compari contano i soldi e ridono mentre si spostano in elicottero. Il futuro della mobilità non sarà il trasporto individuale, ma collettivo. E poi sarà un trasporto effettivamente sostenibile e risolutorio, cioè mezzi pubblici e mezzi a trazione muscolare, ovvero la bicicletta nelle sue varie declinazioni. Ci saranno anche delle automobili, ma usate per lo più collettivamente e solo per effettiva necessità, laddove la bicicletta o i mezzi di trasporto pubblici non possano sopperire al bisogno. E anche in questo caso non si possono non citare tutti gli esperti che, sempre innamorati delle magnifiche sorti e progressive per le quali ci saremmo in futuro spostati con astronavi, dicevano e ancora dicono che la bicicletta non si sarebbe diffusa, che è il medioevo, eccetera. Fatto sta che, alla faccia degli esperti, la semplicissima, vetusta e arretrata bicicletta, come vendite nel 2013, ha superato quelle delle automobili in 26 paesi dell’Unione Europea su 28.Mi sa che di vetusto e arretrato c’è solo il cervello dei luminari. E per questi sognatori di mondi in cui ci muoveremo con la macchina di Paperinik ci sono intanto città, capitali di paesi come la Danimarca che hanno così tante biciclette che ormai si hanno ingorghi di biciclette nelle strade poichè superano il numero delle automobili. In Italia in una situazione simile avrebbero proposto di limitare l’uso delle biciclette, là prevedono di diminuire le carreggiate delle macchine e aumentare la larghezza delle strade per le biciclette. In Danimarca, in Germania ormai si costruiscono autostrade per le biciclette che collegano interi paesi, con corsie riservate alle diverse velocità a cui vanno i ciclisti. Questo è il futuro, semplice, geniale e risolutivo – e soprattutto realmente compatibile, ambientalmente, non i voli pindarici di impossibili e costose non-soluzioni. Ma a questo punto arrivano le solite obiezioni degli italiani, che spesso alle soluzioni rispondono con ulteriori problemi e con il famoso: da noi non si può fare. Non si può fare?Vediamo in dettaglio i problemi che ci sono in Danimarca all’utilizzo della bicicletta: vento più o meno forte durante tutto l’anno, essendo uno dei paesi più ventosi d’Europa; piovosità decisamente più alta che in Italia; clima decisamente più rigido che in Italia. Quindi hanno tutti i presupposti contrari all’uso di questo mezzo, e invece lo usano eccome: perché, oltre che le ruote delle biciclette, fanno girare anche altre ruote che ci sono nel cervello e che, se azionate, possono produrre ottimi risultati. Ma l’italico problematico, che non si arrende nemmeno di fronte all’evidenza, ti dirà che da noi ci sono le salite e in Danimarca è tutto piatto. Come se città tipo Milano, Bologna, Napoli, Roma, Palermo, Bari, Torino, Verona e moltissime altre fossero tutte aggrappate a catene montuose. E non sia mai che ogni tanto dovesse spuntare una leggera salitella, ci sono anche le biciclette con pedalata assistita che ovviano al problema. Quindi, se in Danimarca – fra vento, pioggia e freddo – vanno tranquillamente in bicicletta, figuriamoci cosa potremmo fare noi.Tempo fa mi trovavo in Puglia e mi chiedevo come mai, in una regione in gran parte piatta, dove piove assai poco, non fa freddo e tutto l’anno c’è un tempo invidiabile, non girassero tutti in bicicletta. Ma figuriamoci se nel nostro paese, dove la macchina è uno status symbol, si può andare in giro con una sfigata bicicletta. Ma scherziamo? E mica siamo degli scemi come i danesi, noi. Comunque sia, i risultati positivi dall’uso della bicicletta sono molteplici. Aumento delle produzioni di sistemi legati alla bicicletta con relativo indotto, costruzione di carrelli e soluzioni di ogni tipo collegabili alle bici per trasporto di bambini e materiali. In Italia abbiamo una grande tradizione come costruttori di biciclette, basterebbe adeguarla anche a usi diversi da quelle soprattutto da corsa, obiettivo raggiungibile assai facilmente. Aumento dell’occupazione, non solo dalla vendita di biciclette ma dalla miriade di officine, pezzi di ricambio, assistenza che ci sono normalmente lungo tutti i percorsi di piste ciclabili.Diminuzione della congestione del traffico, aumento della qualità della vita all’interno delle città, diminuzioni degli incidenti e relativa paura di essere investiti ad ogni attimo. Diminuzione dell’inquinamento acustico, diminuzione delle emissioni inquinanti e del conseguente effetto serra. Diminuzione dell’utilizzo di risorse non rinnovabili, diminuzione del tempo sprecato nelle code e quindi conseguenti spese. Diminuzione drastica di alcune delle spese più ingenti della famiglia, che sono quelle legate all’automobile, quindi conseguente minor tempo dedicato al lavoro per mantenere l’automobile. Diminuzione dello stress, miglioramento della salute e della forma fisica. Il futuro della mobilita è di chi fa girare le ruote del cervello.(Paolo Ermani, “Il futuro non è dell’auto elettrica”, da “Il Cambiamento” del 28 luglio 2017).Il futuro non è dell’auto elettrica. La questione infatti non è solo con cosa sono alimentate le auto, ma soprattutto quante se ne producono e se ci siano sufficienti materiali, energia e risorse per produrle. Aspetto di sapere chi può rispondere in maniera ovviamente non fantasiosa alla domanda su dove, come e con quale energia si ricaveranno i materiali e le risorse per costruire e alimentare miliardi di automobili elettriche. E la risposta ovviamente non può essere: “Qualcosa ci inventeremo”. Visti anche questi non piccoli problemi di impossibile soluzione, la conclusione è assai facile e veloce a cui giungere, anche perché il miglior mezzo per muoversi, soprattutto nelle città, non è l’automobile, elettrica o meno. Primo, perché essere imbottigliati nel traffico con una macchina, a benzina o elettrica, è esattamente la stessa cosa; secondo, perché le auto elettriche costano normalmente di più, poi hanno bisogno comunque di elettricità per essere alimentate e bisogna vedere come e dove si troverà questa elettricità che potrebbe anche essere il cavallo di Troia per una riscossa del nucleare. E ci vuole veramente un grande sforzo di fantasia, che sconfina appunto nell’impossibile, a pensare che tutta questa energia verrà prodotta da fonti rinnovabili, perché non solo servirà energia per produrre le automobili, ma anche per tutto il resto.
-
Germania SpA, smascherata la mafia più onesta d’Europa
La prossima volta che un ministro tedesco farà la lezioncina a qualche altro paese dell’Unione Europea sulla necessità di obbedire alle regole, il malcapitato bersaglio potrà essere perdonato se gli renderà la pariglia. Il paese che tanto ama fustigare gli altri per i danni legati all’azzardo morale, che chiede una rigida disciplina nell’applicare le regole fiscali della Ue e che dipinge i paesi dell’Europa del Sud come endemicamente corrotti, è caduto proprio lui nel pantano. Gli scandali hanno colpito la sua tanto decantata industria automobilistica, il suo più grande settore ingegneristico (Siemens) e la sua maggiore banca (Deutsche Bank) – e c’è più di un sospetto che Berlino abbia chiuso un occhio su tutto questo, per molto tempo. Può essere che la Germania non sia né più sporca né più pulita di qualsiasi altro paese europeo. Ma è certamente più presuntuosa. Ed è per questo che oggi è difficile non essere percorsi da un brivido di gioia maligna quando si leggono i sempre più frequenti resoconti sui comportamenti scorretti – e forse anche illegali – di alcune delle sue maggiori aziende.L’ultimo scandalo che ha macchiato la reputazione di Deutschland Ag – “Germania Spa”, come viene spesso soprannominata la relazione un po’ troppo intima tra mondo degli affari e politica – riguarda più di due decenni di presunte collusioni tra le cinque maggiori case automobilistiche tedesche. Lo riporta “Der Spiegel”. Le autorità tedesche ed europee sull’antitrust stanno investigando per appurare se Mercedes-Benz, proprietario di Daimler, Volskwagen, Bmw, Porsche e Audi abbiano svolto riunioni segrete per concordare gli standard tecnici, le forniture e i prezzi, a scapito dei concorrenti stranieri. Secondo il report è stata Volkswagen, nel disperato tentativo di ripulirsi ed evitare ulteriori problemi legali dopo essere stata scoperta a imbrogliare sistematicamente nei test di emissione di sostanze inquinanti negli Stati Uniti, a informare l’Ufficio federale tedesco per l’antitrust. In seguito, dice l’inchiesta, è risultato che Daimler potrebbe avere preceduto Volkswagen nel fare la soffiata.Le prove sull’esistenza di un presunto cartello sarebbero state poi insabbiate per un anno, fino a che “Der Spiegel” non ha pubblicato il suo report. Bmw ha negato qualsiasi comportamento illegale. Le altre case automobilistiche non hanno commentato, mentre la Vda (associazione tedesca dell’industria automobilistica, ndt) ha dichiarato di non essere coinvolta. Le case automobilistiche confermate colpevoli di violazione delle regole europee sulla concorrenza potrebbero essere multate fino al 10 per cento del loro fatturato totale: ma il sistema prevede che il primo dei partecipanti a denunciare l’esistenza dei comportamenti anticoncorrenziali illeciti sia esentato dal pagamento della multa. Per esempio, due dei maggiori costruttori tedeschi di camion – Man e Daimler – erano tra le cinque aziende coinvolte in un cartello per concordare i prezzi che lo scorso anno è stato sanzionato dalla Commissione Europea con una multa di 2,93 miliardi di euro. Però Man non è stata multata, perché è stata la prima a rivelare l’esistenza del cartello, nel 2011.Ma non è solo la tanto decantata industria automobilistica tedesca ad essersi messa in cattiva luce negli ultimi tempi. Lo scorso anno Deutsche Bank ha patteggiato 7,2 miliardi di dollari con il Dipartimento della Giustizia statunitense per un’indagine sulle modalità scorrette di vendita di titoli garantiti da ipoteca tra il 2005 e il 2007: era risultato che alcuni prestiti fatti a debitori del tutto privi di garanzie venivano reimpacchettati e rivenduti agli investitori come titoli sicuri. Il crollo dei titoli garantiti da ipoteca è stato uno dei maggiori fattori scatenanti della crisi finanziaria globale del 2008 (quella stessa che dato fiato a orde di moralizzatori tedeschi). Ma Deutsche Bank è stata multata anche perché la sua società sussidiaria nel Regno Unito ha manipolato il tasso di interesse Libor e non ha impedito il riciclaggio di 10 miliardi di dollari di denaro sporco proveniente dalla Russia.Nel frattempo il gigante ingegneristico Siemens è stato accusato di avere fornito turbine a gas per alcuni generatori elettrici che permetteranno il funzionamento di due centrali elettriche nella Crimea occupata dalla Russia, e che metteranno fine alla dipendenza energetica della penisola dall’Ucraina, dopo che Mosca ha ripreso possesso della regione nel 2014. La fornitura di apparecchiature elettriche alla Crimea viola le sanzioni stabilite dall’Unione Europea, ma Siemens sostiene che il dirottamento è avvenuto a sua insaputa, a causa di un’azienda statale russa sua cliente, in violazione del contratto e nonostante i passati avvertimenti fatti dall’azienda. All’inizio del mese Siemens aveva negato un report di “Reuters” che affermava che due delle sue turbine erano state inviate in Crimea dalla vicina Russia sud-occidentale. Poi ha affermato che stava compiendo delle indagini. Poi ha ammesso che l’attrezzatura era stata spedita in Crimea ma “contro la sua volontà” e ha dichiarato che avrebbe fatto causa al suo cliente russo, Technopromexport, e alla sua stessa società sussidiaria in Russia, la Siemens Gas Turbine Technologies. Ora dichiara di avere bloccato l’esportazione di qualsiasi tecnologia per la generazione di corrente elettrica destinata alla Russia.Le spiegazioni fornite appaiono nel migliore dei casi ingenue. Come riportato dal sito investigativo ucraino “Euromaidanpress”, era evidente a chiunque che Mosca stava costruendo a gran velocità centrali elettriche calibrate esattamente per le turbine Siemens in Crimea. Mentre i progetti per la costruzione di una centrale elettrica, cui sulla carta le turbine dovevano essere destinate, sull’altra sponda del Mar d’Azov, erano a malapena abbozzati. Recitando il più ovvio dei copioni, Siemens si è autodipinta come vittima di un inganno dei russi e ha rumorosamente chiuso la stalla dopo che i buoi erano già scappati. Tutta la faccenda è una bella ragione di imbarazzo per Berlino, che si era schierata in prima fila nella richiesta delle sanzioni europee contro le aziende e i singoli russi coinvolti nell’occupazione della Crimea da parte di Mosca. La cancelliera Angela Merkel ha perfino affermato che questa vicenda ha infranto un sistema di regole rispettate in Europa dalla fine della Seconda Guerra Mondiale.Un portavoce del governo tedesco ha dichiarato che alti funzionari russi avevano assicurato che le turbine non sarebbero state usate in Crimea, e che Berlino stava studiando le potenziali conseguenze di questa operazione “inaccettabile”. In uno scaricabarile da manuale, il portavoce del governo ha affermato che era compito delle aziende assicurarsi di non violare le sanzioni, e tuttavia non ha minimamente fatto cenno ad alcuna conseguenza per Siemens legata a tutto questo. Un filo comune, in tutta questa serie di scandali aziendali, è che il governo tedesco non è mai stato il primo a far saltare fuori pubblicamente i problemi o svolgere indagini. Al contrario, sono state le autorità degli Stati Uniti (e in misura minore di Bruxelles) a smascherare il comportamento di Deutsche Bank e Volkswagen. Volkswagen ha pagato 2,8 miliardi di dollari di sanzioni penali, più 1,5 miliardi di dollari di sanzioni civili negli Stati Uniti in aprile per avere manipolato in modo truffaldino il software dei suoi veicoli diesel, perché passassero i test sulle emissioni inquinanti imposti dalla legge. È stata l’Agenzia statunitense per la protezione ambientale a scoprire le violazioni, nel 2015.Volkswagen ha dovuto allora richiamare 11 milioni di veicoli, di cui circa 8 milioni erano stati venduti in Europa. Lo scandalo ha messo in luce tutta la debolezza e la frammentarietà del sistema di regolamentazione europeo, nonché l’applicazione estremamente lassista delle regole da parte delle autorità. La casa automobilistica tedesca ha accettato di pagare circa 15 miliardi di euro di risarcimenti agli acquirenti statunitensi, ma ha rifiutato di fare lo stesso verso i propri clienti europei, a causa delle diverse regole per la tutela dei consumatori in Europa. I produttori tedeschi riescono a far pagare cari i propri prodotti, le loro “automobili definitive”, grazie a quello che un tempo era conosciuto in Europa come l’indiscutibile marchio di “Deutsche Qualität” (qualità tedesca). Ma che succede, se la massima avanguardia tecnologica sbandierata negli slogan come “il progresso attraverso la tecnologia” si rivela essere “il progresso attraverso l’imbroglio”, costruito con marchingegni truffaldini e cartelli sui prezzi? Si canterebbe ancora “Oh Signore, comprami una Mercedes-Benz?”.(Paul Taylor, “Quei disonesti dei tedeschi”, dall’edizione europea di “Politico” del 25 luglio 2017, post tradotto e ripreso da “Voci dall’Estero”).La prossima volta che un ministro tedesco farà la lezioncina a qualche altro paese dell’Unione Europea sulla necessità di obbedire alle regole, il malcapitato bersaglio potrà essere perdonato se gli renderà la pariglia. Il paese che tanto ama fustigare gli altri per i danni legati all’azzardo morale, che chiede una rigida disciplina nell’applicare le regole fiscali della Ue e che dipinge i paesi dell’Europa del Sud come endemicamente corrotti, è caduto proprio lui nel pantano. Gli scandali hanno colpito la sua tanto decantata industria automobilistica, il suo più grande settore ingegneristico (Siemens) e la sua maggiore banca (Deutsche Bank) – e c’è più di un sospetto che Berlino abbia chiuso un occhio su tutto questo, per molto tempo. Può essere che la Germania non sia né più sporca né più pulita di qualsiasi altro paese europeo. Ma è certamente più presuntuosa. Ed è per questo che oggi è difficile non essere percorsi da un brivido di gioia maligna quando si leggono i sempre più frequenti resoconti sui comportamenti scorretti – e forse anche illegali – di alcune delle sue maggiori aziende.
-
Barnard: è in arrivo l’inferno. Saremo Tech-Gleba, schiavi
Non mangiano più “libri di cibernetica, insalate di matematica”, ma divorano volumi di Cartesio, Galileo, Newton. Sono i nuovi stregoni della meccanica quantistica, a metà strada tra scienza e metafisica. Sono stati assoldati dall’élite planetaria, quella che ormai ha compreso che il capitalismo è storicamente finito. Al suo posto, avanza quella che Paolo Barnard chiama tech-gleba. O meglio: “Tech-Gleba Senza Alternative”, sottoposta al cyber-potere del computer “quantico”, fantascienza in mano a pochissimi. Una super-macchina “pensante”, in grado di far sparire ogni lavoratore dalla faccia della terra, sostituendolo con robot, droni e androidi cobots, i cui servizi i neo-schiavi ridotti all’apatia saranno costretti a “noleggiare”. «Questo non è un fumetto, è il futuro vicino, vicinissimo, ed è tutto già pronto. Solo che nessuno di noi se ne sta accorgendo», perché i cittadini più “svegli”, che stanno in guardia contro minacce visibili (mafie, corruzione, Eurozona, migrazioni, “climate change”) non vedono «un mostro immensamente peggiore», che ormai «è dietro la porta di casa». L’umanità retrocessa alla servitù della gleba (tecnologica). E’ l’incubo al quale Barnard dedica svariate pagine sul suo blog, lo stesso che nel 2011 ospitò il profetico saggio “Il più grande crimine”, sulla genesi politico-finanziaria dell’Eurozona – riletta, appunto, in chiave criminologica: puro dominio, fraudolento, dell’uomo sull’uomo.«La schiavitù, letteralmente, è già pronta per 10 miliardi di esseri umani», premette Barnard, citando lo storico precedente della guerra civile americana, a metà dell’800. «I libri ci raccontano che il paese si spaccò in due, col Nord nazionalista che combatté una guerra sanguinaria contro i secessionisti del Sud per 4 anni. I primi fra le altre cose ambivano all’abolizione della schiavitù, i secondi la difendevano a spada tratta». Ma in realtà l’America «era spaccata in tre, e la terza forza in campo non era armata, era la Rivoluzione Industriale del paese». L’allora presidente Abraham Lincoln «era un uomo di un’intelligenza incredibile». Mentre combatteva la guerra civile «si era già reso conto che un mostro immensamente più micidiale della spaccatura della nazione e della schiavitù dei negri era dietro la porta di casa: era la schiavitù del lavoro salariato su scala industriale e agricola». Per i repubblicani di allora, il lavoro salariato era «una forma transitoria di schiavitù che andava abolita tanto quanto la schiavitù dei negri». Essere operai stipendiati nelle grandi industrie o nei campi era «un attacco inaccettabile all’integrità personale». I repubblicani «disprezzavano il sistema industriale che si stava allora sviluppando perché costringeva l’umano a essere sottoposto a un padrone, tanto quanto lo schiavo del Sud, anzi peggio».Per dirla semplice: «Chi ti possiede avendoti comprato ti tratta meglio di chi ti “noleggia”». E qui Lincoln aveva visto lunghissimo, dice Barnard: oltre la mostruosità della schiavitù dei neri d’America, aveva avvistato «il mostro immane della schiavitù del lavoro salariato su scala industriale e agricola». E’ storia: studiando le Rivoluzioni Industriali dal 1700 in poi, si scopre che le sofferenze di centinaia di milioni di operai e contadini salariati, cioè “noleggiati”, furono per più di due secoli assai più atroci di quelle sofferte dagli schiavi delle piantagioni Usa. «Abbiamo tutti nella memoria immagini delle frustate agli schiavi, i ceppi ai piedi e al collo, tutto vero. Ma il numero di manovali salariati, cioè “noleggiati”, picchiati a morte dai “caporali”, morti di stenti e malattie sul lavoro o trucidati dal lavoro stesso per, appunto, almeno due secoli, è infinitamente maggiore. Si pensi che durante la sola costruzione del Canale di Suez nel 1869 morirono come sorci 150.000 operai. La costruzione del Canale di Panama nel 1914 ammazzò l’esatta metà di tutti coloro che ci lavorarono, cioè 31.000 operai. Ancora di recente, nel 1943, il progetto della Burma-Siam Railway trucidò di fame, letteralmente di fame 106.000 disgraziati pagati centesimi a settimana».In Europa, ricorda Barnard, fu questa agghiacciante realtà schiavistica ad animare la lotta di Rosa Luxemburg o Anton Pannekoek. Lincoln, per primo, «aveva spiato il sorgere del nuovo mostro mondiale che avrebbe sputato olocausti dopo olocausti: ma fu ignorato, e la schiavitù del lavoro salariato s’impadronì del mondo mentre solo un microscopico nugolo di pensatori se ne stava accorgendo». Inutile sperare nei sindacati: non hanno mai combattuto il lavoro salariato come neo-schiavitù, hanno solo lottato per migliorare salari e condizioni di lavoro. «Il solito immenso George Orwell, che visse volontariamente fra i diseredati salariati d’Europa negli anni ’30, predisse ciò che ancora oggi abbiamo: masse moderne immani, di fatto schiave del lavoro per quasi tutta la vita». La fuga da questa schiavitù, scrisse Orwell, «è in pratica solo possibile per malattia, licenziamento, incarcerazione, e infine la morte». Oggi, in Ue, sono crollati tutti gli standard di ieri: siamo al ricatto della disoccupazione, ai pensionati costretti a cercasi un lavoro. In altre parole: Lincoln aveva visto giusto. Ed eccoci alla “Tech Gleba Senza Alternative”, «la ‘visione’ che nessuno di noi ha, ma che ci divorerà».Insiste Barnard: «Dovete capire che il capitalismo non esiste più come progetto, è già stato cestinato». Aveva bisogno di tre elementi: gli sfruttati, la classe consumatrice, l’élite che accumula il profitto, al vertice. «Era così nei primi decenni del XX secolo con qualsiasi prodotto, è così oggi con un qualsiasi gadget digitale, fatto da poveracci in Thailandia, comprato dagli occidentali e dagli ‘emergenti’, e i trilioni vanno alla Apple o Samsung». Ma, secondo Barnard, anche questo schema sta tramontando. Perché? «Per due motivi sostanziali. Il primo è che il Vero Potere ha da molto tempo compreso che non sarà assolutamente più possibile contenere miliardi di diseredati affamati sfruttati (la condizione A- del capitalismo); essi o migreranno in masse colossali, oppure – come in India e Cina – inizieranno a pretendere condizioni economiche migliori e nessuno potrà fermarli. Da ciò l’invitabile destino della crescita esponenziale dei costi di produzione di qualsiasi bene, a livelli di prezzi finali impossibili anche per un occidentale. Poi il Vero Potere ha compreso anche che neppure l’alternativa della robotizzazione degli impianti (per licenziare, abbattere quindi i costi e competere) funziona, è un’illusione immensa, perché le masse licenziate sia qui che in paesi emergenti non avranno reddito, e di nuovo non potranno acquistare prodotti sofisticati».Sicché: crollo profitti (Marx docet). E quindi: chi venderà a chi? «Secondo: Il Vero Potere ha da molto tempo capito che la classica struttura della competizione del mercato, in un mondo appunto con popolazione in crescita ma anche costi di produzione impossibili, non può più funzionare. Alla fine, detta in parole semplici, centinaia di milioni di corporations che producono in una gara disperata oceani di cose e servizi, a chi poi le venderanno nelle economie prospettate sopra? E’ un imbuto che si auto-strangola senza rimedi. Quindi il capitalismo è morto e consegnato alla storia, e “loro” lo sanno da anni». Ma ovviamente «il Vero Potere non sta a dormire», ha già strutturato la risposta «in una forma totalmente nuova di economia, mostruosamente nuova», la “Tech-Gleba Senza Alternative”. Ecco come l’hanno pensata: 10 miliardi di umani elevati a classe medio-bassa ma schiavi delle tecnologie, costretti a togliersi la pelle per consumare beni e servizi essenziali hi-tech. A monte, l’oligarchia «accumula quello che mai fu accumulato da élite nei 40 secoli prima». Scomparirà la sperequazione sociale di oggi, dove il pianeta Terra è frammentato da centinaia di stratificazioni, attraverso centinaia di fasce di reddito. «Si vogliono livellare 10 miliardi di umani a più o meno lo stesso livello economico».Un futuro orwelliano: «Ci sarà il condominio con acqua, bagni, elettricità, connessioni digitali, poi strade, scuole, negozi e servizi anche nei buchi neri del mondo di oggi, come Fadwa nel sud del Sudan, o a Udkuda in India». Morto il capitalismo, sparisce anche «la necessità/possibilità di avere miliardi di poveri di qua, benestanti di là, ricconi al top». Secondo Barnard, al nuovo progetto della “Tech-Gleba Senza Alternative” serve che l’intera massa vivente sia omogeneizzata nello standard di vita, e che consumi ma in modo totalmente diverso, mai visto prima nella storia. Un esempio? L’automobile. Come altri giganti come Google, Apple e Tesla, la Volkswagen «sta investendo miliardi di dollari nelle cosiddette ‘driverless cars’, cioè automobili che si autoguidano, che rispondono a comandi orali del passeggero, talmente zeppe di Artificial Intelligence da far impallidire la parola fantascienza». E la casa tedesca non lo sta facendo da poco: ha iniziato 12 anni fa in collaborazione con la Stanford University e il dipartimento della difesa Usa nel suo laboratorio futuristico chiamato Darpa. «Oggi tutto gira attorno a Silicon Valley, Google-Alphabet e alla Cina. Stanno investendo come pazzi». Una startup cinese di nome Mobvoi che fa “intelligenza artificiale” per l’auto del futuro è passata dal valere nulla al valore di 1 miliardo di dollari in un anno. Una corsa frenetica: anche Fca, l’ex Fiat di Marchionne, «sta rovesciando miliardi in ’ste auto-robot assieme a Wymo di Alphabet-Google».In particolare, continua Barnard, la gara si gioca a chi per primo elaborerà i super-computer, oggi impensabili, che sapranno elaborare trilioni di impulsi e dati ad ogni micro-secondo, per far girare miliardi di auto senza autista ma tutte coordinate, “a colloquio” fra di loro per non creare disastri. «La mole di dati che dovranno essere elaborati dal computer di bordo di ogni singolo veicolo in questo scenario è pari a quella di una spedizione spaziale dello Space Shuttle ogni secondo, tutto però gestito da un computerino sul cruscotto grande come una scatola di caramelle». E allora «giù valanghe di miliardi d’investimenti per arrivare primi». La Volkswagen oggi lavora con D-Wave Systems, «un’azienda di computer che sta ribaltando l’universo, perché applica la fisica quantistica ai software: una roba da far esplodere il cervello, perché la fisica quantistica – se applicata con successo alle tecnologie digitali di oggi – le sparerebbe nell’iperspazio, moltiplicando per miliardi di volte il potere di elaborazione dati del più potente computer del mondo». Insomma, «siamo a una viaggio lisergico digitale allo stato puro, ma dietro ci sono i miliardi veri e concreti. Perché?».Ecco la risposta: «Perché questa è gente che pensa 200 anni avanti, e sa benissimo che, col capitalismo morto – quindi con la sparizione di chi ti fa componenti auto pagato 1 dollaro al giorno, e con l’inevitabile innalzamento delle pretese di vita di miliardi di poveracci di oggi verso classi medio-basse – costruire un’auto con quei costi di manodopera costerà una pazzia e i prezzi si centuplicheranno». In altre parole: «Sanno che le auto non si venderanno più nei prossimi duecento anni perché costerebbero oro, e il 98% della gente del pianeta non se le potrebbe più permettere». Sanno anche che l’alternativa della robotizzazione per tagliare i costi (salari) non funziona, è un’immensa illusione, «perché le masse licenziate non avranno reddito, e di nuovo non potranno acquistare l’auto». Ed ecco allora l’avvento della “Tech-Gleba Senza Alternative”, cioè «10 miliardi di umani economicamente omogeneizzati, ma a un livello appena possibile di classe mondiale medio-bassa». E si badi bene: «Là dove questa “Tech-Gleba Senza Alternative” non potrà arrivare coi propri mediocrissimi redditi, dovrà sopperire lo Stato con un Reddito di Cittadinanza, come già detto dal mega-sindacalista Usa Andy Stern e riportato dal “Wall Street Journal”».Queste masse, aggiunge Barnard, saranno saranno obbligate a spostarsi. «E allora l’auto deve diventare un robot che nessuna casa vende, se non in numeri microscopici». Un robot «che quasi nessuno possiede, ma che tutti possono noleggiare per pochi soldi in qualsiasi istante digitando un codice: un’auto-robot arriva e ti porta, un’altra ti riporta, oppure la mandi a prendere la spesa senza muoverti da casa, o rincasi dal lavoro con 6 colleghi chiacchierando comodamente seduto in un van-robot che riporta tutti a domicilio, e se un’ora dopo vuoi andare a cena fuori digiti un altro codice et voilà». Basta moltiplicare questi “noleggi” anche a pochi spiccioli per 10 miliardi di esseri umani, per 10-20 volte al giorno, per 365 giorni all’anno, «e non è difficile capire che il profitto dalla casa produttrice dalla Driverless Car diventa cosmico, rispetto al preistorico sistema della vendita dell’auto al singolo». E già sanno, pare, che l’intera impresa delle Driverless Cars sarà «destinata poi a essere soffocata e rimpiazzata dalle Auto-Drones, letteralmente i Drones iper-tech di oggi trasformati un mezzi di trasporto che ti atterrano davanti a casa», sicché «l’intero traffico mondiale non sarà più su strada ma a circa 500 metri d’altezza sulle città», come in “Blade Runner”. «Ribadisco: queste masse però saranno obbligate (“senza alternative”) a noleggiare questa tecnologia: saranno prigioniere di quelle spese, anche a costo di altri sacrifici».Ma attenti, aggiunge Barnard, perché in questo progetto c’è altro: in questo modo, l’élite si prepara ad accumulare denaro e potere come mai prima, nella storia dell’umanità. Soprattutto perché il progetto «prevede, alla lettera, la distruzione d’interi comparti industriali (i tradizionali Re dell’industria) a favore dell’esistenza sul pianeta degli Imperatori del Business». Parola di Jeff Bezos, di Amazon: «Tutto questo sbriciolerà interi comparti industriali. Da queste fratture escono morti i tradizionali Re del business, ed escono gli Imperatori». E Bezos è uno che «ha sbriciolato tutto il comparto industriale a cui apparteneva, ha azzerato sei comparti in un colpo solo, e ora l’Imperatore è Amazon». State capendo? Non muore solo il capitalismo, secondo il progetto Tech-Gleba, ma anche la moltitudine delle industrie a favore di colossali monopoli (gli “Imperatori”) come mai visti nella storia, già chiamati col nome di “piattaforme”. Ne immaginate i profitti? Ancora: «Con lo Strumento per Pianificare l’Offerta, i Pensatori Critici e i nuovi software, l’Imperatore possiederà una o più Piattaforme. Le Piattaforme dovranno però interagire nel pianeta, tutto si gioca in questo, nelle Piattaforme… Useremo i software per sbriciolare comparti industriali con prodotti o soluzioni che nessuno ancora possiede». Di nuovo, immaginate i profitti dei pochi Imperatori-élite nelle loro Piattaforme?Chi parla così? Dei lunatici deliranti? Tutt’altro: sono Lloyd Blankfein (Goldman Sachs), Robert Smith (Vista Equity Partners), e Jeff Immelt (General Electric), a un meeting riservato. Ma, «prima che il progetto arrivi a distruggere i milioni di Re a favore degli Imperatori, gente come Amazon di Jeff Bezos con la sua iper-Tech digitale si sta divorando la piccola-media distribuzione, come uno squalo bianco divorerebbe un milione di pesci rossi in una vasca». Se cambia l’universo-automotive, «10 miliardi di viventi saranno “prigionieri” della necessità (Captive Demand) di “noleggiare” tecnologia oggi considerata cosmica per solo spostarsi». Costretti, prigionieri. «Basta solo capire che quasi tutto il resto sarà esattamente così, per quasi ogni prodotto e per quasi ogni servizio esistente. Cioè: 10 miliardi di “Tech-Gleba Senza Alternative”», obbligati a «usare per sopravvivere tecnologie di cui loro non hanno nessun controllo, ma assoluta necessità, e che stanno tutte nelle mani di pochi Imperatori che già oggi le posseggono perché ci stanno investendo cifre incalcolabili e cervelli inimmaginabili».Amazon e Google-Alphabet, Intel, Samsung, Microsoft, Apple, D-Wave Systems e tutti i labs di ricerca in “A.I.” dei colossi come General Electric, Bosch, Mit di Boston, più le migliaia di startup come la cinese Mobvoi. Monopolio totale della conoscenza applicata, in ogni campo: «Potrebbero sparire tutti i tecnici Enel, idrici, progettisti d’auto o medici operativi oggi, che in poco tempo sarebbero sostituiti da altri già esistenti o in formazione. Ma quando invece solo il fatto che tu abbia una connessione senza cui letteralmente non sopravvivi in Terra, o che tu abbia un trasporto da A a B, o un Cobot che ti curi il taglio post-operatorio, quando queste cose essenziali sono in mano a una élite ristrettissima di fisici quantistici, software code-makers da viaggio su Marte, e maghi visionari della A.I., i cui brevetti saranno più segreti dei codici nucleari di Stato… tu sei fottuto, perché nessuno fra i tecnici delle normali formazioni universitarie anche ad altissimo livello ci capirà mai nulla di quella incredibile fanta-vera-scienza. I primi saranno i padroni unici della vita stessa sul pianeta, punto. State capendo?».Trasporti, sanità, acqua, energia, informazione, servizi essenziali, pagamenti, cibo: tutto in mano a pochissimi, il cui sapere non è alla portata dei normali scienziati non-quantistici. Ci sono materiali “magici” come il Graphene, «che è un singolo strato di materiale con proprietà mai esistite in nessun altro materiale al mondo: è più forte dell’acciaio, conduce meglio del rame, è sottile come un singolo atomo, da semiconduttore è praticamente trasparente e ha applicazioni ovunque, dalla chirurgia all’ingegneristica alla purificazione delle acque ai sistemi elettrici di intere nazioni». E ci sono gli Oleds, «che sono tecnologie visive, che trasformeranno le tv e gli smartphone in applicazioni molto più flessibili, intercambiabili, permetteranno a una televisione di casa di essere ripiegata in un tablet e poi anche in uno smartphone». E ci sono i possibili super-computer «di capacità inimmaginabili, oggi nascenti dalla fisica quantistica di D-Wave Systems».La massima incarnazione di tutto ciò si chiama Sergey Brin, il guru di Google-Alphabet. Tutto il potere inimmaginabile che Google ha e avrà nasce da questo concetto partorito da Brin: «Non c’interessa fare prodotti, c’interessa sfondare i limiti dell’inimmaginabile». Brin, continua Barnard, ha dato ordine di sviluppare decine di innovazioni chiamate Ecosystem, da lì il progetto di eliminare tutti i trasporti su ruote o ferrovie del pianeta, e sostituirli con immensi Dirigibili Drones con neppure un umano impiegato a bordo, spostando tutto ciò che si sposta al mondo – dalla Cina all’Argentina e dal Canada a Singapore – da una stanza con una ventina di addetti». Il lettore, aggiunge Barnard, deve comprendere come lavorano i cervelli di questi “alieni umani”. «Per essere semplici: se il 99% degli scienziati stanno lavorando come pazzi per mandare l’uomo su Marte, Sergey Brin riunisce i suoi per trovare le tecnologie per mandare l’uomo su Giove… comprendete? Col Deep Learning di Google, Brin considera oggi come già superata l’Intelligenza Artificiale (A.I.) che ancora deve venire». Con i colleghi Greg Corrado e Jeff Dean, Brin «ha chiuso gli occhi e immaginato livelli di astrazione». Che significa? «Loro sanno che nella sfera dell’Intelligenza Artificiale il problema dei problemi è che i computer lavorano a metodo lineare, e non riescono ad elaborare molti livelli di astrazione. E oggi loro hanno portato l’Intelligenza Artificiale con il loro Deep Learning a saper elaborare almeno 30 livelli di astrazione, dando quindi la capacità ai computer d’imparare ormai allo stesso livello degli umani».Poi c’è David Ferrucci, che fu il guru della A.I. all’Ibm col progetto Watson. Ferrucci lasciò Ibm per passare alla corte di Ray Dalio, il boss dell’hedge fund Bridgewater. «Un altro essenziale transfugo dall’Ibm che è andato a lavorare sulla A.I. in Inghilterra alla Benevolenti A.I. che si occupa di sanità, è Jerome Pesenti: e qui avremo moltissima “Tech-Gleba Senza Alternative”, perché gli ammalati esisteranno sempre e già oggi in Giappone, dove nel 2025 gli anziani sopra i 70 anni saranno quasi il doppio di quelli in Ue o negli Usa, si stanno costruendo gli infermieri robotizzati chiamati Cobots». Continua Barnard: «Adam Coates viene da Stanford e oggi porta il suo genio “demoniaco” alla Cina, dove dirige i progetti di A.I. per la mega-corporation Baidu focalizzandosi su apprendimento, percezione e visione nella A.I». Al colosso Ibm non mancano i rimpiazzamenti: David Kenny che sviluppa proprio la tecnologia per le piattaforme e per i carichi cognitivi. Poi, l’arcinota Uber ha Gary Marcus che lavora sulla A.I. per le Driverless Cars e sul Dynamic Ride Scheduling. «L’uomo che forse più sa di Networking Neuronale al mondo è Jonathan Ross: lavorava a Google con Brin». In Amazon, invece, «Raju Gulabani ha pionierizzato la rete da decine di miliardi di dollari che sostiene la corporation di Jeff Bezos, cioè la Aws Database and Analytics, assieme ai primi mattoni di A.I». E ci sono personaggi Russ Salakhutdinov, di Apple, «anche se l’ex impresa di Steve Jobs è davvero arrivata tardi in questa fanta-vera-scienza».Qualche esempio di cosa inizieremo a vedere? La classica scampagnata: oggi prendi la bici e scorrazzi tra i campi, tra l’odore di fieno, il rombo della trebbiatrice «e quella sensazione di essere nella natura lontano da semafori, antenne o il wi-fi: il casolare del contadino, i contadini magari seduti fuori dal bar di Mezzolara al sabato pomeriggio a giocare a carte». Nella scampagnata in “Tech-Gleba Senza Alternative”, invece, «i contadini scompaiono, letteralmente non ne esiste più uno». Si chiamerà: Agricoltura di Precisione. «Il casolare, se rimane, è ristrutturato in una centrale operativa di Agriscienza. Antenne ovunque. Nessun rombo di trattore, ronzii di decine di Drones di dimensioni che vanno dai 12 centimetri a 10 metri che sorvolano i campi e trasmettono miliardi di dati (100 o 500 per ogni singolo stelo di grano, per ogni singola cipolla) alle centrali. Poi i software dalle centrali diranno ai Drones Seminatori dove piazzare il singolo seme a seconda di una dettagliata analisi chimica del singolo centimetro quadrato di terreno, il tutto in tempi di microsecondi. Welcome la Semina di Precisione. Stessa operazione ai Drones Fertilizzanti. Vi lascio immaginare il resto: meglio che ne approfittiate finché il contadino sta ancora là, oggi».Nel campo industriale, continua Barnard, si aggiungono gli Ecosistemi Virtuali, là dove il prodotto viene razionalizzato da sistemi di A.I. per ridurre i passaggi produttivi di venti volte o più. Una produzione annuale di 40 milioni di di pezzi sarà gestita dai Cobots, cioè sistemi robotizzati che letteralmente “parlano” con un singolo operatore umano, che «non schiaccia più tasti, ma parla e basta», mentre «mostruosi impianti rispondono, obiettano, suggeriscono soluzioni, segnalano problemi». Così per tutto: intrattenimento, qualsiasi attività esterna a casa, istruzione, social media, attivismo, politica. «Qui i primi ad arrivare per cambiare, come mai, il tuo mondo saranno la Virtual Reality (Vr) e la Augmented Reality (Ar) del conglomerato Facebook-Oculus». Il concetto è questo: «Per entrare in contatto con chiunque, e per fare praticamente qualsiasi cosa, non sarà più necessaria la tua presenza fisica, basta quella virtuale. Un bel Rift Head-set di Oculus, o anche solo quegli strani occhiali con cui si fece fotografare Sergey Brin di Google, e il gioco è fatto. Il networking globale in 3d ti permetterà, stando immobile sul divano, di cercar casa visitando decine di appartamenti, dialogare con gli agenti e l’amministratore, stare in classe ma “vedersi” seduti alla Lectio Magistralis del Prof. X all’università di Yale in Usa, o visitare, sempre immobile dalla classe, le distese di Agribusiness in Sudan, partecipare a workshop di A.I. a Cupertino, a Mosca, a New Delhi». E magari «testimoniare la guerra ad Aleppo, ma senza il “disturbo” degli odori dei poveri, dei fetori di sangue rappreso, e con una visione totalmente pilotata dalle autorità occidentali».Poi, i social media «ti permetteranno, dal divano di casa, di essere fra amici a una cena virtuale, o di corteggiare una persona per capire chi è, prima ancora di muovere un passo da casa. O di non muovere neppure più un passo da casa, e avere un orgasmo, toccare un petto o un seno virtuali, e uscirne totalmente soddisfatti». Peggio: «Il progetto provinciale di Casaleggio diverrà devastante nelle dimensioni. L’attivismo politico sarà tutto immobilismo dai divani di casa, nessun corpo umano visibile da nessuna parte, tutti in cortei virtuali, Consigli comunali virtuali, comizi virtuali, dialoghi coi parlamentari virtuali, videogames di scontri di piazza, cioè aria fritta, e apatia di masse immense nel trionfo globale dell’Attivismo di Tastiera». Il denaro? Blockchain e Ledgers sono già realtà oggi: «Sparirà ogni forma di denaro, le Cryptovalute diverranno padrone (oggi abbiamo solo Bitcoins ed Ethereum, ne verranno centinaia). Ogni singola transazione, dai 70 centesimi dell’anziana pensionata alle centinaia di miliardi delle corporations, sarà registrata attraverso la tecnologia Blockchain in registri mondiali chiamati Ledgers che saranno visibili da chiunque al mondo abbia i software per accedere».I pagamenti saranno quindi istantanei e istantaneamente verificati dagli algoritmi matematici di tutta la catena di Blockchain. «Spariranno dunque milioni di posti di lavoro legati alla contabilità, all’avvocatura, nelle banche, con lo strascico di impiegati/e. Ma molto peggio: i maghi dell’informatica dei servizi americani, perché saranno loro ad avere le chiavi di questa allucinazione, passeranno miliardi di dati privati – sui pagamenti degli umani visibili sui Ledgers, quindi sugli stili di vita, sulle abitudini, sulle tendenze di consumo, sullo stato di salute delle persone, su come lavorano, sul business mega-medio-micro». Dati ce finiranno alla Nga, la National Geospatial Intelligence Agency degli Stati Uniti. «La Nga è la più grande intelligence al mondo per raccolta e analisi di immagini e dati; e lo sarà in futuro per capire chi sei tu, o tu azienda, cosa fai ogni 30 secondi della tua vita, cioè se compri gratta&vinci o se hai fatto un’ecografia all’utero, o se hai donato a Greenpeace, ai sovranisti… o per spiare i pacchetti ordini per sapere su quali aziende speculare, o per sapere se davvero come dice “Bloomberg” il rame del Cile ancora tira, o se è meglio dire agli investitori di andare altrove». La Nga «lo farà grazie alla Blockchain e ai Ledgers: sarà la più immane perdita di privacy della storia umana, con la “Tech-Gleba Senza Alternative” del tutto impotente, ma le piattaforme globali in posizione di ovvio favore».E sempre in materia di privacy disintegrata, continua Barnard, saremo il benvenuto al mondo dei Psychoimaging Sofware, a braccetto coi Drones. «E’ noto che i gadget digitali più venduti già oggi sono pronti ad ospitare software che ti leggono impronte digitali, o la mimica dei muscoli facciali, o a registrarti mentre sei a letto col cellulare spento. Ma è anche vero che i dati sulla tua persona che verrebbero trasmessi in questo modo rischiano di essere molto frammentari perché non viviamo sempre incollati ai cellulari, pc o tablets». I droni, invece, come già oggi sperimentato dal Darpa del dipartimento alla difesa Usa, «possono essere ridotti alle dimensioni di un insetto, ed essere su di te in qualsiasi momento, ovunque, e trasmettere i dati a software di Psychoimaging, cioè software che compileranno schede su chi sei, che carattere tendi ad avere, come ti si può convincere meglio e a che ore del giorno, o se sei una minaccia per il sistema, cosa ti potrebbe sospingere a una ribellione, come i media impattano la tua personalità, come formi i tuoi figli». Peggio ancora: «I Drones possono leggere il labiale, quindi avere un accesso ancora più diretto a qualsiasi cosa tu esprimi o intenda fare in ambito sia privato che di business».Per il pessimista Barnard non avremo scampo: «Saremo “Tech-Gleba Senza Alternative”, cioè prigionieri, precisamente perché quando tutto il pianeta funzionerà così, chi si può permettersi di dire “No, non ci sto”?». E il «mostruoso mondo Tech» non è una fantasia, «è già alle porte». Ma a cambiare, sottolinea Barnard, è solo il “come”, lo spaventoso potenziale tecnologico, non il paradigma. Quello è immutato: «Il gran gioco della razza umana dal primo minuto della civiltà è sempre stato identico: fu, e rimane oggi, una guerra spietata fra il desiderio delle élite di dominare, e i tentativi dell’umanità di prendersi invece ciò che gli spetta. I tentativi hanno avuto sempre e solo un nome: le rivoluzioni», considerate dall’élite «fastidiosi incidenti di percorso». Potevano essere represse nel sangue, o tollerate per qualche tempo e poi «dirottate dall’interno verso nuove forme di sanguinario dispotismo di altre élite». E’ il caso della Rivoluzione Francese finita nel Terrore, o della Rivoluzione Russa «che Lenin devastò appena poté». Ma con l’incalzare della modernità, aggiunge Barnard, per le élite divenne sempre più difficile controllare le masse. La prima sperimentazione in grande stile? Negli Usa, tra fine ‘800 e inizio ‘900.«Pochissimi sanno che la parte d’Occidente più “marxista” in assoluto, a cavallo fra il XIX e il XX secolo, fu il nord-est degli Stati Uniti d’America, e in parte l’Irlanda». Negli Usa, il fermento dei lavoratori «impropriamente chiamato socialista», in realtà «anarco-sindacalista, libertario nel vero, storico senso del termine» era tale che, di routine, «venivano stampati quasi 900 quotidiani rivoluzionari, che venivano davvero letti nelle comuni di lavoratori e lavoratrici». Ora, aggiunge Barnard, si può immaginare come l’élite del capitale americano si organizzò per soffocare tutto questo. E di certo, a pochi decenni da una guerra civile costata quasi 800.000 morti, «le élite non potevano reprimere tutto nel sangue. Ci voleva altro per soffocare quella rivoluzione». Ma cosa? Da quell’epoca in poi, «il Vero Potere comprese qualcosa di letteralmente mostruoso – ripeto, mostruoso – per silenziare, sedare, le masse ribelli: l’Apatia del Benessere Minimo». Che significa? «Mantenere miliardi in povertà e disperazione è non solo intenibile, perché si ribelleranno, ma controproducente (fine capitalismo, “Tech-Gleba”)». Furono due intellettuali americani a immaginare la soluzione: Edward Bernays e Walter Lippmann. «Le élite avrebbero dovuto sedare le masse – in quel caso americane – con l’avvento dell’industria mediatica, cinematografica, pubblicitaria e consumistica che ne manipolasse il consenso verso il desiderio di possedere un benessere minimo a qualsiasi costo».E vinsero, perché «chi inizia ad assaggiare l’individualismo del proprio piccolo, modesto progresso edonistico nei consumi e nel piccolo agio», poi ovviamente «abbandona i sacrifici, il coraggio e il pensiero per la lotta sociale». Chiaro: «Vuole avere di più. Per non parlare poi di quando diviene vera classe media». La prima grande ondata di “apatizzazione” delle masse potenzialmente pericolose per le élite «sfondò i popoli negli Stati Uniti fra gli anni ’20 e ’40 del XX secolo», continua Barnard. Celebre l’opinione che Bernays e Lippmann avevano del popolo: «Sono solo degli outsider rompicoglioni», da “domare” verso la docilità. Poi vennero la Seconda Guerra Mondiale, il dilagare del socialismo, il comunismo e la Rivoluzione d’Ottobre, la nascita del Welfare State in Gran Bretagna, «la magica (seppure breve) influenza dell’economista John Maynard Keynes sull’economia per la piena occupazione», fino al ’68 e alle lotte operaie europee. «All’alba degli anni ’70 le élite si resero conto che il piano Bernays-Lippmann di apatizzazione era decaduto, ne occorreva un altro ben più potente»: il Memorandum Powell.Barnard ne ha parlato nel saggio “Il più grande crimine”, citando le gesta dei protagonisti della «seconda grande ondata di apatizzazione delle masse». Lì i compiti furono divisi fra Stati Uniti, Europa e Giappone. «S’inizia con una mattina dell’estate del 1971, quando Eugene Sydnor Jr. della Camera di Commercio degli Stati Uniti chiamò l’avvocato Lewis Powell e gli chiese un progetto di apatizzazione delle masse occidentali in sollevazione». Powell scrisse un Memorandum di sole 11 pagine. Vi si legge: «La forza sta nell’organizzazione, in una pianificazione attenta e di lungo respiro, nella coerenza dell’azione per un periodo indefinito di anni, in finanziamenti disponibili solo attraverso uno sforzo unificato, e nel potere politico ottenibile solo con un fronte unito e organizzazioni (di élite) nazionali». Poi arriva la Commissione Trilaterale, composta appunto dai vertici di Stati Uniti, Europa e Giappone. Chiamano tre influenti intellettuali, Samuel P. Huntington, Michel J. Crozier e Joji Watanuki. Nelle 227 pagine del loro “The Crisis of Democracy” daranno la ricetta letale per l’apatizzazione. Basta leggere questi passaggi: «Il funzionamento efficace di un sistema democratico necessita di un livello di apatia da parte di individui e gruppi. Ciò è intrinsecamente anti-democratico, ma è stato anche uno dei fattori che hanno permesso alla democrazia di funzionare bene».«La storia del successo della democrazia – continuano i tre – sta nell’assimilazione di grosse fette della popolazione all’interno dei valori, atteggiamenti e modelli di consumo della classe media». Cosa vuol dire? «Significa che, se si vuole uccidere la democrazia partecipativa dei cittadini mantenendo in vita l’involucro della democrazia funzionale alle élites, bisogna farci diventare tutti consumatori, spettatori, piccoli investitori, tutti orde di classe medio-bassa appunto. Apatici». Il risultato, conclude Barnard, è storia contemporanea: «Trionfo dei consumi assurdi, dell’edonismo idiota di Tv e mode, crollo dalla partecipazione alle lotte in strada, apatia di praticamente tutti anche a fronte di fatti gravissimi che distruggono democrazia, lavoro, diritti, Costituzioni. Con l’avvento poi di Internet il tripudio del progetto della Trilaterale raggiunse l’orgasmo». Barnard fui il primo in Italia a coniare il dispregiativo “attivisti di tastiera”, ignaro che negli Usa si parlava di “clicktivism”. «Altra forma di apatia che infettò persino quel 2% dei cittadini che ancora non erano stati divorati da Playstation, Formula 1, Belen, Il Grande Fratello, la Champions, il red carpet di Cannes, il gratta e vinci, il Carrefour, la ‘notte rosa’ al mare». La grande apatia di massa del Duemila.«Le élite protagoniste di tutta questa storia – insiste Barnard – vedono sempre chiaro almeno 50 anni avanti, più spesso 200 anni». I segnali di un nuovo sommovimento delle masse? Divennero chiari, per loro, quasi vent’anni fa. Allora, «i salari reali del paese più potente del mondo, gli Usa, erano stagnanti dal 1973: malcontento diffuso». Inoltre, le bolle speculative (immobiliari e finanziarie, specialmente incoraggiate da Clinton) davano un segnale chiarissimo: le élite sapevano già che sarebbero tutte esplose (net-economy, subprime, crack di Wall Street). Risultato: di nuovo, milioni di occidentali “indignati”. Niente di buono neppure a Est: «La mano del Libero Mercato di quel criminale di Jeffrey Sachs nell’est europeo post-comunista e in Russia stava decimando quei popoli, col tasso di mortalità media in Russia crollato a 56 anni per gli uomini, migrazioni di massa a ovest delle donne, corruzione epica ovunque, di nuovo pericolo di sollevazioni». Poi il disegno dell’Eurozona: «Appena nato, era già stato sancito come una catastrofe sociale dalle Federal Reserve Banks degli Stati Uniti, e quindi dai maggiori “investment bankers” del pianeta, per cui già allora si aspettavano un’Europa di ribellioni populiste, caos politico, e Brexit». Chiarissimo, poi, era il pericolo di conflitto nucleare futuro, con rischi anche per le stesse élites: conflitto «non Usa-Russia, ma Usa-Cina, cioè due progetti imperiali inconciliabili a morte». Infine il “climate change” che già stava divorando il pianeta, con «masse immani di disperati» che si sarebbero mosse «letteralmente per bere, e avrebbero invaso l’Occidente: 500.000 indiani rischiano di non bere più fra meno di un decennio».Attorno al 2.000, «l’elite comprese che una terza, immensa ondata di apatizzazione sarebbe stata vitale, per tenere questo mondo di nuovo in ribellione sotto controllo per i prossimi mille anni». Ed ecco Rift Head-set, Virtual Reality, Blockchain, Drones, Artificial Intelligence e 10 miliardi di umani in “Tech-Gleba Senza Alternative”, «decerebrati del tutto da Facebook-Oculus e altri come loro». Visione deprimente: «Saremo un’umanità omogeneizzata, senza più immensi scarti di redditi ma totalmente nelle mani, per letteralmente sopravvivere, di élite private che possiedono tutte le Tech-chiavi per la vita stessa della specie umana». E naturalmente «non potremo mai più ribellarci, né dare l’assalto alla Bastiglia, perché anche se ci impossessassimo di quelle chiavi non sapremmo né usarle né sostenerle. Saremo prigionieri di consumi High-Tech irrinunciabili, senza nessuna via di fuga, e in più totalmente apatizzati dall’immobilismo del mondo Virtual-Drones, con gli Oleds, la Vr con Ad, e le infinite forme di A.I.». Detto alla buona: «Se oggi è un dramma convincere un cittadino a uscire di casa per contestare il proprio Comune, immaginate in questo futuro, che è già pronto, quando il tizio con la maschera-occhiali contesterà il Comune in Virtual 3D fra un amplesso Virtual 3D e l’altro». Con 10 miliardi di umani conciati così, ed élites «padrone di un potere sull’economia e sulla vita stessa impensato fino a oggi», per Barnard si può davvero decretare la fine della storia. «L’Eurozona è un sogno, in confronto; la mafia è un sogno, in confronto, il lavoro di oggi anche. Ricordate Lincoln e come seppe vedere ‘oltre’. Non fate figli, vi prego».Non mangiano più “libri di cibernetica, insalate di matematica”, ma divorano volumi di Cartesio, Galileo, Newton. Sono i nuovi stregoni della meccanica quantistica, a metà strada tra scienza e metafisica. Sono stati assoldati dall’élite planetaria, quella che ormai ha compreso che il capitalismo è storicamente finito. Al suo posto, avanza quella che Paolo Barnard chiama tech-gleba. O meglio: “Tech-Gleba Senza Alternative”, sottoposta al cyber-potere del computer “quantico”, fantascienza in mano a pochissimi. Una super-macchina “pensante”, in grado di far sparire ogni lavoratore dalla faccia della terra, sostituendolo con robot, droni e androidi cobots, i cui servizi i neo-schiavi ridotti all’apatia saranno costretti a “noleggiare”. «Questo non è un fumetto, è il futuro vicino, vicinissimo, ed è tutto già pronto. Solo che nessuno di noi se ne sta accorgendo», perché i cittadini più “svegli”, che stanno in guardia contro minacce visibili (mafie, corruzione, Eurozona, migrazioni, “climate change”) non vedono «un mostro immensamente peggiore», che ormai «è dietro la porta di casa». L’umanità retrocessa alla servitù della gleba (tecnologica). E’ l’incubo al quale Barnard dedica svariate pagine sul suo blog, lo stesso che nel 2011 ospitò il profetico saggio “Il più grande crimine”, sulla genesi politico-finanziaria dell’Eurozona – riletta, appunto, in chiave criminologica: puro dominio, fraudolento, dell’uomo sull’uomo.
-
Pace e silenzio, niente elettricità: l’Isola Proibita dei Sinclair
Niihau è la più piccola delle isole abitate delle Hawaii: qui non ci sono strade né tantomeno hotel, ristoranti o semplicemente la corrente elettrica. L’unico insediamento umano si trova a Pu’uwai, un villaggio indipendente dagli Stati Uniti in cui la comunità vive ancora come centinaia di anni fa, pescando e allevando bestiame. Eppure quest’isolotto dell’oceano Pacifico ha tutte le carte in regola per essere considerato un paradiso, a partire dal fascino del proibito. Sì, perché Niihau è anche conosciuta come The Forbidden Isle, l’isola proibita: fu acquistata nel 1864 da Elizabeth Sinclair e oggi appartiene ai pronipoti Bruce e Keith Robinson che in genere ne vietano l’accesso, tranne ai parenti di coloro che ci abitano, al personale della Marina militare degli Stati Uniti, ai funzionari governativi e altri selezionatissimi ospiti. Da trent’anni a questa parte, però, vengono concessi un limitato numero di visti turistici.Perché vale la pena visitarla? Sicuramente per toccare con mano la vita di un isolotto vulcanico custodito come un prezioso scrigno, molto diverso delle realtà circostanti, dove il tempo sembra essersi fermato. Tradizione vuole che sulle isole hawaiane si venga accolti da un Mahalo abbinato ad una ghirlanda di fiori tropicali. Ma Niihau è decisamente arida e, al posto dei fiori, si usano le conchiglie marine. Quest’isola misura appena 180 chilometri quadrati ed è circondata da scogliere e spiagge formate da un’infinità di minuscole conchiglie di chiocciole di mare portate a riva dalla risacca oceanica, considerate una vera «miniera d’oro». Alcuni abitanti di Niihau passano intere giornate a raccogliere e selezionare le conchiglie più belle e intatte, con cui creano delle raffinate collane.Non essendoci alcun confort moderno – per i niihauani, internet e televisione sono sconosciuti – sull’Isola proibita si vive secondo natura, nel silenzio, custodendo la vera essenza delle Hawaii prima dell’avvento del turismo. Anche l’attuale numero di abitanti è sconosciuto: il censimento del 2010 ha contato 170 persone, ma i Robinson non sono tenuti a presentare stime sulla popolazione. Gli isolani possono, ovviamente, viaggiare e ritornare a Niihau quando vogliono. E pare lo facciano sempre. Questo perché, come afferma Bruce Robinson, sull’isola si respira «una sensazione di pace e di rinnovamento che non si percepisce nel mondo esterno. La cultura occidentale l’ha persa, e il resto delle isole l’hanno persa. L’unico posto dove è rimasta è a Niihau».(Noemi Penna, “Sull’Isola proibita delle Hawaii dove si vive ancora senza elettricità, raccogliendo conchiglie in spiaggia”, da “La Stampa” del 2 aprile 2017).Niihau è la più piccola delle isole abitate delle Hawaii: qui non ci sono strade né tantomeno hotel, ristoranti o semplicemente la corrente elettrica. L’unico insediamento umano si trova a Pu’uwai, un villaggio indipendente dagli Stati Uniti in cui la comunità vive ancora come centinaia di anni fa, pescando e allevando bestiame. Eppure quest’isolotto dell’oceano Pacifico ha tutte le carte in regola per essere considerato un paradiso, a partire dal fascino del proibito. Sì, perché Niihau è anche conosciuta come The Forbidden Isle, l’isola proibita: fu acquistata nel 1864 da Elizabeth Sinclair e oggi appartiene ai pronipoti Bruce e Keith Robinson che in genere ne vietano l’accesso, tranne ai parenti di coloro che ci abitano, al personale della Marina militare degli Stati Uniti, ai funzionari governativi e altri selezionatissimi ospiti. Da trent’anni a questa parte, però, vengono concessi un limitato numero di visti turistici.