Category Archives

42 Articles

Posted on

L’irrazionale ingenuità del cancro: quando l’abuso della medicina alternativa diventa letale – Parte1

L’irrazionale ingenuità del cancro: quando l’abuso della medicina alternativa diventa letale – Parte1

Eleonora ha 17 anni quando le viene diagnosticata una leucemia. I medici consigliano senza esitazione la chemioterapia, un trattamento divenuto con gli anni efficace a tal punto da curare l’85% dei pazienti affetti da questo tipo di tumore, restituendo loro una vita normale. Ma il padre di Eleonora non è d’accordo. Lino Bottaro è un fotografo, nel tempo libero gestore del sito Stampa Libera (non più esistente, ndr), che come lui stesso scrive si occupa di scie chimiche, “vaccini invalidanti e mortiferi”, chemioterapie date ai pazienti sotto tortura negli ospedali, terremoti indotti e via dicendo. Lino Bottaro è un ciarlatano. Lui e la moglie seguono la filosofia di Ryke Geerd Hamer, tedesco radiato dall’ordine dei medici, secondo cui le malattie non sono altro che la risposta dell’organismo a traumi psicologici. Il Tribunale dei Minori toglie loro la patria potestà, ma ottengono lo stesso grazie al loro avvocato la possibilità di curare la figlia in Svizzera. Dopo poche settimane e dosi massicce di Vitamina C, Eleonora muore.

Forse di Eleonora avrete già sentito parlare qualche mese fa: alla sua vicenda diedero voce i media, nonché il medico e divulgatore Roberto Burioni, in uno dei suoi post su facebook che spesso catturano l’attenzione dei social. Ma Eleonora è solo una delle tante, troppe vittime dell’uso sconsiderato della medicina alternativa. La Nuova Medicina Germanica ha stroncato anche Alessandra: 34 anni, due figli e un ristorante vegano da gestire. Per combattere il tumore al senoha rifiutato la chemioterapia – efficace nel 95% di questi casi, a 5 anni dall’intervento – affidandosi invece ad impacchi di ricotta e decotti di ortiche, sotto la supervisione di uno “sciamano”.

Il metodo Hamer, che è evidentemente una buffonata senza alcun fondamento scientifico, trova però moltissimi seguaci in rete: basti pensare che il gruppo facebook italiano conta più di 18 mila membri. Ed è solo la prima di una moltitudine di assurde ed illogiche presunte terapie alternative, o bufaleper meglio dire, che serpeggiano e si diffondono nel credo popolare, assumendo in breve tempo i connotati di cure miracolose. L’elenco è sconvolgente quanto interminabile, e la discussione più che mai viva sul web: da chi considera il cancro un fungo e lo combatte con il bicarbonato di sodio (nonostante la condanna per omicidio colposo e truffa all’ideatore), a chi adotta la “terapia del silenzio” e chi al contrario quella “verbale” (la cui promotrice dispone curepiuttosto eccentriche), chi si infila ceci avvolti da foglie di cavolo in ferite autoprovocate (ehm..cosa?), chi si purifica perdendo 40Kg con la “dieta shock”, chi si cura con il veleno dello scorpione azzurro, chi si affida ai pluricitati rimedi naturali: l’artemisia, l’aloe, la vitamina D, la graviola… cercare per credere: bastano poche, semplici parole chiave su Google e si spalancano le porte di unmondo parallelo di disinformazione pseudoscientifica. E’ un po’ come andare a vedere quant’è profonda la tana del Bianconiglio, solo che chi cade davvero, poi non ne esce più. Come Giuditta, che ha scelto il metodo Gerson a base di frullati e clisteri di caffè, e come gli altri non è sopravvissuta.

Link bonus: la mappa della comunità del metodo Gerson. Sì, è arrivato fino in Nuova Caledonia.

Cos’è la medicina alternativa

Ma andiamo con ordine. Cos’è la medicina alternativa, e perché così tante persone vi fanno ricorso?

La medicina complementare e alternativa (MCA) fa riferimento a un variegato insieme di pratiche per le quali non esiste prova di efficacia o, se sono state sottoposte a verifica sperimentale, ne è stata dimostrata l’inefficacia e per alcune di esse anche la pericolosità. Per tali motivi non vengono comprese nella medicina scientifica, che le relega pertanto nell’ambito delle pseudoscienze.

Per capirne di più, ci affidiamo all’Enciclopedia Treccani: “I modelli teorici che stanno alla base degli approcci diagnostico-terapeutici delle pratiche comprese nelle MCA sono talmente eterogenei da rendere praticamente impossibile l’identificazione di caratteristiche che le possano accomunare. […] In altri termini, queste pratiche non sono integrate nel modello di cura dominante, in quanto in contraddizione con diversi principî di ordine culturale, economico, scientifico, medico e formativo. […] Tuttavia, sia la richiesta sia l’offerta di questo tipo di cure nella società occidentale sono in continuo aumento, e a tutt’oggi la forza che maggiormente determina questa continua espansione sembra essere proprio il mercato.”

Abbiamo quindi ora a nostra disposizione diversi elementi per inquadrare meglio questo tipo di pratiche: si tratta di terapie che, opponendosi a priori all’applicabilità del metodo scientifico, non vengono proposte sulla base di risultati sperimentali, bensì su teorie, aneddoti, opinioni. Tuttavia, assumono oggigiorno un’importante rilevanza sociale nel mondo occidentale, in quanto diffuse in una consistente parte della popolazione che ne fa un uso regolare o occasionale. Ma quanti effettivamente si rivolgono alla medicina alternativa? Diamo un’occhiata ai numeri: negli Stati Uniti è stato stimato che il 36% della popolazione adulta usi una qualche forma di MCA nel corso di un anno. Livelli più bassi per paesi europei come il Regno Unito (10%) e l’Italia (15,6% nell’arco di un triennio, circa 9 milioni di persone). L’omeopatia è la terapia alternativa più utilizzata nel nostro paese (8.2%), seguita da terapie manipolative come la chiropratica (7%), cure erboristiche (4.8%) ed agopuntura (2.9%). E’ interessante notare come da diversi studi il profilo dei soggetti che utilizzano le MCA sia risultato essere molto simile: una più alta prevalenza di donne (perlopiù tra i 35-44 anni), di elevato livello culturale, con condizioni socio-economiche medio-alte e che ricorrono contemporaneamente, in grande maggioranza, anche alla medicina ufficiale.

La Dichiarazione di Terni

Quando un fenomeno risulta così diffuso nella popolazione, spesso il diritto finisce per farsene carico. Prendiamo l’esempio dei medicinali omeopatici: le evidenze scientifiche mostrano che si compongono fondamentalmente di acqua e zucchero (NB: questo non esclude a priori un potenziale effetto placebo), ma non si può ignorare il fatto che ci sono milioni di persone che ne fanno uso, il fatturato è in crescita costante (solo quello italiano vale 300 MILIONI l’anno!!) e che sono molti i medici che ne favoriscono la distribuzione.

Quello che si fa in questi casi è cercare un compromesso, per evitare ad esempio il contrabbando, o la vendita sottobanco. E’ bene ricordare, infatti, che l’ordinamento italiano è totalmente improntato al paradigma scientifico, e l’iscrizione all’Albo è uno degli strumenti utilizzati per mantenere i trattamenti medici ancorati a tale paradigma (in caso contrario, è esercizio abusivo di professione). Come si concilia tutto questo con la medicina alternativa? Nel caso italiano il compromesso lo si è trovato con la Dichiarazione di Terni del 2002, quando la FNOMCeO, riconoscendo la rilevanza sociale di nove discipline non convenzionali (tra cui agopuntura, fitoterapia, chiropratica ed omeopatia), ne ha classificato l’esercizio come atto medico. Questo le rende di fatto esclusiva competenza e responsabilità professionale del medico (chi le pratica senza questo requisito commette un atto illegale). Sono considerate sistemi di diagnosi, di cura e prevenzione che affiancano la medicina scientifica: questa posizione si fonda sul principio che qualunque intervento terapeutico debba essere preceduto da una diagnosi corretta. Questo significa che il naturopata può consigliare un erba per il mal di testa, ma non può prescrivere una dieta nè tantomeno una cura per una malattia.

MCA e cancro

Quest’ultimo aspetto di integrazione con la medicina tradizionale è particolarmente importante per la prescrizione e la distribuzione di medicinali alternativi. E’ innanzitutto essenziale adottare la corretta nomenclatura, che risulta spesso confusionaria nel parlato, soprattutto nell’accezione italiana dei termini. Si definiscono pratiche alternative quelle terapie utilizzate in sostituzione della medicina convenzionale, mentre si dicono complementari se vengono affiancate alla medicina scientifica; questa, assumendo entrambe le connotazioni, è detta quindi integrativa. Ecco perché lo stesso acronimo MCA può risultare fuorviante nel porre sullo stesso piano la medicina alternativa e quella complementare.

In linea di massima le patologie trattate con la medicina alternativa riguardano problemi comuni e di lieve natura. In queste situazioni le caratteristiche principali che le rendono apprezzate dai pazienti e dai loro familiari sono la valorizzazione di un approccio non paternalistico e l’attenzione all’unicità di ogni paziente, e alla sua dimensione psicologica e sociale.

Viene da sé che i problemi maggiori si riscontrano quando le pratiche non convenzionali attraversano il confine del mantenimento dello stato di salute della persona riversandosi nel campo – che non compete loro – della cura di patologie come malattie croniche o complesse, proponendosi come alternativa alla medicina scientifica. I casi più eclatanti, maggiormente portati all’attenzione dei media, e di cui abbiamo visto parecchi esempi concreti nel primo paragrafo, sono senza dubbio i tentativi di cura del cancro tramite metodi di medicina non convenzionale. Titoloni sensazionalistici di giornali online di dubbia affidabilità sono all’ordine del giorno, così come corsi e prestazioni offerti da santoni e sciamani, scoperte di cure miracolose contro tutti i mali e quant’altro. Ogni tanto, arriva anche qualche condanna per omicidio colposo, per coloro che dell’irresponsabilità sociale (e del reato di abuso di credulità popolare) ne hanno fatto un business.

E’ doveroso citare che esistono sostanziali evidenze di approcci di cure complementari che, se affiancate ad esempio alla chemioterapia nel trattamento dei tumori, possono aiutare nel contenimento di alcuni sintomi o effetti collaterali. Si parla nello specifico di contrastare nausea e vomito (che possono seguire la chemio) con agopuntura e prodotti a base di zenzero, o di combattere dolore, ansia e depressione relative alla malattia grazie a yoga e massaggioterapia.

Al contempo, il messaggio principale che tutti gli Istituti di ricerca sul cancro cercano di far passare (dall’AIRC, all’NCI americano), peraltro sostenuti dagli stessi centri che si occupano di salute complementare e integrativa (NCCIH negli Stati Uniti), è che ad oggi non esiste nessuna evidenza di efficacia della medicina alternativa nella cura del cancro o nella sua remissione. Per questo, rallentare il trattamento di un paziente affetto da un tumore per abbracciare terapie alternative può solo causare una diminuzione delle sue chance di sopravvivenza. Alcuni dei celebri rimedi naturali, come l’iperico (o Erba di San Giovanni), possono perfino contrastare l’azione di alcuni farmaci anti-cancro, rendendoli meno efficaci se presi nello stesso momento. Per questo è sempre di fondamentale importanza consultare un medico prima di rivolgersi ad una qualsivoglia terapia alternativa. Al contrario, uno studio riporta come i malati di cancro americani rivelino ai loro medici curanti solamente il 23% delle cure complementari di cui fanno uso.

Perché proprio il cancro? Vi starete forse chiedendo. A questa ed altre domande cercheremo di rispondere nella seconda parte dell’articolo. Parleremo della progressiva sfiducia nella medicina scientifica, nonostante i grandi progressi della chemioterapia, ma anche del perché non si possa obbligare una persona a seguire una determinata cura. Non perdetevi la prossima puntata!

 

(Nicola Fattorelli)

 

Alcune delle fonti principali:

  • National Center for Complementary and Integrative Health (NCCIH).

(https://nccih.nih.gov/health/cancer/complementary-integrative-research)

  • Complementary and alternative medicine use among cancer survivors: a population-based study (Mao 2011).

(https://www.ncbi.nlm.nih.gov/pubmed/20924711)

  • Use of unconventional medicine in Italy: a nation-wide survey (Menniti-Ippolito 2002). (https://www.ncbi.nlm.nih.gov/pubmed/11956675)
  • The prevalence of complementary and alternative medicine use among the general population: a systematic review of the literature (Harris 2000).

(https://www.ncbi.nlm.nih.gov/pubmed/10859601)

http://www.treccani.it/enciclopedia/medicina-complementare-e-alternativa_(Enciclopedia-della-Scienza-e-della-Tecnica)/

 

Articolo pubblicato su Il Dolomiti il 28/04/2017

Posted on

Sperimentazione animale: da grandi poteri derivano grandi responsabilità

Sperimentazione animale: da grandi poteri derivano grandi responsabilità

Nella notte tra venerdì 7 e sabato 8 aprile, alcuni vandali – che evidentemente devono fare pace con il cervello – hanno dato fuoco a un laboratorio della facoltà di scienze dell’Università di Trento a Povo. Lavorando nello stesso polo, in un edificio poco distante, sono rimasto sinceramente scioccato.

Questo episodio mi ha anche riportato alla mente gli innumerevoli casi in cui la violenza e l’ignoranza si sono scontrati con il mondo della ricerca, non ultimo quello del 2013, quando alcuni animalisti si introdussero nel Dipartimento di Farmacologia dell’Università Statale di Milano, barricandosi all’interno dello stabulario e prelevando decine di cavie.

Violenza e ignoranza sembrano essere un duetto ricorrente di molti movimenti animalisti in Italia quando si tocca il tema della sperimentazione animale: per la prima c’è poco da fare, mentre l’unico modo di combattere la seconda è attraverso una corretta informazione scientifica.

Il messaggio deve essere forte e chiaro: ad oggi la sperimentazione animale è indispensabile alla ricerca. Non ci sono opinioni discordanti nella comunità scientifica, come una certa propaganda di parte vuol far credere, e il sondaggio pubblicato su Nature nel 2011 lo dimostra. Per capirci, tutte le ricerche dei premi Nobel in medicina o fisiologia conferiti negli ultimi 30 anni sono basati su ricerche che hanno fatto uso di modelli animali.

Sfatando un altro mito, non esistono metodi alternativi che possano sostituire la sperimentazione animale. La sperimentazione in silico (simulazioni computazionali) e in vitro (utilizzo di batteri e linee cellulari) è già ampiamente utilizzata dai ricercatori di tutto il mondo e sono il primo passo per lo sviluppo di qualsiasi farmaco. Questi metodi, molto più economici, permettono di ottenere degli ottimi dati preliminarima non sono neanche lontanamente in grado – almeno per il momento – di simulare la complessità delle interazioni di un organismo come l’essere umano.

Non voglio nemmeno rispondere a chi ancora parla di vivisezione, BigPharma, talidomide e altri specchietti che tentano di convincere ingenue allodole del cliché dello scienziato pazzo. Quello su cui vorrei concentrare quest’articolo è laquestione etica, perché di questo si tratta e nessun ricercatore può nascondersi da questo dibattito. Che diritto abbiamo di usare un animale per testare un farmacoNessunoCe lo siamo presi ed è una terribile responsabilità.

L’evoluzione ci ha dotati di un formidabile sistema nervoso, della capacità di pensare ed essere coscienti delle proprie azioni. Smettere di usare i modelli animali equivale a interrompere la ricercaInterrompere la ricerca è negare l’istinto di sopravvivenza dell’uomo e la sua naturale inclinazione al ragionamento. È cancellare la speranza di milioni di persone di un futuro migliore. Ognuno di noi deve chiedersi quale sia il male minore: sacrificare centinaia, migliaia di topi o trovare la cura per i tumori, l’alzheimer, il parkinson? È una scelta etica per niente banale. La mia sincera opinione, per mischiare il sacro con il profano, è che da grandi poteri derivino grandi responsabilità.

Ovviamente, l’opinione di un neolaureato in biotecnologie può interessare a un numero molto ristretto di persone. Quello che dovrebbe interessare a tutti, invece, è il risultato della discussione, durata due anni, che ha portato all’approvazione della direttiva europea 2010/63/EUuna delle direttive più stringenti al mondo, che si occupa di regolare proprio l’utilizzo della sperimentazione animale.

Nel testo, l’Unione Europea si propone di porre fine alla sperimentazione animale in futuro, ma, in assenza di metodi alternativi, adotta misure per “migliorare il benessere degli animali utilizzati nelle procedure scientifiche rafforzando le norme minime per la loro tutela”. Il principio alla base dell’intera direttiva è quello delle 3 R. Replacement: ogni qualvolta sia possibile, si devono utilizzare dei metodi alternativi alla sperimentazione animale. Reduction: ridurre il numero di soggetti utilizzati in un determinato protocollo sperimentale. Refinement: cercare di mantenere l’animale nel miglior stato di benessere e ridurre al massimo il disagio che gli si arreca. Nel 2013 poi, la Commissione Europea ha annunciato la creazione di un network di laboratori per la validazione di metodi alternativi.

Al solito, l’Italia ha invece pasticciato con il diritto. La direttiva è stata sì recepita, ma aggiungendo ulteriori restrizioni, sull’onda dell’emotività suscitata dal caso Green Hill. La questione è pregna di tecnicismi legali e tecnici, che cercherò di dirimere brevemente.

È stato vietato l’utilizzo di animali negli studi sul meccanismo d’azione delle sostanze d’abuso e sugli xenotrapianti d’organo: quest’ultima tecnica in particolare è il modello principale per qualsiasi ricerca oncologica.

Sono vietati gli esperimenti che non prevedono anestesia (escludendo la sperimentazione di anestetici o analgesici). Tuttavia, la direttiva europea già prevedeva quest’obbligo, ad esclusione dei casi in cui l’anestesia fosse incompatibile con le finalità dell’esperimento o più traumatica dell’esperimento stesso. Come ben specificato dalla politica e virologa Ilaria Capua, la norma prevede che “per fare un’iniezione oppure per realizzare studi sul comportamento, andrebbe praticata l’anestesia contro ogni buon senso”.

Non mancano altre incongruenze, come il divieto di allevare cani, gatti e primati destinati alla sperimentazione, ma non di importarli.

Il risultante decreto legislativo 26/2014 quindi penalizza moltissimo i ricercatori che operano nel Bel Paese, impedendo loro di competere ad armi pari per l’assegnazione dei fondi internazionali, la primaria fonte di sostentamento di qualsiasi laboratorio. Ricordiamo che nonostante i pochissimi investimenti nazionali in Ricerca&Sviluppola qualità della ricerca italiana risulta essere sempre tra le migliori al mondo.

Il decreto in questione non solo rischia di minare pesantemente i fondi assegnati ai ricercatori che operano sul nostro territorio, ma ha messo l’Italia in stato di deferimento alla Corte di Giustizia Europea e a rischio di salatissime multe. Fortunatamente, una moratoria presente nello stesso decreto e successivamente prolungata di altri tre anni (fino al 2020) ha per ora bloccato l’attuazione delle ulteriori restrizioni, soprattutto grazie al grandissimo impegno da parte della comunità scientifica italiana e di associazioni come Research4Life.

Ciononostante, la questione con la Corte di Giustizia Europea resta in sospeso, ma soprattutto resta in sospeso il recepimento della direttiva Europea 2010/63/EU. Mentre quest’ultima è stata il miglior compromesso fra gli interessi di scienziatimalatianimalisti e case farmaceutiche, l’equilibrio in Italia è stato spostato dall’influenza mediatica delle associazioni animaliste, creando una problematica situazione di incertezza per tutti i ricercatori che vi lavorano.

E personalmente, credo che per un paese che punta ad essere tra i leader mondiali, essere ostaggi di una minoranza violenta, non dare ascolto alla voce dei propri scienziati e nascondere la testa sotto la sabbia dei cavilli legislativi sia da vigliacchi.

 

(di Dennis Pedri)

 

APPROFONDIMENTI: http://www.cittadellascienza.it/centrostudi/2017/01/sperimentazione-animale-la-spaccatura-che-non-ce/

 

Articolo pubblicato su Il Dolomiti il 13/04/2017

Posted on

Land Grabbing: il ‘Mr.Hyde’ dei biocarburanti

Land Grabbing: il ‘Mr.Hyde’ dei biocarburanti

I biocarburanti sono combustibili, liquidi o gassosi, che vengono utilizzati per i trasporti, i quali sono ricavati dalle biomasse commestibili e non; canna da zucchero, mais, grano, colza e altri cereali sono le coltivazioni più utilizzate come fonte di energia, coltivazioni che invece potrebbero servire per sfamare parte del pianeta. Essi vengono suddivisi in carburanti di prima generazione (o convenzionali) e di seconda generazione (o non convenzionali); i primi sono quelli implicati nel Land Grabbing, fenomeno del quale parleremo diffusamente in seguito, poiché sono prodotti da materie agricole utilizzabili a fini alimentari.

Questi biocarburanti dominano la produzione complessiva e si pensa che lo faranno ancora per molto. Nel quinto “Considerando” della Dir. 2015/1513/CE, l’UE afferma che “ci si attende che nel 2020 quasi l’intera produzione di biocarburante proverrà da colture che sfruttano superfici che potrebbero essere utilizzate per soddisfare il mercato alimentare e dei mangimi”. I biocarburanti presentano sul piano ambientale ingenti vantaggi rispetto ai combustibili fossili: permettono infatti di ridurre e addirittura eliminare in alcuni casi le emissioni di CO2, CO, composti solforati, metalli pesanti, idrocarburi aromatici e polveri sottili. Guardando alla sola fase di produzione, il miglioramento percentuale nell’emissione dei greenhouse gases (gas responsabili dell’effetto serra) del biodiesel rispetto al gasolio di origine fossile oscilla dal 25% al 48% se prodotto da colza, dal 51% a 58% se prodotto da girasole, dal 45% al 70% se prodotto da olio di palma, dal 37% al 62% se prodotto da soia.

Fantastico! Starete pensando. Peccato che mettendo pros and cons sulla bilancia non sia tutto rose e fiori, anzi: la prima direttiva europea sulla qualità dei carburanti (la Dir.98/70/CE) del 1998 fu fatta “coi paraocchi”, in quanto i legislatori posero la loro attenzione unicamente sulla diminuzione della produzione dei gas serra, senza considerare i risvolti di carattere economico e sociale. La conseguenza più importante è stata lo spregiudicato e crescente accaparramento delle terre da parte delle multinazionali e dei paesi sviluppati a danno dei terreni fertili dei paesi poveri, in precedenza gestiti da piccoli produttori locali, ora espropriati. Solo più recentemente con le Direttive del 2009 e del 2015 si è cercato di correggere parzialmente questo grave errore.

Questo è proprio il fenomeno sopra citato del Land Grabbing, letteralmente ‘accaparramento del terreno’, portato alla luce per la prima volta da GRAIN, un’organizzazione non-profit che supporta le attività dei piccoli agricoltori locali in tutto il mondo. Due terzi delle acquisizioni su larga scala avvenute negli ultimi anni nei paesi poveri sono destinate alla produzione di biocarburanti esportati nei paesi sviluppati; il continente maggiormente interessato è l’Africa (58%), seguono Asia (18%), Sud America e Messico (10%), Est Europa (8%) e Oceania (6%).

Questo fenomeno comporta inoltre l’aumento dei prezzi dei beni alimentari ed è strettamente collegato all’effetto ILUC (Indirect Land Use Change impact of biofuels, ossia una sorta di reazione a catena: poiché i biocarburanti utilizzano superfici destinate all’agricoltura e poiché la richiesta alimentare permane, le foreste vengono trasformate in terreni agricoli contrastando i benefici derivanti dall’uso dei biocombustibili). Questo può determinare danni ambientali gravissimi come l’espansione della monocoltura della soia, la quale provoca la deforestazione della Foresta Amazzonica e del Cerrado, la grande savana tropicale del Brasile, uno degli ecosistemi più importanti del mondo. Altri Paesi fortemente a rischio sono l’Uganda e la Costa d’Avorio.

I problemi sopracitati sono superati con i biocarburanti di seconda generazione, i quali sono prodotti da biomasse non utilizzabili per l’alimentazione umana o animale e non portano quindi alla sottrazione di terreno alla produzione alimentare o a cambi di destinazione dei terreni agricoli. Le materie prime utilizzate per la produzione di questi sono principalmente legno, cellulosa, scarti agricoli e coltivazione delle alghe. La ricerca è molto attiva in questo settore, in particolare verso 4 direzioni:

  • sviluppo di biocarburanti a partire da alghe ad alto contenuto lipidico;
  • produzione di piante geneticamente modificate a basso contenuto di lignina per facilitare il processo di produzione di biocarburanti;
  • utilizzo di microrganismi ricombinanti, contenenti geni in grado di trasformare in carburante i grassi prodotti dai batteri ospiti per la sintesi delle proprie membrane lipidiche;
  • utilizzo della biologia sintetica al fine di modificare il metabolismo di alcuni microrganismi, ottenendo sovrapproduzione di acidi grassi a partire da zuccheri, i quali vengono poi utilizzati per la produzione di carburante.

Nonostante le recenti correzioni, l’impegno al monitoraggio, alla ricerca e sviluppo, ai miglioramenti futuri messi in atto – o meglio, proposti – dall’Unione Europea, i problemi lasciati aperti dall’utilizzo dei biocarburanti (soprattutto quelli convenzionali, che dominano e domineranno per chissà quanti anni il mercato) fanno guardare allo sviluppo sostenibile in maniera scettica. Ciò che è certamente necessario è un investimento nella ricerca in questo settore: solo così sarà possibile puntare con maggiore decisione sui biocarburanti di seconda generazione, e in un futuro più lontano chissà, su quelli di terza e quarta.

 

(di Giorgia Tosoni)

 

Fonti:

 

 

Articolo pubblicato su Il Dolomiti il 05/04/2017

Posted on

Riusciremo a curare tutte le malattie?

Riusciremo a curare tutte le malattie?

Secondo i più recenti studi in mercato finanziario, il settore delle biotecnologie e life sciences (scienze della vita) è riconosciuto tra i piùredditizi, con una crescita costante seconda solo al settore hi-tech e web (Deloitte, 2016 Global life sciences outlook, Moving forward with cautious optimism).

Di recente, proprio dai giganti del web stanno convergendo ingenti investimenti nel campo delle Scienze della Vita: ad esempio Mark Zuckerberg, fondatore e amministratore delegato di Facebook, ha da poco stanziato 3 miliardi di dollariper finanziare diversi istituti di ricerca e laboratori impegnati nel superare le frontiere della biomedicina (Chan Zuckerberg Initiative).

Larry Page e Sergey Brin, fondatori di Google, hanno invece dedicato un intero settore di investimenti della nuova azienda madre, Alphabet, alla ricerca nelle Scienze della Vita (Verily Life Sciences). Senza contare la Fondazione Bill e Melinda Gates di Microsoft, che da anni è impegnata in attività filantropicherivolte per esempio a contrastare emergenze sanitarie legate a malattie infettive. A voler trovare un filo rosso tra questi esempi, non è difficile scorgere il desiderio dei sopracitati miliardari di scoprire l’elisir di lunga vita, o meglio dell’eterna giovinezza: una sorta di cocktail analogo moderno del Santo Graal.

Si contano molti altri benefattori che stanno seguendo i loro passi: i progressi in campo biomedico, dalla bioinformatica alla terapia genica all’immunoterapia stanno cambiando con grande rapidità il modo di studiare e combattere le malattie.

L’ultimo arrivo nel campo delle terapie innovative è un esempio particolarmente interessante per la riflessione a seguire: si tratta di un trattamento, per mezzo della cosiddetta terapia genica, dell’anemia falciforme. Ad un ragazzo francese, più di un anno fa, sono state asportate cellule progenitrici del midollo osseo, che successivamente hanno subito una modifica del DNA mediante l’utilizzo di un vettore virale, affinché producessero la corretta versione della proteina mutata. Il giovane ha ricevuto, mediante trasfusione, le sue medesime cellule, le quali sono in condizione di esprimere la proteina corretta e dare vita a globuli rossi sani.

La caratteristica patologica fondamentale dell’anemia falciforme è proprio la forma dei globuli rossi, a “falce” o “mezzaluna”, a causa di una mutazione nel DNA che determina una conformazione errata dell’emoglobina. I sintomi di questa condizione genetica si osservano però soltanto quando entrambi i geni che codificano l’emoglobina sono mutati. In eterozigosi, cioè quando soltanto un copia del gene (l’essere umano ha infatti sempre due copie di un gene) è mutato, i sintomi sono molto lievi o addirittura inesistenti. Per chiarezza, il giovane francese, dopo quindici mesi non ha avuto alcuna ricaduta.

L’anemia falciforme è anche una malattia ‘da manuale’ quando si studia genetica ed epidemiologia: la mutazione nel gene dell’emoglobina è infatti l’esempio fondamentale di come una condizione potenzialmente patologica si riveli favorita e venga ‘selezionata’ in particolari condizioni ambientali.

La maggiore incidenza di questa mutazione si osserva infatti nell’Africa occidentale e sub-sahariana, dove essere portatori sani dell’anemia falciforme conferisce una resistenza innata alla malaria. Il microbo responsabile della patologia non riesce infatti a portare a termine il suo ciclo riproduttivo nei globuli rossi, parzialmente difettosi, estendendo quindi l’aspettativa di vita dei soggetti infetti.

Tuttavia, se in una popolazione è presente una mutazione che in singola copia conferisce una resistenza ad una malattia (la malaria), la pressione selettiva non la eliminerà. Continueranno a presentarsi le occasioni in cui questo gene mutato si ritroverà in duplice copia in un organismo umano, dando origine ad una seconda condizione patologica: l’anemia falciforme.

Insomma, l’evoluzione sembra non favorire la scomparsa dei geni difettosi semplicemente perché in alcuni ambienti o per alcune condizioni la presenza, anche solo parziale, di un difetto genetico possa dare un contributo positivo alla salute dell’essere umanoJim Kozubek, un comunicatore scientifico americano, ha recentemente discusso altri esempi di come condizioni genetiche siano responsabili di effetti duplici per la salute: per esempio una variante genica può essere collegata con l’aumento di rischio per lo sviluppo di fibrosi cistica, ma anche proteggere contro il colera, mentre un’altra è collegata sia all’abbassamento del colesterolo LDL (quello “cattivo”) che all’aumento del rischio di infarto. Portando questi esempi, egli sostiene che l’ambizioso traguardo di questi magnati, cioè quello di curare ogni tipo di patologia che affligge l’essere umano, compreso l’invecchiamento, è semplicemente irraggiungibile.

Da scienziati, non si può che argomentare a sfavore: servono più dati e una conoscenza più approfondita delle patologie in questione. La ricerca ha bisogno di tempo ed energie per identificare nuovi obiettivi farmacologici che possano alleviare la condizione dei pazienti.

Da biologi però, diventa difficile ignorare le riflessioni più profonde e basilari di Darwin, per cui gli organismi, o meglio, in una visione moderna, i geni, progrediscono in funzione di un adattamento ad un ambiente, e non verso una forma ‘perfetta’. Alcuni nuovi interpreti dell’evoluzionismo, tra cui Stuart Kauffman, sostengono che le mutazioni siano il serbatoio stesso di innovazione nel processo evoluzionistico (Stuart Kauffman, A casa nell’universo, Editori Riuniti, Roma 2001) e che quindi semplicemente continueranno ad essere presenti nonostante la sforzo umano nel contrastarli.

Riflessioni di tale estensione sono in genere difficilmente applicabili al caso singolo, malgrado gli esempi sopracitati, e non è di certo nostra intenzione difendere una visione fatalista del progresso scientifico, anzi: siamo giovani scienziati ambiziosi di contribuire a questo sforzo collettivo.

Dall’altra parte però è facile nutrire alcuni dubbi nel programma di questi magnatiriusciranno ad ingegnerizzare la vita eterna e sconfiggere tutte le malattie? Chissà.

Per quanti successi potremo avere nel curare le malattie, siamo sicuri che questo sia il bene della specie?

Siamo sicuri che selezionare i geni migliori per l’ambiente attuale non sia deleterio in uno scenario futuro, in cui l’evoluzione si troverà con meno frecce da scoccare?

Forse il futuro della biomedicina non assomiglierà ad un Santo Graal rivisitato, e i manager dei colossi del web non potranno ammirare i loro sorrisi smaglianti alla tenera età di novant’anni, in quanto saranno più simili a dei frankenstein moderni, goffi e sgraziati, impegnati nello sforzo sisifeo di sostituire le parti di ricambio.

 

[di Giovanni Palla]

 

Articolo pubblicato su Il Dolomiti il 24/03/2017

Posted on

‘L‘unico batterio di Salmonella buono,è un batterio di Salmonella morto’ o forse no: iniziata in Sud Corea una sperimentazione per combattere il cancro

‘L‘unico batterio di Salmonella buono,è un batterio di Salmonella morto’ o forse no: iniziata in Sud Corea una sperimentazione per combattere il cancro

Quasi tutti hanno sentito parlare della salmonella, e molti hanno contratto la malattia, con quelle fastidiose nausee e i forti dolori allo stomaco. È causata dall’infezione di batteri (del genere Salmonella appunto) che si possono assumere per lo più tramite carne o pesce poco cotti o mal conservati. Oltretutto è contagiosa.

Ma non tutto il male vien per nuocere. I ricercatori della Chonnam National University di Gwangju in Corea del Sud, infatti, hanno pensato di sfruttare questo organismo nella lotta contro il cancro. Prima che l’articolo si trasformi in ‘Prendi la Salmonella e guarisci dal cancro’, ci tengo a sottolineare che l’intero procedimento è ancora in fase di sperimentazione sui topi e non si procederà alla sperimentazione umana  per ancora qualche tempo.

L’idea nasce da una semplice successione di considerazioni: il nostro sistema immunitario riconosce molto più facilmente i batteri (in quanto corpi estranei) rispetto alle cellule tumorali (corpi interni divenuti dannosi). Inoltre, molti batteri trovano il loro ambiente ideale in tessuti necrotici o con scarsità di ossigeno, e generalmente le parti più  profonde delle masse tumorali  possiedono queste caratteristiche.

I biologi Jung-Joon Min e Joon Haeng Rhee, a capo del team che sta svolgendo queste ricerche e i cui risultati preliminari sono stati pubblicati ad inizio febbraio sulla rivista scientifica Science, hanno pensato che, se si infettassero le cellule tumorali con un batterio, questo provocherebbe un innalzamento della risposta del sistema immunitario. Questo sarebbe quindi in grado di eliminare il batterio e, di conseguenza, avere un effetto sul cancro più potente del normale. Tale metodo è giá stato tentato in passato e spesso si sono verificate delle complicazioni anche dovute alla patogenicitá del batterio stesso.

Per questo motivo, è stato deciso di utilizzare un ceppo inoffensivo chiamato, Salmonella Typhimurium, successivamente geneticamente modificato di modo da permettergli di produrre una particolare proteina (FlaB) proveniente da un altro batterio, la quale aumenta notevolmente la risposta del sistema immunitario. Test clinici sono stati eseguiti sui topi, utilizzando sia batteri modificati che non, e naturalmente anche un gruppo di controllo nel quale non è stato inserito alcun batterio. Dopo 120 giorni si sono notati importanti risultati. Il gruppo trattato con il batterio modificato mostrava riduzione della massa tumorale fino, per alcuni, alla totale eliminazione del tumore stesso. I topi negli altri due, d’altro canto, presentavano in grandissima parte metastasi (stadio avanzato del cancro in cui questo si propaga in tessuti dell’organismo lontani dalla sua origine) ed alcuni erano morti.

I test sono ancora in corso, ma si può cominciare a parlare sicuramente di uno studio importante, che potrebbe modificare e portare nuove prospettive nella terapia contro il cancro. Il tutto sottolineando nuovamente (quasi ce ne fosse bisogno) l’importanza della manipolazione genetica, e fornendo anche un aspetto più apprezzabile ad alcuni di questi piccoli esseri, i batteri, con i quali senza accorgercene condividiamo ogni singolo aspetto della nostra vita.

 

Fonti: http://www.sciencemag.org/news/2017/02/scientists-turn-food-poisoning-microbe-powerful-cancer-fighter

 

(di Emanuele Cattani)

 

Articolo pubblicato su Il Dolomiti il 09/03/2017

Posted on

La marmotta fischia per salvare il gruppo, le api si sacrificano per la regina. Ma l’altruismo esiste in natura?

La marmotta fischia per salvare il gruppo, le api si sacrificano per la regina. Ma l’altruismo esiste in natura?

Il web è fantastico, ti permette di essere in mille posti contemporaneamente:studio in Olanda, ma grazie alla rete posso sapere che la nota conduttrice televisiva Licia Colò ha comprato dei granchi agonizzanti in un supermercato di Ostia e li ha liberati, poi qualcuno si è pure preso la briga di scriverne. Ora, oltre alla sconsideratezza dal punto di vista ecologico di questa azione, è degna di nota la sensibilità con cui questa donna dal cuore di ragazza ha empatizzato con un animale con cui abbiamo condiviso un progenitore più di 500 milioni di anni fa. Cinquecento milioni sono tanti.

La Terra era diversa da come la conosciamo oggi. Le terre emerse erano riunite in un unico supercontinente detto Gondwana: si sarebbe potuto andare in bicicletta ovunque, se non fosse che non v’era ossigeno sufficiente per sostentare la vita sulla terraferma. Una cosa però è rimasta invariata: sopravvive e si riproduce “l’entità” più adatta, in un mondo dominato da una competizione tra “entità” della stessa “specie” così come tra “specie” diverse.

 

 

DIDASCALIA L’albero filogenetico rappresenta la genealogia delle specie che incontreremo in questo articolo: anche se granchi e mammiferi hanno avuto un progenitore comune 500 milioni di anni fa, le leggi naturali che regolano l’evoluzione sono le stesse per le due classi di organismi. Cagnolini e gattini sono stati aggiunti per scaldare il cuore del lettore di questo freddo articolo.

 

Tutte queste virgolette e vaghi termini descrivono una categoria di cui fa parte l’esempio più comune, l’entità individuo: il ghepardo che corre più veloce, il pavone con la coda più maestosa, il cervo con le corna più forti riescono ad essere meglio nutriti, ad essere più attraenti per il partner o a conquistare con la forza un harem di femmine, garantendosi una prole numerosa che erediterà quelle caratteristiche che hanno reso i genitori gli individui “migliori” della loro generazione. Non si pensi che la selezione del partner agisca solo sulla struttura dei maschi in perenne competizione tra loro: la femmina della cimice dei lettiad esempio, per selezionare il proprio partner, ha nascosto il proprio apparato riproduttore sotto uno scudo in modo da potersi concedere unicamente al prescelto. Il maschio, da parte sua, ha evoluto in risposta un pene corazzato in grado di perforare lo scudo protettivo della femmina che talvolta muore in seguito allo stupro violento.

Dovrebbe essere dunque chiara la natura deterministica di questo fenomeno che trova le sue basi nella genetica: un gene viene trasmesso più frequentemente di altri se, come abbiamo visto, rende il proprietario più adatto a sopravvivere e avere una prole numerosa. Ma questo non è sempre vero: il gene può essere visto come un’entità a sé stante. Tramite processi di duplicazione, porzioni di DNA possono aumentare la propria frequenza anche all’interno di un organismoanche se questo non porta un vantaggio al portatore di queste sequenze di DNA. Ad esempio, il genoma umano è composto per più di due terzi da regioni altamente ripetute di DNA, molte delle quali con funzione incognita e, probabilmente, nulla.

Alcuni scienziati sono stati in grado di ingegnerizzare queste sequenze “egoiste” per diffondere delle modifiche genetiche in una popolazione partendo da pochi individui. Questa tecnica – chiamata gene drive – permetterebbe il contenimento di insetti dannosi o il salvataggio di alcune specie a rischio, diffondendo ad esempio un gene per la resistenza a una malattia. Ma se pure a livello molecolare siamo egoisti, come spiegare l’atto di Licia? Come spiegare le api operaie che rinunciano ad avere una propria prole per allevare quella di una regina? Come spiegare la marmotta che alla vista della maestosa aquila reale fischia per avvisare del pericolo, rendendosi visibile e vulnerabile?

In effetti non è semplice, per più di cento anni gli scienziati si sono interrogati per trovare un modello che permettesse all’evoluzione di selezionare positivamente queste forme di sacrificio. La teoria più in voga che potrebbe “giustificare” queste forme di altruismo è abbastanza macchinosa: oltre alla categoria individuo (facile) e alla categoria gene (difficile), dobbiamo aggiungere la categoria gruppo (complicato). Facendo le sentinelle a turno, le marmotte riescono a garantire al proprio gruppo, costituito solitamente da animali imparentati, una maggiore chance di sopravvivenza. Il sacrificio “personale” viene ampiamente ripagato dalla protezione fornita dalle altre sentinelle quando non si è di turno. Ci troviamo dunque di fronte a una forma di cooperazione e non di altruismo, da cui differisce esattamente come nel senso classico del termine.

Il meccanicismo della selezione naturale sembra essere in salvo, ma per le api?Come è possibile? Perché l’evoluzione ha portato migliaia e migliaia di operaie a lavorare per una regina, rinunciando alla possibilità di riprodursi e quindi trasmettere i propri geni?

DIDASCALIA: in media, le api sorelle hanno in comune tra loro il 75% del materiale genetico; nel caso dell’uomo invece, questa percentuale si ferma al 50%. Esse si prendono dunque cura dei “propri geni” presenti nelle altre operaie e nelle nuove regine, le sorelle a cui spetta il compito di fondare nuove colonie e trasmettere il materiale genetico nelle generazioni successive.

 

La spiegazione non è semplice, ma la figura API ci può aiutare: i maschi delle api, delle vespe e delle formiche sono aploidi, ovvero possiedono la metà dei cromosomi di una femmina. Sedici anziché trentadue. Questo porta gli spermatozoi prodotti dal fuco ad essere tutti identici: 16 cromosomi uguali che vengono ereditati dalle operaie, che partono così da una base comune di metà corredo cromosomico. I restanti 16 cromosomi sono ereditati dalla madre; in media due sorelle avranno in comune il 50% di questi cromosomi, per un totale di materiale genetico comune del 75%. Quindi le operaie hanno in comune con le sorelle più di quanto ne abbiano con la propria madre e l’egoismo dei geni fa sì che si prendano cura delle altre operaie e non della propria prole.

La nostra favola prende un sapore agrodolce ora che la regina passa da essere sovrana a schiava. Il peccato non cambia, ma la tirannia è soppiantata da una dittatura del proletariato. E la morale è che l’altruismo non esiste. Non in natura.

Altruismo è forse l’unica cosa che meriti l’appellativo di artificiale; è un’invenzione dell’uomo, frutto della rilassatezza con cui affrontiamo le sfide naturali ora che siamo la specie dominante di questa era: l’antropocene. Se poi sia stato l’uomo a inventare l’altruismo o viceversa, forse non lo sapremo mai.

 

(di Filippo Guerra, Open Wet Lab)

 

Articolo pubblicato su Il Dolomiti il 23/02/2017

Posted on

L’amore ai tempi della scienza, estrogeni e testosterone i protagonisti dell’equilibrio dei sensi

L’amore ai tempi della scienza, estrogeni e testosterone i protagonisti dell’equilibrio dei sensi

Ho sempre considerato il 14 febbraio una giornata dal significato piuttosto criticabile. Pensando ai moltissimi che in questa occasione festeggiano il proprio innamoramento, ragiono sempre sul fatto che in una coppia, probabilmente, una giornata ormai pregna di consumismo e materialismo come questa non dovrebbe rivestire un gran ruolo. Ma tant’è.

Perché gli innamorati, oggi o in ogni giorno dell’anno, sentono il bisogno di scambiarsi promesse d’amore, fiori profumati o cioccolatini del più pregiato cioccolato belga? E poi, cos’è che spinge i più temerari a mandare in maniera anonima un bigliettino segreto al ragazzo o alla ragazza che ha solamente intravisto o con cui ha scambiato solo un paio di parole in corridoio? La risposta che ci viene automatica è che sia opera dell’amore.

Ma che cos’è l’amore? O, meglio, come funziona l’amore? Proviamo ad affrontare questa domanda secondo un’ottica scientifica, cercando di ridurre al minimo il cinismo e la freddezza.

L’amore, in effetti, come quasi tutti gli altri comportamenti e fenomeni osservabili in un organismo, non è altro che riducibile a una non troppo semplice sommatoria di meccanismi chimico-biologici istintivi e fondamentali, necessari in questo caso alla sopravvivenza della specie.

Ma andiamo con ordine. La prima fase del processo di innamoramento è quella ‘preparatoria’, ossia il sentimento di desiderio o ‘libido’. I protagonisti di questo stadio sono alcuni ormoni sessuali quali estrogeni e testosterone. Nell’individuo di sesso maschile, in particolare, il desiderio risulta essere costantemente presente, a causa di maggiori livelli di testosterone, seppure con un graduale declino nel tempo. Risulta invece essere più discontinuo nella donna, in relazione ai diversi stati fisiologici della vita femminile quali il ciclo mestruale, la gravidanza, il puerperio e la menopausa.

Diretta conseguenza del desiderio sessuale è l’innamoramento. Cos’è che scatena l’impazienza, l’attrazione e quindi l’eccitazione che portano a frequentare una persona e a provare sentimenti piú profondi verso di lei?

I primi attori in questo contesto iniziale sono l’adrenalina e il cortisolo. La prima, in particolare, è coinvolta principalmente in meccanismi di risposta allo stress, tuttavia in questo caso risulta aumentare nelle persone coinvolte da un ‘colpo di fulmine‘. Tra gli effetti di questo incremento di adrenalina troviamo ad esempio una accelerazione del battito cardiaco e della respirazionecambiamenti nella salivazioneuna ridotta percezione del pericolo e un aumento della potenza dei sensi. Un po’ quello che avviene anche nelle altre specie in situazioni analoghe di caccia, di pericolo e così via. Per curiosità, altro effetto secondario risulta essere la contrazione della muscolatura liscia radiale dell’iride tramite stimolazione del sistema nervoso simpatico, che porta infine ad una visibile dilatazione delle pupille.

Secondo attore nell’innamoramento è la dopaminaresponsabile prima di tutto della sensazione di piacere nel corpo umano. In uno studio del 2005, Fisher e collaboratori (Rutgers University) evidenziano, tramite scansione del cervello di 2.500 ragazzi che venivano esposti a immagini di persone di loro interesse o meno, l’attivazione di alcune aree del cervello ricche in dopamina, neurotrasmettitore normalmente coinvolto nei meccanismi di “ricompensa” e di motivazione in certe aree localizzate del cervello. Livelli analoghi di questo ormone sono trovati in individui che consumano cocaina e altre sostanze d’abuso della stessa categoria, giusto per fare un paragone con il meccanismo che avviene quando siamo innamorati. A ben pensarci infatti, come anche la scienza conferma, effetti secondari di amore e cocaina sono la tipica assenza di fame, una maggiore attenzione e un minor bisogno di sonno.

Ultimo, ma non meno importante, è la serotonina, l’ormone che induce ad essere legati mentalmente solo al proprio amato e a nessun’altra persona. Langeslag e colleghi nel 2012 suggeriscono inoltre che i livelli di serotonina sono diversi tra i due sessi quando la persona è innamorata: in particolare, gli uomini hanno livelli minori di serotonina rispetto alle donne. Le aree cerebrali più coinvolte in questi processi sono l’insula mediale, la corteccia cingolata anteriore, il nucleo caudato e il putamen. Parallelamente, il giro cingolato posteriore è spesso associato alla percezione delle emozioni dolorose, e in fase amorosa questa zona del cervello viene parzialmente a perdere attivitá. Anche alcune specifiche zone dell’amigdala che elaborano sensazioni negative come la paura e la rabbia sono meno attive in questa situazione, perfettamente in accordo con ció che osserviamo normalmente in una relazione, risultando in un maggiore rilassamento e minore preoccupazione nella vita quotidiana.

Ma cosa succede quando la relazione giunge a fasi piú avanzate e il legame diventa sempre piú forte?

Anche a questo stadio sono coinvolti i meccanismi ormonali, in particolare legati alla presenza di ossitocina e di vasopressina. L’ossitocina è uno degli ormoni più potenti del corpo umano rilasciati in maniera equa tra maschio e femmina, specialmente durante l’orgasmo. Diversi studi infatti correlano il maggior attaccamento tra le coppie con la quantità e la qualità dei rapporti sessuali intercorsi tra di loro. Il suo ruolo nell’attaccamento e nell’affezione non serve solo a creare un legame saldo tra due partner, bensì allo stesso modo agisce tra madre e figlio durante il parto, altro momento in cui la sua produzione viene stimolata abbondantemente. Il discorso però sarebbe molto più complesso di così, dal momento che il rilascio di questo ormone in combinazione con altre molecole coinvolte nell’affettività porta a diverse sfumature di connessione, complicando parecchio lo scenario. Altra molecola presente in questa fase è la vasopressina o ormone anti-diuretico, che oltre alla funzione suggerita dal nome stesso, è stato visto (Hiller, 2004) essere coinvolto anche nel rapporto sessuale in fase di scelta preferenziale del partner, e forse anche nella promozione di relazioni durature (Gouin JP et al., 2010 e 2012).

Di fronte a una così grande vastità di fenomeni chimici e biologici finemente regolati ed organizzati in maniera certosina possiamo solo immaginare che cosa possa succedere quando ad un certo punto la fonte di questi meccanismi viene a mancare.

Quando una relazione finisce, infatti, spesso in maniera improvvisa, il cervello ne è affetto in modo potenzialmente molto negativo, dal momento che deve ristabilire tutti gli equilibri precedentemente creati con l’insorgere di una nuova situazione. Non c’è da stupirsi, quindi, del dolore che la fine di una relazione possa provocare nell’organismo, considerata in particolar modo la natura razionale del cervello. Tra tutti, si è visto come la fine di una relazione attivi le stesse aree cerebrali che elaborano il dolore fisico, precedentemente silenziate durante l’innamoramento, quasi in un rapporto di dipendenza.

Dipendenza non diversa, alla fin fine, da quella provocata dalle sostanze psicoattive precedentemente citate. Il nostro cervello è una macchina abbastanza potente da potersi riprendere da questa tipologia di traumi, soprattutto con qualche supporto, che può essere ad esempio un’attività di gruppo o solamente un po’ di relax. Tutto ciò aiuta a colmare, seppur in parte, l’improvvisa mancanza di stimoli “positivi”. Di fronte a tutto ció, come poter affermare ancora che l’amore è solo una questione di cuore?

 

(di Lorenzo Povolo)

 

Altri riferimenti:
http://neuro.hms.harvard.edu/harvard-mahoney-neuroscience-institute/brain-newsletter/and-brain-series/love-and-brain

http://examinedexistence.com/why-we-fall-in-love-the-science-of-love

https://www.psychologytoday.com/blog/neuronarrative/201402/what-neuroscience-tells-us-about-being-in-love

http://www.ncbi.nlm.nih.gov/pubmed/15990719

Hiller, J. (2004). Speculations on the links between feelings, emotions and sexual behaviour: are vasopressin and oxytocin involved?. Sexual & Relationship Therapy, 19(4), 393-412.

http://www.tpi.it/mondo/regno-unito/perche-lasciarsi-fa-cosimale-amore

https://www.psychologytoday.com/blog/neuronarrative/201402/what-neuroscience-tells-us-about-being-in-love

http://examinedexistence.com/why-we-fall-in-love-the-science-of-love/

https://www.scientificamerican.com/article/experts-chemical-pupil-dilate/

http://neuro.hms.harvard.edu/harvard-mahoney-neuroscience-institute/brain-newsletter/and-brain-series/love-and-brain

 

Articolo pubblicato su Il Dolomiti il 15/02/2017

Posted on

Le signore della scienza, da Montalcini e Curie al gene editing

Le signore della scienza, da Montalcini e Curie al gene editing

L’attuale decennio si sta rivelando straordinario per il mondo delle biotecnologie. Una rivoluzione che sta tutta in sei lettereCRISPR.

No, non ho sbagliato lo spelling, è proprio questo il nome di una tecnologia senza precedenti che permette di modificare il genoma di qualsiasi essere vivente. Come? Grazie ad una proteina molto versatile chiamata Cas9 che può tagliare il DNA in modo preciso: questo avviene grazie a particolari RNA – detti appunto crispr RNA – che, essendo complementari al DNA a livello della sequenza delle basi azotate, si appaiano con esso indicando a Cas9 dove deve avvenire il taglio.

Progettando filamenti di crispr RNA ad hoc è possibile quindi indurre i tagli desiderati in qualsiasi genoma in maniera molto precisa. (Per saperne di più, guardate qua). Essendo una tecnologia versatile e relativamente economica– rispetto alle altre tecniche per fare lo stesso tipo di manipolazioni – CRISPR ha già trasformato i protocolli di lavoro di tantissimi laboratori. Oltre la ricerca, porta grandi speranze nel campo della terapia genica, ovvero la possibilità di curare malattie genetiche modificando direttamente il DNA delle persone che ne sono affette.

Potremmo ora descrivere le tantissime e straordinarie potenzialità del sistema CRISPR/Cas9, ma in questa occasione dedicheremo la nostra attenzione a come questo avanzamento tecnologico sia andato di pari passo con un’altra trasformazione lentamente in attoquella della parità di genere nel mondo scientifico.

Nel mondo accademico di Europa e Stati Uniti persiste da decenni una curiosa stranezza: sebbene le lauree scientifiche siano equamente distribuite tra maschi e femminesolo un quinto dei professori delle stesse università sono donne (un po’ di numeri, su Italia ed Europa qui). La progressiva uscita delle donne dal percorso delle carriere accademiche – definita la leaky pipeline (tubatura che perde, ndr) – viene attribuita principalmente all’atavica serie di pregiudizi secondo cui gli uomini sono considerati in generale più competenti e addirittura meritevoli di una paga migliore delle loro colleghe con un identico Curriculum vitae.

Dimmi almeno una scienziata femmina”: credo che a tutte le bambine questa domanda sia stata posta almeno una volta da qualche saccente coetaneo maschietto. Fino a pochi anni fa, in testa non avevo molto oltre alle blasonate Montalcini e Curie. Tuttavia, se mi richiedessero nomi e cognomi oggi, comincerei a parlargli delle pioniere di CRISPR.

Il sofisticato sistema di ‘taglia e cuci’ molecolare fu inizialmente osservato in certi tipi di batteri come meccanismo di difesa alle infezioni virali. Nel 2012 la francese Emmanuelle Charpentier e l’americana Jennifer Doudnapubblicarono in collaborazione uno studio in cui per la prima volta si provava che lo stesso sistema era riprogrammabile in vitro per modificare qualsiasi genoma desiderato. Sebbene un magro 5% dei premi Nobel ad oggi assegnati siano andati a donnepuntare su di loro per un riconoscimento nei prossimi anni non è certo un azzardo.

Un successo quasi imprevisto per Charpentier: dopo un inizio di carriera negli Stati Uniti, sceglie audacemente di tornare in Europa, dove si è dedicata per 15 anni a ricerca di base in microbiologia e genetica, settori di scarso interesse per prospettive applicative e soprattutto per investimenti.

Oggi invece, a 48 anni, dirige a Berlino uno degli istituti della società Max Planck, la più grande organizzazione di ricerca in Germania e tra le maggiori in Europa. Una carriera accademica sempre sulla cresta dell’onda invece quella della collega Doudna: vissuta tra le migliori università statunitensi, dal dottorato ad Harvard sotto il premio nobel Jack Szostak, all’università di Berkeley in California, dove oggi dirige un suo laboratorio nel quale continua a studiare il sistema CRISPR/Cas9.

A differenza di Charpentier però, Doudna oggi non è solo famosa per i suoi meriti accademici: consapevole della portata della sua scoperta e delle numerosi questioni etiche che essa apre, la professoressa di Berkeley è diventata il volto del dibattito attorno a CRISPR dentro e fuori dalla comunità scientifica. “Mi sembra ovvio che la creazione di maggior fiducia nella scienza sarà ottenuta al meglio incoraggiando le persone coinvolte nella genesi di una tecnologia a partecipare attivamente alla discussione sui suoi utilizzi. Questo specialmente in un mondo dove la scienza è globale.” – scrive Doudna in una lettera alla rivista Nature.

Come se non bastassero ricerca, divulgazione e dibattiti pubblici per avere una vita impegnata, Doudna e Charpentier – e le istituzioni che rappresentano – sono anche nel pieno di una battaglia legale sulla proprietà intellettuale di CRISPR con il ricercatore americano Feng Zhang, del Broad Institute di Harvard e MIT, un altro grande fautore del progresso delle CRISPR technologies. Zhang è stato il primo a testare l’efficacia in cellule vive del sistema disegnato da Doudna e Charpentier ed è riuscito ad ottenere il brevetto della tecnologia nonostante le due ricercatrici l’avessero depositato 6 mesi prima. Un brevetto che non significa solo il riconoscimento formale – probabilmente perfino un Premio Nobel – per l’invenzione, ma soprattutto un sacco di soldi.

L’innovazione va necessariamente a braccetto con gli investimenti, ed è così che nascono le cosiddette spin-off, aziende che sviluppano scoperte e tecnologie provenienti dalla ricerca accademica, spesso fondate dalle stesse persone che le hanno portate alla luce. Ed è esattamente quello che hanno fatto i pionieri di CRISPR di cui vi abbiamo già parlato.

Dall’accademia all’azienda lo status quo per le women in science poco cambia: ilgrande disequilibrio a favore degli uomini nella distribuzione delle poltrone dirigenziali porta a parlare del cosiddetto glass ceiling effect (effetto del soffitto di cristallo, ndr). Si tratta della situazione per cui non sembrano esserci apparenti ostacoli all’accesso ai piani alti delle compagnie, tuttavia le donne non riescono ad accedervi, come se fossero bloccate appunto da un invisibile soffitto di cristallo. Nelle spin-off di CRISPR non sembra esserci però nessuna barriera astratta.

Katrine Bosley è presidente e amministratrice delegata di Editas Medicine dal 2014. Questa spin-off è stata fondata da Zhang, Doudna – distaccatasi all’insorgere della battaglia per il brevetto – e George Church sotto l’ala del Broad Institute di Harvard e del MIT. Si occupa di sviluppare nuove strategie di terapia genica con CRISPR. Dopo la formazione scientifica in biologia, Bosley ha fatto la scelta non convenzionale di lasciare l’accademia per intraprendere una carriera imprenditoriale nel settore privato. Da allora ha lavorato per moltissime compagnie emergenti e pionieristiche del settore biofarmaceutico, ricoprendo ruoli manageriali di ogni tipo, sia negli Stati Uniti che in Europa. Una carriera che la stessa Bosley definisce “un mosaico di assunzione di rischi imprenditoriali, alla ricerca costante di nuove prospettive.”

Caribou Biosciences, la spin-off dell’UC Berkeley, si concentra invece sul migliorare le potenzialità di CRISPR in campo agricolo e industriale. La compagnia è stata fondata nel 2014 dal gruppo della professoressa Doudna, di cui faceva parte Rachel Haurwitz. Non aveva nemmeno finito il suo dottorato quando è diventata amministratrice delegata di Caribou a 28 anni, essendo stata l’unica tra i co-fondatori volenterosa di lanciarsi nell’imprevedibile biotech business. La sua intraprendenza è stata sicuramente premiata: cavalcando al meglio l’onda di entusiasmo attorno alla tecnologia, la compagnia conta su finanziamenti per circa 40 milioni di dollari. Haurwitz è anche co-fondatrice della compagnia collaterale Intellia Therapeutics, che si occupa di terapia genica ed è oggi il principale concorrente di Editas.

Non c’è niente di fenomenale o esotico in queste donne di scienza. Potremmo raccontare di moltissime altre professioniste con storie simili. E vi prego: facciamolo. Forniamo esempi, profili, cambiamo i nostri paradigmi e abbandoniamo gli stereotipi che ci impongono ad associare un certo ruolo o una certa professione ad un solo genere.

Che una tra le più straordinarie innovazioni del decennio stia raggiungendo la ribalta insieme ad una nuova classe di innovatrici, mi fa ben sperare che nella prossima generazione le bambine non rimarranno più senza parole davanti a un coetaneo presuntuoso. E magari in quella dopo ancora nessuno vedrà più il senso di iniziare discussioni assurde.

 

(di Emma Dann)

 

Articolo pubblicato su Il Dolomiti il 02/02/2017

Posted on

L’era post-antibiotica, come ci siamo finiti e come ne usciamo

L’era post-antibiotica, come ci siamo finiti e come ne usciamo

Come siamo arrivati qui? Nei capitoli precedenti della nostra serie sull’antibiotico-resistenza si è dato un quadro della situazione presente e delle possibili ricadute nel prossimo futuro. Le cause della diffusione incontrollata di Superbugs sono molteplici. Ad esempio, è risaputo come nell’allevamento intensivo si faccia un uso massiccio di antibiotici ad ampio raggio per prevenire l’insorgere di epidemie del bestiame.

La congresswoman e microbiologa Louise Slaughter ha dichiarato che quasi l’80% degli antibiotici sul mercato Americano sono impiegati in questo settore. In altri Paesi è anche peggio. Questo fenomeno crea un terreno fertile per la comparsa di ceppi multiresistenti, che possono essere veicolati direttamente nelle nostre cucine e potenzialmente nel nostro corpo nel caso di carni poco cotte.

In un report del 2011 stilato dal CDC e dal U.S. Department of Agriculture si afferma come il 65% della carne di pollo e il 44% di quella di manzo risultasse positiva per batteri resistenti alla Tetraciclina. Così come il maiale, che ospitava ceppi resistenti a ben cinque gruppi di medicinali, caso analogo quello della Colistina in Cina.

Un altro problema è senz’altro la mancanza di una rigida osservazione dei criteri di distribuzione. La tanto tirata in ballo disinformazione gioca un ruolo non indifferente, con antibiotici che vengono prescritti per trattare infezioni virali (assolutamente inefficaci) o semplici stati di malessere non definito. Quando una medicina del genere entra in corpo, fa piazza pulita di tutto quello che può, favorendo la crescita e propagazione di batteri resistenti, e la volta in cui davvero si ha bisogno di quel tale antibiotico ci si trova in brache di tela. Non a caso insieme a cure di questo genere vengono spesso prescritti dei fermenti lattici, in grado di ripopolare parzialmente l’apparato digerente con batteri benefici. Secondo il Journal of the American Medical Association, più del 50% degli antibiotici prescritti sono inappropriati o inutili. Abuso, misuso, dosaggi e periodi di cura errati contribuiscono all’insorgenza di resistenza. Questo è particolarmente un problema in Paesi con meno accesso ai farmaci, in cui la distribuzione non è bilanciata e controllata a sufficienza.

Come ne usciamo?

Ci sono principalmente tre modi di affrontare questa situazione.

Il primo è non fare nulla, accettare il fatto che l’uso di antibiotici comporti dei costi in termini di vite e denaro di gran lunga inferiori al ‘non usarli’ e sperare che il fenomeno della resistenza si stabilizzi nei prossimi anni. Ci sono delle ragioni con basi biologiche per questa scelta. Infatti i meccanismi per cui un batterio acquisisce resistenza sono spesso sconvenienti per la sua stessa crescita, in quanto richiedono un enorme dispendio di energia. Per capire meglio, è come se alcuni di noi nascessero con una pesante corazza di piombo che ci rende immuni a catastrofi radioattive. In una situazione a la ‘dott. Stranamore’ tale corazza ci farebbe comodo, nel 99 % degli altri scenari no. Senza contare che a volte l’acquisizione di resistenza ad un antimicrobico può causare invece sensibilità ad un altro. E’ quindi di base uno ‘svantaggio’ per un ceppo essere portatore di resistenze multiple. Di conseguenza vi sono alcuni pareri riguardo al fatto che questo fenomeno sia auto limitante.

Impedire l’accesso a questo tipo di farmaci si rivelerebbe comunque dannoso, anche perchè per ora non si conoscono esattamente le modalità ‘errate’ di assunzione che portano con sicurezza all’insorgere di resistenza, rendendo la regolamentazione molto spinosa. Una seconda alternativa è invece tentare di prevenirne l’abuso, che è senza ombra di dubbio un catalizzatore ben noto. A questo proposito giocano un ruolo fondamentale gli enti regolatori e la diagnostica, di modo che l’assunzione sia strettamente correlata al bisogno. Di cruciale importanza anche il rapporto educativo medico-paziente, che spesso non è efficace in quanto pur di curare il proprio assistito, il terapista potrebbe mettere da parte gli interessi dei pazienti futuri.

La terza via da percorrere è, senza ombra di dubbio, creare nuovi antibiotici. Forse la più intuitiva, ma finora la più ardua. Non a caso l’industria degli antibiotici ha visto chiudere i battenti a reparti di case farmaceutiche di tutto rispetto. Tra queste abbiamo GlaxoSmithKline, Roche, anche Pfizer che quest’anno ha annunciato grossi tagli al budget della loro sezione antimicrobici. Un fatto sconfortante è che la maggior parte delle migliori armi in circolazione sono ancora i principi attivi di vecchia scuola, scoperti a metà ‘900. Queste molecole un po’ arrugginite e con tutti i loro acciacchi continuano a salvare vite, com’è possibile? Penicillina e altre molecole datate furono scoperte proprio perché estremamente potenti, sarebbe stato quasi più difficile NON scoprirle. Madre Natura ci ha messo tra le mani qualcosa che è stato perfezionato in milioni di anni, non serve un genio per capire come sia perlomeno ‘non facile’ migliorarlo. Infatti le centinaia di antibiotici esistenti sono in realtà raggruppabili in pochissime classi, ciascuna corrispondente al meccanismo d’azione della molecola a cui si ispira. Le differenze che abbiamo introdotto noi si sono concentrate più che altro sulla stabilità di tali molecole, sulla solubilità ed altri parametri per spianare la strada al vero principio attivo.

Come se non bastasse, gli approcci conoscitivi tentati negli ultimi anni non si sono rivelati utili in questo senso finora. Trovare validi bersagli e artiglieria, con tecniche anche molto avanzate di biologia molecolare e computazionale, si è rivelata un’impresa oltremodo ardua.

Con i grandi produttori che abbassano la saracinesca e le evidenti difficoltà incontrate dalla comunità scientifica, il numero di antimicrobici approvati dalla FDA è calato da 1 al mese negli anni ‘80 fino a 2 all’anno nel 2011. Il gravoso compito di far approdare sul mercato nuove idee è per ora svolto da alcuni piccoli gruppi o startup nati perlopiù negli ultimi anni, oltre che in ambito accademico, dove comunque il budget si è di molto ristretto. Tali piccole imprese non hanno una base economica abbastanza solida per portare avanti i necessari test clinici, di conseguenza se promettenti i loro brevetti vengono acquistati da industrie più grosse, che per il resto del tempo stanno a guardare. Questo perché l’ombra dei superbugs, per quanto minacciosa e potenzialmente estesa, è ancora considerata dal punto di vista economico una questione di nicchia. Inoltre una scomoda ma ben nota verità è che l’antibiotico (se efficace) rappresenta non un trattamento, ma una cura. Per chi vuole vedersi rientrare le centinaia di milioni investiti per lo sviluppo, vendere un farmaco che dopo una sola applicazione fa perdere il paziente è purtroppo sconveniente. Per questo grossi investimenti in termini di ricerca, tempo, denaro in questo campo non sono visti di buon occhio.

Per fortuna che invece di piangersi addosso, il mondo della ricerca continua a sfornare nuove idee e stimoli, in particolare troviamo alcuni esempi di nuovi antibiotici tuttora in fase di studio che provano a rompere il cerchio della resistenza.

Una delle alternative che promette meglio risiede nell’unire le forze con un alleato discutibile, i virus.

Esistono infatti alcuni ceppi di virus detti Batteriofagi, che infettano in modo specifico alcune specie di batteri per riprodursi al loro interno. Tali virus sono totalmente innocui per i tessuti del nostro corpo, non generano risposte immunitarie indesiderate e una volta eliminati tutti i batteri sensibili vengono degradati. Ma il vantaggio principale consiste nel fatto che è praticamente impossibile per un batterio divenire resistente al virus in questione, infatti il batteriofago è in grado di evolvere alla stregua dell’ospite che infetta, una caratteristica finora unica per un farmaco.

Un altro caso è quello di Shu Lam, una dottoranda 25enne all’Università di Melbourne. Lam sta testando con successo l’utilizzo di speciali polimeri proteici che ucciderebbero le cellule batteriche strappando la loro membrana, abbastanza piccoli per intaccare le cellule umane, ma troppo grossi perché il batterio possa difendersi. Il messaggio è ‘avrai anche il caschetto, ma se invece che tirarti i sassolini ti faccio rovinare addosso un macigno, allora ho vinto io’.

Non finisce qui, alcuni potenziali sostituti degli antibiotici convenzionali si trovano persino andando a scavare nel passato. In particolare si vuole citare il caso dell’Acriflavina, un comune antisettico scoperto nel 1912 e usato negli ospedali durante la grande Guerra. Si presenta come una polvere rossastra, e nonostante le sue proprietà promettenti fu presto rimpiazzata dalla Penicillina dopo il 1950. Fino ad oggi però, nessuno aveva idea di come l’Acriflavina effettivamente funzionasse. Studi recenti dimostrano che tale molecola è in grado di legare il DNA su specifiche sequenze, inducendo il richiamo di una forte risposta immunitaria localizzata da parte dei tessuti esposti, utile per combattere virus e batteri. Il fatto di agire per vie trasverse e sfruttare il nostro stesso sistema immunitario, rende anche questo farmaco potenzialmente immune alla resistenza.

Non finiamo mai di stupirci, studi promettenti trovano peptidi antimicrobici persino nel latte materno del diavolo della Tasmania, un marsupiale carnivoro indigeno dell’Australia, mentre nuove molecole al momento sotto indagine sono in grado di invertire lo stato di resistenza su meccanismi condivisi da molteplici ceppi.

Non si può che essere ottimisti e sperare che alcune di queste nuove e stimolanti soluzioni vedano la luce del giorno, in un futuro in cui ne avremo senz’altro bisogno.

Tutto considerato, dobbiamo rassegnarci all’idea che probabilmente non ci libereremo mai veramente di questi piccoli e controversi coinquilini. Forse imparando a conoscerli riusciremo a rendere questa convivenza possibile per entrambi.

 

(di Davide Visintainer)

Per approfondire (LINK NECESSARI IN QUANTO CONTENENTI LE PRINCIPALI FONTI):

 

Articolo pubblicato su Il Dolomiti il 23/01/2017

Posted on

‘Superbugs’ non è un fumetto Marvel, benvenuti nell’era post-antibiotica

‘Superbugs’ non è un fumetto Marvel, benvenuti nell’era post-antibiotica

Al momento ci crogioliamo in una piccola finestra felice nella storia dell’uomo, soprannominata l’Era antibiotica. Tale periodo sussiste dal 1929, quando lo scozzese Alexander Fleming scoprì la penicillina e rivoluzionò il mondo della medicina come solo i vaccini seppero fare.

Al tempo 5 donne su 1.000 morivano durante il parto, 1 persona su 9 periva in seguito a infezioni cutanee da banali taglietti, così come un terzo dei malati di polmonite era condannato. Il mal di orecchie era l’anticamera della sordità e milioni di persone soccombevano alla tubercolosi. Questo senza contare le cifre dai Paesi allora in via di sviluppo, dove epidemie di colera decimavano periodicamente la popolazione.

In seguito allo sviluppo di queste nuove armi (gli antibiotici appunto) seguì un rapido ribaltamento degli equilibri. Grandi serial killer come peste o tubercolosi furono eradicati o confinati e quelle infezioni che una volta potevano portare a cancrena e morte per setticemia, oggi sono viste come delle complicazioni minori.

Tuttavia già l’11 Dicembre 1945, durante la cerimonia dei Nobel, Fleming terminò il suo discorso con un avvertimento. Egli aveva già avuto modo di osservare come l’uso non pianificato di penicillina desse origine a colonie batteriche insensibili al composto.

Per questo si raccomandò che tale miracoloso rimedio fosse usato con moderazione e strategia. Fu preso talmente sul serio, che nemmeno venti anni dopo fu registrato il primo caso di Pneumococco resistente alla penicillina. La stessa sorte toccò a quasi tutti gli antibiotici (chiamati anche antimicrobici) introdotti sul mercato negli anni successivi, come Tetraciclina, Gentamicina ecc.

Come se non bastasse, svariati ceppi hanno acquisito resistenza a più antibiotici contemporaneamente, guadagnandosi l’appellativo di ‘superbugs’.

Negli ultimi tempi, i numeri di persone morte a causa di superbugs sono aumentati fino a 700 mila all’anno. Secondo uno studio condotto dal governo Britannico conclusosi nel 2016, di questo passo si raggiungeranno i 10 milioni di vittime annue tra meno di mezzo secolo.

Non servono paragoni per afferrare l’enormità di questi numeri. Da un punto di vista economico, la resistenza agli antibiotici porta a cure più lunghe e non sempre efficaci, gravando sulle casse statali. Si calcola che i costi si aggirino intorno ai 20 miliardi di dollari l’anno per i soli Stati Uniti, l’1% dello smisurato e diversificato flusso di soldi immessi nel settore Sanità.

Per Paesi che meno possono permettersi di sostenere queste spese, il costo è ancora più sbilanciato, in quanto superbugs richiedono ‘superdrugs’ (letteralmente super-farmaci) per essere trattati e tali sostanze costose sono merce rara. Per capire, trattare una sola persona affetta da tubercolosi resistente costa in tempo e denaro come curarne 200 con un ceppo sensibile.

Si contano ogni anno circa 450 mila casi di tubercolosi farmaco-resistente, con un tasso di fatalità di un terzo. Nel 2015 in Cina si sono addirittura registrati casi di immunità alla Colistina, uno dei pochi super-antibiotici finora usati solamente come ultima risorsa in casi disperati. La rottura di quest’ultima linea di difesa dovrebbe farci accapponare la pelle. Tuttavia come per tutto ciò che si legge, lasciamo stare il panico e andiamo a osservare il problema più nel dettaglio.

Per capire cos’è la resistenza dobbiamo prima di tutto capire cosa sono gli antibiotici. Tornando al taglio bellico dato all’inizio dell’articolo, immaginiamoli come armi di precisione e di distruzione di massa, in quanto sono in grado di rilasciare una potenza distruttiva su milioni di cellule batteriche in una volta, senza intaccare quelle del nostro corpo.

Come funzionano? Sono perlopiù molecole che una volta all’interno del microbo ne impediscono la crescita e duplicazione interferendo con la replicazione del DNA, la produzione di proteine o altri stadi del metabolismo. Altre modalità d’azione includono la destabilizzazione della parete cellulare o la creazione di pori nella membrana del batterio facendolo letteralmente esplodere.

La maggior parte degli antimicrobici in commercio sono perlopiù ottenuti studiando le tecnologie belliche dei batteri stessi. Infatti si è andati a sfruttare le sostanze o loro derivati che i microbi usano per farsi la guerra a vicenda da miliardi di anni. Se ci pensiamo, siamo solo dei novellini nella grande lotta degli antibiotici. I nostri avversari si sono evoluti in tutto questo tempo per riconoscere ed adattarsi a questo tipo di armi, rendendole efficaci più per l’effetto sorpresa che sui lunghi termini.

Infatti, un batterio può acquisire la capacità di investire energia per produrre speciali macchine proteiche che pompano l’antibiotico all’esterno della membrana, o vi si appiccicano rendendolo inutile. Questa abilità può essere sbloccata grazie a mutazioni casuali, oppure trasmessa da un batterio all’altro tramite la condivisione di frammenti utili di DNA, che codificano appunto per tali difese. Esiste anche il fenomeno chiamato ‘trasformazione’, per cui un batterio può nutrirsi del cadavere di un suo compagno resistente e acquisirne i ‘poteri’ (giuro).

Pochi batteri resistenti solitamente non sono un problema, ma se alcuni riescono a sfuggire alle difese del corpo, possono disperdere l’immunità su vaste popolazioni tramite i meccanismi appena elencati. Tale fenomeno è amplificato non appena entra in azione la pressione selettiva di un antibiotico, poiché i superstiti resistenti avranno molto più spazio per moltiplicarsi, determinando un nuovo terreno di gioco in breve tempo. Questo perché il corpo umano è simile ad un giardino: quando per qualche ragione usi un erbicida, vai a sterminare una grande quantità di piante. Se però alcune riescono a sopravvivere, troveranno un intero prato sgombro da poter colonizzare.

Chiaramente non è che i batteri si evolvano così tanto più velocemente di noi, ma con un tempo di generazione così rapido l’evoluzione agisce relativamente più in fretta. Basti pensare che lo scarto che separa filogeneticamente noi e gli scimpanzé è di circa 5 milioni di anniDividendosi ogni 20 minuti, per coprire una tale distanza evolutiva un batterio potrebbe impiegare meno di una decina d’anni. Senza contare che mutazioni casuali avvengono più di frequente in questi organismi semplici e meno equipaggiati per ripararle, accelerando ancora di più i tempi.

 

(di Davide Visintainer)

 

(Nel prossimo capitolo: Come siamo arrivati qui e come ne usciamo?)

 

Articolo pubblicato su Il Dolomiti il 17/01/2017

Posted on

L’equilibrio precario con i nostri batteri e i pericoli derivanti dallo spietato killer, lo Staphilococcus aureus

L’equilibrio precario con i nostri batteri e i pericoli derivanti dallo spietato killer, lo Staphilococcus aureus

Microbiologia. Così titola sul curriculum uno dei primi esami affrontati durante la mia triennale in Scienze e Tecnologie Biomolecolari. L’intero contenuto del corso può essere riassunto in ‘Conoscerli per combatterli’. Seduti composti nei banchi, la sensazione generale era che ci stessero addestrando per spedirci al fronteIl nemico è sfuggente, subdolo, fecondo e prolifico, ma soprattutto è in grado di imparare. Non ho mai avuto modo di osservarne bene uno ad occhio nudo, ma sono sovente ritratti nell’Iconografia come mostri corazzati dai mille tentacoli. Appartengono allontano dominio dei Prokaryota e per millenni hanno fatto il bello e il cattivo tempo. Lo avrete già capito, stiamo parlando dei tanto temuti e molto chiacchierati batteri.

Malgrado l’aspetto terrificante, essi sono organismi di dimensioni infime, tant’è vero che le stesse cellule di cui siamo fatti potrebbero ‘calpestarli’ senza accorgersene. Sono tra le più piccole, antiche e ubiquitarie forme di vita comparse sulla Terra.

Una precisazione importantissima è che la maggior parte di essi sono innocui, il corpo umano ne ospita migliaia di miliardi, alcuni dei quali svolgono addirittura funzioni essenziali per la nostra sopravvivenza. Per rendere l’idea, il numero di batteri che prosperano allegramente dentro di noi è circa uguale a quello delle stesse cellule di cui siamo composti, il che ci rende una sorta di strano ibrido. Addirittura la comunità scientifica è concorde sul fatto che gli stessi mitocondri che forniscono energia all’interno delle nostre cellule siano derivati da un antico ceppo di batteri, tra l’altro strettamente imparentato con Rickettsia prowazekii (quello del Tifo).

Tuttavia se nella maggior parte dei casi la coesistenza è pacifica, ad una piccola percentuale di questo regno la comparsa di viventi ‘superiori’ come noi non è andata a genio. O meglio, ci hanno immediatamente etichettato come dei gargantueschi ammassi di risorse da sfruttare a loro favore. Come se non bastasse, anche i batteri naturalmente presenti sulla nostra pelle o nel nostro apparato digerente se dislocati in un altro tessuto possono improvvisamente scatenare l’inferno. Basti pensare allo Staphilococcus aureusuno dei più temuti killer durante i ricoveri ospedalieri. Normalmente è presente all’interno della bocca e sulla pelle (sì, anche la tua), tuttavia durante una flebo può essere trasportato dall’ago all’interno del circolo sanguigno. In queste circostanze questo nostro compagno di viaggio ha la possibilità di mettere fine al viaggio stesso.

Sia ben chiaro, per un microbo mettersi a fare l’anarchico nel corpo umano corrisponde nella maggior parte dei casi alla materializzazione dei suoi peggiori incubi. Infatti, a dispetto del fatto di essere (evoluzionisticamente parlando) nati ieri, il nostro organismo è equipaggiato con macchine biologiche assassine oltremodo efficienti che, nel loro insieme, costituiscono il sistema immunitario (In questa GIF un globulo bianco insegue un batterio fino ad inglobarlo). Ma se è vero che comunque miliardi di batteri prosperano allegramente al nostro interno, è chiaro che questo macchinario fa delle preferenze e ha dei punti ciechi. Tale necessario compromesso tra repressione e integrazione viene quindi sfruttato da alcuni ceppi per svolgere la loro azione patogena all’oscuro delle nostre difese. Allo stesso modo, gioca un ruolo fondamentale la capacità proliferativa di questi organismi, che possono raddoppiare di numero ogni 20 minuti.

Ciliegina sulla torta, all’interno degli ospedali la maggior parte dei pazienti ricoverati hanno un sistema immunitario indebolito e vulnerabile a tal punto che un’infezione sistemica da Staphilococcus aureus risulta fatale in un terzo dei casi. Questo è il quadro della situazione presente, in cui solo in UE ogni anno sono colpiti da infezioni ospedaliere quasi 5 milioni di pazienti, con 37 mila morti, 16 milioni di giorni di degenza extra e 7 miliardi di euro di costi aggiuntivi per le strutture sanitarie. Il fenomeno è certamente rilevante, e determina dei costi sociali elevatissimi.

Il solo Staphilococcus aureus uccide più di 17 mila persone all’anno negli ospedali degli Stati Uniti. Sembra un quadro funesto? Per niente. Ho menzionato solamente uno degli organismi che stanno dando del filo da torcere al Sistema sanitario. Se mi dilungassi ulteriormente potrei scriverci un libro, il problema è che in futuro quel libro si trasformerebbe in una collana. Tra l’altro parlare di futuro è un po’ fuori luogo, perché negli anni a venire potremmo invece catapultarci direttamente nel passato.

 

(di Davide Visintainer)

 

(Nel prossimo capitolo – “Cosa ci aspetta (?)”)

 

Articolo pubblicato su Il Dolomiti il 14/01/2017

Posted on

La scienza è dittatura, ma nessuno è dittatore anche nell’era della post-verità

La scienza è dittatura, ma nessuno è dittatore anche nell’era della post-verità

Parliamo di meningite, e del preoccupante numero di casi e vittime negli ultimi mesi. Più nel dettaglio, un noto partito politico di estrema destradecide di strumentalizzare questa situazione per alimentare l’odio xenofobo verso i migranti: “Meningite – Tutti sappiamo da dove arriva – Basta accoglienza killer“. Così recita l’immagine postata sul social, e accompagnata da un volto di donna sofferente. Questa falsità di scarso spessore, malevola nonché priva di alcun fondamento scientifico, viene prontamente disinnescata dal dott. Burioni. La bufala è come di consueto denudata nella sua pochezza, esponendo automaticamente l’ignoranza dei suoi fautori. Ordinaria amministrazione, l’ennesimo scontro tra fantasiosa propaganda e verità fattuale. Ma si accende un dibattito, qualcuno ancora non è convinto. Non c’è spazio per opinioni di fronte ad un dato totalmente oggettivo, eppure fioccano commenti polemici. La realtà scientifica non sembra essere abbastanza per alcuni utenti, e questa volta il medico non va per il sottile.

La reazione viene accolta da pareri contrastanti. Siamo di fronte ad un esperto che dedica il suo tempo ad una battaglia per la collettività, ma questa affermazione ci lascia ugualmente disorientati. Cosa significa affermare la natura non democratica della scienza? Questa sentenza lapidaria ha un alone quasi dogmatico, e il medico sembra imporsi come una figura che possiede una conoscenza che va accettata senza condizioni. Ma i toni particolarmente forti, dettati forse dal contesto delicato, non devono trarre in inganno. Forse con troppa veemenza, il dott. Burioni difende l’oggettività del metodo scientifico, sottolineando come le opinioni del singolo o della massa non possano scalfire in alcun modo una tesi testimoniata dalla realtà dei fatti.

Il volto severo e imperturbabile della scienza è incarnato proprio dalla solidità dei suoi principi. Possiamo smettere di credere nella forza di gravità, ma ciò non ci farà volare: ci renderà solo ridicoli. In questo senso l’uomo è completamente impotente: la scienza è una dittatura e non ammette replica. L’opinione è confinata nell’angolo dello sconosciuto, e con essa la volontà stessa. Sembra una costrizione forte, ma ciò consente di raggiungere un livello superiore di uguaglianza: nessuno è al comando, nessuno è dittatore. Ognuno ha diritto di parola, ognuno può sconvolgere lo scenario attuale rispettando una sola fondamentale condizione: l’evidenza sperimentale. Ma all’alba del nuovo millennio la verità non sembra più essere abbastanza: il sensazionalismo vince sulla realtà oggettiva.

 

La parola dell’anno 2016 per Oxford Dictionaries è post-verità, circostanza in cui i fatti sono meno importanti del credo personale e dell’emotività. Da Brexit alla vittoria di Donald Trump, passando per le numerose bufale sul fantomatico benessere dei migranti, siamo testimoni di un cambio di paradigma surreale. Il sentimento, o meglio il risentimento, sono la nuova bussola che ci guida nelle decisioni che contano. Il flusso d’informazione nell’era digitale ha lentamente perso la sua struttura gerarchica, appiattendosi in una fitta rete di scambi totalmente orizzontali e tra pari, dove tutto è contestabile e soggetto all’interpretazione. Paradossalmente un tessuto comunicativo di questo tipo promuove l’isolamento del singolo utente, consentendogli di interagire preferenzialmente con chi la pensa proprio come lui. Per reagire occorre prenderne atto: in questa distorsione popolare del mondo oggettivo, dove la verità stessa diventa negoziabile, la parola del dottor Burioni vale purtroppo come quella di chiunque altro. Come può quindi sopravvivere la sana informazione scientifica?

Per prima cosa è forse necessario ripensare il rapporto tra il divulgatore e il suo pubblico, che non è più disposto ad accettare nozioni in maniera acritica. L’imposizione paternalistica di “ciò che è bene” sembra per certi versi essere controproducente, scatenare un moto di ribellione. Non abbiamo più bisogno di eroi, che nel loro stoico operare si isolano sempre più dalle masse a cui vogliono rivolgersi. La comunicazione deve tornare innanzitutto un atto di fiducia, fiducia verso un proprio pari e non fondata su altisonanti prefissi o cariche istituzionali e accademiche. Non ci sia malinteso: così come è naturale affidarsi ad un professionista per riparare un’automobile o un computer, dovrebbe essere spontaneo affidarsi al volto familiare di un esperto anche in contesti ben più importanti. Ma non è più una scelta automatica.

A tutti i divulgatori, anzi ai comunicatori in generale, non resta che scendere di qualche gradino e smettere di affidarsi in toto a numeri, dati e bibliografie. Persa la centralità del fatto, la priorità è ora coltivare il ragionamento critico individuale: non distribuire verità, ma insegnare come cercarla. Anche nelle sue forme più sterili, il dialogo aiuta a sviluppare una serie di strumenti che permettono di districarsi tra bufale e sensazionalismi. Coinvolgere realmente la collettività è importantissimo in questo momento storico, tanto ricco di problematiche quanto di opportunità. Sotto l’attenta guida di uomini e donne che vi dedicano tutto il proprio essere, la ricerca scientifica continuerà a sorprenderci positivamente, senza accettare compromessi. Ma l’ultima parola spetta al libero individuo; l’ultima parola è proprio un’opinione, o per meglio dire una scelta. E perché tale scelta sia informata e consapevole, occorre forse coltivare più complicità e meno riverenza.

 

(di Gian Marco Franceschini)

Articolo pubblicato su Il Dolomiti il 09/01/2017

Posted on

Zika, le Olimpiadi sono passate… e adesso?

Zika, le Olimpiadi sono passate… e adesso?

Meno di un anno fa, l’Organizzazione Mondiale della Sanità (OMS) lanciava l’allarme: la diffusione del virus Zika è un’emergenza di salute pubblica. L’avvertimento risultava impellente, dato l’approssimarsi dei Giochi Olimpici proprio nel paese da cui l’allarme era partito. Infatti, l’organizzazione delle Olimpiadi era stata assegnata al Brasile, nazione stremata dalla povertà e dalla corruzione, che ha portato all’attuale crisi governativa e alla destituzione del presidente Dilma Rousseff.

A peggiorare la situazione, nel corso del 2015 un’anomala incidenza di bambini nati con microcefalia congenita aveva interessato il Nord-Est del paese. Studiando i fattori concomitanti che avrebbero potuto spiegare una tale incidenza, gli epidemiologi brasiliani si focalizzarono sulla comparsa del virus Zika in territorio brasiliano.

Si era a conoscenza della sua espansione nel paese sin dal Marzo 2015 e a metà Luglio erano stati registrati una cinquantina di casi di sindrome di Guillaine-Barré, un raro disordine auto-immune del sistema nervoso la cui aumentata incidenza era già stata associata ad un’improvvisa epidemia di Zika nella Polinesia Francese. L’impennata di casi di microcefalia congenita da una media inferiore ai 200 casi nel 2014 ai 3.174 casi registrati nel 2015, scatenò innumerevoli preoccupazioni.

I Giochi Olimpici e Paralimpici, tuttavia, non furono rimandati su suggerimento dell’OMS stesso, in considerazione del fatto che l’evento si sarebbe tenuto durante l’inverno brasiliano, quando l’attività degli artropodi che diffondono il virus, le zanzare Aedes aegypti, è minima. Un sottile isterismo collettivo ha tuttavia pervaso il globo. Oltre alle ovvie precauzioni da adottare contro il morso delle zanzare per chiunque si recasse nelle zone a rischio, l’OMS raccomandava e raccomanda tuttora di praticare sesso sicuro o di astenersi per un periodo di sei mesi dal ritorno dal Brasile. Infatti, Zika è trasmesso anche per via sessuale. Ciò risulta particolarmente preoccupante data l’associazione tra infezione da virus Zika e alterazioni fetali in gravidanza. Addirittura, si sconsigliava alle donne gravide di viaggiare in Brasile.

Quali ripercussioni hanno avuto sulla diffusione di Zika le masse di turisti, operatori e sportivi che si sono riuniti a Rio per i Giochi?

A Rio, la trasmissione del virus è stata minima durante i mesi invernali rispetto ai picchi raggiunti a Febbraio, durante l’estate brasiliana. Addirittura, non un solo caso di infezione da Zika è stato riportato tra turisti e atleti a fine agosto. Nonostante questi dati, a settembre l’OMS riconfermava la necessità di ritenere il virus un’emergenza di salute pubblica, anche sulla base di nuovi casi di infezione in altri paesi. Soprattutto in vista dell’imminente estate, quando la densità delle zanzare che trasmettono Zika è ai massimi livelli.

Come già menzionato, il maggior numero di casi di microcefalia associata al virus si è registrato nel Nord-Est. Gli epidemiologi si attendevano un analogo andamento nel resto del paese nei mesi successivi, ma così non è stato. Secondo il Centro di Operazioni di Emergenza in Salute Pubblica (COES), su 9.091 casi di microcefalia notificati dall’8 novembre 2015 al 20 agosto 2016, 6.346 casi sono stati registrati nel Nord-Est (69,8%) e di questi ultimi 1.538 casi sono stati confermati essere associati a infezione da virus Zika (su un totale di 1.845 casi confermati). I pochi dati disponibili per tracciare lo sviluppo e le tempistiche della diffusione di Zika dal suo arrivo in Brasile rendono difficile determinare le ragioni di una tale differenza. Si suppone che la spiegazione dell’alta incidenza di casi di microcefalia sia da ricercarsi in fattori socio-economici, come il livello di povertà. Anche fattori genetici, immunologici o ambientali potrebbero essere implicati. Per esempio, è stata avanzata l’ipotesi di una correlazione tra le basse percentuali di vaccinazione contro il virus della febbre gialla e l’alto numero di casi di microcefalia, suggerendo un possibile effetto protettivo di tale vaccino contro le complicazioni date da Zika (entrambi i virus appartengono alla famiglia Flaviviridae e sono trasmessi dallo stesso vettore).

Un altro spunto da prendere in considerazione è la procedura di diagnosi di microcefalia congenita. Negli scorsi anni, il Brasile riportava un numero di casi inferiore rispetto a quello atteso, probabilmente sottostimando l’incidenza di questa malformazione. Il Sistema brasiliano di Informazione sulle Nascite (SINASC) nel 2010 segnalava un’incidenza di microcefalia nel paese di 0.5 casi su 10.000 nati vivi, mentre altri studi suggerivano un valore atteso di casi tra i 1,0 e i 2,0 su 10.000 nati vivi. Inoltre, il Ministero della Salute brasiliano adottava dei parametri di diagnosi meno restrittivi rispetto a quelli consigliati dal programma di investigazione clinica ECLAM (Estudio Colaborativo Latino Americano de Malformaciones Congènitas). Il Ministero cercava in tal senso di monitorare il più alto numero possibile di neonati per precauzione, sebbene l’applicazione di tali parametri suggerisca che il numero di casi sospetti non fornisce una precisa immagine della situazione.

Non è dunque facile comprendere l’entità dei danni. Le prove che Zika possa essere la causa di complicazioni quali la microcefalia vanno accumulandosi con i mesi. Una delle evidenze più sostanziali è stata fornita dalla presenza del virus in un feto abortito con gravi anormalità a livello cerebrale. Non è ancora chiaro, però, quale sia il rischio di incorrere in malformazioni congenite in seguito ad infezione da Zika virus. Molti altri microorganismi possono causare microcefalia, come il cytomegalovirus e la toxoplasmosi, ma il rischio associato ad essi è quantificabile e molto basso. Nel caso di Zika, invece, questo dato non è ancora conosciuto con precisione.  Secondo recenti studi, la trasmissione verticale del virus da madre a figlio sarebbe possibile in quanto le cellule dell’endometrio che rivestono la superficie dell’utero sono permeabili al virus e ne permettono il passaggio durante il primo trimestre di gravidanza.

Parafrasando il titolo di un articolo pubblicato dal New Yorker qualche mese fa, la gara per il vaccino è aperta. Sempre più laboratori si stanno unendo alla corsa per capire quali meccanismi sono alterati nei casi di microcefalia, ridotta crescita intrauterina e altri difetti associati con l’infezione in donne gravide. Alcuni vaccini sono già in via di sperimentazione su topo e scimmia, ma ci vorrà ancora molto tempo prima di arrivare alla commercializzazione. Nel frattempo, secondo l’ultimo report dell’OMS, il rischio non è mutato e il virus Zika continua a diffondersi in quelle aree dove proliferano le zanzare che lo ospitano.

Così, in meno di due anni, Zika è passato dall’indifferenza mondiale alla notorietà estrema. È stato certamente il virus più discusso e studiato del 2016. Noi ci auguriamo che continui ad esserlo, perlomeno finché la corsa al vaccino non avrà il suo vincitore.

 

(di Lucrezia Ferme)

 

Articolo pubblicato su Il Dolomiti il 02/01/2017

Posted on

Tre soli in una goccia d’acqua: cosa sono le onde gravitazionali?

Tre soli in una goccia d’acqua: cosa sono le onde gravitazionali?

Tutto poggia le basi sulla Relatività Generale di Albert Einstein, elegante seppur dapprincipio tediosa teoria della gravitazione sviluppata nel 1916 e recentemente verificata ancora una volta con due rilevazioni di onde gravitazionali. Non siamo però qui per legarci ai banchi e dire “volli volli volli, fortissimamente volli”!

Ma da dove cominciare? Durante lo studio che porta a comprendere cosa sia un’onda gravitazionale serve dapprincipio di abbandonare i concetti empirici della vita quotidiana di tempo e spazio, che ci appaiono separati ed uguali per tutti; attraverso la teoria della relatività si scopre che essi sono dipendenti tra di loro e così intersecati a costituire una sorta di contenitore in cui materia ed energia interagiscono ed evolvono. Questo contenitore è detto “spaziotempo”, termine che indica questa correlazione tra le dimensioni di spazio e tempo. Si dice che materia ed energia sono immersi al suo interno. Successivamente va fatto un ulteriore passo in avanti e cioè scoprire che questo stesso contenitore non è una scatola rigida ed indipendente dal suo contenuto, ma che può deformarsi a seconda di come quest’ultimo è disposto al suo interno. Dal punto di vista visivo lo spaziotempo viene spesso paragonato ad un lenzuolo, il quale può essere soggetto a deformazioni appoggiandovi oggetti di diversa massa; lo si può anche far oscillare, producendo un fenomeno ondulatorio, al pari di una corda. Quest’immagine è di estrema utilità se si vuole figurare un’onda gravitazionale. Però dobbiamo anzitutto passare dal lenzuolo a due dimensioni (larghezza e lunghezza) ad uno a quattro (tre dimensioni per lo spazio che misuriamo utilizzando righelli ed una dimensione per il tempo che misuriamo con l’orologio). Potrebbe aiutare immaginare che lo spazio intorno a noi sia come un’enorme impalcatura; ora, il fatto che questa sia capace di deformarsi sta ad indicare che parti adiacenti dell’impalcatura possono avvicinarsi o allontanarsi. A descrivere in modo preciso questa deformazione sono le equazioni di Einstein, le quali ci dicono come essa avvenga se poniamo materia ed energia sui vari punti di questa impalcatura. Il contrarsi o dilatarsi dell’impalacatura corrisponde ad un diverso modo di percepire e misurare spazio e tempo.

Un terzo step verso le onde gravitazionali è riuscire ad immaginare che queste deformazioni dell’impalcatura oscillino e si comportino come una molla(che si contrare e si distende). Analogamente, quando queste deformazioni avvengono per l’effettivo spaziotempo, sia spazio che tempo si contraggono e si espandono (con effettivi cambiamenti nella misurazione degli stessi!). Queste oscillazioni sono un’onda gravitazionale. Quando diciamo che un’onda gravitazionale sta passando vogliamo intendere che in un “certo istante” spazio e tempo intorno a noi iniziano a contrarsi e ad espandersi come molle; quando questo fenomeno terminerà, allora diremo che l’onda gravitazionale sarà passata.

Ci si può domandare quanto quest’onda sia veloce nel suo passare e la risposta che la teoria di Einstein ci dà è che l’onda è veloce quanto la luce nel vuoto, che risulta essere il limite fisico massimo. Se ne deduce che l’informazione sul cambiamento delle proprietà dello spaziotempo non è istantanea, ma si propaga veloce quanto la luce. Per fare un esempio più concreto su questo passaggio, consideriamo il Sole che curva il lenzuolo dello spaziotempo nel nostro sistema solare, facendo cadere verso di sé gli altri pianeti; se “ora” spegnessimo il sole lo spaziotempo nella sua regione limitrofa cambierà cercando di tornare da incurvato a piatto, ma questo processo ci metterà del tempo. Per noi che siamo sulla terra, l’informazione di questo spegnimento del Sole impiegherà circa otto minuti (il tempo impiegato dalla luce per giungere fino a noi dalla superficie del sole), dopo i quali il pianeta non sarebbe più attratto da nulla e partirebbe diritto fuori dalla sua orbita (e schizzeremmo tutti un po’ in giro a seconda di dove siamo sul pianeta).

Ci si potrebbe fermare qui nel presentare un’onda gravitazionale, ma mi piacerebbe provare a spiegare come essa salta fuori nella teoria della Relatività Generale. Il cuore di questa teoria sono le equazioni di Einstein. Queste equazioni presentano una difficoltà quando si cerca di risolverle. Esse ci dicono che se mettiamo energia e materia in una regione dello spaziotempo, esso si modificherà in un preciso modo. Concentriamoci solo su una concentrazione di energia che provoca una modifica oscillatoria, così stiamo generando un’onda gravitazionale. E ora entra in gioco la difficoltà: l’onda gravitazionale porta con sé energia. Ciò significa che questa, che è già una deformazione dello spaziotempo, lo modifica (si modifica) ulteriormente poiché trasporta energia! Spaziotempo che modifica spaziotempo. Si dà un nome a questo fenomeno: “autointerazione”. L’onda gravitazionale interagisce con se stessa, si automodifica. Questa è la ragione per cui le equazioni di Einstein sono molto difficili da risolvere. In termini matematici, equazioni come quelle di Einstein si dicono “non lineari”. Una via per la loro risoluzione è cercare di renderle “lineari”, semplificando le equazioni e trovando soluzioni esplicite (che saranno approssimate). Le onde gravitazionali, presentate per la prima volta da Einstein nel 1916, saltano fuori con questo metodo: esse sono previste dalla teoria lineare della gravità. Questo procedimento matematico corrisponde all’imponendo che un’onda gravitazionale quasi non trasporti energia. Così si cancella la difficoltà dell’autointerazione che avevamo incontrato prima. Dire che siamo in un regime lineare è dire che consideriamo piccole energie.

Malgrado si estraggano le onde gravitazionali dalla teoria attraverso un’approssimazione, non è detto che esse non ci siano in quella completa!

Siamo nel 2016 e sono stati rilevati i primi segnali di onde gravitazionali, circa 100 anni dopo la loro prima comparsa nella teoria. Perché? Immaginarsi la deformazione a molla dello spaziotempo può risultare molto più accentuato di quanto sia in realtà; le equazioni di Einstein ci dicono come lo spaziotempo reagisce a materia ed energia al suo interno in maniera quantitativa; questa risposta è molto piccola! In più gli eventi che producono onde gravitazionali in grandi quantità sono molto distanti. Con la distanza la deformazione iniziale si attenua man mano e può quindi succedere che prima di arrivare ad un rilevatore costruito dall’uomo sia diventata davvero piccola.

I rilevatori di onde gravitazionali sfruttano il fatto che queste deformano lo spazio. Vengono costruiti dei lunghi bracci (dell’ordine dei kilometri) perpendicolari tra loro, i quali al passaggio delle onde gravitazionali vengono leggermente deformati; utilizzando dei laser che vanno avanti e indietro lungo i bracci si può verificare se uno di essi si sia accorciato o allungato, equivalentemente contratto o dilatato, rispetto all’altro vedendo se questi creano interferenza tra di loro. Se i bracci sono uguali i segnali luminosi partiranno e torneranno indietro ogni volta nello stesso tempo e così facendo formeranno su un monitor una certa figura; se però uno dei bracci è leggermente più corto o lungo, il tempo di percorrenza per la luce cambierà e sul monitor si vedrà una figura di poco distorta; quantificando questa distorsione si può ricavare la differenza di lunghezza tra i due bracci. LIGO (che ha due sedi negli Stati uniti) e VIRGO sono degli interferometri di questo tipo! Il primo ha rilevato per due volte un segnale concorde con un’onda gravitazionale, il 14 Settembre 2015 e il 26 Dicembre 2015. Mi concentrerò sulla prima data, la quale vale probabilmente un nobel!

LIGO (Laser Interferometer Gravitational-Wave Observatory) ha osservato in data 14 settembre 2015, alle 10:50:45 ora italiana, un segnale transiente di onda gravitazionale. E’ stupefacente la precisione con cui è stato possibile rilevare l’evento. La differenza tra le lunghezze dei due bracci è risultata pari a un milionesimo del diametro di un protone. Bisogna qui fare qualche paragone. I solidi intorno a noi sono fatti di atomi; la grandezza di un atomo è centomila volte quella del suo nucleo, che è la parte che contiene i protoni. Immaginiamo una punta di matita al centro di una delle più grandi cattedrali del mondo, allora la punta di matita rappresenta il nucleo e la cattedrale l’atomo. Questo però non basta, perché dobbiamo andare ad una milionesima parte della punta di matita! Immaginiamo allora il nucleo, la nostra punta di matita, espanso come una cattedrale dieci volte più grande della precedente e una nuova punta di matita al suo interno; la grandezza della nuova punta di matita sarà la differenza misurata! Se il paragone ha avuto successo, risulterà di enorme difficoltà rendersi capaci di comprendere come abbiano fatto a misurare variazioni di quest’ordine. Ad una conferenza tenutasi dopo la prima rilevazione sono stati utilizzati molti paragoni. Uno tra i migliori è il seguente: si prenda un dei laghi più grandi degli Stati Uniti e si aggiunga una goccia d’acqua; è stato possibile misurare la variazione del livello del lago!

Non c’è da stupirsi che nel 1916 e per molto tempo quasi tutta la comunità scientifica ritenesse impossibile la caccia sperimentale alle onde gravitazionali.

In contrapposizione a questo piccolissimo spostamento, vorrei fare un confronto con l’evento che ha generato il segnale rilevato. Si tratta della collisione di due buchi neri, uno massiccio come 29 soli e uno come 36, i quali dopo la fusione hanno lasciato a ruotare in completa solitudine un buco nero massiccio quanto 62 soli, massa che si discosta dalla somma delle precedenti per il valore di 3 soli. Dove è finita la massa? È stata interamente emessa come onde gravitazionali! Diciamo che la linearità di questo evento non è più da considerarsi valida! Non è semplice capire l’entità di questa energia emessa. Per comprendere quanta essa sia, basti pensare che solo una piccola frazione della massa delle bombe atomiche viene convertita in energia, circa l’un per mille (dunque per una bomba di 1 kg, si convertirà 1 grammo di materiale). Uno dei primi ordigni nucleari, “Little Boy”, utilizzato su Hiroshima, convertì circa 1 grammo in energia. Qui si sta invece parlando di completa conversione della massa di 3 soli, dove ogni sole conta per circa un milione di volte la massa della terra, in pochi millisecondi. Se fossimo stati vicini a quell’evento allora sì che avremmo sentito il corpo contrarsi e deformarsi, senza bisogno di righelli o orologi.

 

(di Marco Quaglia)

 

 

FONTI:

 

  1. BP Abbott, R Abbott, TD Abbott, MR Abernathy, F Acernese, K Ack- ley, C Adams, T Adams, P Addesso, RX Adhikari, et al. Gw151226: Observation of gravitational waves from a 22-solar-mass binary black hole coalescence. Physical Review Letters, 116(24):241103, 2016.
  2. BP Abbott, Richard Abbott, TD Abbott, MR Abernathy, Fausto Ac- ernese, Kendall Ackley, Carl Adams, Thomas Adams, Paolo Addesso, RX Adhikari, et al. Observation of gravitational waves from a binary black hole merger. Physical review letters, 116(6):061102, 2016.
  3. Charles W Misner, Kip S Thorne, and John Archibald Wheeler. Gravi- tation. Macmillan, 1973.
  4. http://www.lescienze.it/news/2016/02/11/news/onde_grativazionali_annuncio_rilevazione_ligo_virgo-2966574/

 

Articolo pubblicato su Il Dolomiti il 24/12/2016

Posted on

Come migliorare la vostra estate e salvare 725000 vite

Come migliorare la vostra estate e salvare 725000 vite

Nonostante in Italia se ne parli poco e male, tutti sanno cos’è un OGM: un animale, una pianta o un batterio a cui è stato fornito in laboratorio un pezzo di DNA supplementare contenente delle informazioni. Grazie a questa tecnica, l’uomo ha creato piante in grado di proteggersi dagli insetti, piante resistenti alla siccità, salmoni a crescita rapida, batteri che producono farmaci e tanto altro.

Per queste qualità indiscutibili, la senatrice Elena Cattaneo ha provocatoriamente attribuito loro l’appellativo di “Organismi Geneticamente Migliorati”, a contrapporsi al classico e famigerato “Organismi Geneticamente Modificati”.

Particolare attenzione è stata volta nel creare piante in grado di resistere agli attacchi degli insetti: è infatti vero che l’uomo mangia ciò che “le cavallette” avanzano, e basta tornare indietro di poche decine di anni per rivivere la disperazione causata dalla voracità degli insetti. http://www.archivioluce.com/archivio/jsp/schede/videoPlayer.jsp?tipologia=&id=&physDoc=376&db=cinematograficoDOCUMENTARI&findIt=false&section=/ – Archivio storico istituto luce, Le cavallette 1946 –

La creazione di insetticidi sempre più potenti e specifici e di piante geneticamente modificate ha capovolto gli esiti della battaglia annuale contro le fameliche mandibole, ma l’uomo è ancora lontano dal vincere la guerra. Gli insetti hanno infatti più frecce al loro arco: se per noi una puntura di zanzara è poco più di un fastidio passeggero che ci ricorda le serate in spiaggia, per milioni di persone si trasforma in gravi malattie come malaria, dengue, febbre gialla ed encefaliti causando la morte di 725.000 persone ogni anno (dato HWO).

Nella lotta contro gli insetti dannosi l’ingegneria genetica si propone oggi come nostro alleato: gli scienziati della Oxitec, un’azienda germogliata dell’università di Oxford, sono riusciti ad inserire un gene per creare una zanzara geneticamente modificata, non per essere “migliorata”, bensì per essere sterile.

Il concetto è semplice: nel passaggio da stadio larvale ad adulto, vengono attivati dei geni che portano a malfunzionamenti metabolici e dunque alla morte della zanzara. In laboratorio si possono far crescere grandi quantità di questi insetti fornendo loro “l’antidoto”; essi, una volta immessi in natura, si accoppiano con le zanzare selvatiche producendo prole che muore prima di raggiungere lo stadio adulto. Questa tecnica, anche se costosa, ha il grande vantaggio di essere specifica, al contrario dei normali insetticidi, non è soggetta all’insorgenza di resistenza ed è risultata portare all’abbattimento dell’80% della popolazione delle zanzare, contro il 40-45% che si ha con l’uso di pesticidi. Per questi motivi può essere utilizzata per eradicare popolazioni insediatesi in zone “sensibili” come città e parchi naturali.

Esistono chiaramente implicazioni ecologiche, ma questo tipo di controllo è stato proposto per specie alloctone, ovvero non originarie del luogo ove si vuole abbattere la popolazione, e il suo “effetto” si esaurisce dopo una generazione in quanto tutti gli individui che ereditano il gene suicida non possono arrivare a maturazione e quindi partecipare alla riproduzione.

Tecniche che prevedono una modifica genetica che venga trasmessa di generazione in generazione sono già disponibili, e ricadono sotto il nome di “genetic drive”. La determinazione del sesso negli insetti avviene diversamente che nell’uomo ed è quindi possibile programmare delle zanzare affinché una proporzione maggiore del 50% sia maschile e portatrice della modifica genetica che causa questo scompenso. Nel giro di alcune generazioni si arriva ad avere fino al 99% di insetti maschi, riducendo enormemente la popolazione. Questo fenomeno, che talvolta occorre anche in natura, ha dato vita a un nuovo modo di concepire l’evoluzione, tramite la teoria del gene egoista, di cui vi parleremo in una prossima puntata del blog.

L’impossibilità di controllare adeguatamente questo secondo tipo di OGM, ha fatto sì che questa tecnica rimanesse confinata al laboratorio, mentre la produzione di maschi “sterili” ha tutte le carte in regola per divenire il nostro più grande alleato nella protezione dei nostri raccolti e della nostra salute.

Vi è però un enorme svantaggio a carico di questa incredibile tecnologia: si basa sull’uso di OGM. E all’uomo occidentale questa sigla fa più paura di tutte le malattie trasmesse da qualsiasi zanzara.

In Florida la proposta è stata sottoposta ad un referendum per il quale la popolazione è stata informata dei pro e dei contro di questa tecnologia. Nonostante gli americani abbiano una mentalità molto più aperta di noi europei nei confronti del progresso, la probabilità che la votazione si trasformasse in un’espressione di tecnofobia era alta, ma infine il 57% dei votanti si è dimostrato favorevole. Per aggiungere un po’ di pepe alla questione, vorrei portare alla luce un altro dato a mio parere interessante: nei seggi delle località da dove verranno effettuati i lanci il consenso si è fermato al 35% dei votanti. Questa è l’espressione di quella cultura “Not In My BackYard” che impedisce l’adozione di strategie vincenti per lo sviluppo a causa dell’opposizione di pochi, e che in Italia conosciamo bene.

A tutti piacciono i treni, “ma non nel mio campo”.

Dovremmo imparare a giudicare in base alla sostanza piuttosto che farci stordire dagli slogan, perchè l’evoluzione collettiva non può fermarsi per nostre personali egoismi e infondate paure.

 

(di Filippo Guerra)

 

Bibliografia:

 

Articolo pubblicato su Il Dolomiti il 10/12/2016

Posted on

OGM: re-ingegnerizziamo il codice genetico

OGM: re-ingegnerizziamo il codice genetico

La diffidenza verso la parola OGM è ormai radicata nella nostra cultura italiana. Nessuna coltivazione OGM è mai stata avviata in Italia, e la ricerca che copre questo ramo nel nostro Paese è paralizzata dal divieto di operare sperimentazioni in campo aperto.

Vogliamo pertanto riportare un esempio di come la scienza alla base degli OGM, che oggi è ampiamente utilizzata in tanti altri paesi nell’ambito della ricerca e non solo, stia dando risultati preziosi per la conoscenza del codice genetico e del suo funzionamento.

Strettamente correlata agli OGM è infatti la biologia sintetica, una branca della scienza della vita che si occupa di riprodurre sistemi biologici già presenti in natura, o addirittura di progettarne non ancora esistenti, per comprendere le funzionalità dei sistemi naturali. Le potenzialità di questa tecnologia sono ancora tutte da scoprire, essendo una scienza relativamente recente, e possono farci sognare in grande.

In un articolo pubblicato il 18 agosto 2016 su Science, un team di scienziati guidati da George Church annuncia di essere riuscito a riprogrammare il 3,8% del genoma del batterio E.coli; questa è la più grande reingegnerizzazione del codice genetico ad essere mai stata fatta, ma rappresenta solo il primo traguardo verso una meta ancora più ambiziosa.

Sappiamo che il codice genetico è composto da 4 basi, A,C,G,T, combinabili in 64 triplette possibili; queste triplette prendono il nome di codoni, e traducono per i diversi amminoacidi esistenti, che sono le unità base di tutte le proteine. Leggendo in serie tanti codoni di DNA, ogni organismo realizza lunghe catene di amminoacidi, che vanno a comporre le proteine di cui l’organismo si serve. Poiché gli amminoacidi sono solo 20, diversi codoni codificano per uno stesso amminoacido: ad esempio una tripletta TGC e una TGT codificano allo stesso modo per l’amminoacido cisteina; questo è ciò che rende il codice genetico ridondante.

L’esperimento è stato portato a termine da un gruppo di ricerca della Harvard Medical School di Boston, in Massachussets. Quello che gli scienziati sono stati in grado di fare, proprio grazie alla caratteristica della ridondanza del DNA, è stato sostituire 7 dei 64 codoni genetici del batterio con altri codoni che producevano gli stessi amminoacidi. Così questo nuovo genoma batterico possiede di fatto solo 57 triplette possibili.

Il genoma è stato sintetizzato in 55 pezzi da 50000 basi; il prossimo passo sarà riunire i segmenti per ottenere l’intero DNA batterico.

In passato lo stesso team di ricerca era stato in grado di ricodificare singoli amminoacidi, in modo che il batterio possedesse amminoacidi non presenti in natura. Questo lo rendeva altamente resistente alle infezioni virali perché non conteneva più strutture che normalmente il virus avrebbe usato per attaccarlo. Allo stesso modo, hanno reso il batterio interamente dipendente da un amminoacido in modo che, in caso di diffusione fuori dal laboratorio, non fosse in grado di sopravvivere nell’ambiente esterno.

La tecnologia usata per raggiungere questo incredibile risultato è recentissima e molto accurata, e d’altronde gli strumenti e tecniche di ingegneria genetica sono continuamente migliorati e implementati: dieci anni fa pensare di riuscire a riprogrammare un organismo a questi livelli sarebbe stato assurdo.

Già nel marzo di questo stesso anno un altro gruppo di ricerca guidato da Craig Venter a La Jolla, in California, era riuscito a creare un genoma sintetico basandosi su quello di un batterio dieci volte più piccolo di E.coli, eliminando da esso tutti i geni non necessari.

Tutto ciò è la dimostrazione di come il codice genetico sia malleabile, e di come nuove funzionalità biologiche possano essere introdotte dentro un organismo. Questo lavoro farà probabilmente da prototipo per la parte di “scrittura” del Progetto Genoma Umano, in cui gli scienziati puntano a riscrivere un intero genoma umano da zero.

Non bisogna però dimenticare di porre un freno ad un certo punto: la sete di conoscenza non deve farci ignorare certi limiti che la Natura ci impone; non possiamo arrivare a compiere modifiche radicali al Pianeta senza rischiare di sovvertire sistemi naturali che già sono in bilico a causa dell’uomo, e gli scienziati devono essere i primi a maneggiare con cura le nuove potenzialità che si trovano a possedere.

Funzionerà? Siamo solo all’inizio, ma gli scienziati sono più che fiduciosi che nell’arco di qualche anno conosceremo la risposta. Non perdete il prossimo articolo in cui parleremo di una applicazione degli OGM in campo medico.

 

(di Elisa Facen)

 

Fonti

http://www.scientificamerican.com/article/most-extensive-reengineering-of-an-organism-s-genetic-code-now-complete/

http://science.sciencemag.org/content/353/6301/819.full

https://it.wikipedia.org/wiki/Biologia_di_sintesi#Biologia

https://it.wikipedia.org/wiki/Codice_genetico

http://www.fisv.org/2013-09-04-15-46-07/posizione-fisv/item/322-libert%C3%A0-di-ricerca-scientifica-in-campo-aperto-e-ogm.html

 

Articolo pubblicato su Il Dolomiti il 02/12/2016

Posted on

Lavoro e cancro: lavorare di notte ne aumenta il rischio

Lavoro e cancro: lavorare di notte ne aumenta il rischio

Il cancro al polmone è la principale causa di decessi per cancro in tutto il mondo, per questo studi inerenti alla prevenzione oncologica sono particolarmente attivi in questo settore. Il campo della prevenzione oncologica è governato da numerosissimi fattori legati ad abitudini e stile di vita, che risultano difficili da analizzare. Una recente indagine pubblicata su Cell Metabolism il 28 Luglio 2016, realizzata dai biologi del Massachusetts Institute of Technology (MIT) ha messo in luce la correlazione tra un lavoro che prevede turni notturni ed il rischio di carcinogenesi; il rischio di sviluppare certe malattie in seguito a turni notturni è un sorvegliato speciale da tempo, tanto che già nel 2010 il rischio di tumore correlato a ciò appariva nella sezione ‘possibile-2A’ (probabile cancerogeno per l’uomo) nella lista IARC (International Agency for Research on Cancer).

Ma perchè un infermiere o un operaio che svolgono turni notturni sono più soggetti al cancro?

Chiaramente avrete già sentito parlare di ritmo circadiano, una sorta di orologio intrinseco al nostro organismo che comporta oscillazioni bio-umorali, regolato dalla luce. Questo particolare orologio ha funzioni molto importanti tra cui la regolazione del sonno-veglia, la secrezione ormonale, le variazioni di temperatura corporea e la regolazione del metabolismo cellulare, che comprende la divisione e di conseguenza anche la proliferazione delle neoformazioni.

L’orologio circadiano negli esseri umani si trova nel nucleo soprachiasmatico del cervello (Sistema Nervoso Centrale) e dalla retina riceve informazioni riguardanti i livelli di luce; il SNC elabora queste informazioni e le trasmette alle cellule del corpo tramite ormoni e altre molecole. Un lavoro che comporta turni notturni altera il ritmo circadiano e un’alterazione di questo fa sì che i tumori diventino più aggressivi e crescano più rapidamente.

I ricercatori del MIT hanno condotto il loro esperimento sul modello animale murino (topi) ed hanno osservato l’importanza di due geni, presenti anche nell’uomo, che fungono da soppressori tumorali. Se l’orologio che detta il ritmo circadiano non funziona correttamente (in presenza di troppa o in assenza di luce) questi due geni risultano alterati e non possono svolgere il loro ruolo contro i tumori.

Questi due geni sono Bmal1 e Per2, codificano per proteine il cui livello oscilla durante il corso della giornata in correlazione al ritmo circadiano; quando il normale ciclo buio/luce viene interrotto le oscillazioni proteiche spariscono.

Lo scopo dell’esperimento è stato quello di correlare l’alterazione di questi geni e il cancro in topi programmati per sviluppare il cancro al polmone. Nella prima serie di esperimenti un gruppo di topi è stato esposto ad un ciclo buio/luce regolare di 12h/12h, mentre il secondo gruppo è stato esposto ogni 2 giorni ad un ulteriore periodo di luce di 8 h; questa situazione era volta ad emulare i turni notturni a cui si sottopongono gli esseri umani. Nella seconda serie di esperimenti i topi sono stati sottoposti ad un normale ciclo buio/luce ma sono stati ‘spenti’ i geni Bmal1 e Per2, regolatori del ritmo circadiano. Sia nei topi sottoposti a cicli buio/luce anormali, sia nei topi con i geni silenziati si è ottenuta una più rapida crescita dei tumori. E’ stato in questo modo dimostrato che sia un’alterazione fisiologica (ore buio/luce sfasate), sia una mutazione nei geni chiave che controllano l’orologio circadiano diminuiscono la sopravvivenza, portando ad una maggiore crescita e progressione del tumore al polmone. Un’ulteriore prova dell’importanza di questi geni e del ritmo circadiano proviene dall’analisi di campioni di tumore del polmone umano, nei quali si riscontrano dei bassi livelli dei due geni sopracitati e di altri geni importanti nella regolazione dell’orologio circadiano.

Vorrei concludere dicendo che di fronte a questa eclatante scoperta la ricerca non si ferma; certamente si sono aperte nuove strade e si è cominciata ad incanalare l’attenzione verso una direzione promettente, ma purtroppo le variabili relative al cancro possono essere tante e di svariata natura, la strada per sconfiggere questo nemico è ancora lunga, per questo non bisogna perdere la speranza e arrendersi.

 

(di Giorgia Tosoni)

 

Fonti:

http://www.cell.com/cell-metabolism/fulltext/S1550-4131(16)30312-6

http://www.infermieristicamente.it/articolo/6781/nuovo-studio-rivela-le-cause-dell-incremento-di-cancro-nei-lavoratori-a-turni/

Articolo pubblicato su Il Dolomiti il 25/11/2016

Posted on

Cambiamento climatico o clima di cambiamento? – Parte 4

Cambiamento climatico o clima di cambiamento? – Parte 4

Nelle puntate precedenti: la CO2 emessa dall’uomo nell’atmosfera e le temperature globali aumentano di pari passo ad un ritmo preoccupante. Gli oceani ci aiutano fungendo da serbatoi di carbonio, ma le loro acque si sono scaldate parecchio ultimamente grazie ad El Niño. Gli effetti naturali non sono lontanamente paragonabili al contributo dell’uomo al cambiamento climatico a cui stiamo assistendo, che assume aspetti drammatici in tutti i modelli ipotizzati per gli anni a venire. Il pianeta è in reale pericolo o è semplicemente destinato ad autodistruggersi nel medio-lungo termine? E l’uomo, sta a guardare o sta prendendo contromisure efficaci?

 

Piove governo ladro

Ok, questa era scontata, lo so. Dalla letteratura ai detti popolari, in un climax discendente di rilevanza culturale. Dalla Scienza alla Politica – nessuna malizia, beninteso: niente è più vero del fatto che al giorno d’oggi la prima abbia bisogno della seconda molto più che il contrario. Una Politica che scredita la Scienza non è scontato che sia impopolare, e può far parte – ahinoi! – del gioco; una Scienza che non partecipa al dibattito politico fa harakiri. Per questo le legiferazioni in tema scientifico sono così delicate: se da una parte è compito soprattutto dell’aspetto divulgativo della Scienza far sì che le parti siano correttamente informate, dall’altra gli organi decisionali devono far fronte ad interessi posti sul piatto che non sono mai unilaterali. A rendere spinose le controversie in materia, ci si mette il fatto che la Scienza di solito tira in ballo la vita delle persone. E quando si parla di clima le persone diventano tante – 7 miliardi e mezzo per la precisione – e sul banco degli imputati sale in veste di parte lesa quella cosa grande che ci piace chiamare affettuosamente come il suolo su cui abbiamo la fortuna di camminare: la Terra.

Ora, se ripensate a quanto abbiamo descritto in lungo e in largo nelle puntate precedenti, non vi sarà difficile immaginare l’entità del dibattito: già decidere in materia di clima è complicato, figuriamoci quando questo non promette nulla di buono per il futuro. E bisogna far fronte ai propri errori del passato, per giunta. Ecco, questo è il panorama in cui vide la propria alba la COP21, lo scorso dicembre a Le Bourget – un sobborgo di Parigi, Francia.

Cerchiamo innanzitutto di inquadrare la situazione. “COP” è un acronimo che sta per Conference of the Parties (Conferenza delle Parti), e si riferisce a degli incontri programmati annualmente dall’ONU – l’Organizzazione delle Nazioni Unite – per analizzare i progressi raggiunti nell’affrontare il cambiamento climatico. Tutto ebbe inizio nel 1992 con la Convenzione quadro delle Nazioni Unite sui cambiamenti climatici (UNFCCC, acronimo dal nome inglese), un trattato ambientale internazionale che forse conoscerete come Accordi di Rio Summit della Terra. Molti nomi e molte sigle: di fatto si stipulò un trattato – coordinato dall’ONU e che vide coinvolti 196 Paesi – il cui testo fu volto alla stabilizzazione delle emissioni di gas serra ad un livello che potesse prevenire “l’interferenza antropogenica con il sistema climatico”. Insomma, per evitare che l’uomo facesse troppi danni. Originariamente l’accordo non poneva limiti obbligatori, quindi risultava legalmente non vincolante; includeva però la possibilità che le parti adottassero atti ulteriori vincolanti – detti Protocolli – in apposite conferenze. Nascono così a partire dalla metà degli anni ‘90 le COP, ed almeno una di queste l’avrete sicuramente sentita nominare: la COP3, svoltasi a Kyoto nel 1997, che portò all’approvazione del Protocollo che prende il nome dalla città giapponese stessa. Gli obiettivi di taglio delle emissioni serra di quell’accordo coinvolgono ad oggi 192 Paesi; gli Stati Uniti – firmatari nel ‘97 sotto l’amministrazione Clinton – assunsero una posizione contraria al Protocollo di Kyoto con George W. Bush alla presidenza, rimanendo l’unico Paese non ratificante il trattato (seppur responsabili in quegli anni di circa il 36% delle emissioni di CO2).

Negli anni si sono susseguite le Conferenze delle Parti UNFCC, ma poche hanno portato ad accordi significativi e con valenza globale; spesso si è trattato di implementazioni al Protocollo del ‘97. Tra i più importanti troviamo il Bali action Plan (2007), il Copenhagen accord (2009) e i Cancun agreements (2010). I negoziati delle COP degli ultimi anni hanno avuto principalmente lo scopo di fornire una struttura e un testo di base per quelli che sarebbero stati gli Accordi di Parigi del 2015, dove si sarebbe consolidato l’accordo definitivo per sostituire il Protocollo di Kyoto. Ecco perché si trattava di un’occasione che in molti – scienziati e non – aspettavano con trepidazione e forti pretese: era dichiaratamente una tappa importante nella lotta al climate change.

Le premesse della COP21 non erano quindi banali: per la prima volta in oltre 20 anni di negoziati da parte dell’ONU, il Comitato Organizzatore si era riproposto di riuscire a raggiungere un accordo vincolante e universale sul clima, da parte di tutte le nazioni del mondo. Tutte. Mica male. Senza contare che da molte personalità socialmente impegnate del pianeta erano arrivati moniti importanti. Il segretario generale della Confederazione sindacale internazionale – Sharan Burrow – dichiarava che non ci sono “posti di lavoro su un pianeta morto”. Perfino il Papa aveva parlato di ecologia nell’enciclica Laudato si’, facendo riferimento al cambiamento climatico e richiedendo interventi dalle autorità internazionali. Vedremo come di certo questo trattato si è rivelato universale, mentre ci sarà più da discutere sui vincoli effettivamente posti.

Foto bonus: arrivano pressioni anche dagli orsi polari, che scendono in piazza a manifestare. Altri non si sono mossi dai poli, ma hanno impugnato lo stesso il megafono.

Non risparmiavano enfasi nemmeno gli organizzatori stessi della Conferenza: “Se lo rigetterete, i nostri figli in tutto il mondo non ci capiranno né ci perdoneranno”, così il Ministro degli Esteri francese e Presidente della COP21 Laurent Fabius presentava il testo definitivo in assemblea il 12 dicembre 2015, dopo 12 giorni e notti di negoziati tra le parti. In un articolo di Wired che descrive l’accordo, leggiamo anche quanto ribadiva il Presidente francese Hollande: “Non capita spesso nella vita di avere l’opportunità di cambiare il mondo, voi oggi avete quest’opportunità”. Spesso la politica parla per slogan e certamente tira acqua al proprio mulino, ma sulla globalità del trattato questa volta c’è poco da discutere. I rappresentanti e le delegazioni dei 196 Paesi presenti approvarono le sudate carte, colmando le divergenze iniziali. Per entrare in vigore nel 2020 (anno al quale fu estesa in precedenza la validità del Protocollo di Kyoto), sarebbe dovuto essere ratificato da almeno 55 paesi che rappresentassero complessivamente il 55% delle emissioni mondiali di gas serra, altrimenti non sarebbe stato vincolante per gli Stati. Con la ratifica uno Stato fa proprio un accordo internazionale, immettendolo nell’ordinamento; insomma, è un processo necessario affinché l’atto abbia validità.

Il testo approvato a Parigi (qui una traduzione integrale in italiano ad opera del Ministero dell’Ambiente) parte da un presupposto fondamentale: “Il cambiamento climatico rappresenta una minaccia urgente e potenzialmente irreversibile per le società umane e per il pianeta”. Vediamo quindi i contenuti principali e i punti deboli più evidenti di quello che rimane un passaggio storico, seppur da molti ritenuto imperfetto.

Del contenimento della temperatura globale ben al di sotto dei 2°C si è già parlato in precedenza. Si legge sempre su Wired che i promotori di quest’obiettivo sono stati i rappresentanti delle piccole isole e degli altri stati più vulnerabili agli impatti del cambiamento climatico, per i quali quel mezzo grado può fare la differenza tra la vita e la morte. I 4 più grandi inquinatori – Cina, USA, India ed Europa – si sono ripromessi di tagliare le emissioni per raggiungere il traguardo. Molti – tra cui anche Steffen Kallbekken, direttore del Centre for International Climate and Energy Policy – hanno evidenziato come il testo contenga delle incoerenze rispetto a questi obiettivi. Si prevede nell’accordo un processo di revisione degli avanzamenti che dovrà svolgersi ogni cinque anni a partire dal 2018, e già il fatto che il primo controllo avvenga solo nel 2023 ha suscitato molti pessimismi tra coloro che temono un continuo inquinamento durante questa proroga. Ogni Paese che ratifica l’accordo sarà tenuto a fissare un obiettivo di riduzione delle emissioni, ma il quantitativo sarà volontario; per di più, in caso di insuccesso esiste al momento solo un sistema name and shame, ovvero una lista di paesi inadempienti, pensata per incoraggiarli ad attuare il piano sul clima. E attenzione: se è vero che la COP si impegna a revisionare i progressi presentati dalle singole nazioni, di fatto questi saranno sì dettagliati, ma autocertificati, e non di competenza di un organismo internazionale; modifica richiesta ed ottenuta dagli stati emergenti – Cina su tutti – infierendo su questo punto un brutto colpo agli Stati più industrializzati. Il lettore potrebbe vedere in questo la morte della trasparenza; di certo è stato un compromesso per avere l’approvazione anche dei Paesi più scettici.

 

Non è stato posto un limite in termini di tempo per l’azzeramento totale delle emissioni, nè degli step che portino gradualmente alla sostituzione dei combustibili fossili (Secondo l’IPCC sarebbe necessario un taglio del 70-95% entro il 2050 per stare sotto i 1.5°C). Il concetto di decarbonizzazione, ovvero l’abbandono totale di questo tipo di carburanti, non viene citato: i produttori di petrolio e gas – tanto le imprese quanto i paesi – si sono opposti e hanno ottenuto che non si specificasse una data. Si parla invece più genericamente di “bilancio tra emissioni antropogeniche e rimozione di queste da parte dei serbatoi biosferici (come oceani e foreste) nella seconda metà del secolo”.

In ogni caso i Paesi, sviluppati e non, hanno responsabilità diverse nel perseguire gli scopi degli accordi. A partire dal 2020, infatti, i primi stanzieranno 100 miliardi all’anno di finanziamenti per assistere i Paesi meno industrializzati, e potenzialmente diffondere le tecnologie verdi “decarbonizzando” l’economia. Inoltre, i Paesi geograficamente più vulnerabili ed esposti alle conseguenze del riscaldamento globale – e che solitamente sono anche i più poveri – riceveranno dei rimborsi per compensare le perdite finanziarie subite, seppur non vi saranno responsabilità civili.

Quella che Wired definisce “una sconfitta per l’Unione europea” è la mancanza di interventi sulle emissioni di aerei e navi che percorrono rotte internazionali – e per questo sfuggono facilmente ai conteggi – che diffondono ogni anno nell’atmosfera un quantitativo di CO2 maggiore dell’intero Regno Unito. É notizia del 7 ottobre 2016 che in un meeting a Montreal la International Civil Aviation Organisation (ICAO) abbia cercato un primo storico accordo mondiale per allinearsi agli obiettivi di Parigi. Non ce l’hanno fatta: non vi sarà un taglio netto alle emissioni, ma a partire dal 2020 se queste saranno in aumento “ci si aspetta che le maggiori nazioni prendano parte” a dei provvedimenti, quindi rimarrà comunque un contributo volontario. Quanto previsto dalla ICAO è che in ogni caso per contrastare un aumento di emissioni si favoriscano le attività “serbatoio”. Ad Open Wet Lab non siamo ingegneri ambientali, ma qualcosa ci dice che piantare alberi non basterà.

Cerchiamo di trarre delle conclusioni da quanto detto. Il testo è piuttosto debole in alcuni punti delicati e fondamentali per contenere il cambiamento climatico, ma non si possono non tenere in considerazione alcuni aspetti positivi. Primo tra tutti, come già sottolineato, la grande partecipazione: erano moltissimi i capi di stato presenti in prima persona alla COP – evento raro perfino per l’ONU – e i paesi che hanno presentato i contributi che intendono fornire (le cosiddette INDC, valutate ogni 5 anni) coprono oltre il 90% delle emissioni, mentre a Kyoto ne costituivano solo il 12%. Probabilmente non è ancora abbastanza, come mostrano delle previsioni di aumento di temperatura (pubblicate in un lavoro su Nature dello scorso giugno) basate sugli INDC elaborati dai singoli stati alla COP21; ma rimane un miglioramento sensibile rispetto allo stato attuale.

Quel che pare evidente a tutti, è che gli obiettivi dichiarati possano essere raggiunti solamente con la fine dell’era dei combustibili fossili, risorsa in ogni caso destinata ad esaurirsi nel tempo e alla quale si dovranno cercare valide alternative. Quello che questi tutti si augurano è anche che le prossime COP, a partire da quella di Marrakech del novembre 2016, siano efficaci nel continuare i negoziati e definire maggiori dettagli in termini di cifre e tempi nel conto alla rovescia per la lotta al climate change.

Citazioni bonus: “Rispetto a quello che avrebbe potuto essere, è un miracolo. Rispetto a quello che avrebbe dovuto essere, è un disastro”. “Il vertice di Parigi è il migliore che ci sia mai stato. E questa è un’accusa terribile”. Sono di George Monbiot, da un articolo scritto per The Guardian.

E con la ratifica dell’accordo a che punto siamo? Buono, anzi, ottimo. Ricordate i 55 paesi rappresentanti il 55% delle emissioni? La soglia è stata superata il 5 ottobre scorso, in particolare grazie alle ratifiche di settembre dei due maggiori produttori mondiali di gas serra: Cina (20,09%) e Stati Uniti (17,89%). Poco dopo è arrivata anche l’importante approvazione del Parlamento Europeo (alla quale dovranno seguire quelle dei singoli stati che non hanno ancora proceduto autonomamente) e dell’India. Qui c’è una mappa che si aggiorna man mano che gli Stati ratificano l’accordo.

E l’Italia? La ratifica è arrivata in extremis: il 27 ottobre, appena 10 giorni prima dell’inizio della COP22, grazie a un’accelerazione dei tempi da parte del Parlamento. Un aspetto su cui si lavorerà saranno anche gli accordi bilaterali stipulati durante la COP21 per fornire fondi a paesi gravemente colpiti dal cambiamento climatico, come le isole del Pacifico.

Concludiamo così il nostro viaggio climatico, cominciato da un osservatorio su un vulcano nelle Hawaii per arrivare, infine, in una sala conferenze parigina con un’elevatissima densità di capi di stato. Speriamo di aver tenuta viva la vostra attenzione lungo le diverse tappe che abbiamo affrontato: come sempre, l’obiettivo della comunicazione scientifica di OWL è quello di aiutare la diffusione di consapevolezza e pensiero critico nell’affrontare queste tematiche. E parlare di clima in particolare diventa importante se pensate che il nuovo Presidente degli Stati Uniti arriva a credere che il climate change sia una bufala inventata dai cinesi (vedere per credere, i tweet non li ha cancellati). E sembrerebbe che buona parte del suo elettorato sia d’accordo con lui, come mostrano queste statistiche – a tratti parecchio tristi agli occhi di uno scienziato.

Nel frattempo, tocca ai premi Oscar sensibilizzare la popolazione su questo tema (dedicandosi pure alla divulgazione). Forse sarebbe stato il caso che i ruoli fossero invertiti. Let us not take this planet for granted. Leo, perchè non ti sei candidato tu?

 

(di Nicola Fattorelli)

Articolo pubblicato su Il Dolomiti il 18/11/2016

Posted on

Cambiamento climatico o clima di cambiamento? – Parte 3

Cambiamento climatico o clima di cambiamento? – Parte 3

Nelle puntate precedenti: la CO2 emessa dall’uomo nell’atmosfera e le temperature globali aumentano di pari passo ad un ritmo preoccupante. Gli oceani ci aiutano fungendo da serbatoi di carbonio, ma le loro acque si sono scaldate parecchio ultimamente anche grazie ad El Niño. I suoi effetti non sembrano comunque paragonabili al contributo dell’uomo al cambiamento climatico a cui stiamo assistendo. Il pianeta è in reale pericolo o è semplicemente destinato ad autodistruggersi nel medio-lungo termine? E l’uomo, sta a guardare o sta prendendo contromisure efficaci?

 

Clima di tensione

Uno dei propositi più importanti dell’accordo sul clima stipulato a Parigi nel dicembre scorso – la famosa COP21, i cui dettagli tratteremo bene nel prossimo articolo – è quello di mantenere il riscaldamento globale ben al di sotto dei 2°C, impegnandosi affinché l’aumento sia limitato ad 1.5°C. Il riferimento scelto – lo zero – è ancora una volta il livello “pre-industriale”, quella media di valori del periodo 1880-1910 di cui accennato in precedenza. Sono soglie che spesso vengono riproposte nel meccanismo comunicativo dei media, e se da un lato stiamo cercando di capire cosa accadrebbe se venissero superate, dall’altro è interessante quanto fondamentale definire a che punto ci troviamo di questa highway to hell.

Proviamo a indagare partendo da un’analisi di Climate Central dello scorso aprile, le cui statistiche si basano su una media delle temperature globali raccolte indipendentemente dalla NASA e dalla NOAA (l’Istituto di ricerca che comprende anche l’Osservatorio Mauna Loa). È importante far notare come questo studio ci venga in aiuto per fare poi delle considerazioni contestualizzate con i presupposti in cui si pone il documento di Parigi. Gli scienziati di Climate Central, infatti, hanno elaborato i dati comparandoli con il riferimento al 1880-1910, mentre le misurazioni originali di temperature anomale da parte dei due istituti prendevano diverse baseline climatiche (1951-1980 la NASA, una media di tutto il ventesimo secolo la NOAA).

Guardando il grafico, i valori sembrano catapultarci direttamente alla soglia più ottimistica dalla quale gli stati si sono preposti di non allontanarsi troppo. Febbraio 2016 è stato il primo mese a varcarla, con una media di 1.55°C, e i primi tre mesi dell’anno messi insieme si assestano sul valore di 1.48°C in più rispetto al periodo pre-industriale. Bisogna però essere cauti con le sentenze. “Tre mesi non fanno un anno”, lo scrivevano gli stessi scienziati di Climate Central nell’analisi, e avevano ragione. I dati grezzi di NASA e NOAA non mostrano la stessa tendenza per i mesi successivi, e se siete in cerca di altri grafici colorati li trovate rispettivamente qui e qui (attenzione ai riferimenti che cambiano). Anche fossero stati sulla stessa linea, un anno non determina necessariamente una variazione definitiva nel clima, specialmente un anno con El Niño alle spalle: ricordate il focus, stiamo cercando un trend.

Ed è qui che comincia il difficile: studi che analizzano i dati del passato e cercano di prevedere quelli futuri ce ne sono molti, e districarsi tra i numeri in gioco è complicato. Inutile rimarcare che tutti concordano su un destino piuttosto infelice per il pianeta. Tra i tentativi di stima di quando avverrà il raggiungimento – stabile – della soglia di 1.5°C scegliamo uno dei più autorevoli, dall’ultimo report dell’IPCC (Gruppo intergovernativo sul cambiamento climatico). Su questo si basano anche gli stessi scienziati di Climate Central, sempre nell’analisi di cui sopra, ancora con lo scopo di applicare statistiche ai dati per riferirli al periodo 1880-1910. Lo sottolineiamo ancora per mostrare al lettore quanto necessario sia adottare uno spirito critico quando si parla di scienza: essendo gli obiettivi della COP21 una soglia relativa – ovvero una differenza di 1.5-2°C rispetto a qualcosa – possono sembrare più facili da raggiungere se i dati che ci vengono presentati non hanno lo stesso riferimento.

Tornando a noi, gli esperti del settore hanno quindi calcolato che, continuando sul sentiero in salita tracciato dagli ultimi decenni di emissioni, il limite degli 1.5°C sarà oltrepassato per sempre tra gli anni 2025-2030. Se i provvedimenti necessari per non andare troppo oltre questa soglia venissero effettivamente presi, i climatologi stimano che sarebbe possibile contenere i peggiori impatti del climate change sull’aumento del livello dei mari, inondazioni, piogge, ondate di caldo e carestie. Ovvero, non verrebbero alterate irreparabilmente le condizioni ottimali in cui gli organismi viventi hanno prosperato in quest’era interglaciale.

Ma la Scienza a volte è pessimista. O meglio, la Scienza è sempre molto rigorosa nell’analizzare i dati che il mondo le fornisce, dai quali spesso si ricavano tristi conclusioni. In un lavoro pubblicato su Nature qualche settimana fa, Carolyn Snyder della Stanford University stima che se anche le emissioni di gas serra si stabilizzassero suilivelli attuali (cosa improbabile, ndr), la temperatura media globale potrebbe aumentare di 5°C nel giro di uno-due millenni. Una previsione che, così a lungo termine, potrebbe sembrare piuttosto aleatoria, certo, che però ci è utile per capire quanto sia complesso muovere passi in questo campo. “La comprensione delle dinamiche e della sensibilità del sistema climatico terrestre è fortemente influenzata dalle ricostruzioni del suo clima passato”: ce lo spiega bene Le Scienze in un breve articolo, raccontando anche come la ricerca della Snyder si basi sulla più lunga ricostruzione continua del clima terrestre realizzata fino a oggi. Tuttavia le analisi sui carotaggi nei ghiacciai forniscono dati dettagliati sul clima del passato solamente per le epoche glaciali, perciò la ricercatrice si è dovuta servire di un potente modello statistico per la propria stima, in modo da coprire i gap tra questi lunghi periodi.

Per un astronomo, prevedere per il 12 agosto 2026 un’eclissi di sole totale è quasi facile, ma in climatologia è tutta un’altra storia: i calcoli possono essere accurati, ma la variabilità in termini di fattori naturali ed antropici è troppo elevata per sentenziare a priori la veridicità assoluta di un modello.

Link bonus: questa vignetta, opera di Randall Munroe (che oltre a lavorare alla NASA è anche il fondatore di questo sito molto divertente), rappresenta una timeline della temperatura media terrestre a partire dall’ultima glaciazione fino ai giorni nostri. I protagonisti sono degli stickman piuttosto simpatici, ma il cartoonin sé è molto d’impatto.

C’è chi ha tenuto a sottolineare che in realtà Munroe paragona un po’ mele con arance, mostrando per lo più dati “non reali” e passando solo nell’ultimo tratto alle misurazioni moderne. È vero, ma tutti sono d’accordo nell’affermare che questa recente tendenza non promette nulla di bene, e che ci stiamo scaldando troppo più in fretta di quanto avveniva di solito nelle ere interglaciali.

Ma allora – arriviamo a un altro punto importante – visto che ci sono state grandi variazioni anche in passato, non è possibile che il riscaldamento attuale sia un fenomeno naturale? La risposta è… no. Lo avrete capito da quanto accennato in precedenza, e nemmeno troppo tra le righe. Per cercare ulteriori conferme, sbirciamo ancora tra gli articoli divulgativi della NASA, affidandoci questa volta al sito dell’Earth laboratory.

Il clima terrestre, in passato, è spesso variato per cause naturali non relazionate all’attività umana. Si è trattato perlopiù di cambiamenti nella radiazione solare: piccole oscillazioni nell’orbita del pianeta hanno alterato il luogo e il momento d’impatto della luce solare sulla superficie della Terra; nel Sole stesso sono talvolta occorse variazioni dell’energia emessa. In altri casi, storiche eruzioni vulcaniche hanno offuscato l’atmosfera terrestre con enormi quantità di particelle, le quali riflettendo la radiazione solare hanno portato a raffreddamenti globali significativi. D’altro canto è anche vero che l’attività vulcanica può contribuire alla dispersione di gas serra nell’atmosfera (seppur 100 volte inferiore alla CO2 emessa oggi dall’uomo, si stima).

Queste fonti naturali sono tutt’oggi attive, ma la loro influenza è troppo piccola per spiegare il cambiamento climatico in atto. Come lo sappiamo? Ancora una volta: 150 anni di misurazioni metodiche e precise. E questi dati, a quanto mostrano gli scienziati, possono essere spiegati con un modello che consideri solamente le cause naturali al massimo fino al 1950, non oltre. Oltrepassato questo punto, per avere un buon fitting con le misure reali è necessario includere il contributo dei gas serra derivanti da attività umane. Per capire di cosa parliamo, date un’occhiata a questi grafici.

É rilevante in questo caso osservare le scale sugli assi verticali. I primi tre grafici, riferiti ai tre contributi naturali più importanti, mostrano come ognuno di essi non abbia mai determinato un aumento superiore a 0.2°C nell’ultimo secolo e oltre. Possiamo fare delle considerazioni: sul fatto che El Niño abbia un effetto molto variabile nel tempo che di fatto si annulla in una sommatoria; che la radiazione solare si presenti con intensità ciclica (massimi e minimi solari) e ancora che eventi vulcanici sporadici possano abbassare leggermente le temperature globali (nel grafico: El Chichon nell’82 e Pinatubo nel ‘91). Ma è chiaro che tutte queste variazioni non reggono il confronto con le attività umane, che da sole hanno determinato un incremento di quasi 1°C dal periodo pre-industriale al 2005. Il grafico si ferma a quell’anno, ma come abbiamo visto la situazione poi ha continuato a peggiorare.

Chiudiamo questa puntata con un’immagine provocatoria. Presa da un articolo pubblicato lo scorso anno su Science, mette insieme un po’ tutto quello di cui abbiamo parlato finora – CO2 nell’atmosfera, aumento di temperatura e del livello dei mari – e paragona il presente con condizioni simili del lontano passato. Se siamo riusciti nell’ardua impresa di trasmettere in modo fruibile i complessi presupposti necessari per esprimersi in materia di clima, potrete ricavarne da soli qualche osservazione. Forse Venezia non andrà sotto il mare da un giorno all’altro, e sicuramente stime riferite ad un tempo così lontano non possono godere di grande precisione, ma questa figura ci fa capire che il nostro pianeta non è solito reagire bene a condizioni simili a quelle attuali.

Non perdetevi l’ultima puntata.

 

(di Nicola Fattorelli)

 

PS: dicevamo che l’attività solare cambia nel tempo. Beh, se volete, potete controllare con i vostri occhi. Questo link porta all’archivio dati di SOHO (Solar and Heliospheric Observatory), un progetto in collaborazione tra NASA ed ESA. A disposizione del vostro stupore: foto, video, gif, live streaming e tutto il gossip che potete immaginare sul Sole. Fossi in lui mi sentirei un po’ osservato. Chissà, magari invece è narcisista.

Posted on

Cambiamento climatico o clima di cambiamento? – Parte 2

Cambiamento climatico o clima di cambiamento? – Parte 2

Nella puntata precedente: degli scienziati dalle Hawaii ci dicono che settembre 2016 è stato un mese record per le emissioni di diossido di carbonio nell’atmosfera. Continuando di questo passo, le conseguenze potrebbero essere terribili; ancor peggiori se non ci fossero gli oceani a salvarci.

Hanno creato un clima infame

Questa volta la citazione è meno autorevole rispetto al primo articolo, me ne rendo conto, ma più che mai calzante a livello metaforico. Sono le parole che pronuncia Bettino Craxi nel settembre ‘92 uscendo dalla casa del deputato Sergio Moroni, socialista suicidatosi nell’ambito dell’inchiesta Mani Pulite. Diventò un’espressione simbolo di quel momento politico, ma non è purtroppo l’unico clima infame che è andato delineandosi negli anni. Vi abbiamo parlato in precedenza delle emissioni di CO2, e del superamento della soglia delle 400 parti per milione nell’atmosfera. Ma il 2016 è stato un anno record per la climatologia che verrà tristemente ricordato anche per altri insuccessi.

Gli ultimi dati della NASA, raccolti al Goddard Institute for Space Studies (GISS), mostrano in modo drammatico come le temperature eccezionalmente alte stiano diventando la regolaAgosto è stato il mese più caldo registrato da almeno 136 anni a questa parte (ovvero quando sono iniziate le misurazioni su scala globale), giusto in tempo per pareggiare il record stabilito da luglio: medaglia d’oro condivisa e ricco montepremi che si dimezza. E questa striscia positiva di vittorie infelici si estende fino a ottobre 2015, a partire dal quale ogni registrazione mensile è risultata la più calda di sempre, in riferimento agli stessi mesi degli anni precedenti. Guardando i grafici prodotti dal GISS, questa tendenza è ben evidente (GRAFICO 1, sotto).

Per rendere l’idea di quanto accurate siano le analisi mensili del GISS, esse sono costruite a partire da dati acquisiti da circa 6300 stazioni meteorologiche in tutto il mondo, ma anche da postazioni di ricerca antartiche, nonché strumentazioni alloggiate su barche o boe che misurano la temperatura superficiale marina. Per completare quanto già accennato, la collezione di dati comincia dal 1880 perchè in precedenza non si aveva una copertura globale attraverso strumentazioni di questo tipo.

GRAFICO 1: Sull’asse verticale abbiamo le variazioni di temperatura rispetto allo “zero”, che rappresenta la media delle temperature registrate nel periodo di riferimento 1951-1980. Sull’asse orizzontale abbiamo i mesi dell’anno, e ogni curva colorata rappresenta il set di dati raccolto annualmente a partire dal 1880. Appare piuttosto chiaro come le temperature del secolo scorso fossero ben al di sotto di quelle attuali. Ma ponete la vostra attenzione sulle curve più “calde”, le due rosse più in alto (2015 e 2016): il gap che si è creato tra le misurazioni più recenti e tutte le altre, che appaiono invece ammassate quasi a formare una collina, è davvero significativo.

Link bonus: Gif creata a partire dagli stessi dati appena descritti. Non aggiunge nulla di nuovo a livello informativo, tuttavia è piuttosto efficace nel rendere l’idea.

A dare una mano all’uomo nell’incrementare le temperature globali ci ha pensato nell’ultimo anno anche la natura stessa, grazie ad El Niño. Agli occhi di un appassionato sportivo potrebbe sembrare il soprannome di un calciatore argentino piccolo, rapido e brevilineo – o ricordare il Fernando Torres dei migliori anni a Liverpool. Tutt’altro: si tratta di un fenomeno naturale caratterizzato da temperature inusuali delle acque tropicali-equatoriali dell’Oceano Pacifico, che si verificano essere più calde del normale. Questa oscillazione del sistema oceano-atmosfera porta con sé conseguenze significative sul clima di tutto il pianeta (ad esempio: piogge torrenziali in alcune zone, siccità in altre).

A partire da marzo 2015 è iniziato un El Niño molto intenso, che tale non si vedeva da 35 anni, e ha raggiunto i suoi picchi massimi in autunno-inverno. Solitamente un evento di questo tipo è seguito dal suo alter ego, La Niña, un periodo nel quale le acque del Pacifico si registrano più fredde del solito. Questa volta, però, questo secondo fenomeno non si è verificato, probabilmente a causa delle caratteristiche particolarmente estreme del primo. Molti esperti ritengono che la potenza di El Niño dello scorso anno abbia infatti esacerbato le condizioni meteorologiche già di per sé instabili a causa del riscaldamento globale. Nelle regioni affacciate sull’Oceano si sono registrate intensificazioni di fenomeni quali piogge, inondazioni, uragani e tifoni, incendi e scioglimento accelerato dei ghiacciai. Queste calamità ed una sopraggiunta siccità in molte zone – tra cui Africa meridionale, Asia e America Latina – sono stimate aver costretto circa 100 milioni di persone a lottare contro la mancanza di cibo e acqua. Oltre che ad essere più vulnerabili a malattie.

Dopo 6 mesi di graduale alleviamento dei suoi effetti, la NASA ha da poco dichiarato terminato il fenomeno de El Niño, e si attendono le misurazioni dei mesi a venire per verificare, come peraltro ci si aspetta, se la crescita del global warming continuerà anche senza la sua influenza.

In questa GIF (prodotta dalla NASA) si possono apprezzare bene gli effetti del passaggio di El Niño sulla temperatura degli oceani. Seguendo con la coda dell’occhio i mesi che si aggiornano in alto, si nota come le acque tocchino le temperature maggiori nell’autunno 2015 (macchie in gradazioni di rosso-arancione), per poi diminuire progressivamente con la scomparsa di El Niño.

Ma quanto davvero ha influito questo evento straordinario sulle conseguenze di cui abbiamo parlato? Ha avuto sicuramente un ruolo – su questo i climatologi sono più o meno tutti d’accordo -, ma vi sono evidenze altrettanto certe che questo contributo appaia molto piccolo in confronto all’attività umana dello sconsiderato utilizzo di combustibili fossili.

I dati a disposizione sono del 2015 e analizzano la fase più intensa di El Niño. Gli scienziati di Climate Central scrivono che la temperatura media riferita all’arco dell’intero anno è risultata essere di 1.05°C superiore a quella pre-industriale. Di questa variazione, poco meno di 1.0°C è dovuto ad una forzatura antropogenica, tra 0.05 e 0.1°C a causa di El Niño e circa 0.02°C per una maggiore attività solare. Sottolineano anche, da esperienze passate, come El Niño tenda a scaldare il globo solitamente con un ritardo (comunque sostanzialmente imprevedibile a priori) di 5 mesi. Da questo si ricavano due considerazioni: 1. Una giustificazione per l’intervallo di temperatura tra 0.05 e 0.1°C assegnato al contributo del fenomeno al riscaldamento: se i suoi effetti si manifestano con forza nei primi mesi darà valori più vicini a 0.1°C per il 2015, viceversa se il ritardo si prolunga nel tempo; 2. Una possibile interpretazione per il grafico presentato in precedenza sulle temperature record degli ultimi mesi. Se l’influenza di El Niño si fosse estesa come di solito accade, sarebbe stato il 2016 a risentirne maggiormente nelle conseguenze.

É importante però riportare il focus della nostra attenzione sul cuore del problema. Indipendentemente da quanto El Niño possa o meno aver contribuito in percentuale sugli incrementi degli ultimi due anni, non è utile concentrarsi solamente sulle singole variazioni di temperatura mensili, bensì osservarne il trend. É solamente la visione ad ampio spettro – che stiamo cercando di costruire nella mente del lettore un mattoncino per volta – che ci permette di capire l’entità della situazione.

E in questo ci aiuta con le sue dichiarazioni ancora Gavin Schmidt, direttore del GISS alla NASA: “Insistiamo nel sostenere che i trend a lungo termine sono i più importanti per capire i cambiamenti in corso che stanno affliggendo il nostro pianeta”.

Vedremo allora nella prossima puntata di capire bene e diagnosticare la patologia che sta affliggendo il nostro pianeta, come ultimo passo prima di analizzare se e quali rimedi l’uomo ha deciso di sviluppare per curarla.

 

(di Nicola Fattorelli)

Articolo pubblicato su Il Dolomiti il 11/11/2016