Category Archives

26 Articles

Posted on

Emergenza Zika

Emergenza Zika

In un comunicato dello scorso 1 febbraio, l’Organizzazione Mondiale della Sanità ha dichiarato una nuova Emergenza di sanità pubblica di rilevanza internazionale, la seconda nel giro di meno di due anni. Prima è stato Ebola, che tanto ha spaventato noi, ma soprattutto ha ucciso in Africa (circa 11.300 vittime secondo l’OMS). Oggi, invece, il protagonista è Zika e pochi potranno affermare di aver mai sentito questo nome fino a qualche mese fa.

Com’è possibile che questo virus, noto dal 1947 e pressoché ignorato dalla comunità scientifica e medica per oltre sessant’anni, ora si trovi d’improvviso sotto i riflettori? Fino al 2007 sono stati registrati solo 14 casi di infezioni di Zika nell’uomo. Poi il virus ha cominciato a circolare nelle piccole popolazioni delle isole del sud del Pacifico, arrivando a causare una prima epidemia nel 2013 in Polinesia Francese. Da qui il virus è arrivato in Brasile, trovando una popolazione molto più ampia e priva di immunità. Infatti, da febbraio 2015 ha infettato circa un milione e mezzo di persone e si è diffuso in 36 paesi dell’America Latina e dei Caraibi, raggiungendo le proporzioni di una vera e propria pandemia in meno di un anno1.

Avendo assunto rilevanza solo recentemente, nel tentativo di approfondire l’argomento ci si imbatte subito nella mancanza quasi totale di dati e studi biologici sul virus o sui meccanismi molecolari con cui agisce. Non consideriamo nemmeno la possibilità di avere vaccini o cure, che sono solo attualmente in via di sviluppo. Per questo parleremo principalmente delle caratteristiche cliniche dell’infezione da virus Zika. I sintomi che manifesta (se li manifesta!) sono perlopiù febbre, dolori articolari, congiuntivite, mal di testa2. Insomma, niente di diverso da una qualsiasi sindrome influenzale, che, per quanto spiacevole, non giustificherebbe certo l’allerta internazionale. Quello che invece preoccupa è l’associazione tra il virus e alcune anomalie cerebrali, principalmente la microcefalia congenita.

Si tratta di un difetto raro dello sviluppo cerebrale che porta alla nascita di bambini con un cervello anormalmente piccolo e malformato, con conseguenze gravissime sullo sviluppo cognitivo e motorio, nonché una bassa aspettativa di vita. In Brasile da novembre 2015 al 13 Febbraio 2016 sono stati registrati 5280 casi di microcefalia congenita – contro una media di 163 casi all’anno – di cui 108 sono risultati nel decesso del bambino1. Così la comunità scientifica è stata costretta ad interrogarsi su una possibile associazione tra patologia e agente infettivo. Se le organizzazioni internazionali faticano ancora a confermare questa correlazione, alcuni studi cominciano a far emergere le prime evidenze. Un caso clinico è stato registrato in Slovenia: una donna ha mostrato i sintomi tipici dell’infezione di Zika durante i primi mesi della sua gravidanza, mentre si trovava in Brasile e, molte settimane dopo, le ecografie hanno confermato la microcefalia del feto. A seguito dell’interruzione di gravidanza, durante l’autopsia Zika è stato trovato nel tessuto cerebrale3. Un altro caso del tutto analogo è stato registrato alle Hawaii4 e altri studi hanno portato a isolare il DNA di Zika dal liquido placentale di feti microcefalici in Brasile5.

Inoltre, dall’inizio dell’epidemia è aumentata considerevolmente l’incidenza anche di un’altra malattia rara del sistema nervoso: la sindrome di Guillame – Barrè1; questo confermerebbe ulteriormente la particolare affinità del virus per il tessuto neuronale.

Se le coincidenze temporali e geografiche – e soprattutto la mancanza di ipotesi alternative – ci portano a puntare sempre di più il dito contro Zika come causa di queste patologie, il meccanismo con cui questo agirebbe sul tessuto nervoso è ancora da appurare. Consultando studi sulla microcefalia congenita, alcune ricerche suggeriscono che sia la risposta immunitaria al virus della madre a danneggiare lo sviluppo6, ma anche questo è da verificare, nulla è stato ancora confermato con certezza. Attendiamo con impazienza le risposte che gli esperti promettono per i prossimi mesi.

Ma come si trasmette il virus? Principalmente attraverso la puntura della zanzara Aedes egypti, tipica delle regioni tropicali e subtropicali. Questo da una parte può spiegare la stupefacente velocità di diffusione del virus in America Latina – e il livello di allerta è altissimo negli stati USA del sud, dove con l’estate è previsto l’arrivo della zanzara; dall’altra ci tranquillizza poiché sarà difficile che l’epidemia si diffonda in Europa, dove questa specie non è presente. Tuttavia gli ultimissimi casi di pazienti americani infettati dal virus senza essere stati in nessuna delle zone a rischio, confermano che questo possa essere trasmesso anche sessualmente, attraverso il seme di un maschio affetto, anche a mesi dall’infezione7-8.

Se avete letto fino a qui, forse ora starete pensando: “Quindi parliamo di un virus che porta sintomi lievi, che forse potrebbe essere legato a danni preoccupanti solo per le donne in gravidanza, molto diffuso, ma solo in una parte piuttosto remota del mondo. Che l’OMS stia diventando un po’ allarmista?”

Niente di più sbagliato. Senza considerare il continuo aumento di temperatura che favorirà la proliferazione della zanzara portatrice, né la possibilità che il virus muti in forme più aggressive o l’imminente Olimpiade nella zona endemica di Rio, si tratta di una vera e propria emergenza di carattere sociale. Il sud America è una regione in via di sviluppo, con un sistema sanitario stremato da un’utenza semplicemente troppo grande che non ha né gli strumenti né l’educazione per fronteggiare una situazione come questa. Inoltre, complice l’educazione cattolica radicata nella comunità, manca qualsiasi tipo di politica sulla contraccezione o riguardo il controllo delle nascite – in Brasile l’aborto è ancora illegale e punibile con il carcere. Come sarà il futuro, la qualità e l’aspettativa di vita di questi neonati che qualcuno già chiama la “Generazione Zika”?

L’appello dell’OMS sta già spingendo al massiccio finanziamento della ricerca necessaria per la soluzione della crisi prima che sia fuori controllo. Speriamo porti anche alla formazione di una rete di collaborazione con i paesi più colpiti. Considerare un problema degno di attenzione anche se non bussa ancora alla nostra porta? Non è allarmismo, è intelligenza.

Emma Dann

2gov.zika

3nejm.org

4governor.hawaii.gov

5thelancet.com

6Cardenas I, Means RE, Aldo P, Koga K, Lang SM, Booth C, Manzur A, Oyarzun E, Romero R, Mor G: Viral infection of the placenta leads to fetal inflammation and sensitization to bacterial products predisposing to preterm labor. J Immunol 2010; 185:1248–1257

7http://www.statnews.com/2016/02/12/zika-semen/

8http://www.cdc.gov/mmwr/volumes/65/wr/mm6505e1.htm

 

Articolo pubblicato su L’Adige il 03/03/2016

Posted on

La Scienza si può occupare di omosessualità? – parte 2

La Scienza si può occupare di omosessualità? – parte 2

Nella prima parte di questo articolo abbiamo visto alcune teorie che parte del mondo scientifico condivide riguardo l’omosessualità. Ci eravamo lasciati con una domanda di non facile risposta: come è arrivato fino a noi un genoma (ammesso che esista) che condurrebbe all’impossibilità di procreare naturalmente? Cerchiamo di capire meglio assieme.

Uno degli aspetti più difficili da spiegare per chi è convinto della presenza di una componente genetica per l’omosessualità, è il paradosso darwiniano. Sappiamo che l’evoluzione secondo Darwin è possibile in quanto l’individuo con maggiore capacità riproduttiva – e intendo non solo fertilità, ma anche adattabilità all’ambiente, sopravvivenza rispetto agli altri individui – riesce a trasmettere il suo genoma di generazione in generazione. Esso può subire variazioni che possono aumentare a loro volta la riproduttività. La domanda sorge spontanea: come è possibile che un genoma che predisponga all’omosessualità, quindi per forza all’incapacità riproduttiva, sia giunto fino a noi? Nonostante secondo la teoria Darwiniana, l’omosessualità dovrebbe essere sparita, al contrario è sempre esistita. Una possibile soluzione potrebbe essere dovuta alla presenza di una componente ambientale e sociale che nulla ha a che fare con il nostro genoma. Il dottor Andrea Camperio Ciani, dell’università di Padova, ha proposto invece un altro modello che di fatto sembra risolvere (puramente a livello numerico) parzialmente il problema. In diversi studi, egli asserisce che si possono notare due asimmetrie principali nei pedigree connessi all’omosessualità maschile. Una riguarda il tasso di omosessualità maschile e l’altra la fertilità femminile. E’ stato notato un tasso di presenza omosessuale maschile maggiore nella linea materna rispetto a quella paterna. Attraverso analisi statistiche lo studio mostra come il modello più probabile sia la selezione sessuale antagonista. Il genoma – in questo caso la sequenza di DNA del cromosoma X – predispone all’omosessualità e conduce ad una maggiore fertilità femminile. In questo modo, la variabilità e la stessa presenza di questo tipo di genoma viene mantenuta e trasmessa nelle generazioni.

Ogni volta che finivo di leggere uno dei diversi articoli scientifici riguardo questo tema, non potevo fare a meno di concludere: e quindi? Quale sarebbe il vantaggio della scoperta di una regione genomica legata all’omosessualità? E se anche avvenisse solo tramite fenomeni sociali e ambientali? L’uomo è spesso stato mosso dall’irrefrenabile sete di conoscenza che lo spinge a chiedersi il motivo di molti fenomeni, anche se la soluzione potrebbe portare a letture fuorvianti. Infatti, negli studi recenti, quasi tutti gli autori rimarcano la loro pura curiosità scientifica. Non riesco però a togliermi dalla testa la sensazione, un po’ maligna, che qualcuno utilizzi queste informazioni per andare oltre. Come la storia ci ha dimostrato più volte, le nuove scoperte possono essere utilizzate sempre in due modi: bene o male. Ammesso che gli studi sulla componente genetica dell’omosessualità siano confermati (ora sono solo ipotesi), alcuni pensano che il risultato aiuterebbe a far capire una volta per tutte che, come la differenza occhi azzurri-occhi scuri è dovuta da una variazione genomica, così l’omosessualità è una cosa totalmente naturale scritta nel genoma; altri vedono invece un rischio di discriminazione e di una selezione degli essere umani utilizzando “screening” genetici sui feti per indagare la loro possibile futura omosessualità. Pur vivendo in un panorama scientifico che sta cercando di modificare il genoma umano a livello embrionale, la mia è sicuramente una provocazione. Al momento non sembra così possibile. Ma vent’anni fa non si pensava fosse possibile mandare un foto in due secondi con il cellulare. Non fraintendetemi: la ricerca scientifica è fondamentale. La scienza ci ha aiutato e sempre ci aiuterà a capire meglio la vita e a preservarla, ma forse in questo specifico caso, dovrebbe essere un po’ più cauta. Si “gioca” con il cuore delle persone.

Simone Detassis

 

Articolo pubblicato su L’Adige il 25/02/2016

Posted on

La Scienza si può occupare di omosessualità? – parte 1

La Scienza si può occupare di omosessualità? – parte 1

In questi giorni siamo soggetti ad un vortice di parole che ruota, di fatto, intorno ad un unico tema: l’omosessualità. Non voglio entrare nel merito della legge che si sta discutendo in parlamento o delle questioni civili e legali. Vorrei invece concentrarmi su ciò che alcuni scienziati hanno pensato e pensano tutt’ora riguardo l’omosessualità. Poichè la procreazione avviene attraverso il rapporto sessuale di un maschio e una femmina, l’omosessualità, principalmente con l’avvento del Cristianesimo, è stata vissuta come qualcosa di anomalo, strano e spesso da evitare. Come una malattia. Così, nel corso degli anni, vari scienziati hanno cercato una causa da associare a questo fenomeno, esattamente come viene fatto per le condizioni considerate biologicamente anomale.

Fino a qualche decennio fa si pensava che l’omosessualità fosse una deviazione da correggere. Nel 1974 l’omosessualità venne cancellata dal Manuale Diagnostico e Statistico dei Disturbi Mentali pubblicato dall’American Psychiatric Association. Veniva però ancora considerata un disturbo mentale dall’OMS, cioè un’alterazione psicologica e/o comportamentale relativa alla personalità dell’individuo che causa pericolo o disabilità e non fa parte del normale sviluppo psichico della persona. Solamente nel 17 maggio 1990 l’OMS (Organizzazione Mondiale della Sanità) cancellò l’omosessualità dall’elenco delle malattie mentali, definendola per la prima volta “una variante naturale del comportamento umano”.


Prima del diciannovesimo secolo tutte le spiegazioni riguardo l’orientamento sessuale mancavano di qualsivoglia oggettività scientifica. Le religioni, come si può immaginare, avevano una forte influenza sul giudizio dei propri fedeli, i quali, non potendo accettare qualcosa che deviasse da quanto di ‘giusto e naturale’ creato da Dio, erano portati ad etichettarlo come demoniaco. I primi tentativi scientifici di spiegare l’omosessualità derivano da Freud. Egli sosteneva che l’omosessualità rifletteva una sorta di prematuro imprinting nello sviluppo psicosessuale. Freud non escludeva fattori ereditari, ma credeva principalmente che l’errato sviluppo psicosessuale fosse dovuto all’assenza o presenza, rispettivamente, di un padre o una madre dominante. Altri studiosi hanno attribuito questo fenomeno alla seduzione nell’infanzia da parte di un fratello o amico dello stesso sesso. Altri ancora alla quasi totale assenza di donne o all’eccessivo periodo di  castità durante lo sviluppo. East (1946) attribuiva l’omosessualità alla confusione durante il periodo in cui il soggetto imparava le normali regole sessuali. Kardiner (1963) disse che invece si doveva attribuire la colpa alla società che chiedeva ai ragazzi di essere sempre più “uomini” e qualcuno, fallendo, si sarebbe sentito inadeguato e più vicino all’altro sesso. Un’altra teoria introdotta negli anni ’50 è quella dell’imprinting.

Alcuni scienziati che si dichiaravano vicini a questa teoria, tra cui, Lorenz, Smitt e Young sostenevano che i primi due anni di vita fossero caratterizzati da neutralità sessuale, ma durante il secondo o terzo anno, esperienze casuali avrebbero potuto cambiare lo sviluppo dell’orientamento sessuale a lungo termine. Tutte queste teorie però sono accomunate da un’unica stroncante verità: l’assenza di prove. Spesso venivano formulate in base alla pura esperienza dello studioso nell’ambiente e nel tipo di società in cui viveva. Qualcuno, per esempio, affermava di aver osservato una maggiore omosessualità maschile rispetto a quella femminile; o i teorizzatori dell’imprinting non sapevano definire quali potessero essere le cosiddette esperienze che modificano lo sviluppo dell’orientamento sessuale.


Esiste un’altra categoria di scienziati che credeva (e tutt’ora lo fa) ad una preponderante componente “interna” come causa scatenante dell’omosessualità. Ci sono alcune teorie riguardo alla presenza di alcuni fattori biologici che porterebbero ad una predisposizione all’omosessualità. In uno studio del 1975, Wolf-Gunther Masius e colleghi dimostrarono che in topi maschi, la mancanza di androgeno durante l’organizzazione dell’ipotalamo portava alla formazione di un cervello con caratteristiche di tipo femminile e comportamento omosessuale. Il loro tentativo, supportato anche da altri studi, fu quello di associare questi risultati anche all’uomo. Ovvero, prendendo due gruppi di uomini omosessuali ed eterosessuali, mostrarono la stessa fluttuazione ormonale vista nei topi e la collegarono quindi all’orientamento sessuale. La teoria più condivisa sembra però essere l’associazione tra l’omosessualità e alcune variazioni genomiche all’interno della regione Xq28. Attraverso studi di associazione, alcuni scienziati avrebbero dimostrato che la presenza di particolari variazioni nella sequenza del DNA in quella specifica regione del cromosoma X porterebbe ad un’alta predisposizione verso l’omosessualità. In questa zona del genoma sono codificati diversi geni che hanno ruoli nello sviluppo nervoso, neuroendocrino, nella neurotrasmissione e anche nella spermatogenesi. Uno tra questi è la vasopressina che influenza, tra le altre cose, i comportamenti sociali e affettivi.

Come nel primo caso (fluttuazioni ormonali), anche questa teoria, seppur supportata da diversi studi, manca di validità statistica. Con questo voglio dire che il numero dei casi analizzati è spesso insufficiente per dare robustezza allo studio, soprattutto per una caratteristica umana così complessa che come tutti i comportamenti umani presenta un fenotipo “continuo” e non “discreto”: come una scala di colori, non bianco o nero.  Quando non è nota una componente genetica specifica legata al fenotipo (ovvero, l’insieme di tutte le caratteristiche osservabili) che stiamo osservando e siamo costretti quindi a cercare variazioni genomiche comuni che ne possano fungere da “mappa”, il fattore “quantità di dati esaminati” svolge un ruolo preponderante. Altri studi infatti, come quello svolto da George Ebers, giungono a conclusioni diverse e affermano l’assenza dell’associazione fra Xq28 e l’omosessualità. Le teorie che ho citato mancano quindi di una vera e propria conferma, relegandole semplicemente a ipotesi.

Uno degli enigmi che gli scienziati che credono nell’esistenza della componente genetica omosessuale cercano di risolvere, è il paradosso Darwiniano. Come è arrivato fino a noi un genoma che condurrebbe all’impossibilità di procreare naturalmente?

Lo scoprirete nel prossimo articolo!

SIMONE DETASSIS

 

Referenze:

“Neurohormonal Functioning and Sexual Orientation: A Theory of Homosexuality Heterosexuality” – Lee Ellis and M. Ashley Ames – Psychological Bulletin (1987)

“A Neuroendocrine Predisposition for Homosexuality in Men” – Gunter Dorner, Wolfgang Rohde, Fritz Stahl, Lothar Krell and Wolf-Gunther Masius – Archives of Sexual Behavior (1975)

“Genome-wide scan demonstrates signifi cant linkage for male sexual orientation” – A. R. Sanders, E. R. Martin, G. W. Beecham, S. Guo, K. Dawood, G. Rieger, J. A. Badner, E. S. Gershon, R. S. Krishnappa, A. B. Kolundzija, J. Duan, P. V. Gejman and J. M. Bailey – Psychological Medicine (2014)

“A Linkage Between DNA Markers on the X Chromosome and Male Sexual Orientation” – Dean H. Hamer,Stella Hu,VictoriaL. Magnuson,Nan Hu, Angela M. L. Pattatucci – Science (1992)

“Male Homosexuality: Absence of Linkage to Microsatellite Markers at Xq28” – George Rice, Carol Anderson, Neil Risch, George Ebers – Science (1999)

 

 

Articolo pubblicato su L’Adige il 24/02/2016

Posted on

La scienza dietro il «Food Coma»

La scienza dietro il «Food Coma»

Vi è mai capitato, tra cenoni della Vigilia, pranzi di Natale, banchetti di San Silvestro, lasagne, ravioli, spiedo, polenta, panettoni, che la sonnolenza abbia preso il sopravvento sul vostro organismo? Il cibo che mangiamo ci fornisce i nutrienti, le vitamine necessarie, e quindi energia per svolgere le attività quotidiane. Tuttavia, molte persone faticano a riprendere le attività lavorative, o addirittura a rimanere svegli dopo un pasto.

Vediamo di scoprire la scienza che si nasconde dietro questo fenomeno, e di sfatarne alcuni falsi miti.

Di cosa si tratta?

La sonnolenza post-prandiale, in gergo chiamata “food coma”, è lo stato di sonnolenza, mancanza di energie che si avverte dopo un pasto abbondante.

Sfatiamo i falsi miti

L’opinione comune più ricorrente, diffusa per spiegare il “food coma”, attribuisce la ragione della sonnolenza post-pasto alla migrazione del sangue dal cervello verso gli organi coinvolti nella digestione; numerosi studi hanno dimostrato invece come l’apporto di sangue ai vari organi sia altamente regolato e non modificato dall’ingestione di cibo. Particolarmente significativo è stato uno studio condotto nel 2003 da ricercatori tedeschi, i quali hanno analizzato il flusso sanguigno di 20 uomini dopo un pasto pesante, e hanno dimostrato che il volume di sangue che raggiungeva il cervello non subiva cambiamenti.

Un’altra opinione diventata popolare correla l’induzione del “food coma” all’ingestione del tacchino, simbolo immancabile sulle tavole del Nord America nel giorno del Ringraziamento. La carne di tacchino è ricca dell’aminoacido triptofano, il quale superando la barriera encefalica è convertito in serotonina, un ormone coinvolto anche nell’induzione del sonno. In realtà, è stato dimostrato che il contenuto di triptofano nel tacchino è paragonabile al contenuto presente negli altri tipi di carne(pollo, manzo) e che la quantità di questo aminoacido riversato nel sangue in seguito ad un pasto a base di tacchino non è sufficiente a indurre sonnolenza.

Le reali cause

La causa principale di questo fenomeno è da attribuirsi all’attivazione del sistema nervoso parasimpatico: l’arrivo del cibo nello stomaco e nell’intestino ne incrementa l’attività. Chiamato anche in termini anglosassoni ‘rest and digest’ (riposo e digestione), il sistema nervoso parasimpatico, è la componente del sistema nervoso autonomo che stimola la quiete, il rilassamento, il riposo, la digestione e l’immagazzinamento di energie. Esso si contrappone alla sistema nervoso simpatico, chiamato ‘fight or flight’ (combatti o fuggi), il quale favorisce l’eccitazione e l’attività fisica.

Una seconda spiegazione del food coma richiama in causa l’aminoacido triptofano sopracitato, ma ciò che si è scoperto è che la motivazione della sonnolenza è correlata all’ingestione dei carboidrati più che delle proteine. Infatti, un pasto a base di alimenti aventi un alto indice glicemico comporta un elevato rilascio di zucchero nel sangue, necessario per la produzione di energia. Parallelamente al rilascio dello zucchero, nel sangue viene riversato anche l’ormone insulina, il quale promuove l’assorbimento e l’utilizzo dello zucchero dopo un pasto. L’insulina stimola inoltre l’assorbimento di numerosi aminoacidi, ma non del triptofano: non avendo più competitori (gli altri aminoacidi) esso riesce ad attraversare con maggiore facilità la barriera encefalica. Il triptofano è il precursore della serotonina, la quale viene convertita nell’ormone melatonina. L’incremento dei livelli di serotonina e melatonina nel cervello causa l’aumento di sonnolenza; la melatonina infatti, sintetizzata dalla ghiandola pineale, agisce sull’ipotalamo e regola il ciclo sonno-veglia.

L’aumento di insulina può causare sonnolenza anche attraverso un altro meccanismo: essa incrementa l’attività della pompa Sodio-Potassio (Na/K ATPase), più potassio proveniente dal fluido extracellulare entra all’interno della cellula, portando all’ipopotassemia(carenza di potassio nel sangue). Possibili effetti della ipopotassemia sono la sonnolenza e la fatica, effetti che emergono nel food coma.

Come evitare il food coma?

Alla luce dei processi biologici che si celano dietro a questo comune e fastidioso fenomeno, possiamo adottare alcuni accorgimenti per evitarlo:

1. mangiare con calma, permettendo l’aumento dell’ormone leptina (coinvolto nell’induzione del senso di sazietà) e la diminuzione dell’ormone grelina (coinvolto nella stimolazione del senso di appetito);

2. consumare pasti bilanciati, apportando la corretta quantità dei diversi macronutrienti (carboidrati, lipidi e proteine), di vitamine e minerali;

3. dopo un abbondante pasto è bene svolgere attività moderate, come una passeggiata leggera, in modo da promuovere un miglior controllo dello zucchero nel sangue.

Per i più golosi non sarà facile ma il rimedio più efficace è: non mangiare troppo!

Buon rientro dalle feste a tutti e buon appetito!

 

Giorgia Tosoni

 

Fonti:

 

Articolo pubblicato su L’Adige il 07/01/2016

Posted on

Sentiamo parlare di…DNA!

Sentiamo parlare di…DNA!

«LeBron è un campione assoluto, ha un talento innato…ha il basket nel DNA!».

Quante volte ci è capitato di esprimere così la nostra incredulità di fronte ad un talento naturale? Avete mai pensato al motivo per cui ci riferiamo al DNA come qualcosa che possa dire quasi tutto di noi? Non avremo geni per il basket, per il violino o per la matematica, ma sicuramente il nostro DNA è ciò che ci permette di esistere, contenendo le informazioni necessarie per la vita. In questo blog abbiamo già parlato di questa molecola, senza mai però soffermarcisi veramente.

Insomma non vogliamo essere noiosi e ripetitivi, ma il DNA è così importante che ci permettiamo di ripeterne il significato. E poi, «Repetita iuvant». Continua così anche con questo articolo, il nostro interesse a dare un «volto» alle parole biologiche che usiamo nella vita di tutti i giorni.

A partire dall’identificazione di una molecola acida nel sebo dei soldati da parte di Friedrich Miescher, fino a giungere alla scoperta della sua struttura grazie ai premi nobel James Watson e Francis Crick (ed all’importantissimo aiuto di Rosalind Franklin), passando per la prova definitiva che fosse il materiale genetico (esperimenti di Hershey e Chase), il DNA ha sempre suscitato un fortissimo interesse da parte degli scienziati.

Il percorso che ne portò alla scoperta è molto lungo e coinvolge molti altri nomi illustri. Tutt’ora possiamo dire che lo studio del DNA è un ramo fondamentale della biologia molecolare come dimostra il premio Nobel per la chimica 2015 conferito a Tomas Lindahl, Paul Modrich and Aziz Sancar. Un altro esempio è il tentativo di modificare questa molecola già a livello embrionale (vedi il nostro commento sul lavoro di Junjiu Huang). Perché, quindi, è così importante?
Partiamo innanzitutto con il descrivere la sua struttura. Il DNA è un acido desossiribonucleico (DeossiriboNucleic Acid) composto da una sequenza di quattro basi: adenina (A), timina (T), citosina (C) e guanina (G). La struttura si dispone come un doppio filamento che si avvolge su sé stesso formando la famosa doppia elica. Come potete vedere dall’immagine

gli appaiamenti possibili tra basi sono A:T e C:G. Il genoma umano, ovvero tutto il DNA presente all’interno di ogni nostra cellula, è composto da una sequenza di circa 3,2 miliardi di basi. Se distendessimo quello presente in una singola cellula arriveremo circa a tre metri. Le nostre cellule però non sono così grandi e infatti il DNA, sfruttando specifici meccanismi molecolari, riesce a compattarsi diminuendo il volume necessario a contenerlo.

Ciò che rende il DNA estremamente affascinante è la sua funzione. Dobbiamo pensare che questa molecola racchiude tutte le informazioni necessarie al corretto funzionamento dei nostri processi biologici. Provate per un attimo a fermarvi e a pensare a quanto sia incredibile questo fatto: una semplice sequenza di basi azotate permette la nostra vita. Certo, non è sufficiente, ma è estremamente necessario. Può sembrare banale ma in realtà è qualcosa di straordinario. E’ come se il DNA fosse un manuale di istruzioni. Ogni volta che la cellula deve “assemblare” una nuova molecola, ottiene le informazioni dal DNA e più precisamente dai geni, ovvero sequenze che codificano per una particolare molecola. Come queste informazioni vengano processate è tutta un’altra storia e magari ve ne parleremo in un altro articolo.

Purtroppo il DNA può essere danneggiato e le sue istruzioni possono essere cambiate: dalle radiazione UV, da agenti chimici esterni, dal fumo e anche da qualche errore durante la sua replicazione. Cosa succede se la sequenza non corrisponde più a quella originale? Anche l’informazione che ne deriva sarà errata e così si causano dei problemi. Se sul manuale di istruzioni c’è scritto di darvi una martellata sulla mano invece che sul chiodo non sarete di certo felici. Per fortuna la nostra cellula ha dei meccanismi di riparazione molto efficienti, ma sconsigliamo di metterli a dura prova!

Un altro aspetto molto interessante è la “conservazione” di molte informazioni in differenti specie. Vuol dire che alcuni geni, contenendo informazioni fondamentali e primarie, sono rimasti quasi del tutto invariati nel corso dell’evoluzione dei differenti organismi. È sorprendente infatti come circa il 98% del DNA di scimpanzè sia uguale al nostro o come il 75% dei geni del topo siano equivalenti a quelli umani. Forse lo è ancora di più se pensiamo al 60% di similarità con Drosophila Melanogaster, il moscerino della frutta. Mentre la similarità a livello di DNA garantisce anche una similarità a livello di molti meccanismi molecolari, non sempre è indice di uguaglianza dell’organismo. Questo succede perché l’informazione può essere processata ed utilizzata in maniera differente, con più o meno gradi di complessità.

Per concludere, sperando di avervi dato un’idea più chiara di cosa sia questa molecola, vorrei sfatare un piccolo mito. È vero che usiamo solo il 2% del nostro DNA? Assolutamente no! Il 2% è solo quello che viene utilizzato per creare le proteine, il cosiddetto DNA codificante. Ma una buona parte del genoma viene utilizzata per produrre  altre molecole, per regolare il suo stesso processamento e probabilmente per altri meccanismi che ancora devono essere scoperti. Bisogna dire però che tutt’oggi c’è un forte dibattito sul motivo della presenza di una parte del DNA che SEMBRA essere inutile. Chissà però cosa scopriremo negli anni a venire. Chissà quante sorprese ancora ci riserverà il DNA.

Alla prossima

Simone Detassis

 

Fonti:

 

Articolo pubblicato su L’Adige il 01/12/2015

Posted on

La carne lavorata causa il cancro?

La carne lavorata causa il cancro?

Alla fine del mese di ottobre, sulla maggior parte delle testate giornalistiche è comparso un titolo che lasciava senza fiato: la carne rossa e la carne lavorata causano il cancro.

Ma è davvero così? Tutto parte dall’agenzia internazionale per la ricerca sul cancro (IARC) che ha posto i due tipi di alimenti tra le sostanze che possono causare la comparsa di tumori negli esseri umani. C’è stata subito confusione generale, con commenti sulla vicenda vaghi e spesso contrastanti tra loro. Ciò ha portato ad allarmismi, principalmente dovuti ad un’interpretazione troppa superficiale della novità. Con questo articolo vorremmo aiutare voi lettori a contestualizzare questo delicato annuncio e fornire degli spunti per sviluppare un punto di vista più critico sulla vicenda.

LA NOTIZIA

Analizziamo quindi la questione partendo dall’inizio. L’Agenzia Internazionale per la Ricerca sul Cancro (IARC) di Lione, massima autorità in materia di studio degli agenti cancerogeni, facente parte dell’Organizzazione mondiale della Sanità (OMS), ha composto un team di 22 esperti di tumori e salute pubblica provenienti da 10 diversi paesi per revisionare decenni di ricerca relativa al legame tra carne rossa, carne processata, e cancro. Il gruppo di esperti ha considerato più di 800 studi sul cancro, compresi esperimenti su animali, studi sulla salute e sulla dieta umana, e studi su processi delle cellule che potrebbero spiegare come la carne rossa possa essere collegata alla comparsa di tumori.

Il 26 ottobre 2015 il gruppo ha pubblicato le conclusioni preliminari del loro studio sulla rinomata rivista scientifica The Lancet Oncology. Il team ha deciso di catalogare le carni rosse lavorate come cancerogeni certi, sulla base di sufficienti evidenze che le legano al tumore al colon-retto e, in maniera meno evidente, al tumore allo stomaco. La carne rossa, come manzo, maiale, vitello, è stata inserita nella lista dei probabili cancerogeniper l’uomo, in seguito ad una limitata evidenza di associazione tra il consumo di queste ultime e il tumore al colon, e in maniera meno evidente anche ai tumori di pancreas e prostata.

La ricerca su un possibile collegamento tra la dieta di carni rosse e cancro è stato soggetto di dibattito per decenni, ma con la conclusione che la carne processata e probabilmente anche la carne rossa causino cancro, il gruppo dell’OMS è andato oltre i tentativi di associazione riportati da altri gruppi in passato. Cerchiamo adesso di andare a contestualizzare le affermazioni di questo nuovo studio dello IARC.

Di quali carni stiamo parlando?
Per carni lavorate si intendono carni trattate per estendere la loro durata di conservazione o modificarne il gusto; i metodi più utilizzati comprendono salatura, stagionatura, affumicatura. Spesso la carne processata contiene maiale o manzo, ma può contenere anche altri carni rosse, pollame, frattaglie o sotto-prodotti come il sangue. Il fatto che la carne venga macinata non equivale a dire che sia processata, a meno che non venga poi ulteriormente modificata. Per carne rossa si intende tutta la carne di muscoli di mammifero, tra cui troviamo manzo, vitello, maiale, agnello, cavallo, e capra.

La carne rossa è stata inserita nei possibili cancerogeni per l’uomo, ma cosa significa questa affermazione?
Nel caso della carne rossa la classificazione è basata su una limitata evidenza scientifica derivante da studi che mostrano una associazione positiva tra il mangiare carne rossa e lo sviluppare cancro al colon. L’evidenza risulta limitata poiché è presente un’associazione positiva tra esposizione alla sostanza e lo sviluppo del cancro, ma al contempo non possono essere escluse altre possibili spiegazioni per i dati osservati.
In generale approfittiamo per ricordare che la correlazione tra due fenomeni, non implica necessariamente che essi siano legati da un rapporto di causa – effetto.

La carne lavorata è stata inserita nella lista delle sostanze cancerogene della IARC, cosa significa ciò?
La carne processata è stata inserita nel Gruppo 1 dei carcinogeni, ovvero classificata come appurata causa scatenante di cancro, lo stesso gruppo che include amianto, fumo e alcol, mentre la carne rossa è stata inserita nel Gruppo 2A delle probabili cause di cancro. Quando la IARC valuta la capacità di una determinata sostanza di indurre un particolare rischio di cancro, la inserisce in una determinata lista in base a quanto più è forte l’evidenza scientifica che quella sostanza causi il cancro nelle persone. Quando leggiamo che una sostanza è stata inserita in un elenco di agenti cancerogeni non bisogna cedere subito ad allarmismi, ma è importante ricordare che questi gruppi identificano è evidente per la IARC che un determinato tipo di agente sia in grado di causare cancro, non l’entità di induzione di tumori maligni.

Dobbiamo valutare i margini di rischio nella realtà quotidiana, considerando anche quali siano i dosaggi e la durata dei consumi oltre i quali il rischio diventa reale e non solo teorico, senza contare anche la predisposizione individuale ai tumori dovuta a molti altri fattori. Non tutte le sostanze sono associate all’induzione di cancro nello stesso modo.

Quanto è sicura la IARC della certezza delle sue affermazioni sulla cancerogenicità della carne lavorata?
Le conclusioni del team sono basate principalmente su studi epidemiologici che collegano cosa le persone mangiano ai tumori che successivamente sviluppano. Questo tipo di studi spesso non può provare un collegamento causa-effetto tra le due cose, ma il team di IARC ha affermato che l’evidenza della cancerogenicità della carne lavorata è forte tanto quanto quella del fumo e dell’amianto.

La carne lavorata è stata inserita nella lista dei cancerogeni insieme a fumo e alcol, è quindi pericolosa allo stesso modo?
Le carni processate sono state inserite nel gruppo di cancerogeni certi insieme ad alcol, amianto e fumo di tabacco, ma l’appartenenza alla stessa categoria non significa che siano tutti ugualmente pericolosi. L’evidenza scientifica che la carne processata causi il cancro è tanto forte quanto quella relativa al fumo di tabacco, ma il rischio derivante dal fumo è molto più alto. Per farci un’idea dell’entità del pericolo di queste sostanze possiamo osservare le valutazioni più recenti del Global Burden of Disease Project, un’organizzazione accademica indipendente di ricerca, che indicano il numero di vittime ogni anno nel mondo dovute a cancro indotto da un determinato agente.

Secondo le stime, fino a 34.000 morti per cancro potrebbero essere dovute a diete ricche di carni processate, mentre altre 50.000 vittime potrebbero essere legate ad una dieta ricca di carni rosse: a questo dato si oppongono le stime di 1.000.000 di vittime legate al fumo di tabacco, 600.000 al consumo di alcol, e più di 200.000 all’inquinamento ambientale.

Le stime di rischio nominate dai giornali sono molto alte, devo spaventarmi?
Il report di IARC afferma che chi mangia 50 grammi di carne processata al giorno in più rispetto a chi mangia una dose minore della media presenta una rischio del 17% maggiore di sviluppare cancro al colon. Questa percentuale sembra un numero molto elevato, ma si tratta di un rischio relativo. Un esempio con numeri inventati può aiutarci a rendere più chiaro il concetto: se su 1000 persone con dieta povera di carne 100 sviluppano un tumore, su 1000 persone con dieta ricca di carne 117 sviluppano tumore. Da un punto di vista globale dei consumatori di carne lavorata, l’impatto generale dell’incidenza di tumori è notevole e può essere considerato un problema di saluta pubblica. Per quanto riguarda il singolo individuo il rischio assoluto di sviluppare cancro al colon-retto a causa del consumo di carne processata rimane basso, ma aumenta insieme alla quantità di carne consumata.

Come è possibile che la carne rossa causi il cancro? Si conoscono le cause?
Riguardo alla dinamica di come la carne rossa e lavorata causino il cancro, il team di IARC nomina come principale fonte di rischio alcune sostanze chimiche prodotte o utilizzate durante la lavorazione della carne, anche se il loro ruolo nella nascita di tumori non è ancora stato completamente chiarito. Per esempio l’aggiunta di determinate sostanze per la conservazione o la cottura ad alte temperature durante l’affumicatura può portare alla formazione di prodotti di combustione cancerogeni. In generale, la preoccupazione relativa alle carni rosse ha più a che fare con la cottura che con il trattamento. A dispetto di ciò che si possa pensare, la questione non riguarda la qualità della carne o la sua provenienza. Le prove finora suggeriscono che sono la lavorazione della carne e le sostanze chimiche naturalmente presenti in essa ad aumentare il rischio di insorgenza di cancro al colon.

Il metodo con il quale viene cucinata la carne influisce sul rischio? Ci sono metodi più o meno sicuri?
Il team IARC non ha potuto concludere se il metodo di cottura della carne influisca sul rischio di cancro. È comunque sconsigliato cuocere ad alte temperature o con la carne a diretto contatto con fiamma o superficie rovente, come nel barbecue, in quanto è più facile generare prodotti chimici pericolosi.

Alla luce di queste notizie, devo modificare la mia dieta?
Sarebbe esagerato reagire a questa vicenda eliminando del tutto carne rossa e processata dalla propria dieta, in quanto essa contiene comunque importanti nutrienti per l’organismo, come proteine, ferro, zinco, e vitamina B12. Le ultime linee guida della American Cancer Society enfatizzano comunque la scelta di pesce, pollo e fagioli, come alternative alla carne rossa, e incentivano i consumatori di quest’ultima a preferire tagli più magri e porzioni più piccole. Riguardo a un possibile approccio per ridurre il rischio di cancro al colon retto sono presentate diverse possibilità. Si consiglia alle persone una dieta ricca di fibre con frutti e vegetali, insieme a svolgere attività fisica e limitare il consumo di alcol. Al contrario obesità, fumo ed elevato consumo di alcol aumentano il rischio di cancro al colon-retto.

Quello che è importante ricordare è che mangiare regolarmente grandi quantità di carne processata e rossa, sul lungo periodo, probabilmente non è il migliore approccio per vivere una vita lunga e sana. La carne fa bene se il suo consumo è moderato, l’importante è usare il buonsenso non mangiandone troppa e troppo spesso.

Ma quale è quindi la quantità ideale di carne da assumere?
Per il team di IARC le evidenze finora ottenute non permettono di definire una dose di carne consigliata; quello che finora si può dire è che minore è il consumo e minore è il rischio.

Dovremmo smettere di mangiare carne e diventare tutti vegetariani?
Le diete vegetariane e quelle che includono carne hanno entrambe i loro vantaggi e svantaggi, ma questo studio di IARC non ha confrontato direttamente i rischi alla salute di questi due gruppi di persone. Il confronto è difficile da fare in quanto queste due categorie sono diverse tra loro non solo per il consumo di carne, ma per molti altri fattori.

CONCLUDENDO…

Per terminare questa nostra discussione, vorremmo chiarire alcuni ultimi punti.
e conclusioni preliminari di questo studio verranno integrate dalla pubblicazione dell’articolo con le conclusioni definitive, nel corso del 2016. Con questo articolo non vogliamo smentire che la carne rossa e quella lavorata siano collegate a maggiore incidenza di tumori, i dati sembrano essere molto chiari a riguardo. Il nostro obbiettivo è stimolare nelle persone una visione critica degli eventi, invitando a considerare e approfondire i vari aspetti di una questione prima di cedere a inutili e pericolosi allarmismi.

Molte informazioni di questo articolo sono state ricavate dal bollettino contenente una serie di domande e risposte sulla vicenda, emesso dalla IARC stessa in seguito alla confusione mediatica successiva alla diffusione della notizia. Chi non ha problemi con l’inglese lo può consultare qui di seguito. Alla prossima!

Michele Cornella

 

FONTI

 

Articolo pubblicato su L’Adige il 09/11/2015

Posted on

Sentiamo parlare di…Alcol!

Sentiamo parlare di…Alcol!

Se state leggendo questo articolo sarete senz’ombra di dubbio interessati agli effetti dell’alcol (etanolo per i puristi della chimica) o li avrete già sperimentati in prima persona: iniziale euforia, aumento della disinibizione, perdita di equilibrio, parlata impacciata, amnesia e sintomi variabili… Che cosa, in realtà,  causa tutto ciò? Cosa provoca l’alcol etilico all’interno del nostro corpo? Come da obiettivo di questa rubrica vedremo dunque di dare una visione maggiormente scientifica del fenomeno.

L’alcol, in genere, approda all’interno dell’organismo attraverso l’assunzione di bevande che lo contengono. Arrivato nello stomaco e successivamente nell’intestino, viene assorbito dai numerosi capillari intestinali che lo riversano nel circolo sanguigno. Una volta in circolo, l’alcol ha modo di raggiungere ogni nostro organo e in particolare il sistema nervoso centrale nelle sue varie parti (fra cui il cervello). In questa sede ogni piccola molecola d’alcol interferisce con la regolare attività neuronale, comportando come primo effetto il rilascio dell’ormone dopamina, il quale provoca l’iniziale stato di eccitamento generale. A questo seguono, quasi contemporaneamente, quelli che sono gli effetti «tangibili» dell’assunzione di etanolo, ossia quelli legati alle percezioni sensoriali. Come si può immaginare, lo stimolo ormonale alle aree cerebrali deputate alla percezione provoca, in breve, un restringimento del campo visivo, un’errata percezione binoculare, perdita di riflessi e capacità di giudizio. In concentrazioni elevate, come noto, porta a perdita di coscienza e nei casi peggiori coma etilico. Sorprendente, non trovate?

Si può facilmente capire che il nostro corpo non veda in modo positivo l’assunzione di questa sostanza, della quale è in grado di sbarazzarsi attraverso due metodi: il primo e sicuramente più «scenografico» è l’espulsione dallo stomaco, prima che ulteriore alcol entri in circolo, tramite conati di vomito; il secondo percorso prevede la graduale depurazione del sangue per azione del fegato, nel quale l’etanolo viene trasformato in derivati per poter essere espulso dal corpo tramite l’urina. Il nostro organismo, infatti, metabolizza circa 1 grammo di alcol all’ora per ogni 10 kg di peso: attraverso un rapido conto si può stimare all’incirca di 6/7 grammi la quantità di alcol che il nostro corpo è mediamente in grado di metabolizzare in un’ora [circa la metà di un’unità alcolica. Un’unità alcolica corrisponde a 12 grammi di alcol puro ed equivale a un bicchiere di vino (125 ml a 12°), una lattina di birra (330 ml a 4,5°), un aperitivo (80 ml a 38°) o un bicchierino di superalcolico (40 ml a 40°)]. A tal fine è importante dunque conoscere il significato della gradazione alcolica percentuale (riportata sull’etichetta di un qualsiasi alcolico), 4ossia il numero di parti (in volume) di alcol puro alla temperatura di 20 °C contenute in 100 parti in volume del prodotto considerato alla stessa temperatura.

È lecito a questo punto chiedersi se esistano altri impieghi dell’etanolo. Ovviamente la risposta è sì. Paradossalmente l’impiego industriale che viene fatto di tale sostanza, previo trattamento con sostanze denaturanti che ne impediscono l’uso alimentare, spesso risulta essere il meno conosciuto. Pensiamo ad esempio alle note proprietà medicamentose e disinfettanti a livello farmaceutico; oltre a ciò possiamo trovare utilizzi dell’etanolo nella cosmetica e nell’industria chimica come solvente e detergente. Questi campi risultano spesso essere poco considerati dal momento che, francamente, il fatturato dell’industria alimentare in materia di bevande alcoliche rimane il punto chiave della questione …

Nella speranza di essere stati brevi e illuminanti, vi invitiamo sempre e comunque a leggere ed informarvi su qualsiasi argomento scientifico desti la vostra attenzione (non tutte le fonti sono attendibili!). In ogni caso, niente panico, non sarà di certo una birra con gli amici a rovinarvi… La parola chiave in questi casi è «moderazione»!

Non da ultimo, mercoledì 28 ottobre, a partire dalle 17.30 fino alle 20.00, vi attendiamo numerosi alla serata «Cocktail Molecolari» organizzata da O.W.L in collaborazione con l’associazione «A.P.S Tutti Frutti» presso la sala circoscrizionale di Povo, per una sensibilizzazione alternativa e divertente contro l’abuso di alcol!

 

Filippo Manzini, Nìcola Sekularac

 

Articolo pubblicato su L’Adige il 28/10/2015

Posted on

Sentiamo parlare di…Vita!

Sentiamo parlare di…Vita!

Cos’è la Vita?

Dunque: Vita. Non è facile darne una definizione… per citare il telefilm Kyle XY: «nonostante tutti gli anni di ricerca, più cerchiamo di trovare una definizione per noi stessi, più affoghiamo nella nostra stessa confusione». Perché citare un telefilm del 2006 quando dovrei parlare del concetto biologico di Vita? Perché centra il problema alla perfezione: non siamo ancora in grado di dare una definizione rigorosa di Vita.

Quando non siamo in grado di definire qualcosa, in genere ci accontentiamo di descriverla. In altre parole… cosa caratterizza gli organismi viventi? Ecco alcune parole chiave: omeostasimetabolismocrescitaadattamento e riproduzione. Grandi paroloni che, in breve, indicano la capacità di mantenere costanti le proprie caratteristiche interne (temperatura, concentrazione di sali…),  di assorbire nutrienti dall’esterno ed utilizzarli sia come fonte di energia sia come materiale per la produzione di sostanze necessarie, di adattarsi all’ambiente e di rispondere a stimoli esterni.

Ma anche con questa elenco di caratteristiche, un po’ di confusione rimane. I virus, ad esempio, sono in grado di riprodursi solo all’interno di una cellula (sono dei parassiti obbligati delle cellule): quindi sono vivi solo quando infettano una cellula? Se un organismo è sterile, ovvero non è in grado di riprodursi, allora non è vivo? Inoltre, le stelle sembrano adattarsi perfettamente a questa descrizione…

Per risolvere – per il momento – questo problema, in biologia definiamo la Vita come tutto ciò che è formato da cellule (più i virus). Senza entrare troppo nel dettaglio della teoria cellulare, ci basti sapere che una cellula:

  • è racchiusa da una membrana di lipidi (grassi);
  • mantiene le proprie informazioni negli acidi nucleici (DNA ed RNA);
  • utilizza le proteine come elementi strutturali e funzionali;
  • può utilizzare zuccheri, grassi, proteine e acidi nucleici come fonte di energia;
  • e, ultima ma non per importanza, è l’unita fondamentale di ogni essere vivente (a parte i virus, e scusate la tautologia).

Notizie recenti dal mondo della Scienza

Il 28 settembre 2015 la National Aeronautics and Space Administration (NASA) fornito le evidenze scientifiche necessarie a confermare un’ipotesi di qualche anno fa, sulla superficie del pianeta Marte è presente acqua liquida (Science 2011, NASA conference).

Questa notizia ha suscitato scalpore ed è stata rimbalzata dai mass media, per quale motivo? Perché sul nostro pianeta l’acqua è presente in grandi quantità in forma liquida, e proprio in questo stato può potenzialmente fungere da ‘culla della vita’. Non c’è da stupirsi che, al pensiero di trovare vita su un altro pianeta, ci facciamo prendere dall’eccitazione!

Citando lo stesso articolo di Nature… Il poeta americano Ralph Waldo disse: «La Natura è un’infinita combinazione e ripetizione di pochissime leggi. Canticchia sempre il solito motivetto, ma con innumerevoli variazioni». Ebbene: sull’ultimo numero della rivista scientifica Nature (Vol. 526, 1 ottobre 2015) è stato pubblicato l’articolo che segna il completamento del 1000 Genome Project. Questo progetto durato 25 anni ha sequenziato il DNA di centinaia di individui per meglio comprendere queste variazioni. In futuro, l’obiettivo è di utilizzare questi dati in modo rilevante a livello medico: il campo della medicina personalizzata è infatti in rapida espansione.

Le recenti novità dal mondo della Scienza sono moltissime: laboratori cinesi che mettono in vendita come animali domestici dei micro-maialigeneticamente modificati (Nature), passi avanti nel campo del gene editing con CRISPR (Nature), tentativi di coordinamento tra diversi progetti a livello planetario per comprendere meglio il funzionamento del cervelloumano (Science), grandi discussioni sul concetto di interdisciplinarietà, sullo studio delle materie scientifiche tra i banchi di scuola, e tanto altro ancora…

…ma questo è solo un articolo introduttivo, un’apertura di stagione che spero abbia stuzzicato la vostra curiosità lasciandovi affamati. Una fame che potrete saziare leggendo i nostri prossimi articoli. Infatti quest’anno non solo cercheremo di tenervi aggiornati sulle novità scientifiche, ma avvieremo anche una rubrica (iniziata oggi) dove parleremo di termini usati nella vita di tutti i giorni ma di cui, forse, non sappiamo veramente il significato.

Gabriele Girelli

 

Articolo pubblicato su L’Adige il 06/10/2015

Posted on

Do It Yourself Biology

Do It Yourself Biology

Open Wet Lab è un’associazione di giovani con un obiettivo preciso: portare la scienza nelle vostre case, nel vostro quotidiano. Open Wet Lab infatti è un laboratorio, uno spazio in cui sperimentare per capire, mettendo in pratica la teoria. Cosa si sperimenta in questo laboratorio? Tutto ciò che è scientifico!

Proprio tutto tutto? In realtà la parola “wet”, dall’inglese ‘bagnato’, indica un laboratorio di biologia. La nostra filosofia è quella della “Do It Yourself Biology”, la biologia “fai-da-te”, un movimento con lo scopo di dimostrare come le scienze biologiche siano utilizzabili nel quotidiano, senza troppe difficoltà.

Vogliamo condividere con voi il nostro entusiasmo e la nostra passione per la Scienza, un meraviglioso strumento che ci permette di capire il mondo in cui viviamo. Proprio per questo il nostro laboratorio di biologia fai-da-te è ‘open’, ovvero ‘aperto’ a tutti, nessuno escluso.

Open Wet Lab vuole sì farvi mettere “le mani in pasta”, ma anche aiutarvi a diventare cittadini consapevoli. Per questo motivo, la divulgazione scientifica è tra le nostre priorità. Organizziamo interventi presso scuole medie e superiori, conferenze aperte al pubblico e scriviamo articoli di interesse scientifico fruibili dai non addetti al settore. Da oggi, scriviamo anche in questo blog.

Si dice che il nuovo Millennio sia il Millennio delle Scienze Biologiche, e con l’avanzare delle nostre conoscenze in questo campo dovremo compiere delle scelte. Per essere cittadini consapevoli, dovremo interessarci a questioni di attualità che ci toccano nel quotidiano. In questo blog parleremo anche di questi argomenti, con la speranza di aprire con voi una discussione per sviluppare insieme un sano spirito critico nei confronti di ciò che leggiamo. Con spirito critico intendiamo il non accettare come verità tutto ciò che leggiamo o sentiamo, ma valutare e soppesare le opinioni altrui per giungere a formare la propria opinione.

Ora che ci siamo presentanti, vogliamo invitarvi ad una breve riflessione. Cerchiamo insieme di capire “cos’è la Scienza”. In altre parole parliamo di…
“Scienza Buona” e “Scienza Cattiva”

Con la parola ‘scienza’ indichiamo un metodo ben preciso con cui studiare la natura in tutti i suoi aspetti: l’origine della vita, le cure per il cancro, perché il nostro corpo ha bisogno di dormire, cosa sono i colori, e tanto altro ancora… Più cose scopriamo del mondo attorno a noi, più ci rendiamo conto di quanto poco sappiamo. Forse è proprio grazie a questo alone di mistero che la Scienza affascina e cattura molte persone: essa è uno strumento con cui possiamo sbirciare attraverso il velo, per comprendere i fini meccanismi che regolano le nostre vite.

Ma forse allora vi domanderete: questo cosa centra con Scienza Buona e Cattiva? E’ presto detto. La Scienza Buona si basa su principi saldi per evitare il fenomenismo, basando così la nostra comprensione del mondo su dati oggettivi e quindi non soggettivi. Già qualche secolo avanti Cristo, nel suo dialogo “Teeteto”, Platone discute su come il vento possa essere percepito come caldo o freddo da persone diverse. Questa percezione soggettiva è sì vera, ma non rappresenta una conoscenza applicabile a tutti gli individui. Per questo la temperatura viene misurata con strumenti appositi (ad esempio il termometro) che restituiscono un valore numerico oggettivo, quindi comprensibile da tutti.

In tutto questo, la Buona Scienza si basa sul cosiddetto principio di falsificazione: una cosa è vera finché non viene dimostrato il contrario, appunto, finché non viene falsificata. La scienza quindi non può stagnare in credenze errate ma evolve e si migliora utilizzando l’auto-critica come strumento di crescita. Talvolta questi cambiamenti, questa crescita, non avvengono con facilità, ma non è possibile impedirli. Del resto questa non è follia, questa è Scienza.

Ma allora la Scienza è una dittatura in cui la verità è decisa da pochi eletti? La risposta è ovviamente no. La Buona Scienza non possiede la verità, ma la insegue cercando nella razionalità e nei fatti concreti i mezzi necessari. Ed è proprio così che la comunità scientifica internazionale, composta da un numero enorme di individui, studia il mondo per migliorare il nostro stile di vita e diminuirne nel contempo l’impatto sull’ambiente.

La Cattiva Scienza, invece, è l’opposto. La Cattiva Scienza è folle e scredita chi predica razionalità. Essa fonda le proprie teorie su emozioni soggettive e su luoghi comuni – spesso falsi e infondati. Questa scienza blasfema culmina troppo spesso in singolari personaggi che propongono teorie astruse e stramplate, spacciate per miracolose e semplici ma ostacolate spesso solo per secondi fini. Questi cialtroni si basano su esperimenti errati o inesistenti e, purtroppo, nel nostro Paese ne abbiamo avuto vari esempi anche recentemente.

Per questi motivi, in questo blog non vi offriremo la nostra verità. Cercheremo di tenere per noi le nostre opinioni. Open Wet Lab, cercherà di fornirvi gli strumenti per analizzare con sguardo critico le informazioni che la scienza offre nella vita di tutti i giorni. Ci impegneremo a rendere chiari argomenti generalmente poco comprensibili, e inseriremo ogni notizia nel suo contesto.

Speriamo che questo percorso, che faremo assieme, ci porti a discutere di Scienza in maniera sana, razionale e costruttiva, dove ognuno di noi potrà avere la sua opinione, purché sia supportata dai presupposti che vi abbiamo introdotto: un’opinione consapevole. Insomma, faremo della Buona Scienza.

Alla prossima

Simone Detassis
Gabriele Girelli

 

Vedi articolo originale

Posted on

Il Brexit contro la Scienza, la Scienza contro il Brexit

Il Brexit contro la Scienza, la Scienza contro il Brexit

Tutti ci siamo svegliati più o meno scossi il 24 giugno quando abbiamo saputo che il 51,9% dei cittadini britannici ha votato per lasciare l’Unione Europea, una decisione che inevitabilmente influenzerà il futuro di tutti gli stati membri dell’UE e dei loro cittadini. Anche in ambiti inaspettati, come, per dirne uno, la salute pubblica.

La salute prima di tutto, in Italia come in Regno Unito. Su questa priorità ha fatto leva la campagna del «Leave», promettendo massicci finanziamenti al sistema sanitario nazionale con i soldi prima destinati alle istituzioni comunitarie. Scenario che si è prevedibilmente già rivelato totalmente irrealizzabile. Anzi, i pazienti inglesi, magari proprio quelli che hanno votato «Leave» aggrappati a questa speranza, potrebbero ritrovarsi in fondo alla fila per l’accesso a nuovi farmaci.

Infatti all’indomani del Brexit, tra i primi a preoccuparsi c’è stata la European Medicines Agency (EMA), l’Agenzia Europea per i Medicinali. Questo organo comunitario si occupa della valutazione scientifica, della supervisione e del monitoraggio della sicurezza dei medicinali prodotti dalle case farmaceutiche per la vendita nell’UE. Ha scopo di ridurre i costi e i tempi per le approvazioni di nuovi farmaci, per esempio fornendo una «corsia preferenziale» per accelerare la commercializzazione di quei farmaci per la cura di malattie ancora senza una terapia standard. Inoltre evita che lo sviluppo in campo farmaceutico sia mosso dagli interessi economici dei singoli stati – ad esempio senza la EMA l’Italia sarebbe in grado di bloccare un farmaco prodotto in Francia, nonostante questo sia più efficace oppure più economico di un medicinale nostrano.

Cosa c’entra la EMA con il Brexit? Questo organo ha attualmente sede a Londra ed è probabile che dovrà essere spostato – con più di 600 lavoratori a tempo pieno – in una città veramente europea. Oltre alle difficoltà logistiche, la EMA non potrà più contare sulla stretta e vantaggiosa collaborazione con la Medicines & Healthcare products Regulatory Agency, ovvero l’agenzia britannica per la regolamentazione dei farmaci. Bloccare questo consolidato scambio di competenze avrà delle conseguenze sulla qualità del lavoro svolto dall’EMA.

Questo è solo un esempio delle ripercussioni che il Brexit avrà sul mondo della ricerca e della scienza in Europa.
La comunità scientifica britannica è notoriamente tra le più influenti, vivaci e produttive al mondo. La qualità della ricerca e il numero di pubblicazioni non sono necessariamente connesse, ma che il 16% degli articoli scientifici ad alto impatto venga da laboratori britannici la dice lunga in termini di eccellenza. Un panorama tanto virtuoso ha davvero bisogno dell’UE?

Guardando all’ultimo programma quadro per la ricerca concluso nel 2013, il Regno Unito si è aggiudicato in assegni di ricerca circa 7 dei 40,5 miliardi di euro destinati a tutti e 28 i paesi membri.
In effetti è difficile pensare alla scienza in Europa senza l’UE. La Commissione Europea sostiene e finanzia una larga fetta della ricerca che avviene nei suoi stati membri – l’attuale programma Horizon 2020 mette a disposizione circa 74.8 miliardi di euro. Tanti soldi sono distribuiti anzitutto in base al merito, motivo principale per cui gli inglesi se ne accaparrano tanti. Inoltre sono tendenzialmente orientati alla promozione della mobilità, della sinergia, dello scambio di capacità e cervelli, insomma tutte quelle cose che fanno bene a quella che non a caso di chiama comunità scientifica. In testa su questo fronte sono il programma Erasmus+ – a cui partecipano circa 15000 tra studenti e insegnanti britannici ogni anno – e le azioni Marie Skolodowska Curie, il suo equivalente rivolto al mondo dei dottorandi e dei ricercatori –  che ogni anno portano circa 3500 ricercatori britannici a spostarsi in Europa e 8000 europei in Regno Unito. Inoltre la Comunità Europea, ed in particolare l’European Research Council, sembra essere uno dei pochi finanziatori interessati a progetti di ricerca di base a basso impatto o dalle ridotte prospettive pratiche – figuriamoci economiche – che sono molto spesso la vera culla delle grandi innovazioni.

Il Regno Unito potrà continuare ad essere parte di tutto ciò? Non esistono precedenti, essendo il primo stato in assoluto che chiede di uscire dall’UE. Se verranno attuate le politiche di restrizione alla libera circolazione che i Brexiters auspicano, lo UK si troverà in una situazione analoga a quella della Svizzera: nel 2014, con un referendum, gli svizzeri hanno votato per limitare la libera circolazione delle persone, per spinte anti-immigrazione simili a quelle che hanno mosso il “Leave”. Se prima la Svizzera partecipava ai progetti europei e beneficiava dei suoi fondi, all’indomani del referendum i finanziamenti sono cessati e i laboratori svizzeri sono rimasti parzialmente coinvolti solo in pochi programmi. A due anni di distanza le trattative tra Svizzera ed Europa sono ancora in atto, ma la libera circolazione delle persone rimane un punto fermo imprescindibile per le istituzioni europee, tanto da far discutere al governo elvetico la possibilità di ripetere il referendum. A una chiusura delle frontiere britanniche corrisponderà la stessa “linea dura”?

Lo UK è sempre stato considerato la Terra Promessa per tutti i giovani scienziati d’Europa. Oggi chi è già là si preoccupa per le sue prospettive, chi ci voleva andare comincia a guardarsi intorno: tutto questo è molto triste.
E’ triste che una fucina di talenti e di innovazione possa ritrovarsi impoverita di persone, di diversità e di fondi. E’ triste che, se meno stati decidono cosa merita finanziamenti, alcuni ambiti rischino di essere pesantemente penalizzati: nella ricerca sulle cellule staminali embrionali, ad esempio, gli scienziati britannici sono da sempre in prima linea, con un sistema altamente controllato dalla Human Fertilisation and Embriology Authority, catalizzando gli sforzi da parte dei fondi internazionali, mentre molti altri stati UE – Italia compresa – ostacolano questo tipo di ricerca. E’ triste che le risorse potrebbero diminuire per tutti, perché, oltre ad essere beneficiario, il Regno Unito è anche tra i maggiori contribuenti ai fondi europei per la ricerca.
È davvero triste che la stragrande maggioranza della comunità scientifica si sia schierata decisamente contro il Brexit, con tanto di prove, analisi e statistiche, e che il 52% dei cittadini non le abbia dato retta.
È un vero peccato che nel 2016 ottusità e bigottismo tengano in scacco il progresso.

Emma Dann

FONTI:

 

 

Pubblicato su L’Adige il 06/07/2016

 

Posted on

CRISPR ci aiuterà a combattere il cancro?

CRISPR ci aiuterà a combattere il cancro?

Se siete tornati per leggere la nuova puntata su questa straordinaria scoperta che prende il nome di CRISPR, ben ritrovati!

Se invece è la prima volta che vi imbattete in questa parola, vi invitiamo a leggere le puntate precedenti, così da poter meglio comprendere i prossimi approfondimenti sull’argomento, ma non vi preoccupate, anche questo sarà alla vostra portata!

Ci eravamo lasciati con il racconto sulla scoperta di CRISPR, e ci si era ripromesso di incontrarci per parlare delle sue applicazioni, che comprendono i campi più disparati: dalla medicina alla produzione industriale, all’agricoltura. Ed in effetti questa era la nostra intenzione, ma la settimana scorsa è arrivata una notizia molto importante che ha stravolto i nostri programmi.

In verità, la novità non è del tutto estranea al tema previsto, si tratta infatti di un applicazione in campo medico di CRISPR. La sperimentazione di questa tecnica ha infatti ricevuto la prima approvazione per lo studio clinico da parte degli Istituti Nazionali di Sanità (NIH) statunitensi. È un passo molto importante perché significa che la tecnologia potrà essere testata e sperimentata per la cura di patologie nell’uomo, nello specifico del cancro.

Il tema del progetto è molto semplice: alcuni scienziati dell’Università della Pennsylvania, USA, cercheranno di utilizzare CRISPR per «insegnare» alle cellule del sistema immunitario come riconoscere e distruggere le cellule cancerose. Si tratteranno pazienti affetti da sarcoma (tumori del tessuto connettivo), mieloma (tumore alle cellule sanguigne) e melanoma (tumore alla pelle).

Questa applicazione, nel caso funzionasse, entrerà a far parte delle cosiddette immunoterapie, cioè di quei trattamenti destinati a migliorare la capacità delle cellule del sistema immunitario di attaccare le cellule tumorali. Questo genere di terapie, che cercheremo di trattare approfonditamente più avanti, sta riscuotendo grande successo in campo oncologico soprattutto per la loro grande efficacia, la cui somministrazione è però ancora poco estesa a causa dei costi elevati.

La sperimentazione si inserisce nella cosiddetta Fase 1 della ricerca per nuove terapie o farmaci. E’ opportuno ricordare che tutti i nuovi medicinali devono sottostare a rigide regole di controllo prima della loro commercializzazione, e quindi il loro utilizzo diffuso. Il procedimento adottato per lo sviluppo di un nuovo farmaco viene suddiviso generalmente in: Fase 1, Fase 2 e Fase 3.

La Fase 1 serve a misurare esclusivamente la «sicurezza» del nuovo composto, cioè la sua tossicità ed i suoi possibili effetti collaterali, nel breve e medio termine, generalmente su pazienti sani.

Il caso in questione è un po’ anomalo, in quanto CRISPR verrà comunque testato su pazienti oncologici terminali, ma l’oggetto di studio sarà in prima battuta la sua tossicità. Tuttavia, i pazienti potranno beneficiare di un eventuale effetto terapeutico, nel caso sorgesse. Solo con risultati sperimentali adeguati, il trattamento potrà procedere in Fase 2 e 3, dove appunto verrà testata la sua reale efficacia nel combattere la malattia.

In che costa consiste questa terapia?

Ripetiamo brevemente il suo meccanismo d’azione: CRISPR contiene le informazioni per indirizzare la proteina Cas a tagliare determinate regioni di interesse del DNA. Una volta effettuato il taglio, si potrà eventualmente inserire un gene di interesse, oppure lasciare che la cellula ripari il danno, rendendo così inattivata quella regione del DNA. Insomma, CRISPR può o disattivare un gene oppure creare le condizioni per aggiungerne uno nuovo. La sua potenza sta nell’enorme precisione con cui individua il sito di taglio, con un livello di accuratezza non paragonabile alle altre tecniche di ingegneria genetica.

Gli scienziati americani cercheranno, mediante CRISPR, di modificare le cellule linfocitarie (i globuli bianchi) dei pazienti affinché siano in grado di riconoscere e distruggere meglio le cellule tumorali.

Attraverso dei semplici prelievi di sangue, i globuli bianchi verranno filtrati e quindi sottoposti al trattamento di CRISPR. In seguito a controlli per testare la corretta riuscita dell’azione di CRISPR, i linfociti verranno re-infusi nel paziente, e si attenderà così la loro risposta anti-tumorale.

Nel caso di una corretta riuscita della terapia, già dopo pochi mesi si assisterebbe ad una importante regressione della massa tumorale, causata dai linfociti stessi del paziente, e quindi senza la somministrazione di chemioterapici o farmaci che causano purtroppo numerosi effetti collaterali.

Bisogna essere cauti, quelle riportate sono tutte previsioni, e ci vorrà tempo prima di poter osservare la loro realizzazione. Tuttavia, c’è grande entusiasmo nella comunità scientifica per questo tipo di sperimentazione, e più in generale per l’adozione di nuovi approcci biologici nella lotta contro il cancro.

Il via libera per lo studio clinico è arrivato a ridosso di un altro annuncio importante: il vicepresidente degli Stati Uniti, Joe Biden, ha da poco presentato alla nazione il cosiddetto «cancer moonshot», un’espressione che può essere tradotta più o meno come «la corsa alla luna nella lotta contro il cancro».

Il progetto è ambizioso, e consiste nell’investimento di una grande quantità di fondi pubblici per finanziare sperimentazioni cliniche che possano portare a fondamentali avanzamenti nella ricerca sul cancro. Negli ultimi anni vi sono stati numerosi miglioramenti nelle terapie oncologiche, ma il cancro rimane ancora una delle più importanti cause di morte al mondo, segno che la strada per una cura definitiva è ancora lunga.

CRISPR ci sorprenderà anche stavolta?

Giovanni Palla

FONTI:

http://www.lescienze.it/news/2016/06/23/news/crispr_terapia_genica_cancr…

http://www.lescienze.it/news/2016/05/24/news/cellule_tumorali_elusione_s…

http://www.lescienze.it/news/2014/11/27/news/cancro_anticorpi_posti_di_b…

http://www.who.int/mediacentre/factsheets/fs310/en/

 

Pubblicato su L’Adige il 28/06/2016

Posted on

Crispr, l’ultima parte della storia

Crispr, l’ultima parte della storia

Ben ritrovati, siamo di nuovo qui a raccontarvi di questa misteriosa ed intrigante scoperta, emersa dalle paludi salate spagnole, che si è guadagnata, in pochi anni, i titoli del New York Times. Ci eravamo lasciati con un passo importante: CRISPR sembra sia una sorta di vaccino per il battere, un sistema che ne conferisce l’immunità nei confronti delle infezioni virali. Questa immunità è acquisita con l’incorporazione del DNA del virus infettivo all’interno del genoma (il DNA) del battere, nelle cosiddette sequenze-spazio, in CRISPR.

Ma…come funziona? Dobbiamo spostarci a Wageningen, una piccola cittadina ad un’ora di treno da Amsterdam, sede di un centro di ricerca in ambito agrario tra i più importanti al mondo. Corre l’anno 2008, John Van der Oost è un ricercatore a tempo indeterminato che lavora ormai da una dozzina d’anni a Wageningen. I suoi studi si concentrano soprattutto sui batteri estremofili, cioè quelli in grado di vivere a temperature o condizioni saline estreme. Da qualche anno però è interessato al sistema CRISPR, ancora poco conosciuto ma sempre più interessante, e riesce così a veicolare un po’ dei suoi fondi per la caratterizzazione del suddetto. Egli scopre che le sequenze CRISPR hanno bisogno di alcuni enzimi specifici per poter agire, che chiameremo “Cas”. Questi enzimi fanno parte della classe delle “nucleasi”, parolone difficile per dire che sono in grado di tagliare il DNA.

Attenzione, stiamo giungendo ad una conclusione importante: CRISPR è un insieme di sequenze di DNA virale incastonato nel genoma batterico, e gli enzimi Cas sono in grado di tagliare il DNA. La domanda sorge spontanea: e se fossero proprio gli enzimi Cas che, guidati dalle sequenze-spazio di CRISPR, individuano il DNA del virus appena entrato nella cellula e lo tagliano, bloccando così l’infezione?

Van der Oost trova però solamente un’evidenza indiretta di questo meccanismo, ed è costretto a proporlo come “un’ipotesi” all’interno della della sua pubblicazione sul prestigioso giornale “Science”. Ripercorrendo la storia di questa scoperta ho trovato entusiasmante come ogni ritrovamento fosse sempre modulato dalla temperanza che pervade il mondo della ricerca scientifica, e che spesso non viene percepito dal pubblico, ma che ne è forse la virtù segreta più preziosa.

Poco tempo dopo un ricercatore italo-americano, Luciano Marraffini, riesce a dimostrare in maniera diretta il meccanismo di CRISPR ed è forse il primo a scoperchiare, con poche frasi a margine del suo articolo, il vaso di Pandora: “l’abilità di indirizzare il taglio specifico di una qualsiasi sequenza di DNA potrebbe riservare delle importanti funzionalità, se fosse utilizzabile al di fuori del suo contesto nativo”.

Un aneddoto che non vi abbiamo ancora svelato è che lo sviluppo della tecnologia CRISPR è una storia soprattutto al femminile. Sono state due donne le principali responsabili dello studio e della caratterizzazione del sistema affinché fosse utilizzabile in maniera razionale ed efficiente, in molti campi della biologia molecolare e della biomedicina. E’ arrivato il momento di chiamare in causa una delle due, Emmanuelle Charpentier.

Charpentier ha ottenuto il dottorato di ricerca in microbiologia presso l’Istituto Pasteur di Parigi, e si è sempre interessata all’RNA dei batteri. L’RNA è la copia speculare del DNA, una sorta di molecola traduttrice che viene letta dal ribosoma, affinchè quest’ultimo possa assemblare correttamente le proteine. Il suo laboratorio (presso l’Università di Umea, nel nord della Svezia) scopre che vi è un RNA specifico, contenuto in altissima concentrazione nel batterio durante l’infezione, in grado di accoppiare la sequenza-spazio con l’enzima Cas, affinché quest’ultimo venga guidato dalla sequenza-spazio medesima sul sito di taglio specifico. Questo RNA lo chiameremo “RNA guida”.

Ricapitoliamo, i tre fattori fondamentali per il sistema CRISPR sono: la sequenza-spazio, cioè l’indirizzo nel DNA dove deve avvenire il taglio, l’RNA guida, cioè la molecola che permette il riconoscimento tra la sequenza-spazio e l’enzima Cas, e appunto Cas, che effettuerà direttamente il taglio sul DNA bersaglio. L’RNA guida è la copia della sequenza-spazio, che guiderà CAS sul sito di taglio.

Nel 2011 Emmanuelle Charpentier incontra, sulle coste soleggiate di Puerto Rico, l’altra protagonista di questa storia: Jennifer Doudna. Jennifer è un’affermata ricercatrice che si occupa della struttura e funzione degli RNA in alcune specie batteriche, ed è stata ricercatrice nei laboratori di due premi Nobel, prima ad Harvard e poi a Boulder, Colorado, per poi stabilirsi definitivamente a Berkeley, California. Le due decidono di unire le proprie forze per caratterizzare e osservare la funzione del sistema CRISPR in provetta, cioè al di fuori di un organismo vivente. Assieme ai loro collaboratori, dimostrarono non soltanto la funzionalità ed efficienza del sistema, ma anche la possibilità di modificare l’RNA guida per poter così indirizzare il sito di taglio su qualsivoglia sequenza di DNA. La loro pubblicazione, apparsa su Science il 28 Giugno 2012, diventerà il lavoro più citato ed importante, segnando il preludio della tempesta che sconvolgerà il mondo scientifico (e non solo) negli anni a venire.

Anche un biochimico lituano, Virginijus Siksnys, dimostrerà la funzionalità delle singole componenti del sistema, ma poiché il suo articolo scientifico sarà pubblicato due mesi dopo, non riscuoterà lo stesso successo: la strada era già stata segnata. Dopo quella travolgente pubblicazione, migliaia di laboratori in tutto il mondo esploreranno l’utilità e l’efficienza di CRISPR, e le sue più svariate applicazioni, dall’ambito biomedico a quello agrario. La potenza, semplicità di utilizzo ed i suoi costi contenuti saranno determinanti per la sua diffusione, ed inizieranno a sollevare non poche preoccupazioni, costringendo l’opinione pubblica e le istituzioni a comprendere questa rivoluzionaria scoperta, e le sue ripercussioni sociali ed etiche.

Quando si parla di CRISPR, si citano spesso le parole “chirurgia genomica”. Questa tecnologia è infatti rivoluzionaria perché permette una precisione ed un’efficienza di taglio della sequenza di DNA impareggiabile.  L’ingegneria genetica in precedenza si serviva di complessi e disordinati meccanismi molecolari, che spesso si dimostravano inaffidabili, oltre ad essere estremamente costosi.

La tecnologia CRISPR da effettuare in lievito o batteri, costa soltanto 200 dollari. Chiaramente servono poi strutture e strumenti adeguati per poter realizzare gli esperimenti, ma questa cifra rende l’idea della sua semplicità. Anche la sua precisione è straordinaria, con CRISPR infatti si possono modificare singole lettere dell’alfabeto che compone il DNA, cioè le basi azotate. Questa accuratezza spalanca le porte della ricerca in terapia genica, cioè dello sviluppo di terapie con agenti biologici in grado di modificare direttamente il DNA delle cellule di pazienti portatori di malattie genetiche, come alcune malattie neurodegenerative, cardiovascolari o addiritura bloccare l’infezione del virus dell’AIDS. Potrebbe però potenzialmente essere utilizzata anche per modificare il genoma delle cellule della linea germinale, cioè spermatozoi e ovuli, così da rendere ereditaria la sua modifica, che verrà inevitabilmente trasmessa al nascituro. Sorgono così spontanei numerosi dubbi sulla possibilità di poter “ingegnerizzare il bambino perfetto”.

Anche per questa volta, lo spazio a nostra disposizione è terminato. Nelle prossime puntate cercheremo di raccontarvi più nel dettaglio qualche applicazione di questa tecnologia, e proveremo a portare alla vostra attenzione alcuni dubbi etici a riguardo.

CRISPR è, senza ombra di dubbio, la scoperta biologica più rivionaria del nuovo millennio, ed il suo impatto sulla società è ancora tutto da misurare. Il mondo scientifico solo recentemente sta scoprendo le sue potenzialità, e negli anni a venire ci sarà ancora molto di cui parlare.

Noi siamo felici di potervi raccontare, con chiarezza e semplicità, l’evolversi di questa storia, sperando di suscitare l’interesse di voi lettori verso la ricerca scientifica, il cui risultato spesso coinvolge la società più di quanto si possa immaginare.

Alla prossima!

Giovanni Palla

FONTI:

cell.com

Lescienze.com

 

Pubblicato su l’Adige il 16/06/2016

Posted on

Una rivoluzione partita dai microbi

Una rivoluzione partita dai microbi

La storia di CRISPR ha inizio nella prima metà degli anni ’90, sulla costa meridionale della Spagna.

Ci troviamo ad Alicante, una splendida cittadina della Costa Blanca, incastonata tra le pendici di un monte su cui sorge un castello eretto durante la dominazione cartaginese. L’ampia spiaggia sabbiosa, su cui si affaccia la città, attira numerosi turisti nella stagione estiva, che godono del clima e della varietà di stili architettonici della cittadina.
Storicamente Alicante è anche famosa per le sue saline, edificate sulle paludi di sale circostanti.

Francisco Mojica è un giovane ricercatore che ha appena intrapreso i suoi studi di dottorato all’Università locale. Il suo laboratorio si occupa dei microbi che popolano le numerose pozzanghere salate della regione. In particolare, lui sta studiando come la concentrazione di sale modifica l’attività di enzimi che tagliano il DNA del batterio stesso.

Curiosamente, trova che un frammento specifico viene tagliato più spesso degli altri. Questo frammento ha una struttura particolare: le A, T, C, G, l’alfabeto con cui è scritto il DNA, sono disposte in delle sequenze palindromiche che vengono ripetute diverse volte all’interno di questo frammento (per capirci, anche le parole «osso» e «radar» sono palindromiche). Queste sequenze inoltre sono intervallate da altre brevi serie di caratteri che non sono tuttavia uguali tra loro, che chiameremo «sequenze-spazio».

(Schema del posizionamento di CRISPR sul DNA – di Davide Visintainer)

Il fatto di trovare delle somiglianze così evidenti in organismi evolutivamente molto distanti tra loro, ha decisamente catturato la curiosità di Mojica. In biologia, quando si osserva una caratteristica simile in alcune specie diverse, significa che quella caratteristica costituisce un vantaggio evolutivo, cioè un fattore che ha permesso la sopravvivenza delle specie medesime.

In questo caso, abbiamo un motivo nella sequenza di DNA che è stato selezionato, ed è presente sia nei microbi amanti del sale di Alicante che in Escherichia coli (il batterio più famoso in biologia).
A Francisco dev’essere passata per la testa questa domanda: «Bene, ma a cosa diavolo serve?».

Il nostro eroe deve però lasciare le sue amate spiagge soleggiate per trascorrere un periodo di ricerca nella piovosa Oxford, in Inghilterra. Quando torna, ottenendo una cattedra da professore all’Università, non possiede abbastanza fondi per stabilire il suo laboratorio di ricerca. Passa così le giornate su specializzati motori di ricerca che contengono le sequenze di DNA di altri microrganismi, per cercare se altre specie possiedono quegli stessi motivi da lui trovati.

Questi motivi si chiamano CRISPR (se ricordate, il nome che avevamo dato alla nostra tecnologia), e Mojica, all’alba del nuovo millennio, ritrova 20 differenti microbi in cui sono presenti queste sequenze.

A questo punto l’indagine dello scienziato cambia obiettivo: ma le sequenze-spazio, non simili tra loro, che intervallano le sequenze uguali palindromiche, avranno una qualche identità specifica?
Guarda caso, una di queste sequenze-spazio di Escherichia coli viene trovata identica in un virus che infetta proprio quella specie. Tuttavia, quella particolare popolazione di E.coli presa in esame è immune a quel virus. Proseguendo la ricerca, scopre che ben i due terzi di queste sequenze-spazio corrispondono a sequenze trovate in altri virus, infettivi per i batteri, ma a cui quelle specie in particolare erano immuni.
Mojica non crede ai suoi occhi, sembra aver scoperto un indizio di un possibile sistema immunitario adattativo in batteri, fino ad allora nemmeno ipotizzato.

Egli crede infatti che il batterio, in seguito all’infezione, trattenga con sé alcune sequenze di DNA del virus affinché, nella successiva infezione, riconosca il DNA del virus medesimo e sia in grado di operare una risposta per eliminarlo.
Anche noi possediamo un sistema immunitario adattativo che però funziona diversamente, essendo molto più complesso ed evoluto, e ci permette di riconoscere un agente infettivo all’infezione successiva e quindi eliminarlo. In effetti, di morbillo ci si ammala una volta sola.
Chissà perché, nessuna rivista scientifica prestigiosa accetta di pubblicare la sua scoperta, e così Mojica, deluso, si dovrà accontentare di un articolo su un periodico di second’ordine.

Ci spostiamo allora in Francia, nel sud di Parigi, dove Gilles Vergnaud dirige un laboratorio di genetica umana, finanziato dal Ministero della Difesa francese. Negli anni ’90, in seguito all’inquietudine diffusa che Saddam Hussein stesse sviluppando delle armi biologiche, l’esercito chiede a Gilles di concentrarsi su nuovi metodi per il rilevamento di batteri letali, come l’antrace e la peste.

Lo scienziato, studiando i genomi della peste, trova dei motivi simili a quelli di Mojica, cioè palindromici ed intervallati da sequenze-spazio differenti. E queste sequenze corrispondono proprio a dei genomi virali, da cui però la peste ne era immune. Anche il ricercatore francese propone quindi che questo CRISPR sia una sorta di “memoria genetica” delle infezioni precedenti, e, tuttavia, trova anche lui molte resistenze nel pubblicare la sua scoperta.

Insomma, le evidenze ci sono tutte, mancano però le prove. Non si è ancora capito in che modo queste sequenze-spazio, che contengono l’informazione per riconoscere i virus infettivi, servano in pratica al batterio per sviluppare l’immunità.
Una risposta verrà data qualche anno dopo, nel 2005, da un gruppo di scienziati molto particolare.

Uno di loro è Philippe Horvath, un giovane ricercatore fresco di dottorato conseguito all’Università di Strasburgo. Come Mojica, anche Horvath studia dei microbi caratteristici della regione in cui vive, nel suo caso l’Alsazia. E’ un esperto di batteri utilizzati per la fermentazione dei crauti, ingrediente principale della «choucroute garnie», un piatto a base di salsicce e crauti della tradizione locale. Nel 2000 viene così assunto da un’azienda che si occupa di coltivare microbi e lieviti per l’industria alimentare, e in quegli anni, venuto a conoscenza di CRISPR, esplora la possibilità di dimostrarne il suo funzionamento.
Avrà bisogno dell’aiuto di Sylvain Moineau e Rodolphe Barrangou, ricercatori rispettivamente in Canada e Stati Uniti, per raggiungere il suo obiettivo.

Il loro esperimento è semplice. Coltivare un batterio sensibile a determinati virus, infettarlo con questi e poi selezionare i ceppi resistenti, cioè le popolazioni di batteri che hanno sviluppato l’immunità all’infezione.
Quello che ottengono è strabiliante: analizzando il DNA di questi batteri resistenti ritrovano proprio le sequenze-spazio che cercavano, cioè quelle sequenze identiche al DNA dei virus con cui hanno infettato le loro colture in laboratorio.

Scoprono anche che alcuni geni – ovvero le sequenze di DNA in cui sono scritte le istruzioni per costruire le proteine – sono fondamentali per il corretto funzionamento dell’immunità. Che rimane, tuttavia, ancora oscura.

Ripercorriamo brevemente i passi compiuti finora: scienziati spagnoli, francesi, canadesi ed americani sono rimasti affascinati da CRISPR e si sono riproposti di conoscerlo meglio. Hanno descritto precisamente le sequenze di DNA che lo compongono, hanno riconosciuto delle somiglianze evidenti tra le sequenze-spazio e delle sequenze presenti in alcuni virus, sono riusciti ad osservare l’incorporamento di queste ultime nei batteri immunizzati ed infine hanno proposto un’ipotesi: CRISPR potrebbe essere un «sistema immunitario adattativo» batterico.

Niente male per cominciare, ma ora ci dobbiamo proprio lasciare. Nella puntata seguente racconteremo come CRISPR sia diventata una delle tecnologie più rivoluzionarie delle scienze biologiche.

Alla prossima!

Giovanni Palla

FONTI:

http://www.cell.com/abstract/S0092-8674(15)01705-5

 

Pubblicato su L’Adige il 24/05/2016

Posted on

Olio di palma e salute: eccessive incriminazioni o reale pericolo?

Olio di palma e salute: eccessive incriminazioni o reale pericolo?

Nella prima parte dell’articolo è stato presentato il dibattito riguardante l’utilizzo dell’olio di palma ed il suo impatto a livello ambientale. Non solo l’ambiente, ma anche i suoi effetti sulla salute sono tutt’ora nell’occhio del ciclone.

Le informazioni assimilabili dal web o dagli articoli spesso generano confusione in quanto non si fa in tempo a finire di leggere la pubblicazione di uno studio scientifico che ne esce un altro in cui, puntualmente, si afferma il contrario.

Una così vasta eterogeneità delle informazioni spesso sorge a causa del conflitto di interessi che manipola il parere e l’opinione di alcuni medici e nutrizionisti, coinvolti nella consulenza per aziende alimentari.

E’ molto noto lo scandalo che riguarda il Dottor Eugenio Del Toma, il quale promuoveva l’utilizzo dell’olio di palma, fino a che non emersero i contratti di consulenza che aveva stipulato con diverse aziende produttrici di biscotti. In ogni caso, nel groviglio di idee e pareri, gli specialisti non smettono di promuovere uno stile di vita sano ed attivo, senza assolvere né condannare l’olio di palma come singolo ingrediente. Laura Rossi, ricercatrice presso il Centro di ricerca per gli alimenti e la nutrizione (Cra-NUT di Roma), ricorda riferendosi agli acidi grassi saturi: «[…] Che queste sostanze vadano consumate in modo limitato nella nostra alimentazione, perché altrimenti fanno ammalare le nostre arterie, […] ma l’olio di palma non dovrebbe essere demonizzato in quanto tale. […]». In sostanza non è l’olio di palma in sé a fare male, bensì il mix di ingredienti che compone un dato alimento e che porta a eccedere le quantità giornaliere raccomandate per quei nutrienti, come zuccheri e grassi, che un occhio di riguardo sì, lo meriterebbero.

Effettivamente l’olio di palma è ricco di acidi grassi saturi (50% in contenuto), quelli dannosi per il cuore e i vasi sanguigni per intenderci, ma il burro, che tutti noi utilizziamo comunemente a colazione, non ha nulla da invidiargli dato che ne è costituito per ben il 51%.

Inoltre, come ricorda la professoressa Elena Fattore, dell’Istituto di Ricerche Farmacologiche «Mario Negri»: «[…]Occorre insomma fare attenzione nel dire che un olio è migliore di un altro. Non dimentichiamo che i grassi vegetali idrogenati vennero impiegati in sostituzione di quelli animali, perché si disse che erano dannosi, per scoprire poi che erano addirittura peggiori. Non bisognerebbe fare crociate ideologiche senza sufficienti evidenze scientifiche[…]».
Insomma, olio di palma ormai è moda: blog, programmi televisivi e quotidiani ci rimpinzano ogni giorno con notizie, anche abbastanza contrastanti tra di loro e tutte, a quanto pare, supportate da «recenti studi scientifici». In questo mare di scandali, accuse e boicottaggi bisogna cercare di non perdere di vista la coerenza ed il senso critico perché, alla fine, ad avere risvolti sulla nostra salute, su quella dell’ambiente e sulle condizioni delle altre popolazioni non è solo l’olio di palma.

Dunque, è importante non farsi influenzare negativamente dalle troppe accuse, lanciate senza alcun fondamento scientifico, e dalle molte, troppe, petizioni che rincorrono obiettivi utopici. Eliminare totalmente l’olio di palma dalla dieta non ridurrebbe il disboscamento che è in atto perché probabilmente sopraggiungerebbero altre culture ad incentivare tale fenomeno. Allo stesso modo non si porterebbe a una riduzione dei gas serra, perché gli impianti tecnologicamente arretrati verrebbero impiegati per la lavorazione di altri prodotti.

Inoltre, con tutto questo accanimento sull’olio di palma, si rischia di perdere di vista le numerosissime altre problematiche ambientali che noi stessi causiamo quotidianamente con le nostre scelte alimentari, di acquisto e di comportamento. Cosa dire delle preoccupanti quantità di sostanze chimiche che ogni giorno sono riversate in mare e che stanno avvelenando gli oceani, ce ne siamo forse dimenticati? E del disboscamento che sta subendo la foresta Amazzonica per la produzione di legname, ce ne siamo dimenticati? Del rilascio, spesso abusivo, delle sostanze tossiche da parte degli allevamenti intensivi che stanno acidificando e portando alla desertificazione del terreno, ce ne siamo dimenticati? In conclusione, la questione olio di palma non deve predominare per importanza e non deve distogliere l’attenzione da tutti gli altri fenomeni che stanno deteriorando il nostro pianeta.

Anziché lamentarsi su quanto faccia male alla salute e all’ambiente l’olio di palma sarebbe più utile e produttivo domandarsi come minimizzare i danni delle coltivazioni. E sicuramente la risposta non sta nell’«eliminarlo da ogni alimento, eliminando le piantagioni». Un maggiore utilizzo di olio di palma certifica to RSPO, prodotto in maniera sostenibile, l’utilizzo di impianti tecnologicamente più evoluti per diminuire il rilascio dei gas serra, attuare controlli più severi e regolari per andare incontro alle popolazioni autoctone e ai coltivatori: questi sono solo alcuni esempi delle tante iniziative concretamente attuabili e a cui dovrebbe essere dato un maggior rilievo per dare una reale svolta a questa faccenda.

Elena Klaic

 

Pubblicato su L’Adige il 03/05/2015

Posted on

La nuova frontiera dell’editing del genoma: CRISPR

La nuova frontiera dell’editing del genoma: CRISPR

All’inizio del mese di febbraio è stato pubblicato il “Rapporto annuale sulla valutazione delle minacce mondiali”, un documento stilato dalla Comunità d’Intelligence degli Stati Uniti (di cui fanno parte, ad esempio, la CIA, l’NSA e l’FBI) che riporta i pericoli per la sicurezza globale individuati durante l’anno passato. Scorrendo la lista troviamo diverse voci “familiari”, come ad esempio un possibile test nucleare da parte della Corea del Nord, oppure delle “non dichiarate” armi chimiche in Siria ed ancora delle nuove tipologie di missili russi che potrebbero violare i trattati internazionali. Scorrendo in fondo alla sezione “Armi di Distruzione di Massa” troviamo anche un piccolo paragrafetto, come se fosse stato aggiunto di fretta, intitolato “Correzione del Genoma”.

Si legge: “Le ricerche sulla correzione del genoma, condotte in paesi con diversi standard etici e regolatori rispetto a quelli dei Paesi Occidentali, aumentano il rischio della creazione di un potente e dannoso agente biologico […] il cui uso deliberato o non intenzionale potrebbe portare ad implicazioni economiche e di sicurezza nazionale, di vasta portata.” Sembra preoccupante, per usare un eufemismo.

Tuttavia, non vengono approfonditi i casi concreti, per cui questa metodologia apparirebbe tanto pericolosa. Non sono inoltre specificati eventi reali e non vengono proposte soluzioni per arginare il rischio, e questo fa riflettere. In effetti, non ci sono ancora stati episodi clamorosi di cosiddetto “bioterrorismo”, che avrebbero fatto presagire il problema. Di conseguenza il tono del documento in merito non può che essere superficiale, come dire: gli strumenti esistono ma il loro utilizzo per fini pericolosi, per ora, esiste soltanto nella sfera delle possibilità.

Tuttavia, la scelta di inserire questa nuova tecnologia nel documento in questione ha sorpreso non pochi esperti, ed ha chiaramente ridimensionato l’importanza del problema. Insomma, non è più una ricerca che interessa soltanto gli scienziati, ma anzi, sembra sia rilevante anche per la sicurezza nazionale statunitense.

Senza destare troppi allarmismi, sarà nostro compito descrivere di che tipo di tecnologia si tratta, quali sono i pericoli a cui fanno riferimento, e qual è lo stato dell’arte attuale. Il documento in questione è soltanto uno spunto per raccontarvi uno dei più importanti progressi avvenuti negli ultimi anni, in ambito biologico, che potenzialmente porterà grandi cambiamenti nel modo in cui vengono trattate le malattie più disparate.

Proseguiamo però con la lettura del paragrafo, si legge: “Gli avanzamenti nella Tecnologia della Correzione del Genoma hanno costretto gli esperti statunitensi ed europei a porsi delle domande in merito alla modifica non regolamentata della linea germinale (cioè le cellule rilevanti per la riproduzione, nello specifico ovuli e gameti). Queste modifiche genetiche sarebbero infatti ereditabili.”

In altre parole, questa tecnologia permetterebbe di effettuare delle modifiche genetiche sulle cellule che, potenzialmente, darebbero origine ad un essere umano. Le domande in questione, i massimi esperti del campo se le sono poste in una convention tenutasi durante i primi giorni di dicembre dello scorso anno, all’Accademia delle Scienze statunitense, un complesso di edifici immerso nel parco adiacente al Campidoglio, a Washington D.C.

L’assemblea, che vedeva la partecipazione anche dell’Accademia delle Scienze Cinese e della Royal Society britannica, si prefiggeva proprio di discutere i quesiti in ambito scientifico, etico e giuridico associati alla ricerca sulla Correzione del Genoma umano. Al termine dei dibattiti, sono state rilasciate delle dichiarazioni da parte del comitato organizzatore, soprattutto in merito all’utilizzo di questa tecnologia per la modifica delle cellule della linea germinale.


Anche di queste dichiarazioni discuteremo ampiamente, tuttavia, ci preme fare un breve riassunto.

Nei mesi precedenti sono state sollevate diverse questioni, decisamente rilevanti per gli ambiti più diversi, in merito ad una nuova tecnologia biomedica che sembra rivoluzionerà il modo di curare le patologie. Questa stessa tecnologia, però, essendo così potente, apre degli enormi spazi di riflessione sulle modalità in cui essa verrà utilizzata. In particolare, ci spinge a ragionare su alcuni nodi etici fondamentali, ad esempio sulla considerazione stessa della vita umana, e della malattia, e, come era successo per la fissione nucleare, sul modo in cui la società umana interagisce con le nuove scoperte scientifiche.

Non sarà facile, e nemmeno breve, ma cercheremo di portarvi diversi spunti di riflessione, così, quando vi capiterà di leggere notizie a riguardo sui giornali, forse avrete qualche strumento in più per districarvi in un terreno impervio ed in continuo mutamento. Dalla prossima puntata racconteremo un po’ della storia che ha portato a questa scoperta, del suo aspetto innovativo ed anche di come mai è scoppiata una vicenda giuridica per decidere chi sia stato il “vero scopritore”, o meglio, chi potrà registrare il brevetto per tale scoperta.

Un’ultima cosa, prima di lasciarci, diamo finalmente un nome a questa tecnologia: CRISPR.

Giovanni Palla

Fonti: Technologyreview

National Academies

 

Pubblicato su L’Adige il 10/05/2016

Posted on

I vaccini funzionano. Punto

I vaccini funzionano. Punto

In seguito ai recenti articoli de l’Adige riguardanti la questione dei vaccini (eccone uno e qui l’altro) anche noi di OWL abbiamo sentito il dovere di esprimere le nostre convinzioni, o meglio i fatti di cui esistono prove ben documentate. Consiglio in primis di leggere l’editoriale del dott. Pedrotti (lo trovate qui), preciso e puntuale nelle risposte; io cercherò di rimarcare alcuni nodi chiave e lo farò con uno stile personale, probabilmente poco “politically correct”, ma sono davvero esausto di sentire le false credenze diffuse dagli anti-vaccinisti. Per intenderci, siamo ai livelli di complottisti, diete basiche, omeopati e credenti delle scie chimiche: il problema però è ancora più grave, perché mettendo in dubbio l’efficacia o la sicurezza dei vaccini si gioca con la salute, la propria e quella delle persone che ci circondano.

Ora, non conosco bene l’associazione “Vaccinare informati”, né conosco la sua presidente, la signora Filippi, ma è importante sottolineare come abbia esposto idee sbagliate e potenzialmente omicide. Leggo che ciò che desidera questa associazione sarebbe “un tipo di informazione corretta e completa”, quello che vogliamo anche noi di OWL, un’associazione di divulgazione scientifica: il problema è che un confronto serio è possibile solo se è presente l’obiettività dei dati scientifici. Parlo di numeri, prove nero su bianco che i vaccini funzionano e che sono una delle più grandi conquiste nella storia dell’uomo. Se si chiudono gli occhi davanti alle dimostrazioni portate da migliaia di articoli scientifici e decine di anni di studio tanto vale parlare delle mezze stagioni, del trentesimo scudetto della Juventus o di chi ha truccato l’ultimo Sanremo.

Non per niente, nell’Italia di oggi va molto di moda parlare a sproposito e sostenere la propria opinione ad ogni costo, anche in merito ad argomenti che non ci competono; tuttavia, l’efficacia e la necessità dei vaccini non possono essere materia di opinione personale. È importante ribadirlo: i vaccini funzionano e non causano l’autismo e chiunque dica il contrario è un ignorante o è in malafede. Possono, questo sì, causare effetti collaterali di entità limitata (come mal di testa, febbre, nausea), caratteristica che hanno in comune con qualsiasi farmaco esistente. Possono anche essere correlati a complicanze più gravi (come una reazione allergica): stiamo parlando di circostanze estremamente rare (numeri quali una persona ogni centomila o ogni milione), in alcuni casi così rare da non poter dedurre se il problema sia stato causato dal vaccino o sia dovuto al caso. In sintesi, è molto più probabile che una persona non vaccinata si ammali, piuttosto che sia soggetta alle complicazioni in seguito alla somministrazione di un vaccino, i cui effetti collaterali sono comunque meno gravi della malattia che vanno a prevenire.

Ora diamo un’occhiata a quest’immagine, creata dal designer Leon Farrant sulla base dei dati del Centers for Disease Control & Prevention.

Prende in considerazione il parametro “morbidity” (una misura dell’incidenza di una malattia all’interno di una popolazione) prima e dopo la diffusione del relativo vaccino. Forse questo grafico, più di tutti, riesce a dare un’idea dell’importanza vitale e dell’efficacia dei vaccini, che ci hanno permesso di debellare o contrastare malattie mortali, potenzialmente tali o fortemente debilitanti, come il vaiolo, la pertosse, la difterite, il morbillo e altre ancora; si tratta di percentuali di riduzione che vanno dal 74 al 100%. Nei casi in cui invece la diffusione della vaccinazione viene a mancare ecco che subito la malattia riemerge: è successo con gravi epidemie di difterite nell’ex-URSS a metà degli anni novanta, o con svariati casi di morbillo in UK e USA, rispettivamente nel 1998 e 1980. Questo scenario non è così distante dalla nostra realtà quotidiana come potrebbe sembrare e rischia seriamente di ripetersi anche in Italia nel prossimo futuro, qualora la propaganda anti-vaccinista dovesse avere successo.
Voglio spendere un altro minuto sulla questione della libertà di scelta: quando mancano argomenti validi a sostegno della propria tesi si cerca spesso di infarcire il discorso con queste parole altisonanti e sviare il dibattito su questioni molto più generali che comprendono solo limitatamente il nucleo della discussione. Non prendiamoci in giro: la libertà di un individuo finisce dove inizia quella di un altro.

Nello specifico:
1) Una persona non vaccinata è un pericolo per chi non si è potuto vaccinare: persone con specifiche allergie, individui immunosoppressi, bambini nei primi mesi d’età non ancora vaccinati. Vaccinarsi (o vaccinare i propri figli) non è una decisione personale, ma influenza tutta la comunità con cui si è a contatto: menziono a questo proposito l’immunità di branco, una forma di immunità che avviene quando la maggior parte della popolazione è vaccinata e che fornisce una protezione anche a chi non lo è.
2) Un infante non è in grado di scegliere per sé stesso e deve essere tutelato. Da chi? Dallo Stato. Sulla base di cosa? Di evidenze scientificamente provate, non certamente sulla base dell’opinione del primo ciarlatano di turno (leggasi Andrew Wakefield).

Mi riservo un ultimo commento riguardante la fantomatica pressione delle case farmaceutiche: è innegabile che in quanto aziende esse abbiano un rientro economico sui vaccini (quelli per cui ancora non è di uso comune il farmaco generico) ma non vaccinarsi per questo motivo è come rifiutarsi di mangiare pane perché il panettiere ci guadagnerebbe.

Dennis Pedri

Per chi fosse interessato ad approfondire, ecco i link delle fonti da cui ho attinto e qualche articolo interessante. Purtroppo per i non anglofoni sono tutti in inglese, come gran parte della letteratura scientifica, ad eccezione del primo, un articolo eccellente scritto da un altro membro di OWL, Gabriele Girelli: tratta di vaccini, autismo, immunità di branco, correlazione e causalità.
https://medium.com/@qerubin90/vaccini-e-autismo-7f8722952e71
http://www.cdc.gov/vaccines/vac-gen/side-effects.htm
http://www.who.int/immunization/diseases/en/
http://vaers.hhs.gov/index
http://www.cdc.gov/Features/VaccineSafety/
http://www.who.int/vaccine_safety/committee/topics/mmr/mmr_autism/en/
http://www.jpeds.com/article/S0022-3476%2813%2900144-3/fulltext
http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2908388/pdf/nihms-212222.pdf
http://www.ncbi.nlm.nih.gov/pubmed/23545349
http://www.who.int/features/qa/84/en/
http://www.cdc.gov/mmwr/preview/mmwrhtml/00056803.htm
http://jama.jamanetwork.com/article.aspx?articleid=209448
http://www.cdc.gov/vaccinesafety/Vaccine_Monitoring/history.html
http://www.immunize.org/askexperts/vaccine-safety.asp
http://www.kevinmd.com/blog/2014/10/7-common-reasons-refusing-vaccines.html
http://www.forbes.com/sites/matthewherper/2013/02/19/a-graphic-that-drives-home-how-vaccines-have-changed-our-world/

 

Pubblicato su L’Adige il 06/07/2015

Posted on

Xylella, fastidiosa questione

Xylella, fastidiosa questione

Si è a cena da amici, atmosfera un po’ radical chic, con jazz in sottofondo e candele in tavola. Ci sono anche invitati che incontro per la prima volta: mentre cerco di capire chi ho di fronte, parliamo del più e del meno seguendo le regole del bon ton e del politically correct. Improvvisamente, un ragazzo pugliese che avevo notato per arguzia e simpatia, entra a gamba tesa nel mio ginocchio razionalista con questa sentenza:

“Monsanto ha infettato i nostri ulivi per venderci quelli geneticamente modificati resistenti a Xylella!”. Rincara la dose: “Loro non hanno valori, quindi vogliono distruggere i simboli della nostra tradizione, gli ulivi millenari che ci sostentano da tempo immemore.” É evidente che questa storia deve averla sentita così tante volte da essere per lui verità assodata, incontrovertibile, a tal punto da poter essere inserita tra gli argomenti di leggera discussione.

Quindi si discute.

Xylella è un batterio altamente polifago: è in grado di attaccare diverse piante tra cui  l’ulivo, la vite e gli agrumi come molte altre piante di minor interesse agronomico. Si annida nello xilema che trasporta la linfa grezza causando il disseccamento e la morte della pianta colpita. Questo comporta danni per milioni di dollari nel nuovo continente, che si trova a dover combattere contro il batterio dal 1880, anno della prima grande epidemia della malattia di Pierce causata da Xylella nelle viti. Il ceppo di batterio approdato nel Salento che causa il disseccamento dell’ulivo, non è in grado però di infettare agrumeti e vigneti. Il motivo non è ben chiaro agli scienziati che stanno indagando per comprendere le interazioni biologico-molecolari tra ospite e parassita le quali portano alcune piante ad essere suscettibili ad un ceppo ma resistenti ad un altro.

Pur non essendo un problema secolare come in America, in Italia la comparsa del batterio non è una novità. I primi casi di disseccamento rapido dell’ulivo sono stati rilevati nel 2009 a Gallipoli: conoscendo la virulenza di questo patogeno, gli amministratori pubblici si trovarono di fronte a tre alternative:

1)     eradicare le piante infette nel tentativo di contenere la malattia: scelta dolorosa per agricoltori e “affezionati”, ma potenzialmente risolutiva;

2)     investire in ricerca, i cui risultati si vedono a lungo termine, ma con “dolorosi” costi immediati;

3)     tentare entrambe le vie per massimizzare la probabilità di prognosi favorevole.

Si è scelta però la quarta via, ovvero non fare nulla fino ad oggi. Il taglio degli alberi è avvenuto troppo tardi , agendo solo nell’istante in cui la malattia si è manifestata in tutta la sua straordinaria virulenza.

Ma il popolo pugliese difende le proprie radici con tutti i mezzi, da legarsi sulle cime degli alberi per protesta ad organizzare processioni per i santi patroni locali ad captandam benevolentiam .

Oltre ad essere una risposta dal gusto un po’ medievale, risulta essere anche abbastanza miope, perchè quella che ora è una realtà tragica ma circoscritta, potrebbe presto dilagare, compromettendo gli oltre 60 milioni di ulivi presenti in Puglia e, risalendo attraverso Lazio e Toscana, approdare anche in Trentino. Xylella ha fatto il giro del mondo passando dal mango, al caffè, all’ulivo, non possiamo sperare che si fermi davanti agli striscioni degli agricoltori disperati.

Ritardare gli interventi drastici, quando necessari, è una pratica tanto sbagliata quanto comune. Tutti ricordiamo il caso dell’encefalopatite spongiforme bovina, il morbo della mucca pazza, che portò più di 190 mila capi di bestiame ad ammalarsi in tutto il mondo,più di 4 milioni furono abbattuti nella sola Inghilterra e vi furono 225 casi umani accertati[1]. La risposta del governo inglese fu dolosamente tardiva; il divieto di processare i capi abbattuti a mangime per altri animali (compresi i bovini), arrivò otto anni dopo lo scoppio della pandemia e la conferma che l’agente patogeno si trasmette per via alimentare.

Il ritardo fu in quel caso dovuto alle pressioni della lobby degli allevatori inglesi.[2]

Ma per Xylella non è immaginabile che multinazionali come Monsanto abbiano infettato gli ulivi per vendere le proprie piante geneticamente modificate resistenti al batterio. La scienza infatti non ha ancora trovato una soluzione per questa malattia.

L’unico modo per debellare la malattia, non solo contenerla, è continuare la ricerca: negli Stati Uniti, grazie ad un finanziamento di 47 milioni di dollari l’anno, dopo dieci anni si stanno riuscendo a selezionare le prime viti resistenti al patogeno, ma la strada è ancora lunga. I fondi per la ricerca, al 70% pubblici, vengono anche da realtà private grandi e piccole, esattamente come in Brasile dove il genoma di Xylella è stato sequenziato da un pool di 30 laboratori che lavoravano in sinergia.

L’Italia, invece, ha deciso di diffidare le multinazionali che avrebbero la liquidità per sobbarcarsi la spesa della ricerca, stanziando da sola i fondi per risolvere il problema:

Da quando è scoppiata l’epidemia ad oggi, il nostro paese ha investito 170.000 €, da dividersi in 3 gruppi di ricerca appartenenti all’università di Bari. Centosettanta mila euro. In sei anni.[3]

In attesa della mobilitazione di 2 milioni di euro promessi da parte della regione Puglia, i ricercatori dell’università di Bari hanno dovuto subire l’affronto di esser sottoposti ad indagine a causa delle dicerie popolari che li vorrebbero untori della malattia, proprio per accedere a quei fondi che non ci sono.[4] Pare che non vi sia poi gran voglia di rimanere al secondo posto nella produzione mondiale dell’olio d’oliva, ne prevenire l’infezione delle altre colture per cui il nostro paese è conosciuto in tutto il mondo.

Per un ragazzo come me, cresciuto in Trentino, non c’è nulla che faccia più paura di un batterio capace di distruggere vite e ulivi, ma con questa prospettiva, bisogna prepararsi al peggio.

Filippo Guerra, Open Wet Lab

Bibliografia:

[1] [ World Organisation for Animal Health (OiE), aprile 2012.]

[2] [Bse Inquiry, inchiesta voluta dal premier britannico Tony Blair. Per maggiori informazioni consiglio “La paura delle biotecnologie”, Francesca Ceradini, 2008]

[3] [Reportage su Xylella, Daniele Rielli, Internazionale, 2015]

[4] [Italian scientist vilified, Alison Abbot, Nature, 2015]

 

Pubblicato su L’Adige il 17/06/2015

Posted on

Così si rende udibile l’invisibile

Così si rende udibile l’invisibile

Siamo nel 2014: Saverio Murgia e Luca Nardelli, due giovani studenti universitari in procinto di laurearsi in ingegneria biomedica con un tesi sulla computer vision, stanno passeggiano per le strade di Genova quando un passante chiede loro di aiutarli per raggiungere le fermata dell’autobus. Il passante è cieco e il suo problema colpisce nel profondo Saverio e Luca, che hanno l’idea di sfruttare le loro conoscenze in robotica per aiutare le persone ipovedenti.

Nell’anno seguente fondano una startup, assumono dei collaboratori, vincono numerosi premi e alcuni importanti riconoscimenti monetari, creano dei prototipi e catturano l’attenzione dei media (Wired e Le Iene fra tutti): è nata Horus Technology. Il nome deriva dal dio egizio Horus, a cui fu ricostruito l’occhio perso in battaglia grazie al dio della saggezza Thot.

Che cos’è Horus e come funziona? Chiediamolo direttamente a Luca Nardelli, 23 anni, fondatore e Chief Technology Officer della società.

È un assistente personale indossabile per persone cieche o ipovedenti. È un dispositivo che si indossa in testa, come se fosse un piccolo microfono ad archetto, ha un sistema di visione e dei sensori e di fatto osserva la scena, la elabora con degli algoritmi e parla all’utente, riconoscendo e descrivendo alcune caratteristiche dell’immagine stessa: la presenza di testi, volti, oggetti, ostacoli lungo il percorso o la posizione di un attraversamento pedonale. Tutte queste informazioni vengono estratte dal segnale visivo e veicolate alla persona non vedente tramite un sistema di cuffie a conduzione ossea, che permettono di mantenere completamente la percezione uditiva del mondo esterno.

Quali sono state le tappe fondamentali nella nascita di Horus Technology?

È tutto nato come un progetto personale, quasi un hobby. Poi il primo evento chiave è stato lo Startup Day di Genova, organizzato da Confindustria ad aprile 2014, perché è stato il momento in cui abbiamo coinvolto altre persone e abbiamo raccolto la nostra prima vittoria. Per noi è stato importante soprattutto il riconoscimento del nostro lavoro e la spinta motivazionale che ci ha fornito, facendoci capire che il progetto aveva del potenziale.

Quindi possiamo dire che da quel momento le cose hanno iniziato a farsi serie.

Sì, da lì abbiamo iniziato ad avere dei contatti con le associazioni per la disabilità visiva e abbiamo distribuito dei sondaggi alle persone ipovedenti per capire al meglio quali fossero le difficoltà che incontravano e come il nostro dispositivo potesse aiutarli.

Come avete finanziato il progetto?

Fino a maggio dell’anno scorso le spese erano piuttosto contenute e ci siamo autofinanziati. Poi abbiamo vinto la competizione di Eindhoven organizzata dagli EITICTLabs e questi sono stati i nostri primi fondi con cui iniziare a creare i prototipi, confermando la validità del nostro progetto da un punto di vista europeo.

Tra settembre e novembre siete stati a Working Capital, l’acceleratore di TIM a Milano, raccontaci quest’esperienza.

Il percorso di accelerazione consisteva in due cose: da un parte avevamo uno spazio di co-working con altri gruppi, dall’altra venivano organizzati regolarmente incontri con esperti del settore che ci potessero trasmettere le loro esperienze. Quest’ultimo punto è stato molto importante anche per fare network e allacciare contatti con persone interessate al progetto.

E cosa avete pianificato per il futuro?

Anzitutto crescere, nel senso che ora abbiamo assunto altre due persone a tempo indeterminato. Poi, raccogliere fondi per partire con la progettazione hardware che ha dei costi molto elevati.

Una previsione su quando potremo vedere Horus sul mercato?

L ’obiettivo che ci siamo posti è per la seconda metà del 2016, considerando anche le tempistiche e le stime dei progettisti che abbiamo contattato.

Com’è fondare una startup in Italia? Quali sono le difficoltà che avete incontrato?

Adesso penso che sia più facile rispetto a quando abbiamo fondato Horus, perché è stata introdotta la possibilità di costituire una startup innovativa senza notaio, snellendo la burocrazia. All’epoca abbiamo incontrato lo scoglio delle prime tasse da pagare nel momento in cui nasce la società, ma per fortuna avevamo vinto il grant. Per come la vedo al momento è come aprire una normale società, nel senso che gli adempimenti legali sono più o meno gli stessi.

Qual è il momento che ricordi con più gioia? E quello più buio?

Quello che stiamo seguendo è un percorso che ha sempre degli alti e bassi: siamo tutti alla prima esperienza e le difficoltà che incontriamo fanno parte del percorso di crescita e di apprendimento. Fare una previsione finanziaria per cinque anni, un algoritmo da implementare che non va, i brevetti del competitor: sono tutte esperienze che sul momento sembrano problematiche, ma pensandoci in seguito ti rendi conto che quello di cui ti stai occupando nel presente è più difficile.

Quindi fondare una startup può essere un percorso di crescita personale?

Sì, c’è moltissimo da imparare, specialmente se vivi quest’esperienza come stiamo facendo noi, con flessibilità nelle decisioni, spostandoci molto tra diverse città, partecipando gli eventi e soprattutto mettendoci passione e impegno.

Com’è stata l’esperienza del crowfunding? La visibilità fornita da Le Iene vi ha aiutato?

Sicuramente, Le Iene sono arrivate nel momento iniziale della campagna e nella prima serata ci hanno fatto duplicare quanto avevamo raccolto. Per quanto l’analisi del crowfunding invece siamo molto soddisfatti, siamo riusciti a raccogliere il 150 per cento di quello che ci eravamo prefissati. La cifra era simbolica, perché impallidisce se paragonata con le richieste di un’azienda di progettisti, ma ci ha permesso di proseguire con i test dei prototipi ed espandere il team.

Dennis Pedri

 

Pubblicato su L’Adige il 22/05/2015

Posted on

Primo passo verso la modifica del genoma embrionale umano

Primo passo verso la modifica del genoma embrionale umano

E’ di pochi giorni fa la notizia che nel laboratorio di Junjiu Huang dell’università di Guangzhou in Cina si sia riusciti a modificare il genoma di un embrione umano. Questo conferma le preoccupazioni che diversi scienziati avevano già espresso in precedenza sollevando non pochi dubbi.

Prima di tutto un breve ripasso. Il DNA è una macromolecola presente in tutte le cellule che contiene le informazioni necessarie per il loro funzionamento. E’ il codice della vita. Ogni essere vivente possiede DNA diverso: per esempio, seppur gli esseri umani abbiano gli stessi geni, presentano alcune variazioni che determinano le nostre peculiarità fisiche e fisiologiche.

Il DNA può subire mutazioni: variazioni che causano un cambiamento nella “lettura del codice” e che possono avere un effetto benefico o deleterio o non avere nessun effetto. Osservando e studiando la natura abbiamo scoperto che è possibile correggere questi errori grazie a sistemi in grado di eliminare il codice errato e sostituirlo con quello corretto. Succede normalmente e continuamente nelle cellule. Ma ora siamo in grado di utilizzarlo come uno strumento qualsiasi. Si chiama genome editing: correzione del genoma. In breve, per eseguire il genome editing è necessario localizzare la regione da correggere, rimuoverla e sostituirla.

È più facile a dirsi che a farsi, ma i ricercatori sono oggi in grado di eseguire la correzione in laboratorio tramite diversi tipi di tecniche: quella utilizzata nel laboratorio in Cina sfrutta il sistema chiamato “CRISPR/Cas9”, una sorta di sistema immunitario primitivo utilizzato dai batteri, che a partire dal 2012 (Charpentier et al. 2012) è stato modificato e reso controllabile per il genome editing.  Modificare il genoma di esseri viventi è una pratica non di certo recente. Basti pensare che già negli anni ’70 si sono tentati i primi approcci di modifica del DNA di lieviti (Scherer and Davis, 1979), proseguendo poi fino agli anni ’90 ingegnerizzando i primi enzimi in grado di tagliare questa macromolecola (Li, Wu and Chandrasegaran 1992): primo passo verso il processo di modifica.

Ma perchè modificare il genoma? Il fine principale è sicuramente quello di prevenire malattie geniche gravi che condizionano la vita intera dell’essere umano. In questo caso per esempio è stato modificato il gene per la β-globina, le cui mutazioni sono responsabili per la β-talassemia. La possibilità di correggere errori nel DNA degli embrioni prima che questi possano svilupparsi in essere completi e dar vita a diverse complicazioni, sarebbe un traguardo di incredibile portata per il singolo individuo e per la società. Questo percorso però è solo all’inizio e si prospetta pieno di difficoltà. Sia di natura tecnica che di natura etica. Fino ad ora, la modifica del genoma era stata limitata a cellule umane in coltura e su embrioni di animali non umani: mai su embrioni umani. In cellule in coltura e animali, le tecniche sviluppate garantiscono buoni risultati in termini di numero di cellule positivamente modificate e di specificità della regione modificata. Si notano però differenze da un tipo cellulare all’altro e tra specie differenti. Lo dimostra il fatto che nell’esperimento condotto da Huang il numero di successi è stato molto basso, mentre in embrioni di topo il genome editing generalmente si dimostra più valido. Non è possibile prevedere l’efficacia di una tecnica senza averla testata in maniera sufficientemente dettagliata: non è quindi di secondaria importanza la preoccupazione sull’efficienza di queste tecniche su embrioni umani. Nell’esperimento svolto in Cina sono stati utilizzati 86 embrioni (presi da cliniche di fecondazione, creati per la fecondazione in vitro). Di questi, 71 sono sopravvissuti, ma solo 28 sono stati in grado di procedere correttamente con le prime divisioni cellulari e solo in una frazione era presente la modifica di interesse.

Agli embrioni utilizzati è stato aggiunto un corredo genomico completo, in modo da evitare che potessero procedere nel normale sviluppo embrionale dopo le primissime fasi dello sviluppo.  Se mai decidessimo di accettare questa pratica, dovremmo pretendere quasi il 100% di efficienza, considerando che verrebbe applicata ad embrioni umani destinati a completare lo sviluppo. Con sufficiente tempo e sperimentazioni, è ragionevole pensare che l’applicazione clinica del genome editing sia una realtà tangibile. Le tecniche a disposizione ci sono, i modelli animali anche. Ma quello che fino ad ora ha limitato le ricerche nel campo sono le problematiche etiche e morali. Essere in grado di modificare il genoma umano a livello embrionale già dallo zigote significa modificare tutte le cellule dell’organismo: quell’unica cellula si moltiplicherà e darà vita all’intero corpo. Anche le cellule della linea germinale, quelle che generano spermatozoi ed ovuli, saranno modificate, e la modifica passerà alla generazione successiva. Le terapie geniche presenti attualmente invece, si limitano a modificare le cosiddette cellule somatiche, ovvero cellule che non appartengono alla linea germinale non trasmettendo quindi il genoma modificato. Si tratta quindi di una terapia sull’individuo già formato e che non può essere, teoricamente, trasmessa ai figli.

Lo ripeto. Potremmo avere la capacità di debellare malattie geniche devastanti. Il rischio è che questo sia solo il primo passo verso le modifiche per comodità, per gusto, fino ad arrivare alla vera e propria eugenetica. Come in ogni tecnologia ci sono due facce della medaglia e sta a noi decidere fino a che punto possiamo sfruttarla. Molti scienziati hanno il timore che questa pratica venga abusata, ma allo stesso tempo ne riconoscono l’immenso potenziale benefico.  Per ora in molti stati europei è vietato alterare la linea germinale mentre in altri la situazione non è ben chiara. Negli USA non è esplicitamente proibito ma il US National Institutes of Health’s Recombinant DNA Advisory Committee si è espresso dicendo che “per ora non prenderà in considerazione proposte di alterazione della linea germinale”. Per ora. La maggior parte della comunità scientifica chiede un serio dialogo prima di approcciare qualsiasi tipo di tentativo. Mentre noi parliamo in Cina già altri quattro laboratori starebbero lavorando in questo campo.

A voi la parola, Simone Detassis

 

Pubblicato su L’Adige il 28/04/2015

Posted on

Gli antibiotici, la nostra difesa per il futuro (parte 2)

Gli antibiotici, la nostra difesa per il futuro (parte 2)

Nel primo articolo abbiamo introdotto il problema della resistenza batterica legata all’utilizzo massiccio degli antibiotici, vediamo ora come viene affrontata questa problematica.

L’intuizione che ci sia un limite all’efficacia degli antibiotici esiste dalla loro scoperta nel 1928 da parte di Alexander Fleming. Nel discorso per la consegna del premio Nobel per la medicina nel 1945, lo stesso Fleming disse: “…Ma vorrei porre una nota di avvertimento. La penicillina non è velenosa quindi non c’è bisogno di preoccuparsi di un’overdose nel dare la penicillina o di avvelenamento del paziente. Ci può essere un pericolo, però, nel suo sottodosaggio . Non è difficile rendere i microbi resistenti alla penicillina in laboratorio esponendoli a concentrazioni di questa non sufficienti ad ucciderli e la stessa cosa può avvenire nel corpo… c’è il pericolo che l’uomo ignorante possa facilmente sottoporsi a dosi insufficienti di antibiotico ed esponga i suoi microbi a dosi non letali rendendoli resistenti”.

Ad oggi questo grande problema è stato sollevato dall’European Centre for Disease Prevention and Control in concomitanza con la “Giornata europea degli Antibiotici”. Questa iniziativa si svolge ogni anno il 18 novembre e gli obiettivi dell’evento sono informare la popolazione sul corretto utilizzo degli antibiotici e sensibilizzarla alla minaccia della resistenza.

L’Organizzazione Mondiale della Sanità (OMS) definisce l’antibiotico-resistenza uno dei maggiori pericoli per la salute umana. Le infezioni causate da batteri resistenti agli antibiotici uccidono ogni anno circa 50.000 persone negli Stati Uniti e in Europa, e dalle stime dell’OMS si vede che l’andamento è crescente. I dati confermano che in Unione Europea il numero di batteri resistenti è in aumento e che la resistenza agli antibiotici rappresenta una delle minacce più temibili per la salute pubblica Europea. Come possiamo vedere dalla distribuzione mostrata nell’immagine, in soli tre anni il numero di batteri resistenti di K. pneumoniae, responsabile della polmonite batterica, è aumentato in maniera significativa.

Vediamo in particolare come in Spagna, Irlanda ed Est-Europa sia aumentata la percentuale di resistenza. Polonia e Grecia hanno raggiunto valori davvero preoccupanti, che mettono a rischio la salute dei cittadini. In Italia non si può sottovalutare la situazione, che come si vede persiste in valori molto gravi. Inoltre nel nostro Paese gli antibiotici sono i medicinali con il maggior numero di prescrizioni non necessarie. Il consumo di antibiotici si caratterizza per un consumo pari al 200% rispetto ad altri Paesi Europei.

La produzione di nuovi antibiotici non è una soluzione efficace e sufficiente per risolvere il problema, infatti si parla di processi molto lunghi e dispendiosi, che non riescono a stare al passo con il fenomeno dello sviluppo della resistenza. Il problema non è solo di carattere scientifico ma anche economico. Le industrie che producono questi farmaci devono seguire degli iter di ricerca molto lunghi e costosi, il cui successo non è mai garantito. In particolare molte ricerche in questo settore vengono abbandonate perché poco redditizie, dato che gli antibiotici non vengono utilizzati in maniera continuativa nel tempo e quindi non costituiscono una fonte di guadagno costante. Altre tipologie di medicinali, ad esempio i farmaci oncologici, permettono un ritorno economico più sicuro dato l’utilizzo costante nel tempo, non c’è quindi da meravigliarsi se le industrie preferiscono investire in questi settori. In conclusione per smuovere questa situazione ed evitare l’era post-antibiotica è necessario che la popolazione sia istruita a un corretto utilizzo degli antibiotici attraverso compagne di sensibilizzazione che dovrebbero partire fin dall’ambiente scolastico.

Ma, alla fine, noi nel nostro piccolo, cosa possiamo fare?
Ecco qui cinque regole fondamentali per l’uso corretto degli antibiotici:
1)    Assumere gli antibiotici solo sotto prescrizione medica.
2)    Gli antibiotici vanno assunti secondo le modalità e tempi indicati.
3)    Non terminare il trattamento prima dei tempi indicati.
4)    Non cambiare antibiotico spontaneamente.
5)    Non utilizzare antibiotici avanzati da terapie precedenti.

….e ricorda:

✓    Gli antibiotici NON prevengono la trasmissione d’infezioni virali: non assumerli in caso di raffreddore o influenza!
✓    Assumere antibiotici quando non necessario non porta benefici!
✓    Un utilizzo errato di antibiotici può favorire l’insorgere della resistenza la quale può pregiudicare l’efficacia di una successiva terapia antibiotica!

Elisa Godino, Veronica Pinamonti

 

Pubblicato su L’Adige il 07/04/2015