Daily Archives

29 Articles

Posted on

Negli anni ’60 a programmare erano le donne, ora però si è affermato lo stereotipo del programmatore

Negli anni ’60 a programmare erano le donne, ora però si è affermato lo stereotipo del programmatore

Women aren’t failing at science – science is failing women” (“Non sono le donne a fallire con la scienza, è la scienza che sta tradendo le donne“), così recita il titolo di un articolo uscito sul blog di Nature lo scorso marzo. Sembrerebbe, da uno studio dell’Università di Maastricht, che le donne (lo studio in particolare indaga la situazione delle scienziate in Messico), pur garantendo spesso un livello di ricerca più elevato rispetto agli uomini, siano considerate meno produttive rispetto a questi ultimi, e che vengano retribuite meno di loro. E ciò purtroppo non sorprende.

Si sente tanto (e ancora) parlare di gender (dis)equality, gender bias, e se ne sente parlare tanto nel mondo scientifico. Quindi, da donna che sta per diventare scienziata, mi sono ritrovata spesso a pensare se effettivamente questa diversità di genere fosse reale. E purtroppo sembra che lo sia.

Secondo delle statistiche non troppo recenti, ma significative, della Commissione europea, il 40% dei dottorandi nell’ambito scientifico sono donne; però se si guardano le percentuali di professori e ricercatori donne, queste scendono fino all’11.3% .

Facendo un’analisi più generale, si vede che la percentuale di donne nel mondo scientifico è solo del 24%, con l’Italia che si distingue negativamente con un misero 13%.

Inoltre, da una statistica svolta in Canada, risulta che le donne canadesi nel 2015 abbiano guadagnato il 15% in meno rispetto agli uomini nelle scienze naturali e applicate.

Il grafico sottostante mostra chiaramente l’esistenza di questo ‘gender gap‘.

 

Se si focalizza l’attenzione sul mondo della programmazione, le statistiche vanno peggiorando. Nell’ambito dell’high-tech e dell’ingegneria i numeri infatti sono ancora più bassi; il 21,9% degli studenti PhD sono donne, mentre solo il 5,8% di loro si trova ai livelli più alti dell’accademia.

Il trend delle donne impiegate nell’ambito della programmazione è estremamente sorprendente. Infatti, back to the 60’s, il mestiere del programmatore era considerato prettamente ‘da donna‘. Brenda D. Frink – ricercatrice al ‘The Clayman Institute for Gender research’ – spiega come alla fine degli anni ‘60 molte persone percepissero il lavoro del programmatore come una naturale scelta  di carriera per giovani donne intraprendenti. Per esempio, in un articolo del Cosmopolitan del 1967 intitolato ‘The Computer Girls’, questo campo veniva descritto come uno dei migliori – rispetto a molte altre carriere – nell’offrire offerte di lavoro alle donne.

Quindi le donne prima programmavano. Per fare un esempio, Dame Stephanie Shirley, una donna inglese di ormai 83 anni, fondò negli anni ‘60 una startup di software che accoglieva solo donne.

Per quell’epoca questo fu un evento travolgente; le donne sì programmavano, però che una donna fondasse una delle prime startup britanniche, e per di più di solo donne, era sicuramente un fatto insolito, soprattutto per quegli anni ancora pieni di discriminazioni.

Nelle università di allora, l’unico ambito scientifico a cui le donne avessero accesso era la facoltà di botanica (come lei stessa scrive nella sua autobiografia ‘Let IT Go’). Quindi in seguito Stephanie decise di fondare un’azienda che desse opportunità di lavoro a donne intraprendenti e lavoratrici (a quel tempo il codice binario veniva scritto su carta), introducendo lo stipendio fisso e il lavoro part-time, e permettendo alle donne di continuare a lavorare anche da casa. La sua azienda di software ora vale 3 miliardi di dollari.

Inoltre, un film dell’anno scorso, il diritto di contare (‘Hidden figures’) racconta della matematica e programmatrice Margot Lee Shetterly che collaborò con la Nasa tracciando le traiettorie per il programma Mercury e la missione Apollo. Per la suddetta questa fu una duplice sfida, contro il razzismo e il sessismo – dato che anche in questo caso si parla dell’inizio degli anni ‘60.

Poi cos’è cambiato? Il seguente grafico mostra come negli anni ‘80 iniziò una decrescita nella percentuale di donne che sceglievano la carriera informatica.

Ma quindi cosa è successo negli anni ‘80?  La risposta non è assolutamente chiara. Alcuni ipotizzano che, quando la programmazione ha cominciato a diventare un lavoro redditizio e stimolante, le associazioni abbiano iniziato ad assumere uomini scoraggiando l’inserimento delle donne in tale ambito. Infatti gli uomini spesso avevano accesso a corsi di matematica che gli garantivano un vantaggio rispetto alle donne.

Altri pensano invece che la decrescita sia avvenuta contemporaneamente all’avvento dei primi computer che inizialmente erano dei giochi, giochi che spesso erano rivolti a uomini e bambini. Ma la domanda rimane totalmente aperta, e non è scopo di questo breve articolo andare ad interrogare le ragioni di questa decrescita.

E invece oggi? Nei nostri giorni, ciò che sta alimentando questo gap è ciò che viene chiamato  ‘stereotype threat’ (la minaccia dello stereotipo). Anche se ormai ragazzi e ragazze hanno eguale possibilità di accedere ai computer, sembra che i ragazzi passino più tempo davanti ad un pc, per giocare, programmare o navigare su internet, mentre sembra che le ragazze abbiano meno confidenza con i computer.

Per confermare questa idea, uno studio del 2009 ha mostrato come le persone possano prendere la decisione di intraprendere un certo tipo di carriera, solamente basandosi sull’ambiente relativo ad essa.

In quattro studi hanno dimostrato come il differente interesse per il computer tra uomini e donne possa essere influenzato semplicemente dall’esposizione all’ambiente associato con gli informatici. Per esempio, cambiare gli oggetti presenti in un’aula di informatica, da quelli considerati tipici di un programmatore (per esempio poster di star trek, video games) in oggetti non stereotipicamente associati ai programmatori, era sufficiente ad attirare l’attenzione delle ragazze allo stesso modo con cui venivano attratti i compagni maschi.

Le statistiche mostrano quindi che le donne, che generalmente si trovano in minoranza nel mondo scientifico, sono ancora più sotto-rappresentate nell’ambito dell’informatica. Qui oltre alle solite dinamiche che tendono ad allontanare le donne, si aggiunge questa forte influenza di stereotipo per cui le donne perdono qualsiasi tipo di interesse nell’intraprendere il mestiere del programmatore.

Eppure, come mi disse mia madre, programmatrice da quasi 40 anni, è uno di quei lavori in cui non dovrebbero esistere discriminazioni. Non è un lavoro fisico, tutt’altro, ed è un lavoro che si può spesso fare comodamente da casa, con i pupi, in malattia o anche in vacanza.

Negli anni ‘60 Dame Stephanie Shirley si firmava come Steve per sfuggire al sessismo che incombeva in quegli anni. Ciò non dovrebbe succedere al giorno d’oggi. Eppure da un’analisi su githubsembrerebbe che i codici scritti dalle donne siano i più apprezzatiperò solo quando il genere dell’autore viene nascosto. Considerando invece solo i codici scritti dalle persone con identità scoperta, l’apprezzamento generale si sbilancia verso i codici scritti da uomini. Anche se probabilmente questa analisi non ha nessuna significatività statistica, dà sicuramente da pensare. Ce n’è ancora di strada da fare prima di ottenere questa anelata uguaglianza di genere.

Valentina ed Erinda, due giovanissime programmatrici, si sono esattamente poste questo problema ed hanno deciso di prendere parte a questa lotta contro lo stereotipo; nel fare ciò hanno proposto, proprio a Trento, un bellissimo progetto per far avvicinare le donne a questo stimolante mondo dell’informatica. Il progetto si chiama Girls Code IT e, come altri in giro per il mondo, ha lo scopo di creare un ambiente protetto di sole donne, evitando che, come di solito succede, gli uomini siano la maggioranza dei partecipanti.

E questo forse può essere un modo efficiente per combattere questo ‘stereotype threat’ che pesa sul mondo dell’informatica, e scoraggia tante menti nell’entrare a farne parte.

 

(di Nicole Salvatori)

 

Articolo pubblicato su Il Dolomiti il 22/07/2017

Posted on

Alla scoperta delle ‘idee di confine’ tra scienziati di tutto il mondo, l’esperienza di Open Wet Lab in Olanda

Alla scoperta delle ‘idee di confine’ tra scienziati di tutto il mondo, l’esperienza di Open Wet Lab in Olanda

Come vi avevamo anticipato, Open Wet Lab ha partecipato all’ultima edizione del festival ‘Border Sessions‘, tenutasi recentemente all’Aia (Qui post precedente). Con questo articolo vi racconteremo la nostra esperienza.

28 Giugno 2017, L’Aia, Paesi Bassi, Europa, Pianeta Terra

E’ una giornata grigia e piovosa, scendiamo dal treno in stazione centrale e ci dirigiamo verso il luogo designato per i laboratori. All’ingresso ci attendono due ragazzi che ci consegnano i biglietti, ci invitano a prendere posto e ci indicano nome e password della rete wifi:

Network: The Grey Space in the Middle ‘Lo Spazio Grigio nel Mezzo

Password: questioneverything ‘metti in dubbio qualsiasi cosa

Le premesse sono chiare, non siamo qui per partecipare ad un laboratorio ordinario, con persone ordinarie che si occupano di cose ordinarie.

‘Border Sessions’ è un festival nel quale scienziatiartistipolitici innovatoridi ogni genere si ritrovano per discutere di ‘idee di confine‘, di visioni e di tecnologie che stanno trasformando il nostro modo di vivere. Siamo stati invitati dalla Waag Society, una organizzazione di biohacking affine alle nostre attività, per partecipare come partner alla sessione da loro organizzata. Le premesse sono eccitanti e non attendiamo altro che l’inizio della giornata.

Il primo laboratorio tratta della nuova tecnologia per la modifica del genoma: Crispr. Si parla delle sue implicazioni etiche e della sua percezione da parte della società.

L’argomento è fondamentale perché, come ci viene mostrato in pratica, le sue applicazioni sono tanto rivoluzionarie quanto relativamente semplici da portare a termine, rendendole di conseguenza potenzialmente pericolose. Guidati da biologi esperti ci ritroviamo a preparare le soluzioni per portare a termine una modifica genomica di un batterio, attraverso l’utilizzo della tecnologia Crispr.

Prima di concludere l’esperimento, la responsabile del laboratorio ci pone di fronte una questione fondamentale: siamo sicuri di volerlo portare a termine? La reazione che stiamo compiendo è infatti illegale, perché comporta la creazione di un organismo geneticamente modificato al di fuori di uno spazio predisposto come quello di un laboratorio.

Ci guardiamo attoniti tra partecipanti: siamo sicuri di volerlo fareQuali sono i motivi che ci spingono a continuare la ricercaIn che misura questa si relaziona con il benessere della società?

Fin dal primo momento veniamo esposti alla riflessione centrale dell’intero festival: qual è lo scopo del progresso tecnologico e in che modo la società civile si confronta con esso? E’ una riflessione essenziale e cruciale dei nostri tempi, in cui le novità tecniche influenzano le comunità umane ad un ritmo accelerato.

La giornata prosegue con incontri tenuti da altri biohackers austriaci e olandesi, in cui ci sono stati presentati progetti artistici all’interfaccia tra la scienza dell’informazione e le biotecnologie. Venire a conoscenza di come si possa fare arte mediante sistemi biologici ed algoritmi è stata una scoperta affascinante: unire la potenza comunicativa dell’arte con la creatività e le innovazioni scientifiche ci è sembrata essere una combinazione strabiliante.

La giornata si è quindi conclusa con un lungo laboratorio sugli effetti del cibo e degli inquinanti sul sistema endocrino umano. Come il resto delle attività della giornata anche questa è stata a dir poco conturbante. Partendo dagli estrogeni naturali e dagli aromatasi inibitori (molecole naturali e che hanno un effetto sul sistema ormonale dell’uomo e della donna) il laboratorio ci ha portato a discutere del concetto di gender‘ e dell’effetto di queste sostanze sullo sviluppo sessuale e la sessualità.

Abbiamo avuto l’onore di discutere di queste tematiche fondamentali con persone diverse e con diverse preparazioni in ambito artisticoscientifico filosofico: è stato un momento costruttivo, un invito a riflettere e a usare un pensiero critico, cosa che spesso dimentichiamo di fare, travolti dall’eccesso di informazione.

29 Giugno 2017, L’Aia, Paesi Bassi, Europa, Pianeta Terra

Il secondo giorno è stato altrettanto sorprendente: i laboratori hanno lasciato spazio alle presentazioni di scienziati ed inventori di tutto il mondo, che hanno voluto condividere con noi le loro esperienze e le loro idee, lasciandoci importanti spunti di riflessione. Due in particolare hanno catturato la nostra attenzione.

Il primo è stato uno scienziato giapponese che ha presentato il ‘pesce-robot‘: un robot marino il cui sviluppo, avvenuto quasi per gioco, ha portato alla creazione di tecnologie con possibili applicazioni nel campo della chirurgia.

Il secondo è stato un agronomo americano che si occupa di ‘fattorie verticali‘: si tratta di tecniche di coltivazione verticale, senza l’utilizzo di suolo, per le quali si stanno scoprendo nuove possibilità di creare un sistema che sia in grado di autosostenersi dall’inizio alla fine, riducendo al minimo gli sprechi. Una possibile applicazione è appunto la coltivazione in-loco di ortaggi e frutta. Forse un giorno entreremo nei supermercati e coglieremo direttamente dalla pianta i pomodori che intendiamo acquistare.

Il messaggio centrale di questa giornata è stato l’importanza della collaborazione, che deve essere incentivata non solo a livello di discipline e competenze ma anche di paesi e culture. Le sfide globali che ci attendono non possono che essere risolte attraverso un intenso lavoro di comunicazione e sviluppo di visioni comuni alla soluzione dei problemi.

Scienziati ed ingegneri devono lavorare insieme a politicieconomistiantropologi ed artisti, di paesi e culture diverse, uniti dalla passione e dall’obiettivo di costruire un mondo migliore per le future generazioni.

Divulgare e diffondere idee innovative e inter-disciplinari è la chiave affinché la società civile sia parte del processo di sviluppo stesso.

Questo clima di collaborazione e condivisione che si vorrebbe creare implica l’abbattimento delle barriere per l’instaurazione di un dialogo comune che vada ben oltre i confini della scienza e insegni a ognuno di noi a fare tesoro delle idee e delle peculiarità altrui, cosa che può avvenire solo se si impara prima di tutto a rispettare il prossimo in quanto essere umano.

Noi di Open Wet Lab ci stiamo provando, consapevoli che anche nel piccolo della realtà trentina si possano avere grandi idee. ‘Border Sessions’ ci ha insegnato che, come noi, molti altri sono impegnati nell’intento. E voiAccettate la sfida?

 

(di Giovanni Palla e Chiara Baggio)

 

Articolo pubblicato su Il Dolomiti il 04/07/2017

Posted on

Dalla colonia umana su Marte ai pesci robot, gli Open wet lab trentini in Olanda tra futuro e innovazione

Dalla colonia umana su Marte ai pesci robot, gli Open wet lab trentini in Olanda tra futuro e innovazione

Difficile dire cos’hanno in comune un ingegnere aerospaziale e un performance artist, ma tra qualche giorno loro e molti altri si incontreranno a L’Aia nei Paesi Bassi. Qui dal 28 al 30 giugno si terrà la settima edizione di ‘Border Sessions‘ e anche noi di Open Wet Lab saremo là ad assistere a questo e molti altri incontri inusuali.

‘Border Sessions’ è un festival incentrato sulla tecnologia che mira ad essere terreno fertile per l’avvio di nuovi progetti e idee, con una forte spinta verso la multidisciplinarietà.

Gli ospiti sono una sensazionale folla di personalità interessantiscienziati-artistiesperti di sharing economypionieri delle Smart Citiesfondatori di NGOs innovative e tutta una lunga serie di professioni e aree di expertise che probabilmente neppure esistevano fino a pochi anni fa.

Arno Wielders, fondatore e direttore del programma Mars One, ci parlerà di come si costruisce una colonia umana su MarteIkuo Yamamoto dall’Università di Nagasaki ci parlerà di ingegneria marina avanzata mostrandoci i suoi pesci robot. Lo scrittore e saggista Mark O’Connell dialogherà sul transumanesimo, il movimento che mira ad usare la tecnologia per cambiare la condizione umana fino al punto di renderci migliori degli animali che siamo.

A ben guardare tutte queste menti qualcosa in comune ce l’hanno: la convinzione che la tecnologia dovrebbe essere un potente strumento per portare nel mondo un cambiamento positivo. Tecnologia presentata come una vera e propria estensione dell’umanità, pervasiva, vivente e pensante, come un frutto dell’evoluzione al pari di animali, piante e batteri.

Il festival si aprirà con una giornata interamente dedicata a workshops e laboratori, in cui i partecipanti saranno invitati non solo a discutere e dialogare, ma anche a sperimentare e costruire in prima persona.

Non potrebbe esserci posto migliore per noi di Open Wet Lab: parteciperemo al laboratorio DIY Human Enhancement (Potenziamento umano fai-da-te) organizzato dalla Waag Society di Amsterdam, uno degli Open wetlabs più grandi ed attivi d’Europa. Qui conosceremo e toccheremo con mano alcune delle più recenti biotecnologie, come CRISPR-cas9, delle quali i nostri lettori più appassionati hanno sicuramente già sentito parlare.

Saremo guidati da ricercatori, ma anche artistidesignersgiornalisti, con i quali ci sarà modo di confrontarsi criticamente sulle potenzialità e sull’impatto di queste tecniche sulle generazioni future. Siamo stati invitati insieme a membri di organizzazioni di Do-it-yourself biology da tutto il continente, in modo che la condivisione di esperienze tra le diverse realtà possa essere occasione di crescita e di formazione per tutto il movimento dei bio-hacker in Europa.

Come unici rappresentanti italiani, non vediamo l’ora di farci conoscere e di diventare membri attivi di questa comunità, ma ci auguriamo specialmente di imparare tanto in questo contesto così stimolante. Partiamo con l’obiettivo di portare nuove idee e input nella nostra realtà locale, sia per tutti i membri di OWL che per tutta la comunità trentina, per la quale vogliamo pensare nuovi laboratori, attività, eventi.

Sappiamo che non potete prendere tutti l’aereo con noi, ma seguite le nostre giornate a ‘Border Sessions’ sulla nostra pagina Facebook o Twitter, perché ne vedremo delle belle. Una volta di ritorno, non vediamo l’ora di riproporvi e farvi provare tutto, perché agli OWLers non piace essere semplici spettatori. Ci vediamo a L’Aia.

 

(di Emma Dann)

 

Articolo pubblicato su Il Dolomiti il 26/06/2017

Posted on

Salute disuguale, cura personalizzata: ecco cos’è la medicina di precisione

Salute disuguale, cura personalizzata: ecco cos’è la medicina di precisione

La salute disuguale‘ è stato il titolo e tema del recentemente concluso festival dell’Economia di Trento. In chiave sociale ed economica sicuramente questo viene considerato come un problema da risolvere, nell’ottica di garantire uguaglianza nell’accesso alle cure e ai farmaci.

Dal punto di vista della medicina invece l’eterogeneità della salutee quindi della malattiaè un dato di fattonon esiste e mai esisterà un paziente che sia uguale ad un altro. Ne abbiamo la certezza, oggi più che mai, potendo contare su una mole senza precedenti di dati. Non che la ricerca del passato non si prodigasse per ottenere informazioni accurate, ma la quantità delle informazioni è aumentata drasticamente.

La rivoluzione dei ‘big-data‘ ha investito anche il campo della ricerca biomedica: tecnologie all’avanguardia, come i metodi di sequenziamento del Dna, hanno permesso di raccogliere e analizzare informazioni mai viste prima sugli aspetti molecolari delle malattie. Nel frattempo, le cartelle cliniche vengono digitalizzate e le aziende sanitarie nazionali, le compagnie farmaceutichegli istituti di ricerca ri-organizzano anni e anni di studi in databases mastodontici.

I dati sono il nuovo strumento che ci permette di fare scoperte sorprendenti: con un tradizionale microscopio si può osservare biopsie di tessuto da molti pazienti e diagnosticare un tipo di tumore. Ora, grazie al più potente microscopio dei big data sappiamo che quei tumori così simili possono avere origine da un’estesa variabilità di mutazioni aventi differente significato, in termini sia di prognosi che di terapia.

Tutte quelle malattie che etichettiamo con lo spaventoso nome ‘Cancro‘ sono in realtà un paio di centinaia di patologie diverse, ognuna derivante da una propria disfunzione molecolare. Anche tumori dello stesso tipo secondo la classificazione dell’oncologia ‘vecchia scuola‘, basata sulla parte del corpo inizialmente afflitta, possono essere invece estremamente eterogenei e da attaccare ognuno con la propria strategia.

Il confronto di dati ottenuti da pazienti con cancri diversi ha già portato sorprese su questo fronte: ad esempio certe metastasi di tumore alla prostata, se sopravvivono al trattamento con i farmaci di prima linea, assumono caratteristiche che li fanno assomigliare molto di più a tumori tipici del polmone rispetto al tessuto prostatico originario.

Potenzialmente l’oncologo può quindi andare a cercare nel cassetto dei chemioterapici per i pazienti di tumore al polmone per attaccare queste metastasi su cui tutto l’armamentario noto anti cancro alla prostata ha già fallito.

Talvolta dai dati è stato anche scoperto il contrario: farmaci che venivano usati contro un gran numero di malattie in realtà non funzionano sempre.

C’è quella piccola percentuale di pazienti che in realtà non ha il danno al Dna contro cui può agire il farmaco, ma ha una mutazione diversa, in un’altra parte del genoma. Il trattamento con il farmaco sbagliato può in molti casi costare la vita al paziente e – come se questo non dovesse essere un prezzo sufficientemente alto – un costo inutile ai danni del sistema sanitario.

La buona notizia è che ogni giorno che passa abbiamo più informazioni. Ogni giorno che passa vengono messi insieme più pezzi del complesso scenario di molti tipi di malattie. Sarebbe folle non approfittare di questa miniera d’oro: per decenni la ricerca medica e farmacologica si è spesa con un approccio ‘One-size-fits-all‘, a taglia unica, a cercare farmaci quanto più ad ampio spettro o terapie efficaci su quanti più pazienti affetti da malattie simili.

Le cure di nuova generazione sembrano invece essere orientate verso la cosiddetta ‘medicina di precisione‘, come un vestito su misura. Di cosa si tratta? Per l’istituto nazionale di sanità statunitense (NIH) la medicina di precisione è un approccio emergente per il trattamento delle malattie che tiene in considerazione la variabilità individuale nei geni, nell’ambiente e nello stile di vita di ogni persona. In parole povere, la medicina di precisione richiede che i dottori che non prescrivano terapie per diverse malattie, ma per diversi pazienti.

E mica è solo un sogno nei cassetti delle scrivanie di dottoroni delle Medical Schools: è già un’idea discussa da molti policy makers.

Nel 2015 Barack Obama ha lanciato la Precision Medicine Initiative, con l’obiettivo a breve termine di incentivare la ricerca su nuovi trattamenti per diversi tipi di cancro basati sulla crescente conoscenza della genetica e della biologia della malattia: l’NIH sta mettendo insieme uno studio che coinvolga almeno un milione di volontari – un numero davvero senza precedenti – che forniscano i loro dati sanitari da usare per lo sviluppo di nuovi farmaci e terapie mirate. Sul lungo termine si prevede invece di integrare l’approccio della medicina di precisione nel sistema sanitario. Nel 2016 la spesa stimata per l’iniziativa è stata di 216 milioni di dollari.

A prima vista sembrerebbe che gli ingredienti per sviluppare la medicina di precisione siano un numero considerevole di volontari disposti a cedere i loro dati sensibili e tantissimi soldi. Una combinazione che fa storcere il naso agli scettici. Con la necessità di gestire una mole immensa di dati sanitari, sarà fondamentale trovare modi per proteggere la privacy dei partecipanti nei programmi di ricerca prima e dei pazienti poi.

Gli sforzi attuali sono orientati verso lo sviluppo di un processo rigoroso di consenso informato. Parlando di soldi invece, purtroppo al momento c’è poco da fare: il successo di iniziative come la Precision Medicine Initiative dipenderà da investimenti molto cospicui su un lungo periodo – quindi non in balia delle tempestose fluttuazioni del policy making.

Ne varrà la pena? Gli esperti promettono di sì. Dal punto di vista economico, riuscire a predire in maniera efficiente il farmaco giusto per curare ogni paziente si traduce in meno soldi sprecati in molte terapie inefficaci. Inoltre utilizzando in maniera più efficiente molti farmaci già approvati e in commercio si riduce la necessità di svilupparne di nuoviun processo che costa circa 1,5 miliardi di euro e 12 anni per mettere sul mercato 1 farmaco ogni 5.000 candidati.

I benefici economici forse tarderanno ad arrivare, ma i benefici dell’approccio sul paziente sono già molto attuali. Alcuni farmaci mirati stanno già entrando nella prassi clinica: ad esempio l’Imatinib è un farmaco che bersaglia l’enzima prodotto da una fusione tra due geni ricorrente in un particolare tipo di leucemia cronica, oppure l’Herceptin viene usato per la cura al cancro al seno delle donne con il profilo genetico definito HER2+.

Per i non addetti ai lavori, le prestazioni di alcuni di questi farmaci di nuova generazione potranno sembrare ridicole: spesso si parla di un aumento di sopravvivenza media di pochi mesi. La verità è che si tratta di risultati esaltanti: se una terapia aggiunge in media 3 mesi di vita su una ventina di pazienti, probabilmente due o tre dei pazienti su cui è stata testata la terapia sono sopravvissuti fino a un anno in più. Dai pazienti in cui si ottengono i risultati più promettenti la ricerca può poi proseguire, capendo quali fattori hanno permesso la risposta più efficace per sfruttarli per migliorare ulteriormente il trattamento.

Ogni singola storia di guarigione o di miglioramento della vita dà speranza. Le nuove tecnologie accumulano informazioni a ritmi mai visti prima. Ora serve trasformare tutta l’informazione in conoscenza, per permettere a medici e specialisti di costruire l’armatura su misura per ogni paziente per affrontare ogni tipo di malattia.

 

(di Emma Dann)

 

Per saperne di più: http://cancer.nautil.us/article/167/how-big-data-can-help-fight-cancer

 

Articolo pubblicato su Il Dolomiti il 18/06/2017

Posted on

Il futuro del fumo: quando a dire “NO” sono le multinazionali

Il futuro del fumo: quando a dire “NO” sono le multinazionali

Se qualcuno si chiedesse mai qual è il prezzo di una vita umana, forse troverebbe più interessante leggere la storia che sto per raccontarvi, piuttosto che accendersi una sigaretta e cimentarsi in calcoli e dibattiti filosofici. In fondo, non è una questione di poco conto se per i Governi di tutto il mondo questo stesso conto può influenzare l’ammontare di risorse che ogni Stato investirà per prevenire la morte di un singolo individuo. Per una compagnia di tabacco la risposta sarebbe molto semplice. Il professore in Storia della Scienza Robert Proctor ha provato a calcolare qual è il valore di una vita umana per un produttore di tabacco. Partendo da dati epidemiologici, nel 2011 Proctorriportava che se le compagnie del tabacco guadagnano un penny – l’equivalente di un centesimo di euro – per ogni sigaretta venduta e ogni 3 milioni di sigarette vendute abbiamo una morte per cancro ai polmoni correlata al vizio del fumo, allora una vita umana può valere fino a 30000 dollari. Anche meno se consideriamo che ai giorni nostri è possibile costruire macchine capaci di produrre 20 000 sigarette in un minuto.

Mentre i tumori della trachea, dei bronchi e dei polmoni figurano come quarta causa di morte nel 2014 e le malattie ischemiche e cardiovascolari, di cui il fumo costituisce un fattore di rischio determinante, continuano ad occupare il primo posto – secondo un recente report Istat, le misure messe in atto per risolvere il problema si muovono a timidi passi. Allo stesso modo, il Center for Disease Control and Prevention (CDC) prevede che negli Stati Uniti fino a “$26.6 miliardi saranno raccolti grazie alla tassazione del tabacco nel solo 2017, ma solo $491.6 millioni – meno del 2% – saranno investiti in programmi di prevenzione.” A fronte dei miliardi  guadagnati, solo negli Stati Uniti le patologie riconducibili al fumo hanno richiesto negli anni tra il 2006 e il 2010 un’offerta sacrificale di 170 miliardi di dollari l’anno, il 8.7% della spesa sanitaria nazionale direttamente destinata alla cura di maggiorenni – escluse le cure odontoiatriche, secondo i dati del National Health Expenditure Data, NHEA.  Queste sono solo le spese direttamente destinate alla cura dei pazienti, ma gli Stati Uniti registrano una perdita in produttività annuale di 157.6 miliardi di dollari tra il 2005 e il 2009 a causa di morte prematura o esposizione al fumo passivo, secondo il 2014 Surgeon General’s Report. Ma perché essere così venali? In termini di vite umane, il fumo continua ad essere la maggior causa di morte evitabile negli Stati Uniti. E se è vero che gli U.S.A. ci hanno colonizzato principalmente attraverso la loro cultura, c’è da ammettere che anche su questo punto sono riusciti ad esportare con successo il modello americano. Come risulta dai dati Istat, “[…] In Italia, nel 2013, con riferimento alla popolazione di 14 anni e più, i fumatori rappresentano il 20,9 per cento, i consumatori di alcol a rischio il 13,4 per cento, mentre l’incidenza delle persone obese risulta pari al 10,3 per cento della popolazione adulta di 18 anni e più.”

È dunque superfluo investire soldi in innovazione e studi scientifici per sviluppare nuovi sistemi di prevenzione delle malattie legate al fumo e determinarne l’efficacia? La risposta è no. Il paradosso, o forse il miglior paradigma, sta nel fatto che non lo crede la stessa Philipp Morris International, il gigante statunitense nato nel 2008 dopo l’emancipazione definitiva dalla casa madre Altria Group. Nel Gennaio di quest’anno la nuova “visione” della compagnia si è manifestata in un rinnovamento totale del suo sito ufficiale, che si apre provocatoriamente al mondo con la domanda: «Designing a Smoke-Free Future – How long will the world’s leading cigarette company be in the cigarette business?» («Progettando un Futuro libero da Fumo – Per quanto tempo ancora la compagnia leader delle sigarette rimarrà in questo campo?»)

La notizia ha evidentemente dell’inverosimile, ma ciò è d’obbligo in un’era dove la narrativa che accompagna il prodotto assume più peso del prodotto stesso. È lo stesso André Calantzopoulos, capo esecutivo della PMI, a perorare con fierezza la strategia della compagnia e a presentare il prodotto del futuro, iQOS, come nuova alternativa. Il mantra dell’innovazione per PMI, che ha già investito 3 miliardi di dollari nel progetto, è di fatto quello di diminuire il numero dei composti dannosi che sono liberati durante la combustione di una normale sigaretta evitando la combustione stessa. Come illustrato dalle FAQ sul sito italiano di iQOS, “Poiché non c’è combustione, come avviene con le sigarette, IQOS non produce fumo, né cenere, né odore persistente.”

A prima vista, iQOS potrebbe tranquillamente mimetizzarsi in un Apple store. La linea aerodinamica nasconde un sistema di riscaldamento dal costo di 70 euro, caricabile con cartucce di tabacco, prodotte nello stabilimento di Crespellano (BO). iQOS non è una sigaretta elettronica dal momento che essa non contiene alcun liquido, ma tabacco, che viene riscaldato attraverso una lamina in platino e ceramica così da mantenere la temperatura della cartuccia a 350°C, ben al di sotto della temperatura di combustione di circa 900°. Combustione che rappresenta la causa principale della produzione di quei composti che negli anni sono stati associati agli effetti cancerogeni del fumo, quali arsenico, benzene, ammoniaca, piombo, idrocarburi policiclici aromatici et cetera. Questo prodotto è esplicitamente progettato per i fumatori e non per chi intende smettere di fumare. Il contenuto di nicotina rilasciato non varia e con esso la fidelizzazione del cliente. Riguardo al rilascio di sostanze cancerogene, sono stati portati avanti vari studi, a partire dagli scienziati della PMI stessa. Come riportato sul sito della Fondazione Veronesi, il pneumologo Roberto Boffi rassicura sulla minor tossicità di iQOS, sebbene nel corso di vari esperimenti sia stata rilevata « […] la presenza di black carbon, non rilasciato dalle sigarette elettroniche, nelle polveri sottili emesse dalle iQOS, anche se in concentrazioni del 10-15% rispetto alle sigarette normali. Il black carbon è indice di presenza nel PM2,5* di idrocarburi policiclici aromatici. Abbiamo rilevato anche una significativa presenza di aldeidi, tra cui la formaldeide che recentemente l’Agenzia Internazionale per la Ricerca sul Cancro ha inserito nella lista delle sostanze cancerogene per l’uomo […].»

*il PM2,5 è un parametro per la misurazione delle polveri sottili nell’aria; in particolare, descrive la frazione di particolati dal diametro di 2,5 µm, circa un millesimo di millimetro! Più queste particelle sono piccole, più costituiscono un pericolo per la salute.

Dall’altra parte della barricata, invece, cosa accade? Le sigarette elettroniche non hanno portato ad una graduale disassuefazione dei fumatori, nonostante le promettenti possibilità di questi dispositivi – vedi indagine Doxa. In Italia e nel resto d’Europa le normative si limitano a impedire la possibilità da parte delle compagnie del tabacco di pubblicizzare il proprio prodotto, a inserire scritte ed immagini di forte impatto visivo sul pacchetto di sigarette e ad estendere il divieto di fumo in luoghi pubblici. Un’altra forma di dissuasione che verrà adottata a breve in alcuni paesi dell’UE, quali Francia, Irlanda, Slovenia, Ungheria e l’ex membro Regno Unito, è il cosiddetto “pacchetto neutro”.  Da uno studio condotto in Australia, sembrerebbe che la neutralità del pacchetto aumenti il numero di chiamate al telefono verde contro il fumo. Il pacchetto neutro dovrebbe ridurre la percezione del fascino, provocare minor soddisfazione e dare una percezione di scarsa qualità del prodotto. Studi anche a livello mondiale sembrano suggerire che l’adozione del pacchetto neutro possa dare risultati positivi, ma i dati sono ancora parziali. Allo stesso tempo, altre ricerche reclamano la totale inutilità delle scritte e foto choc sui pacchetti di sigarette. Mark Lindstrom riporta nel suo libro “Neuromarketing” gli esiti di uno studio da lui condotto su 2081 tabagisti volontari provenienti da tutto il mondo. Utilizzando la risonanza magnetica funzionale (fMRI), una tecnica che permette di evidenziare le aree del cervello che vengono attivate durante la somministrazione di stimoli esterni, Landler ha studiato la reazione di questi soggetti alla vista delle immagini che noi tutti abbiamo l’immenso piacere di osservare su ogni pacchetto. Ebbene, le immagini catturate durante l’esperimento hanno evidenziato in molti individui una stimolazione della regione del nucleus accumbens, una delle aree bersaglio per la gratificazione attivata dalla nicotina. È da ricordare, però, che il neuromarketing è ancora una disciplina molto discussa e questo risultato necessita di essere riprodotto e promosso da studi analoghi prodotti da altri enti.

Come sappiamo, è la nicotina la protagonista di ogni sigaretta. Questa molecola è capace di attivare specifici recettori neuronali e provocare il rilascio di dopamina in determinati distretti del nostro cervello, tra questi le aree della corteccia prefrontale, del nucleus accumbens e dell’area ventrale tegmentale (VTA) legate al ”circuito di gratificazione”. È proprio l’azione diretta a livello di questo circuito che causa la dipendenza da nicotina e non solo: cocaina, metanfetamina, eroina, qualsiasi droga che provochi dipendenza interferisce direttamente con le trasmissioni sinaptiche di queste zone. La continua esposizione alla nicotina causa l’instaurarsi di un circolo vizioso, provocando la deregolazione dell’attività di vari tipi neuronali e la tolleranza nei confronti della nicotina stessa. Non c’è da stupirsi se Zeno Cosini trovava tanto difficile smettere di fumare e tanto gustose le sue ultime sigarette.

La morale di questa storia è che c’è ancora molto da fare nel campo del tabacco, soprattutto attraverso le possibilità date dalle tecnologie. L’ha capito la Philip Morris International, che nel suo quartier generale di Neuchatel investe in ricerca ed innovazione. Se veramente iQOS è una possibile soluzione lo potranno affermare solo i posteri e quei fumatori che cercano un’alternativa meno pericolosa al loro vizio preferito. Nel frattempo, ricordiamoci che “il fumo fammale” e se volete smettere, non prendete la cosa sottogamba: è sempre meglio chiedere aiuto in uno dei centri Antifumo sparsi sul territorio. Per non finire a rimproverarsi come si rimprovera Zeno: «Come quell’igienista vecchio, descritto da Goldoni, vorrei morire sano dopo di aver vissuto malato tutta la vita?»

(di Lucrezia Ferme)

 

Articolo pubblicato su Il Dolomiti il 30/05/2017

Posted on

Un secolo di insulina: tra Nobel, beagle e biotecnologie

Un secolo di insulina: tra Nobel, beagle e biotecnologie

A Elizabeth Hughes, figlia del Governatore di New York Charles Evans Hughes, fu diagnosticato il diabete di tipo 1 all’età di undici anni. Era il 1918, al tempo l’aspettativa di vita in seguito alla diagnosi si aggirava intorno ai due anni. Prima di soffermarci sulla sua storia, spendiamo qualche parola sul diabete.

Per diabete, nello specifico diabete mellito, si fa riferimento a un gruppo di malattie del metabolismo che provocano un aumento sostanziale dei livelli di glucosio nel sangue. Sintomi acuti della malattia includono il coma e la morte, mentre tra le possibili complicazioni a lungo termine troviamo malattie cardiache e renali, ulcere alle estremità degli arti e danni agli occhi.

Come sopra accennato, il sintomo per eccellenza di questa malattia sono valori elevati di glicemia, da cui la desinenza ‘mellito’ (dal latino mellitus, dolce, mieloso) introdotta da Briton John Rolle nel 1675, per via del gusto dolciastro delle urine nelle persone affette. Fin qui tutto bene; in fondo se ci nutriamo è proprio nell’intento di aumentare i livelli di zuccheri in circolo. Il problema è che il glucosio ha bisogno di essere assorbito dalle cellule del nostro corpo per poter essere utilizzato. Questo non può avvenire se non in presenza di una proteina chiamata insulina. Tale proteina viene prodotta da alcune cellule specializzate situate nel pancreas chiamate cellule-βdei potenti sensori in grado di rilevare una variazione della glicemia nel sangue. Nel caso di un aumento dei livelli di glucosio ematico, le cellule-β rispondono rilasciando in circolo più insulina, che potrà diffondere permettendo l’assorbimento del glucosio fino alle zone più periferiche del corpo.

Nei malati, tutto ciò non può avvenire, per due possibili ragioni. Nel diabete di tipo 1, anche chiamato ‘giovanile’, il corpo stesso distrugge le cellule-β; nel diabete di tipo 2, un difetto nel recettore per l’insulina impedisce a questa di esercitare il suo effetto sulle cellule e promuovere l’assorbimento del glucosio dal circolo sanguigno. Di conseguenza in entrambi i casi, in seguito all’incremento della glicemia (inevitabile dopo un pasto) il corpo non può beneficiare del glucosio prodotto, che allo stesso tempo provoca tutta una serie di altri danni colpendo per lo più reni, cervello e occhi. Sebbene entrambe le tipologie di diabete abbiano basi di predisposizione genetica, il secondo tipo è fortemento legato allo stile di vita dell’individuo.

L’incremento sostanziale delle diagnosi nelle ultime decadi in Italia e all’estero, specialmente diabete di tipo 2, è di dominio pubblico. Figura assieme a cancro e malattie cardiache tra i grandi mietitori di vite nell’era moderna. Quali sono i numeri? La media di incidenza nei Paesi in via di sviluppo si aggira intorno a un malato ogni trenta persone, nei Paesi sviluppati queste cifre triplicano. Il tasso di mortalità ha una distribuzione più eterogenea, legata a fattori di prevenzione, assistenza sanitaria e copertura farmacologica. Più di due milioni di morti sono conteggiati in media per ogni anno sull’intera popolazione mondiale. Le due ragioni per cui il tasso di diabete è in aumento sono senza dubbio il problema della sovralimentazione, che, per quanto prerogativa del ‘Primo mondo’, affligge anche i Paesi in via di sviluppo. La seconda è il semplice fatto che fino al 1922 (quando si iniziò a utilizzare l’insulina su pazienti umani) il numero netto dei malati stentava a salire, in quanto di diabete – semplicemente – si moriva.

La somministrazione di insulina, spesso in completa autonomia, è il trattamento utilizzato nei pazienti affetti da diabete 1; l’approccio principale per l’alleviamento dei sintomi in entrambi i tipi di diabetici è invece il cambiamento dello stile di vita e dell’alimentazione. A questo proposito, tornando a parlare di Elizabeth Hughes, la bambina fu sottoposta a una rigida dieta come previsto al tempo. All’età di dodici anni era alta un metro e cinquanta e pesava una ventina di chili, la malnutrizione stava iniziando a prendersi ciò che veniva sottratto alla malattia.

Allo stesso tempo nel laboratorio del Professor John Macleod, a Toronto, uno studente di nome Charles Best e il suo supervisore dott. Frederick Banting riuscivano nell’intento di trattare il diabete nel primo paziente al mondo: un beagle. Al cane in questione era stato asportato il pancreas, sulla falsariga di un esperimento dell’anteguerra del rumeno Nicolae Paulescu. Come già risaputo al tempo, il cane aveva sviluppato i sintomi del diabete non appena rimosso l’organo. La squadra di ricercatori produsse una rudimentale ‘spremuta di pancreas’, che venne somministrata per via endovenosa all’animale, ripristinando i normali livelli di glicemia. L’entusiasmo portò alla purificazione della prima dose di insulina della storia, che in barba al normale processo dei trials clinici, fu testata direttamente da Banting e Best su loro stessi per constatarne la non-tossicità.

Il trattamento era, per usare un eufemismo, ancora in fase embrionale, tuttavia come spesso succede quando si parla di cure miracolose, la voce si sparse a macchia d’olio. L’estate dello stesso anno Banting venne contattato dal Governatore Hughes che lo ‘convinse’ a prendere in cura sua figlia. La ragazza si trasferì a Toronto e fu una dei primi soggetti al Mondo a beneficiare della cura. Elizabeth visse fino alla veneranda età di settant’anni, dopo la bellezza di 40 mila iniezioni di insulina.

Solitamente tra scoperta e trattamento tende a trascorrere una decina di anni, mentre panacee e sacri Graal della medicina che fanno scalpore sono spesso fuochi di paglia di disonestà e disinformazione. La storia dell’insulina è l’eccezione alla regola e, se vogliamo, un cattivo esempio di condotta nell’ambito del processo biomedico. Studi condotti su numeri esigui di modelli animali portarono una sostanza prima di allora sconosciuta alla sperimentazione umana in un lasso di tempo estremamente breve. Quello che salva il gruppo di ricercatori dall’essere tacciati di ‘Vannonismo’ sono però il metodo e l’attendibilità dei loro risultati, che pochi anni dopo valsero il Nobel a Macleod e Banting.

Elizabeth fu una ragazza fortunata, grazie all’influenza del padre riuscì a entrare in possesso di una delle prime rare partite di quel rimedio miracoloso che il Mondo doveva ancora conoscere. Prima che l’insulina venisse prodotta su larga scala per soddisfare l’ingente e disperata domanda, dovette trascorrere più di una decade e un altro premio Nobel.

Cosa si è fatto da allora? Negli anni a ridosso di questi eventi, gli sforzi da parte della comunità scientifica si focalizzarono primariamente nell’incrementare la produzione e facilitare il recupero di insulina. Essa fu la prima proteina umana a essere sintetizzata chimicamente in laboratorio, dopo che Frederick Sanger ne pubblicò la struttura nel 1955, studio che portò al secondo Nobel nella storia del diabete. In questo ambito si assistette in seguito a uno dei grandi trionfi delle biotecnologie, che permisero di evitare il sacrificio di animali o l’utilizzo di processi petrolchimici per la sua produzione, andando invece a sfruttare microorganismi e tecniche di gene editing. In breve, nei batteri viene inserito un gene che permette loro di produrre insulina in grandi quantità. Ad oggi la quasi totalità dell’insulina è prodotta in fermentatori contenenti svariate migliaia di litri di brodo batterico.

Un secondo problema da affrontare affligge praticamente ogni farmaco. L’efficacia dello stesso è strettamente legata a fattori come predisposizione dell’individuo, attività all’interno del corpo, corretta modalità di somministrazione, modulazione e dosaggio. Il diabete come ogni malattia non è estraneo a queste limitazioni. Innumerevoli varianti sono entrate in commercio con differenti tempi di assorbimento e altri parametri che se elencati annoierebbero persino il più integerrimo dei farmacisti. Nell’ambito delle biotecnologie vi sono stati sviluppi interessanti nelle modalità di assunzione del farmaco. Un approccio interessante è quello proposto da un gruppo del Politecnico Federale di Zurigo nel 2014. Si basa su un impianto sottopelle contenente cellule ingegnerizzate per funzionare in modo simile alle native cellule-β. Esse sono in grado di percepire un aumento dell’acidità del sangue, dovuta nei diabetici a un fenomeno detto chetoacidosi, producendo e rilasciando insulina come risposta. Sistemi simili hanno il vantaggio di permettere un sofisticato controllo in tempo reale del dosaggio di farmaco, che viene circoscritto al momento di reale necessità, riducendo al minimo gli effetti collaterali. Prima che tali pratiche entrino nella routine medica ci sarà ancora da aspettare, ma nell’attesa un po’ di entusiasmo non può certo nuocere.

Non sempre conclusive sono, tuttavia, le analisi eseguite da enti esterni per determinare qualora alcune delle versioni di insulina in commercio siano effettivamente migliori di quelle precedenti. Questo riflette un problema non indifferente nell’ambito dei brevetti farmaceutici, per cui minime modifiche vengono periodicamente apportate ai principi attivi allo scopo di bypassare la scadenza del brevetto. Tutto ciò è in alcuni casi giustificato, specialmente nell’ambito dei biofarmaci in generale, dal momento che gli investimenti necessari a portare sul mercato un farmaco nuovo si aggirano intorno al miliardo di dollari. Anche solo dopo due o tre trials clinici andati male una multinazionale può dichiarare la bancarotta. Inoltre gli stessi trials clinici richiedono come minimo una decina di anni, a fronte di una durata del brevetto di venti anni. Per questo le aziende cercano di ‘tenersi stretti’ i frutti del loro lavoro, modificandoli gradualmente mano a mano che i brevetti raggiungono la loro scadenza. Questo non fu il caso dell’insulina, in cui la prima manifattura su larga scala (Eli Lily and co.) si limitò a utilizzare il frutto di ricerche condotte altrove. La stessa azienda oggi è responsabile di un incremento sostanziale dei prezzi dell’insulina che, come detto sopra, trova poco riscontro in effettivi miglioramenti del farmaco e che sta danneggiando ulteriormente la reputazione del settore.

È inoltre opportuno precisare come si abbia impropriamente definito l’insulina come ‘cura’ o ‘rimedio’ all’interno di questo articolo, tuttavia è importante tenere a mente che di cura non si tratta, bensì di un trattamento efficace per minimizzare i sintomi della malattia. Con quest’ultima considerazione non si vuole condannare nessuno, ma fare presente come, prima di giungere a un rimedio definitivo che metta fine a questo capitolo nella storia della medicina, sia necessaria ulteriore ricerca, nonché un cambiamento del paradigma ‘Treat and keep’ che elimini la dipendenza cronica e periodica del paziente dal farmaco.

 

(Davide Visintainer)

 

Alcune fonti principali:

 

Articolo pubblicato su Il Dolomiti il 17/05/2017

Posted on

L’irrazionale ingenuità del cancro: quando l’abuso della medicina alternativa diventa letale – Parte2

L’irrazionale ingenuità del cancro: quando l’abuso della medicina alternativa diventa letale – Parte2

Perché proprio il cancro? Ci siamo lasciati con questa domanda nella prima parte dell’articolo. O meglio, perché si riscontra un tasso così elevato di ricorso alle medicine complementari e alternative (il 43% dei malati di cancro ne ha fatto uso nel 2010) in un gruppo di malattie così tra loro eterogenee e diversificate?

La risposta che più si avvicina alla realtà, è forse anche quella più semplice. Il cancro è un fenomeno ad elevatissimo impatto sociale. Nelle sue molteplici e perfide sfaccettature colpisce più o meno direttamente gran parte della popolazione, che sta imparando a conoscerlo, e a temerlo. Di cosa sia il cancro e quanto difficile sia pensare di poterlo curare, OWL ne ha già scritto in passato (qui l’articolo di Dennis Pedri). Già questo tipo di informazioni a carattere generale potrebbero bastare per capire che l’assunzione di una qualsiasi erba a presunto scopo curativo, ben poco potrebbe fare per contrastare un gruppo di patologie di tale complessità. Anche solo per il semplice fatto che un singolo prodotto elevato a quintessenza terapeutica contro tutti i mali, qualunque sia la natura o l’origine del medicinale, è logicamente inimmaginabile.

Ma, come detto in precedenza, la medicina alternativa non parla alla sfera razionale dei propri clienti, per sedurli. Il repertorio linguistico, al contrario della fantasia delle soluzioni proposte, è piuttosto limitato: in quello che è ormai diventato un monotono cliché, tutti promettono e annunciano a gran voce cure miracolose, rimedi naturali e approcci rivoluzionari. Eppure, l’incredibile efficacia nel catturare consensi è incontestabile. “Quando siamo aperti e in uno stato di fiducia, allora appaiono davanti a noi le persone, le situazioni e gli strumenti più giusti”, diceva Jessica Ainscough, seguace del metodo Gerson e morta di sarcoma nel 2015. Ed è proprio qui che pongono le proprie radici le terapie non convenzionali: una diagnosi di un tumore può portare sconforto, disperazione, così come la necessità di doversi sottoporre a terapie con effetti collaterali preoccupanti. E la decisione di rivolgersi a pratiche alternative trova fondamento sia in motivazioni di carattere positivo (la speranza di non incorrere in effetti collaterali), sia di carattere negativo (la disaffezione rispetto all’approccio della medicina ufficiale, considerato impersonale e troppo tecnologico). Non ho nulla da perdere a provarlo. La più classica delle ingenue affermazioni di chi compie una scelta irrazionale, dà anche il titolo ad una guida fornita dall’AIFA (qui nella versione originale in inglese) che cerca di sfatare questa pericolosa quanto diffusa credenza, nell’ottica di favorire una corretta informazione.

Link bonus: per chi mastica l’inglese, un’oncologa racconta in un articolo struggente sul Guardian la propria esperienza con pazienti che hanno fatto ricorso alla medicina alternativa.

I progressi della chemioterapia

Denominatore comune della conversione alle medicine alternative da parte dei malati di cancro è il rifiuto della chemioterapia. Tuttavia, mostrano i dati, è proprio grazie ai passi da gigante di questa ed altre terapie della medicina scientifica se oggigiorno ai tumori si può sopravvivere. In Italia, racconta il Presidente dell’Associazione Italiana di Oncologia Medica a Repubblica, ci sono circa 3 milioni di persone che continuano la loro vita dopo una diagnosi di tumore (con un incremento del 17% dal 2010 al 2015). E un milione e 900mila persone possono affermare di aver sconfitto la malattia. Oggi il 68% dei pazienti a cui vengono diagnosticati tumori frequenti vince contro la malattia; percentuali che raggiungono il 91% nella prostata e l’87% nel seno, le due neoplasie più diffuse fra gli uomini e le donne.

Al coro si univa anche il recentemente scomparso Umberto Veronesi: “Bisogna liberare la chemioterapia dallo stigma di cura devastante, che fa paura più del cancro stesso.” Anch’egli riconosceva che in passato è stata utilizzata in modo improprio, tra dosi massicce e pazienti terminali usati come target. Ma negli ultimi decenni è avvenuta una rivoluzione di pensiero per cui nella cura dei tumori si applica il principio del minimo trattamento efficace. I farmaci chemioterapici rimangono una terapia pesante e impegnativa per la persona, ma sono molto più efficaci nel combattere il tumore e gli effetti tossici delle cure sono molto più limitati e controllabili. In generale, la sopravvivenza da tumore è aumentata per vari fattori, come una maggiore diffusione degli screening, la riduzione del fumo da tabacco, l’arrivo di terapie a bersaglio molecolare e poi ancora l’immunoterapia.

La libertà di cura

Quindi, numeri alla mano, possiamo pensare di imporre alcune cure con evidenze sperimentali di efficacia come unico trattamento disponibile per tutti i pazienti? Ovviamente no. Il motivo è facilmente intuibile: il diritto alla salute dell’individuo rientra nella sua autodeterminazione. Da una parte, il medico è obbligato ad informare il paziente su tutti gli aspetti della cura prima acquisirne il consenso. Questi aspetti sono regolati dall’Art. 15 del Codice di Deontologia Medica, che cita anche: “Il medico non deve sottrarre la persona assistita a trattamenti scientificamente fondati e di comprovata efficacia”. Deve quindi assicurarsi che il paziente sia conscio di benefici ed eventuali effetti collaterali, ma non può obbligarlo a seguire una cura. Dall’altra parte, al paziente è costituzionalmente garantito il diritto a rivolgersi ad altri metodi, per i quali non sarà però fornita la copertura economica del servizio sanitario nazionale. Il servizio tutela ciò che è scientificamente riconosciuto, dopodiché ognuno è libero, a proprie spese, di decidere della propria salute.

Chi non è invece libero di decidere per sé stesso è il minore, come nel caso di Eleonora Bottaro, citato nella prima parte dell’articolo e di nuovo sotto i riflettori negli ultimi giorni per l’accusa di omicidio colposo ai genitori. Sono molte le situazioni di questo tipo, e spesso si rende necessario l’intervento del giudice tutelare, il quale decide per il minore quando ritiene che i genitori non stiano agendo per il suo bene.

Sono innumerevoli i casi di truffe legate alla medicina alternativa nei quali masse di manifestanti sono scese in piazza per invocare la libertà di cura. E l’Italia è stata più d’una volta tristemente protagonista di questi episodi: da Liberio Bonifacio che voleva curare i tumori con escrementi di capra, al metodo Di Bella che individuava l’elisir nella somatostatina, al più recente scandalo Stamina. Tutti questi casi presentano elementi comuni che ne favoriscono l’iniziale ascesa: toccano tematiche delicate e di forte impatto emotivo (tumori o bambini malati), portano le persone in piazza e soprattutto coinvolgono la politica, che sotto pressione decide di istituire commissioni e avviare sperimentazioni temporanee. Per quella relativa al metodo Di Bella, vennero reclutati 386 pazienti: 97 morirono, 32 dovettero interrompere il trattamento perché tossico, 199 presentarono una patologia in progressione, 47 una stabile e solo 3 ottennero una risposta parziale. Un disastro.

Si può fermare il serial killer?

La domanda è ovviamente provocatoria, ma gli eventi di cronaca in aumento destano molta preoccupazione. Il paragone volutamente iperbolico con un criminale che colpisce in modo seriale non vuole puntare il dito contro qualcuno o qualcosa in particolare, bensì concentrare l’attenzione su una caratteristica comune di questi casi tristemente simili: nella maggior parte di essi si tratta di tragedie che si potevano evitare. O quantomeno contenere, rallentare, dar loro speranza. La stessa speranza tanto invocata dalle cure non convenzionali che hanno allontanato quei pazienti dalla probabilità di sopravvivenza.

Si può davvero invertire questa tendenza? E’ fattibile pensare di poter informare adeguatamente tutti i malati e i loro familiari affinché non prendano scelte sconsiderate per la loro salute?

La quasi totalità delle autorevoli voci citate, si trova d’accordo su un punto chiave della questione: il rapporto di fiducia tra medico e paziente. “La maggiore capacità diagnostica di tipo strumentale e il potenziamento dei mezzi terapeutici hanno modificato lo scenario culturale nel quale porre valori e simboli della salute umana”, si legge ancora sull’Enciclopedia della Scienza e della Tecnica Treccani. Si sta perdendo quella che è la dimensione antropologica della malattia, si escludono gli spazi e si tagliano i tempi al coinvolgimento della dramma personale del paziente. Egli finisce per sentirsi sempre più solo e abbandonato dal sistema sanitario, che limita la comunicazione ad una dimensione clinica e tecnologica di difficile comprensione, e che dimentica progressivamente l’empatia. “I vari guaritori hanno successo con i malati e le loro famiglie perché dedicano molto tempo al dialogo. Senza perdere la sua scientificità anche la medicina deve recuperare la sua capacità di prendersi cura della persona nella sua unità inscindibile di mente e corpo”, continuava Veronesi nello stesso articolo. E ancora, il presidente di Aiom sostiene che se non si dedica tempo per comunicare le informazioni giuste e comprendere le necessità dei pazienti “il rischio è che perdano la fiducia in noi e diventino facile preda di promesse terapeutiche infondate”.

Una medicina intesa quindi come condivisione, rifiutando l’approccio di imposizione paternalistica. Anche di queste considerazioni ci siamo già occupati in passato ad OWL: perché le scelte dei pazienti siano informate e consapevoli, scrive Gian Marco Franceschini sul nostro blog, “occorre forse coltivare più complicità e meno riverenza”. Il tutto senza perdere di vista il paradigma scientifico, che costituisce garanzia di controllabilità e strumento di tutela dei soggetti che, soprattutto se sofferenti, sono socialmente più deboli.

Concludendo, Michela Dell’Amico su Wired rimarca quanto sia importante parlarne, continuare a raccontare di questi casi: “perché nessuna giovane vita sia di nuovo manipolata in modo così criminale, sfruttando la disperazione per soldi”. Anche noi di Open Wet Lab siamo su questa linea di pensiero, facendo della divulgazione scientifica una delle nostre missioni, in modo volontario e appassionato. Perché l’educazione diventi un buon candidato ad essere l’unico vero elisir di lunga vita.

 

(Nicola Fattorelli)

 

 

Alcune delle fonti principali:

  • National Center for Complementary and Integrative Health (NCCIH).

(https://nccih.nih.gov/health/cancer/complementary-integrative-research)

  • Complementary and alternative medicine use among cancer survivors: a population-based study (Mao 2011).

(https://www.ncbi.nlm.nih.gov/pubmed/20924711)

  • Use of unconventional medicine in Italy: a nation-wide survey (Menniti-Ippolito 2002). (https://www.ncbi.nlm.nih.gov/pubmed/11956675)
  • The prevalence of complementary and alternative medicine use among the general population: a systematic review of the literature (Harris 2000).

(https://www.ncbi.nlm.nih.gov/pubmed/10859601)

http://www.treccani.it/enciclopedia/medicina-complementare-e-alternativa_(Enciclopedia-della-Scienza-e-della-Tecnica)/

 

Articolo pubblicato su Il Dolomiti il 07/05/2017

Posted on

L’irrazionale ingenuità del cancro: quando l’abuso della medicina alternativa diventa letale – Parte1

L’irrazionale ingenuità del cancro: quando l’abuso della medicina alternativa diventa letale – Parte1

Eleonora ha 17 anni quando le viene diagnosticata una leucemia. I medici consigliano senza esitazione la chemioterapia, un trattamento divenuto con gli anni efficace a tal punto da curare l’85% dei pazienti affetti da questo tipo di tumore, restituendo loro una vita normale. Ma il padre di Eleonora non è d’accordo. Lino Bottaro è un fotografo, nel tempo libero gestore del sito Stampa Libera (non più esistente, ndr), che come lui stesso scrive si occupa di scie chimiche, “vaccini invalidanti e mortiferi”, chemioterapie date ai pazienti sotto tortura negli ospedali, terremoti indotti e via dicendo. Lino Bottaro è un ciarlatano. Lui e la moglie seguono la filosofia di Ryke Geerd Hamer, tedesco radiato dall’ordine dei medici, secondo cui le malattie non sono altro che la risposta dell’organismo a traumi psicologici. Il Tribunale dei Minori toglie loro la patria potestà, ma ottengono lo stesso grazie al loro avvocato la possibilità di curare la figlia in Svizzera. Dopo poche settimane e dosi massicce di Vitamina C, Eleonora muore.

Forse di Eleonora avrete già sentito parlare qualche mese fa: alla sua vicenda diedero voce i media, nonché il medico e divulgatore Roberto Burioni, in uno dei suoi post su facebook che spesso catturano l’attenzione dei social. Ma Eleonora è solo una delle tante, troppe vittime dell’uso sconsiderato della medicina alternativa. La Nuova Medicina Germanica ha stroncato anche Alessandra: 34 anni, due figli e un ristorante vegano da gestire. Per combattere il tumore al senoha rifiutato la chemioterapia – efficace nel 95% di questi casi, a 5 anni dall’intervento – affidandosi invece ad impacchi di ricotta e decotti di ortiche, sotto la supervisione di uno “sciamano”.

Il metodo Hamer, che è evidentemente una buffonata senza alcun fondamento scientifico, trova però moltissimi seguaci in rete: basti pensare che il gruppo facebook italiano conta più di 18 mila membri. Ed è solo la prima di una moltitudine di assurde ed illogiche presunte terapie alternative, o bufaleper meglio dire, che serpeggiano e si diffondono nel credo popolare, assumendo in breve tempo i connotati di cure miracolose. L’elenco è sconvolgente quanto interminabile, e la discussione più che mai viva sul web: da chi considera il cancro un fungo e lo combatte con il bicarbonato di sodio (nonostante la condanna per omicidio colposo e truffa all’ideatore), a chi adotta la “terapia del silenzio” e chi al contrario quella “verbale” (la cui promotrice dispone curepiuttosto eccentriche), chi si infila ceci avvolti da foglie di cavolo in ferite autoprovocate (ehm..cosa?), chi si purifica perdendo 40Kg con la “dieta shock”, chi si cura con il veleno dello scorpione azzurro, chi si affida ai pluricitati rimedi naturali: l’artemisia, l’aloe, la vitamina D, la graviola… cercare per credere: bastano poche, semplici parole chiave su Google e si spalancano le porte di unmondo parallelo di disinformazione pseudoscientifica. E’ un po’ come andare a vedere quant’è profonda la tana del Bianconiglio, solo che chi cade davvero, poi non ne esce più. Come Giuditta, che ha scelto il metodo Gerson a base di frullati e clisteri di caffè, e come gli altri non è sopravvissuta.

Link bonus: la mappa della comunità del metodo Gerson. Sì, è arrivato fino in Nuova Caledonia.

Cos’è la medicina alternativa

Ma andiamo con ordine. Cos’è la medicina alternativa, e perché così tante persone vi fanno ricorso?

La medicina complementare e alternativa (MCA) fa riferimento a un variegato insieme di pratiche per le quali non esiste prova di efficacia o, se sono state sottoposte a verifica sperimentale, ne è stata dimostrata l’inefficacia e per alcune di esse anche la pericolosità. Per tali motivi non vengono comprese nella medicina scientifica, che le relega pertanto nell’ambito delle pseudoscienze.

Per capirne di più, ci affidiamo all’Enciclopedia Treccani: “I modelli teorici che stanno alla base degli approcci diagnostico-terapeutici delle pratiche comprese nelle MCA sono talmente eterogenei da rendere praticamente impossibile l’identificazione di caratteristiche che le possano accomunare. […] In altri termini, queste pratiche non sono integrate nel modello di cura dominante, in quanto in contraddizione con diversi principî di ordine culturale, economico, scientifico, medico e formativo. […] Tuttavia, sia la richiesta sia l’offerta di questo tipo di cure nella società occidentale sono in continuo aumento, e a tutt’oggi la forza che maggiormente determina questa continua espansione sembra essere proprio il mercato.”

Abbiamo quindi ora a nostra disposizione diversi elementi per inquadrare meglio questo tipo di pratiche: si tratta di terapie che, opponendosi a priori all’applicabilità del metodo scientifico, non vengono proposte sulla base di risultati sperimentali, bensì su teorie, aneddoti, opinioni. Tuttavia, assumono oggigiorno un’importante rilevanza sociale nel mondo occidentale, in quanto diffuse in una consistente parte della popolazione che ne fa un uso regolare o occasionale. Ma quanti effettivamente si rivolgono alla medicina alternativa? Diamo un’occhiata ai numeri: negli Stati Uniti è stato stimato che il 36% della popolazione adulta usi una qualche forma di MCA nel corso di un anno. Livelli più bassi per paesi europei come il Regno Unito (10%) e l’Italia (15,6% nell’arco di un triennio, circa 9 milioni di persone). L’omeopatia è la terapia alternativa più utilizzata nel nostro paese (8.2%), seguita da terapie manipolative come la chiropratica (7%), cure erboristiche (4.8%) ed agopuntura (2.9%). E’ interessante notare come da diversi studi il profilo dei soggetti che utilizzano le MCA sia risultato essere molto simile: una più alta prevalenza di donne (perlopiù tra i 35-44 anni), di elevato livello culturale, con condizioni socio-economiche medio-alte e che ricorrono contemporaneamente, in grande maggioranza, anche alla medicina ufficiale.

La Dichiarazione di Terni

Quando un fenomeno risulta così diffuso nella popolazione, spesso il diritto finisce per farsene carico. Prendiamo l’esempio dei medicinali omeopatici: le evidenze scientifiche mostrano che si compongono fondamentalmente di acqua e zucchero (NB: questo non esclude a priori un potenziale effetto placebo), ma non si può ignorare il fatto che ci sono milioni di persone che ne fanno uso, il fatturato è in crescita costante (solo quello italiano vale 300 MILIONI l’anno!!) e che sono molti i medici che ne favoriscono la distribuzione.

Quello che si fa in questi casi è cercare un compromesso, per evitare ad esempio il contrabbando, o la vendita sottobanco. E’ bene ricordare, infatti, che l’ordinamento italiano è totalmente improntato al paradigma scientifico, e l’iscrizione all’Albo è uno degli strumenti utilizzati per mantenere i trattamenti medici ancorati a tale paradigma (in caso contrario, è esercizio abusivo di professione). Come si concilia tutto questo con la medicina alternativa? Nel caso italiano il compromesso lo si è trovato con la Dichiarazione di Terni del 2002, quando la FNOMCeO, riconoscendo la rilevanza sociale di nove discipline non convenzionali (tra cui agopuntura, fitoterapia, chiropratica ed omeopatia), ne ha classificato l’esercizio come atto medico. Questo le rende di fatto esclusiva competenza e responsabilità professionale del medico (chi le pratica senza questo requisito commette un atto illegale). Sono considerate sistemi di diagnosi, di cura e prevenzione che affiancano la medicina scientifica: questa posizione si fonda sul principio che qualunque intervento terapeutico debba essere preceduto da una diagnosi corretta. Questo significa che il naturopata può consigliare un erba per il mal di testa, ma non può prescrivere una dieta nè tantomeno una cura per una malattia.

MCA e cancro

Quest’ultimo aspetto di integrazione con la medicina tradizionale è particolarmente importante per la prescrizione e la distribuzione di medicinali alternativi. E’ innanzitutto essenziale adottare la corretta nomenclatura, che risulta spesso confusionaria nel parlato, soprattutto nell’accezione italiana dei termini. Si definiscono pratiche alternative quelle terapie utilizzate in sostituzione della medicina convenzionale, mentre si dicono complementari se vengono affiancate alla medicina scientifica; questa, assumendo entrambe le connotazioni, è detta quindi integrativa. Ecco perché lo stesso acronimo MCA può risultare fuorviante nel porre sullo stesso piano la medicina alternativa e quella complementare.

In linea di massima le patologie trattate con la medicina alternativa riguardano problemi comuni e di lieve natura. In queste situazioni le caratteristiche principali che le rendono apprezzate dai pazienti e dai loro familiari sono la valorizzazione di un approccio non paternalistico e l’attenzione all’unicità di ogni paziente, e alla sua dimensione psicologica e sociale.

Viene da sé che i problemi maggiori si riscontrano quando le pratiche non convenzionali attraversano il confine del mantenimento dello stato di salute della persona riversandosi nel campo – che non compete loro – della cura di patologie come malattie croniche o complesse, proponendosi come alternativa alla medicina scientifica. I casi più eclatanti, maggiormente portati all’attenzione dei media, e di cui abbiamo visto parecchi esempi concreti nel primo paragrafo, sono senza dubbio i tentativi di cura del cancro tramite metodi di medicina non convenzionale. Titoloni sensazionalistici di giornali online di dubbia affidabilità sono all’ordine del giorno, così come corsi e prestazioni offerti da santoni e sciamani, scoperte di cure miracolose contro tutti i mali e quant’altro. Ogni tanto, arriva anche qualche condanna per omicidio colposo, per coloro che dell’irresponsabilità sociale (e del reato di abuso di credulità popolare) ne hanno fatto un business.

E’ doveroso citare che esistono sostanziali evidenze di approcci di cure complementari che, se affiancate ad esempio alla chemioterapia nel trattamento dei tumori, possono aiutare nel contenimento di alcuni sintomi o effetti collaterali. Si parla nello specifico di contrastare nausea e vomito (che possono seguire la chemio) con agopuntura e prodotti a base di zenzero, o di combattere dolore, ansia e depressione relative alla malattia grazie a yoga e massaggioterapia.

Al contempo, il messaggio principale che tutti gli Istituti di ricerca sul cancro cercano di far passare (dall’AIRC, all’NCI americano), peraltro sostenuti dagli stessi centri che si occupano di salute complementare e integrativa (NCCIH negli Stati Uniti), è che ad oggi non esiste nessuna evidenza di efficacia della medicina alternativa nella cura del cancro o nella sua remissione. Per questo, rallentare il trattamento di un paziente affetto da un tumore per abbracciare terapie alternative può solo causare una diminuzione delle sue chance di sopravvivenza. Alcuni dei celebri rimedi naturali, come l’iperico (o Erba di San Giovanni), possono perfino contrastare l’azione di alcuni farmaci anti-cancro, rendendoli meno efficaci se presi nello stesso momento. Per questo è sempre di fondamentale importanza consultare un medico prima di rivolgersi ad una qualsivoglia terapia alternativa. Al contrario, uno studio riporta come i malati di cancro americani rivelino ai loro medici curanti solamente il 23% delle cure complementari di cui fanno uso.

Perché proprio il cancro? Vi starete forse chiedendo. A questa ed altre domande cercheremo di rispondere nella seconda parte dell’articolo. Parleremo della progressiva sfiducia nella medicina scientifica, nonostante i grandi progressi della chemioterapia, ma anche del perché non si possa obbligare una persona a seguire una determinata cura. Non perdetevi la prossima puntata!

 

(Nicola Fattorelli)

 

Alcune delle fonti principali:

  • National Center for Complementary and Integrative Health (NCCIH).

(https://nccih.nih.gov/health/cancer/complementary-integrative-research)

  • Complementary and alternative medicine use among cancer survivors: a population-based study (Mao 2011).

(https://www.ncbi.nlm.nih.gov/pubmed/20924711)

  • Use of unconventional medicine in Italy: a nation-wide survey (Menniti-Ippolito 2002). (https://www.ncbi.nlm.nih.gov/pubmed/11956675)
  • The prevalence of complementary and alternative medicine use among the general population: a systematic review of the literature (Harris 2000).

(https://www.ncbi.nlm.nih.gov/pubmed/10859601)

http://www.treccani.it/enciclopedia/medicina-complementare-e-alternativa_(Enciclopedia-della-Scienza-e-della-Tecnica)/

 

Articolo pubblicato su Il Dolomiti il 28/04/2017

Posted on

Sperimentazione animale: da grandi poteri derivano grandi responsabilità

Sperimentazione animale: da grandi poteri derivano grandi responsabilità

Nella notte tra venerdì 7 e sabato 8 aprile, alcuni vandali – che evidentemente devono fare pace con il cervello – hanno dato fuoco a un laboratorio della facoltà di scienze dell’Università di Trento a Povo. Lavorando nello stesso polo, in un edificio poco distante, sono rimasto sinceramente scioccato.

Questo episodio mi ha anche riportato alla mente gli innumerevoli casi in cui la violenza e l’ignoranza si sono scontrati con il mondo della ricerca, non ultimo quello del 2013, quando alcuni animalisti si introdussero nel Dipartimento di Farmacologia dell’Università Statale di Milano, barricandosi all’interno dello stabulario e prelevando decine di cavie.

Violenza e ignoranza sembrano essere un duetto ricorrente di molti movimenti animalisti in Italia quando si tocca il tema della sperimentazione animale: per la prima c’è poco da fare, mentre l’unico modo di combattere la seconda è attraverso una corretta informazione scientifica.

Il messaggio deve essere forte e chiaro: ad oggi la sperimentazione animale è indispensabile alla ricerca. Non ci sono opinioni discordanti nella comunità scientifica, come una certa propaganda di parte vuol far credere, e il sondaggio pubblicato su Nature nel 2011 lo dimostra. Per capirci, tutte le ricerche dei premi Nobel in medicina o fisiologia conferiti negli ultimi 30 anni sono basati su ricerche che hanno fatto uso di modelli animali.

Sfatando un altro mito, non esistono metodi alternativi che possano sostituire la sperimentazione animale. La sperimentazione in silico (simulazioni computazionali) e in vitro (utilizzo di batteri e linee cellulari) è già ampiamente utilizzata dai ricercatori di tutto il mondo e sono il primo passo per lo sviluppo di qualsiasi farmaco. Questi metodi, molto più economici, permettono di ottenere degli ottimi dati preliminarima non sono neanche lontanamente in grado – almeno per il momento – di simulare la complessità delle interazioni di un organismo come l’essere umano.

Non voglio nemmeno rispondere a chi ancora parla di vivisezione, BigPharma, talidomide e altri specchietti che tentano di convincere ingenue allodole del cliché dello scienziato pazzo. Quello su cui vorrei concentrare quest’articolo è laquestione etica, perché di questo si tratta e nessun ricercatore può nascondersi da questo dibattito. Che diritto abbiamo di usare un animale per testare un farmacoNessunoCe lo siamo presi ed è una terribile responsabilità.

L’evoluzione ci ha dotati di un formidabile sistema nervoso, della capacità di pensare ed essere coscienti delle proprie azioni. Smettere di usare i modelli animali equivale a interrompere la ricercaInterrompere la ricerca è negare l’istinto di sopravvivenza dell’uomo e la sua naturale inclinazione al ragionamento. È cancellare la speranza di milioni di persone di un futuro migliore. Ognuno di noi deve chiedersi quale sia il male minore: sacrificare centinaia, migliaia di topi o trovare la cura per i tumori, l’alzheimer, il parkinson? È una scelta etica per niente banale. La mia sincera opinione, per mischiare il sacro con il profano, è che da grandi poteri derivino grandi responsabilità.

Ovviamente, l’opinione di un neolaureato in biotecnologie può interessare a un numero molto ristretto di persone. Quello che dovrebbe interessare a tutti, invece, è il risultato della discussione, durata due anni, che ha portato all’approvazione della direttiva europea 2010/63/EUuna delle direttive più stringenti al mondo, che si occupa di regolare proprio l’utilizzo della sperimentazione animale.

Nel testo, l’Unione Europea si propone di porre fine alla sperimentazione animale in futuro, ma, in assenza di metodi alternativi, adotta misure per “migliorare il benessere degli animali utilizzati nelle procedure scientifiche rafforzando le norme minime per la loro tutela”. Il principio alla base dell’intera direttiva è quello delle 3 R. Replacement: ogni qualvolta sia possibile, si devono utilizzare dei metodi alternativi alla sperimentazione animale. Reduction: ridurre il numero di soggetti utilizzati in un determinato protocollo sperimentale. Refinement: cercare di mantenere l’animale nel miglior stato di benessere e ridurre al massimo il disagio che gli si arreca. Nel 2013 poi, la Commissione Europea ha annunciato la creazione di un network di laboratori per la validazione di metodi alternativi.

Al solito, l’Italia ha invece pasticciato con il diritto. La direttiva è stata sì recepita, ma aggiungendo ulteriori restrizioni, sull’onda dell’emotività suscitata dal caso Green Hill. La questione è pregna di tecnicismi legali e tecnici, che cercherò di dirimere brevemente.

È stato vietato l’utilizzo di animali negli studi sul meccanismo d’azione delle sostanze d’abuso e sugli xenotrapianti d’organo: quest’ultima tecnica in particolare è il modello principale per qualsiasi ricerca oncologica.

Sono vietati gli esperimenti che non prevedono anestesia (escludendo la sperimentazione di anestetici o analgesici). Tuttavia, la direttiva europea già prevedeva quest’obbligo, ad esclusione dei casi in cui l’anestesia fosse incompatibile con le finalità dell’esperimento o più traumatica dell’esperimento stesso. Come ben specificato dalla politica e virologa Ilaria Capua, la norma prevede che “per fare un’iniezione oppure per realizzare studi sul comportamento, andrebbe praticata l’anestesia contro ogni buon senso”.

Non mancano altre incongruenze, come il divieto di allevare cani, gatti e primati destinati alla sperimentazione, ma non di importarli.

Il risultante decreto legislativo 26/2014 quindi penalizza moltissimo i ricercatori che operano nel Bel Paese, impedendo loro di competere ad armi pari per l’assegnazione dei fondi internazionali, la primaria fonte di sostentamento di qualsiasi laboratorio. Ricordiamo che nonostante i pochissimi investimenti nazionali in Ricerca&Sviluppola qualità della ricerca italiana risulta essere sempre tra le migliori al mondo.

Il decreto in questione non solo rischia di minare pesantemente i fondi assegnati ai ricercatori che operano sul nostro territorio, ma ha messo l’Italia in stato di deferimento alla Corte di Giustizia Europea e a rischio di salatissime multe. Fortunatamente, una moratoria presente nello stesso decreto e successivamente prolungata di altri tre anni (fino al 2020) ha per ora bloccato l’attuazione delle ulteriori restrizioni, soprattutto grazie al grandissimo impegno da parte della comunità scientifica italiana e di associazioni come Research4Life.

Ciononostante, la questione con la Corte di Giustizia Europea resta in sospeso, ma soprattutto resta in sospeso il recepimento della direttiva Europea 2010/63/EU. Mentre quest’ultima è stata il miglior compromesso fra gli interessi di scienziatimalatianimalisti e case farmaceutiche, l’equilibrio in Italia è stato spostato dall’influenza mediatica delle associazioni animaliste, creando una problematica situazione di incertezza per tutti i ricercatori che vi lavorano.

E personalmente, credo che per un paese che punta ad essere tra i leader mondiali, essere ostaggi di una minoranza violenta, non dare ascolto alla voce dei propri scienziati e nascondere la testa sotto la sabbia dei cavilli legislativi sia da vigliacchi.

 

(di Dennis Pedri)

 

APPROFONDIMENTI: http://www.cittadellascienza.it/centrostudi/2017/01/sperimentazione-animale-la-spaccatura-che-non-ce/

 

Articolo pubblicato su Il Dolomiti il 13/04/2017

Posted on

Land Grabbing: il ‘Mr.Hyde’ dei biocarburanti

Land Grabbing: il ‘Mr.Hyde’ dei biocarburanti

I biocarburanti sono combustibili, liquidi o gassosi, che vengono utilizzati per i trasporti, i quali sono ricavati dalle biomasse commestibili e non; canna da zucchero, mais, grano, colza e altri cereali sono le coltivazioni più utilizzate come fonte di energia, coltivazioni che invece potrebbero servire per sfamare parte del pianeta. Essi vengono suddivisi in carburanti di prima generazione (o convenzionali) e di seconda generazione (o non convenzionali); i primi sono quelli implicati nel Land Grabbing, fenomeno del quale parleremo diffusamente in seguito, poiché sono prodotti da materie agricole utilizzabili a fini alimentari.

Questi biocarburanti dominano la produzione complessiva e si pensa che lo faranno ancora per molto. Nel quinto “Considerando” della Dir. 2015/1513/CE, l’UE afferma che “ci si attende che nel 2020 quasi l’intera produzione di biocarburante proverrà da colture che sfruttano superfici che potrebbero essere utilizzate per soddisfare il mercato alimentare e dei mangimi”. I biocarburanti presentano sul piano ambientale ingenti vantaggi rispetto ai combustibili fossili: permettono infatti di ridurre e addirittura eliminare in alcuni casi le emissioni di CO2, CO, composti solforati, metalli pesanti, idrocarburi aromatici e polveri sottili. Guardando alla sola fase di produzione, il miglioramento percentuale nell’emissione dei greenhouse gases (gas responsabili dell’effetto serra) del biodiesel rispetto al gasolio di origine fossile oscilla dal 25% al 48% se prodotto da colza, dal 51% a 58% se prodotto da girasole, dal 45% al 70% se prodotto da olio di palma, dal 37% al 62% se prodotto da soia.

Fantastico! Starete pensando. Peccato che mettendo pros and cons sulla bilancia non sia tutto rose e fiori, anzi: la prima direttiva europea sulla qualità dei carburanti (la Dir.98/70/CE) del 1998 fu fatta “coi paraocchi”, in quanto i legislatori posero la loro attenzione unicamente sulla diminuzione della produzione dei gas serra, senza considerare i risvolti di carattere economico e sociale. La conseguenza più importante è stata lo spregiudicato e crescente accaparramento delle terre da parte delle multinazionali e dei paesi sviluppati a danno dei terreni fertili dei paesi poveri, in precedenza gestiti da piccoli produttori locali, ora espropriati. Solo più recentemente con le Direttive del 2009 e del 2015 si è cercato di correggere parzialmente questo grave errore.

Questo è proprio il fenomeno sopra citato del Land Grabbing, letteralmente ‘accaparramento del terreno’, portato alla luce per la prima volta da GRAIN, un’organizzazione non-profit che supporta le attività dei piccoli agricoltori locali in tutto il mondo. Due terzi delle acquisizioni su larga scala avvenute negli ultimi anni nei paesi poveri sono destinate alla produzione di biocarburanti esportati nei paesi sviluppati; il continente maggiormente interessato è l’Africa (58%), seguono Asia (18%), Sud America e Messico (10%), Est Europa (8%) e Oceania (6%).

Questo fenomeno comporta inoltre l’aumento dei prezzi dei beni alimentari ed è strettamente collegato all’effetto ILUC (Indirect Land Use Change impact of biofuels, ossia una sorta di reazione a catena: poiché i biocarburanti utilizzano superfici destinate all’agricoltura e poiché la richiesta alimentare permane, le foreste vengono trasformate in terreni agricoli contrastando i benefici derivanti dall’uso dei biocombustibili). Questo può determinare danni ambientali gravissimi come l’espansione della monocoltura della soia, la quale provoca la deforestazione della Foresta Amazzonica e del Cerrado, la grande savana tropicale del Brasile, uno degli ecosistemi più importanti del mondo. Altri Paesi fortemente a rischio sono l’Uganda e la Costa d’Avorio.

I problemi sopracitati sono superati con i biocarburanti di seconda generazione, i quali sono prodotti da biomasse non utilizzabili per l’alimentazione umana o animale e non portano quindi alla sottrazione di terreno alla produzione alimentare o a cambi di destinazione dei terreni agricoli. Le materie prime utilizzate per la produzione di questi sono principalmente legno, cellulosa, scarti agricoli e coltivazione delle alghe. La ricerca è molto attiva in questo settore, in particolare verso 4 direzioni:

  • sviluppo di biocarburanti a partire da alghe ad alto contenuto lipidico;
  • produzione di piante geneticamente modificate a basso contenuto di lignina per facilitare il processo di produzione di biocarburanti;
  • utilizzo di microrganismi ricombinanti, contenenti geni in grado di trasformare in carburante i grassi prodotti dai batteri ospiti per la sintesi delle proprie membrane lipidiche;
  • utilizzo della biologia sintetica al fine di modificare il metabolismo di alcuni microrganismi, ottenendo sovrapproduzione di acidi grassi a partire da zuccheri, i quali vengono poi utilizzati per la produzione di carburante.

Nonostante le recenti correzioni, l’impegno al monitoraggio, alla ricerca e sviluppo, ai miglioramenti futuri messi in atto – o meglio, proposti – dall’Unione Europea, i problemi lasciati aperti dall’utilizzo dei biocarburanti (soprattutto quelli convenzionali, che dominano e domineranno per chissà quanti anni il mercato) fanno guardare allo sviluppo sostenibile in maniera scettica. Ciò che è certamente necessario è un investimento nella ricerca in questo settore: solo così sarà possibile puntare con maggiore decisione sui biocarburanti di seconda generazione, e in un futuro più lontano chissà, su quelli di terza e quarta.

 

(di Giorgia Tosoni)

 

Fonti:

 

 

Articolo pubblicato su Il Dolomiti il 05/04/2017

Posted on

Riusciremo a curare tutte le malattie?

Riusciremo a curare tutte le malattie?

Secondo i più recenti studi in mercato finanziario, il settore delle biotecnologie e life sciences (scienze della vita) è riconosciuto tra i piùredditizi, con una crescita costante seconda solo al settore hi-tech e web (Deloitte, 2016 Global life sciences outlook, Moving forward with cautious optimism).

Di recente, proprio dai giganti del web stanno convergendo ingenti investimenti nel campo delle Scienze della Vita: ad esempio Mark Zuckerberg, fondatore e amministratore delegato di Facebook, ha da poco stanziato 3 miliardi di dollariper finanziare diversi istituti di ricerca e laboratori impegnati nel superare le frontiere della biomedicina (Chan Zuckerberg Initiative).

Larry Page e Sergey Brin, fondatori di Google, hanno invece dedicato un intero settore di investimenti della nuova azienda madre, Alphabet, alla ricerca nelle Scienze della Vita (Verily Life Sciences). Senza contare la Fondazione Bill e Melinda Gates di Microsoft, che da anni è impegnata in attività filantropicherivolte per esempio a contrastare emergenze sanitarie legate a malattie infettive. A voler trovare un filo rosso tra questi esempi, non è difficile scorgere il desiderio dei sopracitati miliardari di scoprire l’elisir di lunga vita, o meglio dell’eterna giovinezza: una sorta di cocktail analogo moderno del Santo Graal.

Si contano molti altri benefattori che stanno seguendo i loro passi: i progressi in campo biomedico, dalla bioinformatica alla terapia genica all’immunoterapia stanno cambiando con grande rapidità il modo di studiare e combattere le malattie.

L’ultimo arrivo nel campo delle terapie innovative è un esempio particolarmente interessante per la riflessione a seguire: si tratta di un trattamento, per mezzo della cosiddetta terapia genica, dell’anemia falciforme. Ad un ragazzo francese, più di un anno fa, sono state asportate cellule progenitrici del midollo osseo, che successivamente hanno subito una modifica del DNA mediante l’utilizzo di un vettore virale, affinché producessero la corretta versione della proteina mutata. Il giovane ha ricevuto, mediante trasfusione, le sue medesime cellule, le quali sono in condizione di esprimere la proteina corretta e dare vita a globuli rossi sani.

La caratteristica patologica fondamentale dell’anemia falciforme è proprio la forma dei globuli rossi, a “falce” o “mezzaluna”, a causa di una mutazione nel DNA che determina una conformazione errata dell’emoglobina. I sintomi di questa condizione genetica si osservano però soltanto quando entrambi i geni che codificano l’emoglobina sono mutati. In eterozigosi, cioè quando soltanto un copia del gene (l’essere umano ha infatti sempre due copie di un gene) è mutato, i sintomi sono molto lievi o addirittura inesistenti. Per chiarezza, il giovane francese, dopo quindici mesi non ha avuto alcuna ricaduta.

L’anemia falciforme è anche una malattia ‘da manuale’ quando si studia genetica ed epidemiologia: la mutazione nel gene dell’emoglobina è infatti l’esempio fondamentale di come una condizione potenzialmente patologica si riveli favorita e venga ‘selezionata’ in particolari condizioni ambientali.

La maggiore incidenza di questa mutazione si osserva infatti nell’Africa occidentale e sub-sahariana, dove essere portatori sani dell’anemia falciforme conferisce una resistenza innata alla malaria. Il microbo responsabile della patologia non riesce infatti a portare a termine il suo ciclo riproduttivo nei globuli rossi, parzialmente difettosi, estendendo quindi l’aspettativa di vita dei soggetti infetti.

Tuttavia, se in una popolazione è presente una mutazione che in singola copia conferisce una resistenza ad una malattia (la malaria), la pressione selettiva non la eliminerà. Continueranno a presentarsi le occasioni in cui questo gene mutato si ritroverà in duplice copia in un organismo umano, dando origine ad una seconda condizione patologica: l’anemia falciforme.

Insomma, l’evoluzione sembra non favorire la scomparsa dei geni difettosi semplicemente perché in alcuni ambienti o per alcune condizioni la presenza, anche solo parziale, di un difetto genetico possa dare un contributo positivo alla salute dell’essere umanoJim Kozubek, un comunicatore scientifico americano, ha recentemente discusso altri esempi di come condizioni genetiche siano responsabili di effetti duplici per la salute: per esempio una variante genica può essere collegata con l’aumento di rischio per lo sviluppo di fibrosi cistica, ma anche proteggere contro il colera, mentre un’altra è collegata sia all’abbassamento del colesterolo LDL (quello “cattivo”) che all’aumento del rischio di infarto. Portando questi esempi, egli sostiene che l’ambizioso traguardo di questi magnati, cioè quello di curare ogni tipo di patologia che affligge l’essere umano, compreso l’invecchiamento, è semplicemente irraggiungibile.

Da scienziati, non si può che argomentare a sfavore: servono più dati e una conoscenza più approfondita delle patologie in questione. La ricerca ha bisogno di tempo ed energie per identificare nuovi obiettivi farmacologici che possano alleviare la condizione dei pazienti.

Da biologi però, diventa difficile ignorare le riflessioni più profonde e basilari di Darwin, per cui gli organismi, o meglio, in una visione moderna, i geni, progrediscono in funzione di un adattamento ad un ambiente, e non verso una forma ‘perfetta’. Alcuni nuovi interpreti dell’evoluzionismo, tra cui Stuart Kauffman, sostengono che le mutazioni siano il serbatoio stesso di innovazione nel processo evoluzionistico (Stuart Kauffman, A casa nell’universo, Editori Riuniti, Roma 2001) e che quindi semplicemente continueranno ad essere presenti nonostante la sforzo umano nel contrastarli.

Riflessioni di tale estensione sono in genere difficilmente applicabili al caso singolo, malgrado gli esempi sopracitati, e non è di certo nostra intenzione difendere una visione fatalista del progresso scientifico, anzi: siamo giovani scienziati ambiziosi di contribuire a questo sforzo collettivo.

Dall’altra parte però è facile nutrire alcuni dubbi nel programma di questi magnatiriusciranno ad ingegnerizzare la vita eterna e sconfiggere tutte le malattie? Chissà.

Per quanti successi potremo avere nel curare le malattie, siamo sicuri che questo sia il bene della specie?

Siamo sicuri che selezionare i geni migliori per l’ambiente attuale non sia deleterio in uno scenario futuro, in cui l’evoluzione si troverà con meno frecce da scoccare?

Forse il futuro della biomedicina non assomiglierà ad un Santo Graal rivisitato, e i manager dei colossi del web non potranno ammirare i loro sorrisi smaglianti alla tenera età di novant’anni, in quanto saranno più simili a dei frankenstein moderni, goffi e sgraziati, impegnati nello sforzo sisifeo di sostituire le parti di ricambio.

 

[di Giovanni Palla]

 

Articolo pubblicato su Il Dolomiti il 24/03/2017

Posted on

‘L‘unico batterio di Salmonella buono,è un batterio di Salmonella morto’ o forse no: iniziata in Sud Corea una sperimentazione per combattere il cancro

‘L‘unico batterio di Salmonella buono,è un batterio di Salmonella morto’ o forse no: iniziata in Sud Corea una sperimentazione per combattere il cancro

Quasi tutti hanno sentito parlare della salmonella, e molti hanno contratto la malattia, con quelle fastidiose nausee e i forti dolori allo stomaco. È causata dall’infezione di batteri (del genere Salmonella appunto) che si possono assumere per lo più tramite carne o pesce poco cotti o mal conservati. Oltretutto è contagiosa.

Ma non tutto il male vien per nuocere. I ricercatori della Chonnam National University di Gwangju in Corea del Sud, infatti, hanno pensato di sfruttare questo organismo nella lotta contro il cancro. Prima che l’articolo si trasformi in ‘Prendi la Salmonella e guarisci dal cancro’, ci tengo a sottolineare che l’intero procedimento è ancora in fase di sperimentazione sui topi e non si procederà alla sperimentazione umana  per ancora qualche tempo.

L’idea nasce da una semplice successione di considerazioni: il nostro sistema immunitario riconosce molto più facilmente i batteri (in quanto corpi estranei) rispetto alle cellule tumorali (corpi interni divenuti dannosi). Inoltre, molti batteri trovano il loro ambiente ideale in tessuti necrotici o con scarsità di ossigeno, e generalmente le parti più  profonde delle masse tumorali  possiedono queste caratteristiche.

I biologi Jung-Joon Min e Joon Haeng Rhee, a capo del team che sta svolgendo queste ricerche e i cui risultati preliminari sono stati pubblicati ad inizio febbraio sulla rivista scientifica Science, hanno pensato che, se si infettassero le cellule tumorali con un batterio, questo provocherebbe un innalzamento della risposta del sistema immunitario. Questo sarebbe quindi in grado di eliminare il batterio e, di conseguenza, avere un effetto sul cancro più potente del normale. Tale metodo è giá stato tentato in passato e spesso si sono verificate delle complicazioni anche dovute alla patogenicitá del batterio stesso.

Per questo motivo, è stato deciso di utilizzare un ceppo inoffensivo chiamato, Salmonella Typhimurium, successivamente geneticamente modificato di modo da permettergli di produrre una particolare proteina (FlaB) proveniente da un altro batterio, la quale aumenta notevolmente la risposta del sistema immunitario. Test clinici sono stati eseguiti sui topi, utilizzando sia batteri modificati che non, e naturalmente anche un gruppo di controllo nel quale non è stato inserito alcun batterio. Dopo 120 giorni si sono notati importanti risultati. Il gruppo trattato con il batterio modificato mostrava riduzione della massa tumorale fino, per alcuni, alla totale eliminazione del tumore stesso. I topi negli altri due, d’altro canto, presentavano in grandissima parte metastasi (stadio avanzato del cancro in cui questo si propaga in tessuti dell’organismo lontani dalla sua origine) ed alcuni erano morti.

I test sono ancora in corso, ma si può cominciare a parlare sicuramente di uno studio importante, che potrebbe modificare e portare nuove prospettive nella terapia contro il cancro. Il tutto sottolineando nuovamente (quasi ce ne fosse bisogno) l’importanza della manipolazione genetica, e fornendo anche un aspetto più apprezzabile ad alcuni di questi piccoli esseri, i batteri, con i quali senza accorgercene condividiamo ogni singolo aspetto della nostra vita.

 

Fonti: http://www.sciencemag.org/news/2017/02/scientists-turn-food-poisoning-microbe-powerful-cancer-fighter

 

(di Emanuele Cattani)

 

Articolo pubblicato su Il Dolomiti il 09/03/2017

Posted on

La marmotta fischia per salvare il gruppo, le api si sacrificano per la regina. Ma l’altruismo esiste in natura?

La marmotta fischia per salvare il gruppo, le api si sacrificano per la regina. Ma l’altruismo esiste in natura?

Il web è fantastico, ti permette di essere in mille posti contemporaneamente:studio in Olanda, ma grazie alla rete posso sapere che la nota conduttrice televisiva Licia Colò ha comprato dei granchi agonizzanti in un supermercato di Ostia e li ha liberati, poi qualcuno si è pure preso la briga di scriverne. Ora, oltre alla sconsideratezza dal punto di vista ecologico di questa azione, è degna di nota la sensibilità con cui questa donna dal cuore di ragazza ha empatizzato con un animale con cui abbiamo condiviso un progenitore più di 500 milioni di anni fa. Cinquecento milioni sono tanti.

La Terra era diversa da come la conosciamo oggi. Le terre emerse erano riunite in un unico supercontinente detto Gondwana: si sarebbe potuto andare in bicicletta ovunque, se non fosse che non v’era ossigeno sufficiente per sostentare la vita sulla terraferma. Una cosa però è rimasta invariata: sopravvive e si riproduce “l’entità” più adatta, in un mondo dominato da una competizione tra “entità” della stessa “specie” così come tra “specie” diverse.

 

 

DIDASCALIA L’albero filogenetico rappresenta la genealogia delle specie che incontreremo in questo articolo: anche se granchi e mammiferi hanno avuto un progenitore comune 500 milioni di anni fa, le leggi naturali che regolano l’evoluzione sono le stesse per le due classi di organismi. Cagnolini e gattini sono stati aggiunti per scaldare il cuore del lettore di questo freddo articolo.

 

Tutte queste virgolette e vaghi termini descrivono una categoria di cui fa parte l’esempio più comune, l’entità individuo: il ghepardo che corre più veloce, il pavone con la coda più maestosa, il cervo con le corna più forti riescono ad essere meglio nutriti, ad essere più attraenti per il partner o a conquistare con la forza un harem di femmine, garantendosi una prole numerosa che erediterà quelle caratteristiche che hanno reso i genitori gli individui “migliori” della loro generazione. Non si pensi che la selezione del partner agisca solo sulla struttura dei maschi in perenne competizione tra loro: la femmina della cimice dei lettiad esempio, per selezionare il proprio partner, ha nascosto il proprio apparato riproduttore sotto uno scudo in modo da potersi concedere unicamente al prescelto. Il maschio, da parte sua, ha evoluto in risposta un pene corazzato in grado di perforare lo scudo protettivo della femmina che talvolta muore in seguito allo stupro violento.

Dovrebbe essere dunque chiara la natura deterministica di questo fenomeno che trova le sue basi nella genetica: un gene viene trasmesso più frequentemente di altri se, come abbiamo visto, rende il proprietario più adatto a sopravvivere e avere una prole numerosa. Ma questo non è sempre vero: il gene può essere visto come un’entità a sé stante. Tramite processi di duplicazione, porzioni di DNA possono aumentare la propria frequenza anche all’interno di un organismoanche se questo non porta un vantaggio al portatore di queste sequenze di DNA. Ad esempio, il genoma umano è composto per più di due terzi da regioni altamente ripetute di DNA, molte delle quali con funzione incognita e, probabilmente, nulla.

Alcuni scienziati sono stati in grado di ingegnerizzare queste sequenze “egoiste” per diffondere delle modifiche genetiche in una popolazione partendo da pochi individui. Questa tecnica – chiamata gene drive – permetterebbe il contenimento di insetti dannosi o il salvataggio di alcune specie a rischio, diffondendo ad esempio un gene per la resistenza a una malattia. Ma se pure a livello molecolare siamo egoisti, come spiegare l’atto di Licia? Come spiegare le api operaie che rinunciano ad avere una propria prole per allevare quella di una regina? Come spiegare la marmotta che alla vista della maestosa aquila reale fischia per avvisare del pericolo, rendendosi visibile e vulnerabile?

In effetti non è semplice, per più di cento anni gli scienziati si sono interrogati per trovare un modello che permettesse all’evoluzione di selezionare positivamente queste forme di sacrificio. La teoria più in voga che potrebbe “giustificare” queste forme di altruismo è abbastanza macchinosa: oltre alla categoria individuo (facile) e alla categoria gene (difficile), dobbiamo aggiungere la categoria gruppo (complicato). Facendo le sentinelle a turno, le marmotte riescono a garantire al proprio gruppo, costituito solitamente da animali imparentati, una maggiore chance di sopravvivenza. Il sacrificio “personale” viene ampiamente ripagato dalla protezione fornita dalle altre sentinelle quando non si è di turno. Ci troviamo dunque di fronte a una forma di cooperazione e non di altruismo, da cui differisce esattamente come nel senso classico del termine.

Il meccanicismo della selezione naturale sembra essere in salvo, ma per le api?Come è possibile? Perché l’evoluzione ha portato migliaia e migliaia di operaie a lavorare per una regina, rinunciando alla possibilità di riprodursi e quindi trasmettere i propri geni?

DIDASCALIA: in media, le api sorelle hanno in comune tra loro il 75% del materiale genetico; nel caso dell’uomo invece, questa percentuale si ferma al 50%. Esse si prendono dunque cura dei “propri geni” presenti nelle altre operaie e nelle nuove regine, le sorelle a cui spetta il compito di fondare nuove colonie e trasmettere il materiale genetico nelle generazioni successive.

 

La spiegazione non è semplice, ma la figura API ci può aiutare: i maschi delle api, delle vespe e delle formiche sono aploidi, ovvero possiedono la metà dei cromosomi di una femmina. Sedici anziché trentadue. Questo porta gli spermatozoi prodotti dal fuco ad essere tutti identici: 16 cromosomi uguali che vengono ereditati dalle operaie, che partono così da una base comune di metà corredo cromosomico. I restanti 16 cromosomi sono ereditati dalla madre; in media due sorelle avranno in comune il 50% di questi cromosomi, per un totale di materiale genetico comune del 75%. Quindi le operaie hanno in comune con le sorelle più di quanto ne abbiano con la propria madre e l’egoismo dei geni fa sì che si prendano cura delle altre operaie e non della propria prole.

La nostra favola prende un sapore agrodolce ora che la regina passa da essere sovrana a schiava. Il peccato non cambia, ma la tirannia è soppiantata da una dittatura del proletariato. E la morale è che l’altruismo non esiste. Non in natura.

Altruismo è forse l’unica cosa che meriti l’appellativo di artificiale; è un’invenzione dell’uomo, frutto della rilassatezza con cui affrontiamo le sfide naturali ora che siamo la specie dominante di questa era: l’antropocene. Se poi sia stato l’uomo a inventare l’altruismo o viceversa, forse non lo sapremo mai.

 

(di Filippo Guerra, Open Wet Lab)

 

Articolo pubblicato su Il Dolomiti il 23/02/2017

Posted on

L’amore ai tempi della scienza, estrogeni e testosterone i protagonisti dell’equilibrio dei sensi

L’amore ai tempi della scienza, estrogeni e testosterone i protagonisti dell’equilibrio dei sensi

Ho sempre considerato il 14 febbraio una giornata dal significato piuttosto criticabile. Pensando ai moltissimi che in questa occasione festeggiano il proprio innamoramento, ragiono sempre sul fatto che in una coppia, probabilmente, una giornata ormai pregna di consumismo e materialismo come questa non dovrebbe rivestire un gran ruolo. Ma tant’è.

Perché gli innamorati, oggi o in ogni giorno dell’anno, sentono il bisogno di scambiarsi promesse d’amore, fiori profumati o cioccolatini del più pregiato cioccolato belga? E poi, cos’è che spinge i più temerari a mandare in maniera anonima un bigliettino segreto al ragazzo o alla ragazza che ha solamente intravisto o con cui ha scambiato solo un paio di parole in corridoio? La risposta che ci viene automatica è che sia opera dell’amore.

Ma che cos’è l’amore? O, meglio, come funziona l’amore? Proviamo ad affrontare questa domanda secondo un’ottica scientifica, cercando di ridurre al minimo il cinismo e la freddezza.

L’amore, in effetti, come quasi tutti gli altri comportamenti e fenomeni osservabili in un organismo, non è altro che riducibile a una non troppo semplice sommatoria di meccanismi chimico-biologici istintivi e fondamentali, necessari in questo caso alla sopravvivenza della specie.

Ma andiamo con ordine. La prima fase del processo di innamoramento è quella ‘preparatoria’, ossia il sentimento di desiderio o ‘libido’. I protagonisti di questo stadio sono alcuni ormoni sessuali quali estrogeni e testosterone. Nell’individuo di sesso maschile, in particolare, il desiderio risulta essere costantemente presente, a causa di maggiori livelli di testosterone, seppure con un graduale declino nel tempo. Risulta invece essere più discontinuo nella donna, in relazione ai diversi stati fisiologici della vita femminile quali il ciclo mestruale, la gravidanza, il puerperio e la menopausa.

Diretta conseguenza del desiderio sessuale è l’innamoramento. Cos’è che scatena l’impazienza, l’attrazione e quindi l’eccitazione che portano a frequentare una persona e a provare sentimenti piú profondi verso di lei?

I primi attori in questo contesto iniziale sono l’adrenalina e il cortisolo. La prima, in particolare, è coinvolta principalmente in meccanismi di risposta allo stress, tuttavia in questo caso risulta aumentare nelle persone coinvolte da un ‘colpo di fulmine‘. Tra gli effetti di questo incremento di adrenalina troviamo ad esempio una accelerazione del battito cardiaco e della respirazionecambiamenti nella salivazioneuna ridotta percezione del pericolo e un aumento della potenza dei sensi. Un po’ quello che avviene anche nelle altre specie in situazioni analoghe di caccia, di pericolo e così via. Per curiosità, altro effetto secondario risulta essere la contrazione della muscolatura liscia radiale dell’iride tramite stimolazione del sistema nervoso simpatico, che porta infine ad una visibile dilatazione delle pupille.

Secondo attore nell’innamoramento è la dopaminaresponsabile prima di tutto della sensazione di piacere nel corpo umano. In uno studio del 2005, Fisher e collaboratori (Rutgers University) evidenziano, tramite scansione del cervello di 2.500 ragazzi che venivano esposti a immagini di persone di loro interesse o meno, l’attivazione di alcune aree del cervello ricche in dopamina, neurotrasmettitore normalmente coinvolto nei meccanismi di “ricompensa” e di motivazione in certe aree localizzate del cervello. Livelli analoghi di questo ormone sono trovati in individui che consumano cocaina e altre sostanze d’abuso della stessa categoria, giusto per fare un paragone con il meccanismo che avviene quando siamo innamorati. A ben pensarci infatti, come anche la scienza conferma, effetti secondari di amore e cocaina sono la tipica assenza di fame, una maggiore attenzione e un minor bisogno di sonno.

Ultimo, ma non meno importante, è la serotonina, l’ormone che induce ad essere legati mentalmente solo al proprio amato e a nessun’altra persona. Langeslag e colleghi nel 2012 suggeriscono inoltre che i livelli di serotonina sono diversi tra i due sessi quando la persona è innamorata: in particolare, gli uomini hanno livelli minori di serotonina rispetto alle donne. Le aree cerebrali più coinvolte in questi processi sono l’insula mediale, la corteccia cingolata anteriore, il nucleo caudato e il putamen. Parallelamente, il giro cingolato posteriore è spesso associato alla percezione delle emozioni dolorose, e in fase amorosa questa zona del cervello viene parzialmente a perdere attivitá. Anche alcune specifiche zone dell’amigdala che elaborano sensazioni negative come la paura e la rabbia sono meno attive in questa situazione, perfettamente in accordo con ció che osserviamo normalmente in una relazione, risultando in un maggiore rilassamento e minore preoccupazione nella vita quotidiana.

Ma cosa succede quando la relazione giunge a fasi piú avanzate e il legame diventa sempre piú forte?

Anche a questo stadio sono coinvolti i meccanismi ormonali, in particolare legati alla presenza di ossitocina e di vasopressina. L’ossitocina è uno degli ormoni più potenti del corpo umano rilasciati in maniera equa tra maschio e femmina, specialmente durante l’orgasmo. Diversi studi infatti correlano il maggior attaccamento tra le coppie con la quantità e la qualità dei rapporti sessuali intercorsi tra di loro. Il suo ruolo nell’attaccamento e nell’affezione non serve solo a creare un legame saldo tra due partner, bensì allo stesso modo agisce tra madre e figlio durante il parto, altro momento in cui la sua produzione viene stimolata abbondantemente. Il discorso però sarebbe molto più complesso di così, dal momento che il rilascio di questo ormone in combinazione con altre molecole coinvolte nell’affettività porta a diverse sfumature di connessione, complicando parecchio lo scenario. Altra molecola presente in questa fase è la vasopressina o ormone anti-diuretico, che oltre alla funzione suggerita dal nome stesso, è stato visto (Hiller, 2004) essere coinvolto anche nel rapporto sessuale in fase di scelta preferenziale del partner, e forse anche nella promozione di relazioni durature (Gouin JP et al., 2010 e 2012).

Di fronte a una così grande vastità di fenomeni chimici e biologici finemente regolati ed organizzati in maniera certosina possiamo solo immaginare che cosa possa succedere quando ad un certo punto la fonte di questi meccanismi viene a mancare.

Quando una relazione finisce, infatti, spesso in maniera improvvisa, il cervello ne è affetto in modo potenzialmente molto negativo, dal momento che deve ristabilire tutti gli equilibri precedentemente creati con l’insorgere di una nuova situazione. Non c’è da stupirsi, quindi, del dolore che la fine di una relazione possa provocare nell’organismo, considerata in particolar modo la natura razionale del cervello. Tra tutti, si è visto come la fine di una relazione attivi le stesse aree cerebrali che elaborano il dolore fisico, precedentemente silenziate durante l’innamoramento, quasi in un rapporto di dipendenza.

Dipendenza non diversa, alla fin fine, da quella provocata dalle sostanze psicoattive precedentemente citate. Il nostro cervello è una macchina abbastanza potente da potersi riprendere da questa tipologia di traumi, soprattutto con qualche supporto, che può essere ad esempio un’attività di gruppo o solamente un po’ di relax. Tutto ciò aiuta a colmare, seppur in parte, l’improvvisa mancanza di stimoli “positivi”. Di fronte a tutto ció, come poter affermare ancora che l’amore è solo una questione di cuore?

 

(di Lorenzo Povolo)

 

Altri riferimenti:
http://neuro.hms.harvard.edu/harvard-mahoney-neuroscience-institute/brain-newsletter/and-brain-series/love-and-brain

http://examinedexistence.com/why-we-fall-in-love-the-science-of-love

https://www.psychologytoday.com/blog/neuronarrative/201402/what-neuroscience-tells-us-about-being-in-love

http://www.ncbi.nlm.nih.gov/pubmed/15990719

Hiller, J. (2004). Speculations on the links between feelings, emotions and sexual behaviour: are vasopressin and oxytocin involved?. Sexual & Relationship Therapy, 19(4), 393-412.

http://www.tpi.it/mondo/regno-unito/perche-lasciarsi-fa-cosimale-amore

https://www.psychologytoday.com/blog/neuronarrative/201402/what-neuroscience-tells-us-about-being-in-love

http://examinedexistence.com/why-we-fall-in-love-the-science-of-love/

https://www.scientificamerican.com/article/experts-chemical-pupil-dilate/

http://neuro.hms.harvard.edu/harvard-mahoney-neuroscience-institute/brain-newsletter/and-brain-series/love-and-brain

 

Articolo pubblicato su Il Dolomiti il 15/02/2017

Posted on

Le signore della scienza, da Montalcini e Curie al gene editing

Le signore della scienza, da Montalcini e Curie al gene editing

L’attuale decennio si sta rivelando straordinario per il mondo delle biotecnologie. Una rivoluzione che sta tutta in sei lettereCRISPR.

No, non ho sbagliato lo spelling, è proprio questo il nome di una tecnologia senza precedenti che permette di modificare il genoma di qualsiasi essere vivente. Come? Grazie ad una proteina molto versatile chiamata Cas9 che può tagliare il DNA in modo preciso: questo avviene grazie a particolari RNA – detti appunto crispr RNA – che, essendo complementari al DNA a livello della sequenza delle basi azotate, si appaiano con esso indicando a Cas9 dove deve avvenire il taglio.

Progettando filamenti di crispr RNA ad hoc è possibile quindi indurre i tagli desiderati in qualsiasi genoma in maniera molto precisa. (Per saperne di più, guardate qua). Essendo una tecnologia versatile e relativamente economica– rispetto alle altre tecniche per fare lo stesso tipo di manipolazioni – CRISPR ha già trasformato i protocolli di lavoro di tantissimi laboratori. Oltre la ricerca, porta grandi speranze nel campo della terapia genica, ovvero la possibilità di curare malattie genetiche modificando direttamente il DNA delle persone che ne sono affette.

Potremmo ora descrivere le tantissime e straordinarie potenzialità del sistema CRISPR/Cas9, ma in questa occasione dedicheremo la nostra attenzione a come questo avanzamento tecnologico sia andato di pari passo con un’altra trasformazione lentamente in attoquella della parità di genere nel mondo scientifico.

Nel mondo accademico di Europa e Stati Uniti persiste da decenni una curiosa stranezza: sebbene le lauree scientifiche siano equamente distribuite tra maschi e femminesolo un quinto dei professori delle stesse università sono donne (un po’ di numeri, su Italia ed Europa qui). La progressiva uscita delle donne dal percorso delle carriere accademiche – definita la leaky pipeline (tubatura che perde, ndr) – viene attribuita principalmente all’atavica serie di pregiudizi secondo cui gli uomini sono considerati in generale più competenti e addirittura meritevoli di una paga migliore delle loro colleghe con un identico Curriculum vitae.

Dimmi almeno una scienziata femmina”: credo che a tutte le bambine questa domanda sia stata posta almeno una volta da qualche saccente coetaneo maschietto. Fino a pochi anni fa, in testa non avevo molto oltre alle blasonate Montalcini e Curie. Tuttavia, se mi richiedessero nomi e cognomi oggi, comincerei a parlargli delle pioniere di CRISPR.

Il sofisticato sistema di ‘taglia e cuci’ molecolare fu inizialmente osservato in certi tipi di batteri come meccanismo di difesa alle infezioni virali. Nel 2012 la francese Emmanuelle Charpentier e l’americana Jennifer Doudnapubblicarono in collaborazione uno studio in cui per la prima volta si provava che lo stesso sistema era riprogrammabile in vitro per modificare qualsiasi genoma desiderato. Sebbene un magro 5% dei premi Nobel ad oggi assegnati siano andati a donnepuntare su di loro per un riconoscimento nei prossimi anni non è certo un azzardo.

Un successo quasi imprevisto per Charpentier: dopo un inizio di carriera negli Stati Uniti, sceglie audacemente di tornare in Europa, dove si è dedicata per 15 anni a ricerca di base in microbiologia e genetica, settori di scarso interesse per prospettive applicative e soprattutto per investimenti.

Oggi invece, a 48 anni, dirige a Berlino uno degli istituti della società Max Planck, la più grande organizzazione di ricerca in Germania e tra le maggiori in Europa. Una carriera accademica sempre sulla cresta dell’onda invece quella della collega Doudna: vissuta tra le migliori università statunitensi, dal dottorato ad Harvard sotto il premio nobel Jack Szostak, all’università di Berkeley in California, dove oggi dirige un suo laboratorio nel quale continua a studiare il sistema CRISPR/Cas9.

A differenza di Charpentier però, Doudna oggi non è solo famosa per i suoi meriti accademici: consapevole della portata della sua scoperta e delle numerosi questioni etiche che essa apre, la professoressa di Berkeley è diventata il volto del dibattito attorno a CRISPR dentro e fuori dalla comunità scientifica. “Mi sembra ovvio che la creazione di maggior fiducia nella scienza sarà ottenuta al meglio incoraggiando le persone coinvolte nella genesi di una tecnologia a partecipare attivamente alla discussione sui suoi utilizzi. Questo specialmente in un mondo dove la scienza è globale.” – scrive Doudna in una lettera alla rivista Nature.

Come se non bastassero ricerca, divulgazione e dibattiti pubblici per avere una vita impegnata, Doudna e Charpentier – e le istituzioni che rappresentano – sono anche nel pieno di una battaglia legale sulla proprietà intellettuale di CRISPR con il ricercatore americano Feng Zhang, del Broad Institute di Harvard e MIT, un altro grande fautore del progresso delle CRISPR technologies. Zhang è stato il primo a testare l’efficacia in cellule vive del sistema disegnato da Doudna e Charpentier ed è riuscito ad ottenere il brevetto della tecnologia nonostante le due ricercatrici l’avessero depositato 6 mesi prima. Un brevetto che non significa solo il riconoscimento formale – probabilmente perfino un Premio Nobel – per l’invenzione, ma soprattutto un sacco di soldi.

L’innovazione va necessariamente a braccetto con gli investimenti, ed è così che nascono le cosiddette spin-off, aziende che sviluppano scoperte e tecnologie provenienti dalla ricerca accademica, spesso fondate dalle stesse persone che le hanno portate alla luce. Ed è esattamente quello che hanno fatto i pionieri di CRISPR di cui vi abbiamo già parlato.

Dall’accademia all’azienda lo status quo per le women in science poco cambia: ilgrande disequilibrio a favore degli uomini nella distribuzione delle poltrone dirigenziali porta a parlare del cosiddetto glass ceiling effect (effetto del soffitto di cristallo, ndr). Si tratta della situazione per cui non sembrano esserci apparenti ostacoli all’accesso ai piani alti delle compagnie, tuttavia le donne non riescono ad accedervi, come se fossero bloccate appunto da un invisibile soffitto di cristallo. Nelle spin-off di CRISPR non sembra esserci però nessuna barriera astratta.

Katrine Bosley è presidente e amministratrice delegata di Editas Medicine dal 2014. Questa spin-off è stata fondata da Zhang, Doudna – distaccatasi all’insorgere della battaglia per il brevetto – e George Church sotto l’ala del Broad Institute di Harvard e del MIT. Si occupa di sviluppare nuove strategie di terapia genica con CRISPR. Dopo la formazione scientifica in biologia, Bosley ha fatto la scelta non convenzionale di lasciare l’accademia per intraprendere una carriera imprenditoriale nel settore privato. Da allora ha lavorato per moltissime compagnie emergenti e pionieristiche del settore biofarmaceutico, ricoprendo ruoli manageriali di ogni tipo, sia negli Stati Uniti che in Europa. Una carriera che la stessa Bosley definisce “un mosaico di assunzione di rischi imprenditoriali, alla ricerca costante di nuove prospettive.”

Caribou Biosciences, la spin-off dell’UC Berkeley, si concentra invece sul migliorare le potenzialità di CRISPR in campo agricolo e industriale. La compagnia è stata fondata nel 2014 dal gruppo della professoressa Doudna, di cui faceva parte Rachel Haurwitz. Non aveva nemmeno finito il suo dottorato quando è diventata amministratrice delegata di Caribou a 28 anni, essendo stata l’unica tra i co-fondatori volenterosa di lanciarsi nell’imprevedibile biotech business. La sua intraprendenza è stata sicuramente premiata: cavalcando al meglio l’onda di entusiasmo attorno alla tecnologia, la compagnia conta su finanziamenti per circa 40 milioni di dollari. Haurwitz è anche co-fondatrice della compagnia collaterale Intellia Therapeutics, che si occupa di terapia genica ed è oggi il principale concorrente di Editas.

Non c’è niente di fenomenale o esotico in queste donne di scienza. Potremmo raccontare di moltissime altre professioniste con storie simili. E vi prego: facciamolo. Forniamo esempi, profili, cambiamo i nostri paradigmi e abbandoniamo gli stereotipi che ci impongono ad associare un certo ruolo o una certa professione ad un solo genere.

Che una tra le più straordinarie innovazioni del decennio stia raggiungendo la ribalta insieme ad una nuova classe di innovatrici, mi fa ben sperare che nella prossima generazione le bambine non rimarranno più senza parole davanti a un coetaneo presuntuoso. E magari in quella dopo ancora nessuno vedrà più il senso di iniziare discussioni assurde.

 

(di Emma Dann)

 

Articolo pubblicato su Il Dolomiti il 02/02/2017

Posted on

L’era post-antibiotica, come ci siamo finiti e come ne usciamo

L’era post-antibiotica, come ci siamo finiti e come ne usciamo

Come siamo arrivati qui? Nei capitoli precedenti della nostra serie sull’antibiotico-resistenza si è dato un quadro della situazione presente e delle possibili ricadute nel prossimo futuro. Le cause della diffusione incontrollata di Superbugs sono molteplici. Ad esempio, è risaputo come nell’allevamento intensivo si faccia un uso massiccio di antibiotici ad ampio raggio per prevenire l’insorgere di epidemie del bestiame.

La congresswoman e microbiologa Louise Slaughter ha dichiarato che quasi l’80% degli antibiotici sul mercato Americano sono impiegati in questo settore. In altri Paesi è anche peggio. Questo fenomeno crea un terreno fertile per la comparsa di ceppi multiresistenti, che possono essere veicolati direttamente nelle nostre cucine e potenzialmente nel nostro corpo nel caso di carni poco cotte.

In un report del 2011 stilato dal CDC e dal U.S. Department of Agriculture si afferma come il 65% della carne di pollo e il 44% di quella di manzo risultasse positiva per batteri resistenti alla Tetraciclina. Così come il maiale, che ospitava ceppi resistenti a ben cinque gruppi di medicinali, caso analogo quello della Colistina in Cina.

Un altro problema è senz’altro la mancanza di una rigida osservazione dei criteri di distribuzione. La tanto tirata in ballo disinformazione gioca un ruolo non indifferente, con antibiotici che vengono prescritti per trattare infezioni virali (assolutamente inefficaci) o semplici stati di malessere non definito. Quando una medicina del genere entra in corpo, fa piazza pulita di tutto quello che può, favorendo la crescita e propagazione di batteri resistenti, e la volta in cui davvero si ha bisogno di quel tale antibiotico ci si trova in brache di tela. Non a caso insieme a cure di questo genere vengono spesso prescritti dei fermenti lattici, in grado di ripopolare parzialmente l’apparato digerente con batteri benefici. Secondo il Journal of the American Medical Association, più del 50% degli antibiotici prescritti sono inappropriati o inutili. Abuso, misuso, dosaggi e periodi di cura errati contribuiscono all’insorgenza di resistenza. Questo è particolarmente un problema in Paesi con meno accesso ai farmaci, in cui la distribuzione non è bilanciata e controllata a sufficienza.

Come ne usciamo?

Ci sono principalmente tre modi di affrontare questa situazione.

Il primo è non fare nulla, accettare il fatto che l’uso di antibiotici comporti dei costi in termini di vite e denaro di gran lunga inferiori al ‘non usarli’ e sperare che il fenomeno della resistenza si stabilizzi nei prossimi anni. Ci sono delle ragioni con basi biologiche per questa scelta. Infatti i meccanismi per cui un batterio acquisisce resistenza sono spesso sconvenienti per la sua stessa crescita, in quanto richiedono un enorme dispendio di energia. Per capire meglio, è come se alcuni di noi nascessero con una pesante corazza di piombo che ci rende immuni a catastrofi radioattive. In una situazione a la ‘dott. Stranamore’ tale corazza ci farebbe comodo, nel 99 % degli altri scenari no. Senza contare che a volte l’acquisizione di resistenza ad un antimicrobico può causare invece sensibilità ad un altro. E’ quindi di base uno ‘svantaggio’ per un ceppo essere portatore di resistenze multiple. Di conseguenza vi sono alcuni pareri riguardo al fatto che questo fenomeno sia auto limitante.

Impedire l’accesso a questo tipo di farmaci si rivelerebbe comunque dannoso, anche perchè per ora non si conoscono esattamente le modalità ‘errate’ di assunzione che portano con sicurezza all’insorgere di resistenza, rendendo la regolamentazione molto spinosa. Una seconda alternativa è invece tentare di prevenirne l’abuso, che è senza ombra di dubbio un catalizzatore ben noto. A questo proposito giocano un ruolo fondamentale gli enti regolatori e la diagnostica, di modo che l’assunzione sia strettamente correlata al bisogno. Di cruciale importanza anche il rapporto educativo medico-paziente, che spesso non è efficace in quanto pur di curare il proprio assistito, il terapista potrebbe mettere da parte gli interessi dei pazienti futuri.

La terza via da percorrere è, senza ombra di dubbio, creare nuovi antibiotici. Forse la più intuitiva, ma finora la più ardua. Non a caso l’industria degli antibiotici ha visto chiudere i battenti a reparti di case farmaceutiche di tutto rispetto. Tra queste abbiamo GlaxoSmithKline, Roche, anche Pfizer che quest’anno ha annunciato grossi tagli al budget della loro sezione antimicrobici. Un fatto sconfortante è che la maggior parte delle migliori armi in circolazione sono ancora i principi attivi di vecchia scuola, scoperti a metà ‘900. Queste molecole un po’ arrugginite e con tutti i loro acciacchi continuano a salvare vite, com’è possibile? Penicillina e altre molecole datate furono scoperte proprio perché estremamente potenti, sarebbe stato quasi più difficile NON scoprirle. Madre Natura ci ha messo tra le mani qualcosa che è stato perfezionato in milioni di anni, non serve un genio per capire come sia perlomeno ‘non facile’ migliorarlo. Infatti le centinaia di antibiotici esistenti sono in realtà raggruppabili in pochissime classi, ciascuna corrispondente al meccanismo d’azione della molecola a cui si ispira. Le differenze che abbiamo introdotto noi si sono concentrate più che altro sulla stabilità di tali molecole, sulla solubilità ed altri parametri per spianare la strada al vero principio attivo.

Come se non bastasse, gli approcci conoscitivi tentati negli ultimi anni non si sono rivelati utili in questo senso finora. Trovare validi bersagli e artiglieria, con tecniche anche molto avanzate di biologia molecolare e computazionale, si è rivelata un’impresa oltremodo ardua.

Con i grandi produttori che abbassano la saracinesca e le evidenti difficoltà incontrate dalla comunità scientifica, il numero di antimicrobici approvati dalla FDA è calato da 1 al mese negli anni ‘80 fino a 2 all’anno nel 2011. Il gravoso compito di far approdare sul mercato nuove idee è per ora svolto da alcuni piccoli gruppi o startup nati perlopiù negli ultimi anni, oltre che in ambito accademico, dove comunque il budget si è di molto ristretto. Tali piccole imprese non hanno una base economica abbastanza solida per portare avanti i necessari test clinici, di conseguenza se promettenti i loro brevetti vengono acquistati da industrie più grosse, che per il resto del tempo stanno a guardare. Questo perché l’ombra dei superbugs, per quanto minacciosa e potenzialmente estesa, è ancora considerata dal punto di vista economico una questione di nicchia. Inoltre una scomoda ma ben nota verità è che l’antibiotico (se efficace) rappresenta non un trattamento, ma una cura. Per chi vuole vedersi rientrare le centinaia di milioni investiti per lo sviluppo, vendere un farmaco che dopo una sola applicazione fa perdere il paziente è purtroppo sconveniente. Per questo grossi investimenti in termini di ricerca, tempo, denaro in questo campo non sono visti di buon occhio.

Per fortuna che invece di piangersi addosso, il mondo della ricerca continua a sfornare nuove idee e stimoli, in particolare troviamo alcuni esempi di nuovi antibiotici tuttora in fase di studio che provano a rompere il cerchio della resistenza.

Una delle alternative che promette meglio risiede nell’unire le forze con un alleato discutibile, i virus.

Esistono infatti alcuni ceppi di virus detti Batteriofagi, che infettano in modo specifico alcune specie di batteri per riprodursi al loro interno. Tali virus sono totalmente innocui per i tessuti del nostro corpo, non generano risposte immunitarie indesiderate e una volta eliminati tutti i batteri sensibili vengono degradati. Ma il vantaggio principale consiste nel fatto che è praticamente impossibile per un batterio divenire resistente al virus in questione, infatti il batteriofago è in grado di evolvere alla stregua dell’ospite che infetta, una caratteristica finora unica per un farmaco.

Un altro caso è quello di Shu Lam, una dottoranda 25enne all’Università di Melbourne. Lam sta testando con successo l’utilizzo di speciali polimeri proteici che ucciderebbero le cellule batteriche strappando la loro membrana, abbastanza piccoli per intaccare le cellule umane, ma troppo grossi perché il batterio possa difendersi. Il messaggio è ‘avrai anche il caschetto, ma se invece che tirarti i sassolini ti faccio rovinare addosso un macigno, allora ho vinto io’.

Non finisce qui, alcuni potenziali sostituti degli antibiotici convenzionali si trovano persino andando a scavare nel passato. In particolare si vuole citare il caso dell’Acriflavina, un comune antisettico scoperto nel 1912 e usato negli ospedali durante la grande Guerra. Si presenta come una polvere rossastra, e nonostante le sue proprietà promettenti fu presto rimpiazzata dalla Penicillina dopo il 1950. Fino ad oggi però, nessuno aveva idea di come l’Acriflavina effettivamente funzionasse. Studi recenti dimostrano che tale molecola è in grado di legare il DNA su specifiche sequenze, inducendo il richiamo di una forte risposta immunitaria localizzata da parte dei tessuti esposti, utile per combattere virus e batteri. Il fatto di agire per vie trasverse e sfruttare il nostro stesso sistema immunitario, rende anche questo farmaco potenzialmente immune alla resistenza.

Non finiamo mai di stupirci, studi promettenti trovano peptidi antimicrobici persino nel latte materno del diavolo della Tasmania, un marsupiale carnivoro indigeno dell’Australia, mentre nuove molecole al momento sotto indagine sono in grado di invertire lo stato di resistenza su meccanismi condivisi da molteplici ceppi.

Non si può che essere ottimisti e sperare che alcune di queste nuove e stimolanti soluzioni vedano la luce del giorno, in un futuro in cui ne avremo senz’altro bisogno.

Tutto considerato, dobbiamo rassegnarci all’idea che probabilmente non ci libereremo mai veramente di questi piccoli e controversi coinquilini. Forse imparando a conoscerli riusciremo a rendere questa convivenza possibile per entrambi.

 

(di Davide Visintainer)

Per approfondire (LINK NECESSARI IN QUANTO CONTENENTI LE PRINCIPALI FONTI):

 

Articolo pubblicato su Il Dolomiti il 23/01/2017

Posted on

‘Superbugs’ non è un fumetto Marvel, benvenuti nell’era post-antibiotica

‘Superbugs’ non è un fumetto Marvel, benvenuti nell’era post-antibiotica

Al momento ci crogioliamo in una piccola finestra felice nella storia dell’uomo, soprannominata l’Era antibiotica. Tale periodo sussiste dal 1929, quando lo scozzese Alexander Fleming scoprì la penicillina e rivoluzionò il mondo della medicina come solo i vaccini seppero fare.

Al tempo 5 donne su 1.000 morivano durante il parto, 1 persona su 9 periva in seguito a infezioni cutanee da banali taglietti, così come un terzo dei malati di polmonite era condannato. Il mal di orecchie era l’anticamera della sordità e milioni di persone soccombevano alla tubercolosi. Questo senza contare le cifre dai Paesi allora in via di sviluppo, dove epidemie di colera decimavano periodicamente la popolazione.

In seguito allo sviluppo di queste nuove armi (gli antibiotici appunto) seguì un rapido ribaltamento degli equilibri. Grandi serial killer come peste o tubercolosi furono eradicati o confinati e quelle infezioni che una volta potevano portare a cancrena e morte per setticemia, oggi sono viste come delle complicazioni minori.

Tuttavia già l’11 Dicembre 1945, durante la cerimonia dei Nobel, Fleming terminò il suo discorso con un avvertimento. Egli aveva già avuto modo di osservare come l’uso non pianificato di penicillina desse origine a colonie batteriche insensibili al composto.

Per questo si raccomandò che tale miracoloso rimedio fosse usato con moderazione e strategia. Fu preso talmente sul serio, che nemmeno venti anni dopo fu registrato il primo caso di Pneumococco resistente alla penicillina. La stessa sorte toccò a quasi tutti gli antibiotici (chiamati anche antimicrobici) introdotti sul mercato negli anni successivi, come Tetraciclina, Gentamicina ecc.

Come se non bastasse, svariati ceppi hanno acquisito resistenza a più antibiotici contemporaneamente, guadagnandosi l’appellativo di ‘superbugs’.

Negli ultimi tempi, i numeri di persone morte a causa di superbugs sono aumentati fino a 700 mila all’anno. Secondo uno studio condotto dal governo Britannico conclusosi nel 2016, di questo passo si raggiungeranno i 10 milioni di vittime annue tra meno di mezzo secolo.

Non servono paragoni per afferrare l’enormità di questi numeri. Da un punto di vista economico, la resistenza agli antibiotici porta a cure più lunghe e non sempre efficaci, gravando sulle casse statali. Si calcola che i costi si aggirino intorno ai 20 miliardi di dollari l’anno per i soli Stati Uniti, l’1% dello smisurato e diversificato flusso di soldi immessi nel settore Sanità.

Per Paesi che meno possono permettersi di sostenere queste spese, il costo è ancora più sbilanciato, in quanto superbugs richiedono ‘superdrugs’ (letteralmente super-farmaci) per essere trattati e tali sostanze costose sono merce rara. Per capire, trattare una sola persona affetta da tubercolosi resistente costa in tempo e denaro come curarne 200 con un ceppo sensibile.

Si contano ogni anno circa 450 mila casi di tubercolosi farmaco-resistente, con un tasso di fatalità di un terzo. Nel 2015 in Cina si sono addirittura registrati casi di immunità alla Colistina, uno dei pochi super-antibiotici finora usati solamente come ultima risorsa in casi disperati. La rottura di quest’ultima linea di difesa dovrebbe farci accapponare la pelle. Tuttavia come per tutto ciò che si legge, lasciamo stare il panico e andiamo a osservare il problema più nel dettaglio.

Per capire cos’è la resistenza dobbiamo prima di tutto capire cosa sono gli antibiotici. Tornando al taglio bellico dato all’inizio dell’articolo, immaginiamoli come armi di precisione e di distruzione di massa, in quanto sono in grado di rilasciare una potenza distruttiva su milioni di cellule batteriche in una volta, senza intaccare quelle del nostro corpo.

Come funzionano? Sono perlopiù molecole che una volta all’interno del microbo ne impediscono la crescita e duplicazione interferendo con la replicazione del DNA, la produzione di proteine o altri stadi del metabolismo. Altre modalità d’azione includono la destabilizzazione della parete cellulare o la creazione di pori nella membrana del batterio facendolo letteralmente esplodere.

La maggior parte degli antimicrobici in commercio sono perlopiù ottenuti studiando le tecnologie belliche dei batteri stessi. Infatti si è andati a sfruttare le sostanze o loro derivati che i microbi usano per farsi la guerra a vicenda da miliardi di anni. Se ci pensiamo, siamo solo dei novellini nella grande lotta degli antibiotici. I nostri avversari si sono evoluti in tutto questo tempo per riconoscere ed adattarsi a questo tipo di armi, rendendole efficaci più per l’effetto sorpresa che sui lunghi termini.

Infatti, un batterio può acquisire la capacità di investire energia per produrre speciali macchine proteiche che pompano l’antibiotico all’esterno della membrana, o vi si appiccicano rendendolo inutile. Questa abilità può essere sbloccata grazie a mutazioni casuali, oppure trasmessa da un batterio all’altro tramite la condivisione di frammenti utili di DNA, che codificano appunto per tali difese. Esiste anche il fenomeno chiamato ‘trasformazione’, per cui un batterio può nutrirsi del cadavere di un suo compagno resistente e acquisirne i ‘poteri’ (giuro).

Pochi batteri resistenti solitamente non sono un problema, ma se alcuni riescono a sfuggire alle difese del corpo, possono disperdere l’immunità su vaste popolazioni tramite i meccanismi appena elencati. Tale fenomeno è amplificato non appena entra in azione la pressione selettiva di un antibiotico, poiché i superstiti resistenti avranno molto più spazio per moltiplicarsi, determinando un nuovo terreno di gioco in breve tempo. Questo perché il corpo umano è simile ad un giardino: quando per qualche ragione usi un erbicida, vai a sterminare una grande quantità di piante. Se però alcune riescono a sopravvivere, troveranno un intero prato sgombro da poter colonizzare.

Chiaramente non è che i batteri si evolvano così tanto più velocemente di noi, ma con un tempo di generazione così rapido l’evoluzione agisce relativamente più in fretta. Basti pensare che lo scarto che separa filogeneticamente noi e gli scimpanzé è di circa 5 milioni di anniDividendosi ogni 20 minuti, per coprire una tale distanza evolutiva un batterio potrebbe impiegare meno di una decina d’anni. Senza contare che mutazioni casuali avvengono più di frequente in questi organismi semplici e meno equipaggiati per ripararle, accelerando ancora di più i tempi.

 

(di Davide Visintainer)

 

(Nel prossimo capitolo: Come siamo arrivati qui e come ne usciamo?)

 

Articolo pubblicato su Il Dolomiti il 17/01/2017

Posted on

L’equilibrio precario con i nostri batteri e i pericoli derivanti dallo spietato killer, lo Staphilococcus aureus

L’equilibrio precario con i nostri batteri e i pericoli derivanti dallo spietato killer, lo Staphilococcus aureus

Microbiologia. Così titola sul curriculum uno dei primi esami affrontati durante la mia triennale in Scienze e Tecnologie Biomolecolari. L’intero contenuto del corso può essere riassunto in ‘Conoscerli per combatterli’. Seduti composti nei banchi, la sensazione generale era che ci stessero addestrando per spedirci al fronteIl nemico è sfuggente, subdolo, fecondo e prolifico, ma soprattutto è in grado di imparare. Non ho mai avuto modo di osservarne bene uno ad occhio nudo, ma sono sovente ritratti nell’Iconografia come mostri corazzati dai mille tentacoli. Appartengono allontano dominio dei Prokaryota e per millenni hanno fatto il bello e il cattivo tempo. Lo avrete già capito, stiamo parlando dei tanto temuti e molto chiacchierati batteri.

Malgrado l’aspetto terrificante, essi sono organismi di dimensioni infime, tant’è vero che le stesse cellule di cui siamo fatti potrebbero ‘calpestarli’ senza accorgersene. Sono tra le più piccole, antiche e ubiquitarie forme di vita comparse sulla Terra.

Una precisazione importantissima è che la maggior parte di essi sono innocui, il corpo umano ne ospita migliaia di miliardi, alcuni dei quali svolgono addirittura funzioni essenziali per la nostra sopravvivenza. Per rendere l’idea, il numero di batteri che prosperano allegramente dentro di noi è circa uguale a quello delle stesse cellule di cui siamo composti, il che ci rende una sorta di strano ibrido. Addirittura la comunità scientifica è concorde sul fatto che gli stessi mitocondri che forniscono energia all’interno delle nostre cellule siano derivati da un antico ceppo di batteri, tra l’altro strettamente imparentato con Rickettsia prowazekii (quello del Tifo).

Tuttavia se nella maggior parte dei casi la coesistenza è pacifica, ad una piccola percentuale di questo regno la comparsa di viventi ‘superiori’ come noi non è andata a genio. O meglio, ci hanno immediatamente etichettato come dei gargantueschi ammassi di risorse da sfruttare a loro favore. Come se non bastasse, anche i batteri naturalmente presenti sulla nostra pelle o nel nostro apparato digerente se dislocati in un altro tessuto possono improvvisamente scatenare l’inferno. Basti pensare allo Staphilococcus aureusuno dei più temuti killer durante i ricoveri ospedalieri. Normalmente è presente all’interno della bocca e sulla pelle (sì, anche la tua), tuttavia durante una flebo può essere trasportato dall’ago all’interno del circolo sanguigno. In queste circostanze questo nostro compagno di viaggio ha la possibilità di mettere fine al viaggio stesso.

Sia ben chiaro, per un microbo mettersi a fare l’anarchico nel corpo umano corrisponde nella maggior parte dei casi alla materializzazione dei suoi peggiori incubi. Infatti, a dispetto del fatto di essere (evoluzionisticamente parlando) nati ieri, il nostro organismo è equipaggiato con macchine biologiche assassine oltremodo efficienti che, nel loro insieme, costituiscono il sistema immunitario (In questa GIF un globulo bianco insegue un batterio fino ad inglobarlo). Ma se è vero che comunque miliardi di batteri prosperano allegramente al nostro interno, è chiaro che questo macchinario fa delle preferenze e ha dei punti ciechi. Tale necessario compromesso tra repressione e integrazione viene quindi sfruttato da alcuni ceppi per svolgere la loro azione patogena all’oscuro delle nostre difese. Allo stesso modo, gioca un ruolo fondamentale la capacità proliferativa di questi organismi, che possono raddoppiare di numero ogni 20 minuti.

Ciliegina sulla torta, all’interno degli ospedali la maggior parte dei pazienti ricoverati hanno un sistema immunitario indebolito e vulnerabile a tal punto che un’infezione sistemica da Staphilococcus aureus risulta fatale in un terzo dei casi. Questo è il quadro della situazione presente, in cui solo in UE ogni anno sono colpiti da infezioni ospedaliere quasi 5 milioni di pazienti, con 37 mila morti, 16 milioni di giorni di degenza extra e 7 miliardi di euro di costi aggiuntivi per le strutture sanitarie. Il fenomeno è certamente rilevante, e determina dei costi sociali elevatissimi.

Il solo Staphilococcus aureus uccide più di 17 mila persone all’anno negli ospedali degli Stati Uniti. Sembra un quadro funesto? Per niente. Ho menzionato solamente uno degli organismi che stanno dando del filo da torcere al Sistema sanitario. Se mi dilungassi ulteriormente potrei scriverci un libro, il problema è che in futuro quel libro si trasformerebbe in una collana. Tra l’altro parlare di futuro è un po’ fuori luogo, perché negli anni a venire potremmo invece catapultarci direttamente nel passato.

 

(di Davide Visintainer)

 

(Nel prossimo capitolo – “Cosa ci aspetta (?)”)

 

Articolo pubblicato su Il Dolomiti il 14/01/2017

Posted on

La scienza è dittatura, ma nessuno è dittatore anche nell’era della post-verità

La scienza è dittatura, ma nessuno è dittatore anche nell’era della post-verità

Parliamo di meningite, e del preoccupante numero di casi e vittime negli ultimi mesi. Più nel dettaglio, un noto partito politico di estrema destradecide di strumentalizzare questa situazione per alimentare l’odio xenofobo verso i migranti: “Meningite – Tutti sappiamo da dove arriva – Basta accoglienza killer“. Così recita l’immagine postata sul social, e accompagnata da un volto di donna sofferente. Questa falsità di scarso spessore, malevola nonché priva di alcun fondamento scientifico, viene prontamente disinnescata dal dott. Burioni. La bufala è come di consueto denudata nella sua pochezza, esponendo automaticamente l’ignoranza dei suoi fautori. Ordinaria amministrazione, l’ennesimo scontro tra fantasiosa propaganda e verità fattuale. Ma si accende un dibattito, qualcuno ancora non è convinto. Non c’è spazio per opinioni di fronte ad un dato totalmente oggettivo, eppure fioccano commenti polemici. La realtà scientifica non sembra essere abbastanza per alcuni utenti, e questa volta il medico non va per il sottile.

La reazione viene accolta da pareri contrastanti. Siamo di fronte ad un esperto che dedica il suo tempo ad una battaglia per la collettività, ma questa affermazione ci lascia ugualmente disorientati. Cosa significa affermare la natura non democratica della scienza? Questa sentenza lapidaria ha un alone quasi dogmatico, e il medico sembra imporsi come una figura che possiede una conoscenza che va accettata senza condizioni. Ma i toni particolarmente forti, dettati forse dal contesto delicato, non devono trarre in inganno. Forse con troppa veemenza, il dott. Burioni difende l’oggettività del metodo scientifico, sottolineando come le opinioni del singolo o della massa non possano scalfire in alcun modo una tesi testimoniata dalla realtà dei fatti.

Il volto severo e imperturbabile della scienza è incarnato proprio dalla solidità dei suoi principi. Possiamo smettere di credere nella forza di gravità, ma ciò non ci farà volare: ci renderà solo ridicoli. In questo senso l’uomo è completamente impotente: la scienza è una dittatura e non ammette replica. L’opinione è confinata nell’angolo dello sconosciuto, e con essa la volontà stessa. Sembra una costrizione forte, ma ciò consente di raggiungere un livello superiore di uguaglianza: nessuno è al comando, nessuno è dittatore. Ognuno ha diritto di parola, ognuno può sconvolgere lo scenario attuale rispettando una sola fondamentale condizione: l’evidenza sperimentale. Ma all’alba del nuovo millennio la verità non sembra più essere abbastanza: il sensazionalismo vince sulla realtà oggettiva.

 

La parola dell’anno 2016 per Oxford Dictionaries è post-verità, circostanza in cui i fatti sono meno importanti del credo personale e dell’emotività. Da Brexit alla vittoria di Donald Trump, passando per le numerose bufale sul fantomatico benessere dei migranti, siamo testimoni di un cambio di paradigma surreale. Il sentimento, o meglio il risentimento, sono la nuova bussola che ci guida nelle decisioni che contano. Il flusso d’informazione nell’era digitale ha lentamente perso la sua struttura gerarchica, appiattendosi in una fitta rete di scambi totalmente orizzontali e tra pari, dove tutto è contestabile e soggetto all’interpretazione. Paradossalmente un tessuto comunicativo di questo tipo promuove l’isolamento del singolo utente, consentendogli di interagire preferenzialmente con chi la pensa proprio come lui. Per reagire occorre prenderne atto: in questa distorsione popolare del mondo oggettivo, dove la verità stessa diventa negoziabile, la parola del dottor Burioni vale purtroppo come quella di chiunque altro. Come può quindi sopravvivere la sana informazione scientifica?

Per prima cosa è forse necessario ripensare il rapporto tra il divulgatore e il suo pubblico, che non è più disposto ad accettare nozioni in maniera acritica. L’imposizione paternalistica di “ciò che è bene” sembra per certi versi essere controproducente, scatenare un moto di ribellione. Non abbiamo più bisogno di eroi, che nel loro stoico operare si isolano sempre più dalle masse a cui vogliono rivolgersi. La comunicazione deve tornare innanzitutto un atto di fiducia, fiducia verso un proprio pari e non fondata su altisonanti prefissi o cariche istituzionali e accademiche. Non ci sia malinteso: così come è naturale affidarsi ad un professionista per riparare un’automobile o un computer, dovrebbe essere spontaneo affidarsi al volto familiare di un esperto anche in contesti ben più importanti. Ma non è più una scelta automatica.

A tutti i divulgatori, anzi ai comunicatori in generale, non resta che scendere di qualche gradino e smettere di affidarsi in toto a numeri, dati e bibliografie. Persa la centralità del fatto, la priorità è ora coltivare il ragionamento critico individuale: non distribuire verità, ma insegnare come cercarla. Anche nelle sue forme più sterili, il dialogo aiuta a sviluppare una serie di strumenti che permettono di districarsi tra bufale e sensazionalismi. Coinvolgere realmente la collettività è importantissimo in questo momento storico, tanto ricco di problematiche quanto di opportunità. Sotto l’attenta guida di uomini e donne che vi dedicano tutto il proprio essere, la ricerca scientifica continuerà a sorprenderci positivamente, senza accettare compromessi. Ma l’ultima parola spetta al libero individuo; l’ultima parola è proprio un’opinione, o per meglio dire una scelta. E perché tale scelta sia informata e consapevole, occorre forse coltivare più complicità e meno riverenza.

 

(di Gian Marco Franceschini)

Articolo pubblicato su Il Dolomiti il 09/01/2017

Posted on

Zika, le Olimpiadi sono passate… e adesso?

Zika, le Olimpiadi sono passate… e adesso?

Meno di un anno fa, l’Organizzazione Mondiale della Sanità (OMS) lanciava l’allarme: la diffusione del virus Zika è un’emergenza di salute pubblica. L’avvertimento risultava impellente, dato l’approssimarsi dei Giochi Olimpici proprio nel paese da cui l’allarme era partito. Infatti, l’organizzazione delle Olimpiadi era stata assegnata al Brasile, nazione stremata dalla povertà e dalla corruzione, che ha portato all’attuale crisi governativa e alla destituzione del presidente Dilma Rousseff.

A peggiorare la situazione, nel corso del 2015 un’anomala incidenza di bambini nati con microcefalia congenita aveva interessato il Nord-Est del paese. Studiando i fattori concomitanti che avrebbero potuto spiegare una tale incidenza, gli epidemiologi brasiliani si focalizzarono sulla comparsa del virus Zika in territorio brasiliano.

Si era a conoscenza della sua espansione nel paese sin dal Marzo 2015 e a metà Luglio erano stati registrati una cinquantina di casi di sindrome di Guillaine-Barré, un raro disordine auto-immune del sistema nervoso la cui aumentata incidenza era già stata associata ad un’improvvisa epidemia di Zika nella Polinesia Francese. L’impennata di casi di microcefalia congenita da una media inferiore ai 200 casi nel 2014 ai 3.174 casi registrati nel 2015, scatenò innumerevoli preoccupazioni.

I Giochi Olimpici e Paralimpici, tuttavia, non furono rimandati su suggerimento dell’OMS stesso, in considerazione del fatto che l’evento si sarebbe tenuto durante l’inverno brasiliano, quando l’attività degli artropodi che diffondono il virus, le zanzare Aedes aegypti, è minima. Un sottile isterismo collettivo ha tuttavia pervaso il globo. Oltre alle ovvie precauzioni da adottare contro il morso delle zanzare per chiunque si recasse nelle zone a rischio, l’OMS raccomandava e raccomanda tuttora di praticare sesso sicuro o di astenersi per un periodo di sei mesi dal ritorno dal Brasile. Infatti, Zika è trasmesso anche per via sessuale. Ciò risulta particolarmente preoccupante data l’associazione tra infezione da virus Zika e alterazioni fetali in gravidanza. Addirittura, si sconsigliava alle donne gravide di viaggiare in Brasile.

Quali ripercussioni hanno avuto sulla diffusione di Zika le masse di turisti, operatori e sportivi che si sono riuniti a Rio per i Giochi?

A Rio, la trasmissione del virus è stata minima durante i mesi invernali rispetto ai picchi raggiunti a Febbraio, durante l’estate brasiliana. Addirittura, non un solo caso di infezione da Zika è stato riportato tra turisti e atleti a fine agosto. Nonostante questi dati, a settembre l’OMS riconfermava la necessità di ritenere il virus un’emergenza di salute pubblica, anche sulla base di nuovi casi di infezione in altri paesi. Soprattutto in vista dell’imminente estate, quando la densità delle zanzare che trasmettono Zika è ai massimi livelli.

Come già menzionato, il maggior numero di casi di microcefalia associata al virus si è registrato nel Nord-Est. Gli epidemiologi si attendevano un analogo andamento nel resto del paese nei mesi successivi, ma così non è stato. Secondo il Centro di Operazioni di Emergenza in Salute Pubblica (COES), su 9.091 casi di microcefalia notificati dall’8 novembre 2015 al 20 agosto 2016, 6.346 casi sono stati registrati nel Nord-Est (69,8%) e di questi ultimi 1.538 casi sono stati confermati essere associati a infezione da virus Zika (su un totale di 1.845 casi confermati). I pochi dati disponibili per tracciare lo sviluppo e le tempistiche della diffusione di Zika dal suo arrivo in Brasile rendono difficile determinare le ragioni di una tale differenza. Si suppone che la spiegazione dell’alta incidenza di casi di microcefalia sia da ricercarsi in fattori socio-economici, come il livello di povertà. Anche fattori genetici, immunologici o ambientali potrebbero essere implicati. Per esempio, è stata avanzata l’ipotesi di una correlazione tra le basse percentuali di vaccinazione contro il virus della febbre gialla e l’alto numero di casi di microcefalia, suggerendo un possibile effetto protettivo di tale vaccino contro le complicazioni date da Zika (entrambi i virus appartengono alla famiglia Flaviviridae e sono trasmessi dallo stesso vettore).

Un altro spunto da prendere in considerazione è la procedura di diagnosi di microcefalia congenita. Negli scorsi anni, il Brasile riportava un numero di casi inferiore rispetto a quello atteso, probabilmente sottostimando l’incidenza di questa malformazione. Il Sistema brasiliano di Informazione sulle Nascite (SINASC) nel 2010 segnalava un’incidenza di microcefalia nel paese di 0.5 casi su 10.000 nati vivi, mentre altri studi suggerivano un valore atteso di casi tra i 1,0 e i 2,0 su 10.000 nati vivi. Inoltre, il Ministero della Salute brasiliano adottava dei parametri di diagnosi meno restrittivi rispetto a quelli consigliati dal programma di investigazione clinica ECLAM (Estudio Colaborativo Latino Americano de Malformaciones Congènitas). Il Ministero cercava in tal senso di monitorare il più alto numero possibile di neonati per precauzione, sebbene l’applicazione di tali parametri suggerisca che il numero di casi sospetti non fornisce una precisa immagine della situazione.

Non è dunque facile comprendere l’entità dei danni. Le prove che Zika possa essere la causa di complicazioni quali la microcefalia vanno accumulandosi con i mesi. Una delle evidenze più sostanziali è stata fornita dalla presenza del virus in un feto abortito con gravi anormalità a livello cerebrale. Non è ancora chiaro, però, quale sia il rischio di incorrere in malformazioni congenite in seguito ad infezione da Zika virus. Molti altri microorganismi possono causare microcefalia, come il cytomegalovirus e la toxoplasmosi, ma il rischio associato ad essi è quantificabile e molto basso. Nel caso di Zika, invece, questo dato non è ancora conosciuto con precisione.  Secondo recenti studi, la trasmissione verticale del virus da madre a figlio sarebbe possibile in quanto le cellule dell’endometrio che rivestono la superficie dell’utero sono permeabili al virus e ne permettono il passaggio durante il primo trimestre di gravidanza.

Parafrasando il titolo di un articolo pubblicato dal New Yorker qualche mese fa, la gara per il vaccino è aperta. Sempre più laboratori si stanno unendo alla corsa per capire quali meccanismi sono alterati nei casi di microcefalia, ridotta crescita intrauterina e altri difetti associati con l’infezione in donne gravide. Alcuni vaccini sono già in via di sperimentazione su topo e scimmia, ma ci vorrà ancora molto tempo prima di arrivare alla commercializzazione. Nel frattempo, secondo l’ultimo report dell’OMS, il rischio non è mutato e il virus Zika continua a diffondersi in quelle aree dove proliferano le zanzare che lo ospitano.

Così, in meno di due anni, Zika è passato dall’indifferenza mondiale alla notorietà estrema. È stato certamente il virus più discusso e studiato del 2016. Noi ci auguriamo che continui ad esserlo, perlomeno finché la corsa al vaccino non avrà il suo vincitore.

 

(di Lucrezia Ferme)

 

Articolo pubblicato su Il Dolomiti il 02/01/2017