giovedì 26 dicembre 2013

ANCORA STAMINA: INCONSISTENZE RECENTI E RESPONSABILITA' LONTANE


ANCORA STAMINA: INCONSISTENZE RECENTI E RESPONSABILITA' LONTANE


"Con i genitori di Sophia" così Guglielmo Pepe, editorialista di Repubblica, intitola il post del 6.6.13 del suo blog "Noi e Voi". In modo analogo ("vicini alla piccola e ai suoi genitori") si era, tre mesi prima, espressa la Regione Toscana per bocca del suo assessore alla sanità ("non smetteremo di fare tutto quanto in nostro potere perchè si continui la terapia"). Due dei numerosi proclami in questo senso di amministratori, giornalisti, e commentatori televisivi a proposito del notissimo caso Stamina.

Certo, è difficile non essere dalla parte di una piccola malata e dei suoi genitori in ansia. Bisogna vedere però in che maniera: che non può essere una qualsivoglia maniera. E il modo proposto da Pepe (il quale pensa che si possa derogare un po' alle regole scientifiche in nome di una non meglio definita "umanità in medicina") e quello della Regione Toscana (riprendere la cura con staminali interrotta) non erano i migliori.

Un parallelo in un altro campo. Che a scuola nessuno debba restare indietro era la massima di don Milani in fatto di istruzione. Difficile dissentire in principio ma il modo seguito dal sacerdote per raggiungere questo scopo era difettoso perchè penalizzava i più diligenti (vedi il libro di Roberto Berardi "Lettera a una Professoressa. Un mito degli anni sessanta", Shakespeare & Co 1992). 

Fare una asserzione moralmente inoppugnabile se generalmente intesa e servirsene poi per argomentare con chi, a proprio giudizio, non si comporta di conseguenza è una frequente fallacia logica. Se ne trova un esempio nei Promessi Sposi quando Antonio Ferrer (il gran cancelliere che aveva dissennatamente calmierato il prezzo del pane) arriva in carrozza per salvare il vicario di provvisione assediato dalla folla in tumulto. La quale folla è divisa tra facinorosi che vogliono linciare il vicario e moderati cui ripugna un esito cruento della sommossa. Ferrer, venuto, dice lui, per portare il vicario in prigione, dà un aiuto decisivo ai moderati: come infatti opporsi a chi ha calmierato il prezzo del pane? Chi è contro Ferrer è contro il pane a buon mercato, questo l'argomento dei moderati.

"Il cuore ha le sue ragioni che la ragione non conosce" dice Pascal. Giustissimo se si tratta di fede e di comportamento etico. Pascal però era anche uno scienziato e in ricerca si serviva esclusivamente della ragione. Quindi a che lacrimose e generiche affermazioni del tipo "essere dalla parte dei genitori di Sophia"? Col continuare/riprendere il trattamento col Metodo Stamina inteso come "cura compassionevole"? Bene, ma una cura anche se compassionevole deve essere pur sempre una "cura" cioè un intervento terapeutico con caratteristiche che però mancano a Stamina. La cura Di Bella non funzionava ma, almeno, il suo autore aveva spiegato nei particolari in che consisteva: qui non sappiamo bene neppure cosa viene iniettato nei pazienti: come parlare propriamente di "cura"? Si potrà, in via eccezionale, far così su animali da esperimento ma non è precisamente usando i pazienti come cavie che si è dalla loro parte. Adesso sappiamo anche che la cura Stamina comportava il rischio di gravi infezioni quali sifilide, epatiti, HIV: tanti saluti al "primum non nocere". Qui in modo particolare sarebbe stato meglio aver avuto "prima" il senno di poi, usare il cervello e vedere un po' come stavano le cose avanti di lanciare appelli accorati. 

La vicenda Stamina è un ulteriore esempio della commistione in atto da tempo tra sentimenti e scienza medica. Incidentalmente stupisce il contrasto tra il quasi religioso rispetto che avevano i nostri padri per la medicina in tempi in cui la diagnosi si basava sull'esame fisico e le terapie efficaci erano poche, e la diffidenza di oggi quando le diagnosi si basano spesso su esami molto sofisticati e il cerchio delle malattie incurabili si è grandemente ristretto.

Diverse le ragioni che hanno promosso questo atteggiamento. Una causa possono paradossalmente essere gli straordinari progressi compiuti negli ultimi decenni in campo medico che ci hanno viziato e portato a fare pretese irrealistiche: vogliamo guarire di tutto e subito. Penso che un'altra causa sia l'azione diseducativa esercitata sul grande pubblico dalla diffusione delle medicine alternative. In Italia ci sono ambulatori regionali che praticano e facoltà mediche che insegnano omeopatia e agopuntura con l'effetto di legittimare interventi medici basati solo su tradizione e autorità. Nella confusione tra scienza e non scienza che consegue il pubblico è indotto a fidarsi di pratiche irrazionali e nessuna meraviglia quindi se poi capita che persone anche con un buon grado di istruzione credono a una cura ideata da uno psicologo.

Il fatto è che la realtà fisica è del tutto indifferente ai nostri desideri, anche a quelli più legittimi. In medicina, più che in ogni altro campo della scienza applicata, entrano in ballo i sentimenti ma se vogliamo veramente la guarigione dei pazienti occorre usare solo la fredda ragione: i batteri, i virus, le cellule tumorali, le malattie metaboliche e degenerative hanno regole di comportamento tutte loro e le seguono ferreamente: è solo calandosi in queste regole ed interferendo con esse che possiamo far riacquistare la salute ai malati.

Nè in clinica esistono scorciatoie e vie di comodo sul modo con cui accertare i fatti. Decenni di errori con l'insegnamento che ne abbiamo ricavato hanno portato a una serie di norme per vagliare ogni nuova cura e interpretare correttamente i risultati dei test. Tanto per cominciare, prima di testare una medicina occorre sapere esattamente che cosa essa è (ma per questo c'è bisogno di regole?): problemi di brevetto e segretezza connessa come sono stati agitati nel caso di Stamina non c'entrano. E in un campo così carico di emozioni in cui tutti vogliono appassionatamente fare qualcosa per aiutare i malati era facile prevedere l'occorrenza di bias d'ogni genere. Sempre supponendo che fosse lecito iniettare le soluzioni di Stamina a dei malati, non ci voleva molto, in accordo con i pazienti/genitori dei pazienti, a intraprendere, per esempio, uno studio pilota randomizzato e a doppio cieco su pochi soggetti. Dopo un tempo limitato avremmo avuto qualcosa di meno vago su cui ragionare e decidere se e come procedere. Inoltre, coinvolgere i genitori dei piccoli pazienti nella valutazione dei risultati prima che fossero rotti i sigilli e palesata l'identità dei pazienti sarebbe stato utile a convincere i genitori stessi della mancanza di efficacia specifica della cura.

Invece non è stato fatto niente di tutto ciò e il risultato è il pasticcio che ho riassunto nel post precedente. Quello che fa più meraviglia (almeno a me) è il notevole numero di persone che si sono pronunciate in materia senza aver prima fatto i compiti a casa, il "homework" come si dice in inglese. Bastava aprire un comune libro di metodologia e statistica medica per capire che la cosa, così com'era impostata, avrebbe solo perpetuato l'incertezza e ingigantito le controversie. Tant'è: come leggo in un'antologia di citazioni: "Parmi d'aver per lunghe esperienze osservato, tale essere la condizione umana intorno alle cose intellettuali, che quanto altri meno ne intende e ne sa, tanto più risolutamente voglia discorrerne…".

Così diceva Galileo deprecando un vizio evidentemente sopravvissuto in Italia fino ai nostri giorni. Con la differenza che ai tempi di Galileo non c'era stato da secoli un Galileo, cosa che invece, colpevolmente, è il caso di noi contemporanei. 

domenica 8 dicembre 2013

STAMINA OGGI: "NON SO SE IL RISO O LA PIETA' PREVALE"


STAMINA OGGI: "NON SO SE IL RISO O LA PIETA' PREVALE"

Riassumo. Nel settembre 2011 gli Spedali Civili di Brescia consentono a sperimentare una nuova cura con cellule staminali su 12 pazienti affetti da malattie degenerative nervose. Nel maggio del 2012 l'AIFA (Agenzia Italiana del Farmaco) impone la sospensione del trattamento per mancanza di regolare autorizzazione e rischi per la sicurezza dei pazienti. Tre mesi dopo, in seguito a un ricorso dei pazienti e della Fondazione Stamina che propone la cura, il tribunale di Venezia impone allo stesso ospedale di continuare il trattamento estendendolo ad altri malati. Marzo 2013: per decreto, l'allora ministro della salute Renato Balduzzi permette la prosecuzione della cura e ne dispone la sperimentazione clinica finanziandola con tre milioni di euro. A Balduzzi succede il mese seguente Beatrice Lorenzin che nomina un comitato di esperti il quale, tre mesi dopo, è unanime nel dichiarare il metodo privo di basi scientifiche e pericoloso per i pazienti al che la ministra blocca la sperimentazione. Contro il provvedimento seguono dimostrazioni pubbliche di pazienti e un ricorso al TAR del Lazio. Il quale TAR, il 4 dicembre 2013, accoglie il ricorso dell'ideatore della cura, lo psicologo Davide Vannoni, e sospende il parere del comitato scientifico nominato dalla Lorenzin dichiarandone "illegittima" la composizione perchè alcuni dei suoi componenti avrebbero avuto sul metodo una opinione preconcetta in senso negativo. Il Ministero si oppone allora a che venga ripresa la sperimentazione clinica e annuncia la nomina, a breve, di un nuovo comitato scientifico per la valutazione del metodo Stamina.

Un esempio delle contraddizioni disseminate in questa sconclusionata vicenda si trova nella sentenza appena menzionata del TAR ove viene prescritta la formazione di un nuovo comitato scientifico ai cui lavori dovrebbero partecipare "esperti, eventualmente anche stranieri, che sulla questione non hanno già preso posizione o, se ciò non è possibile essendosi tutti gli esperti già esposti, che siano chiamati in seno al Comitato, in pari misura, anche coloro che si sono espressi in favore di tale Metodo" (il corsivo è mio).

Immagino la meraviglia ma avete capito bene. Perchè c'è da chiedersi come possano essere considerati "esperti" coloro che in passato si sono pronunciati favorevolmente su un metodo di cura sostenuto da chi, quali gli ideatori del metodo Stamina:

1. E' stato colto da una nota rivista internazionale (Nature)  a manipolare una documentazione fotografica del metodo che propone.
2. Si astiene dal pubblicare le proprie ricerche su riviste scientifiche qualificate.

3. Non comunica per tempo e in cosa esattamente consiste il metodo in questione.

4. Reagisce scompostamente alle critiche agitando anche il sospetto di congiure avverse da parte della scienza “ufficiale” (un ricercatore serio non fa mai questo, anzi, auspica verifiche indipendenti).

5. Propone un intervento medico giudicato infondato dalla totalità delle persone competenti in materia  e, soprattutto, disinteressate.



Penso che qualsiasi ricercatore serio si rifiuterebbe per principio di entrare in una commissione col preciso incarico di giudicare “obiettivamente” una ipotesi  clinica così viziata in partenza da essere di fatto non giudicabile, che, in altre parole, "is not even wrong" come disse il fisico Pauli di una teoria che non stava assolutamente in piedi. E se accetta, prefiggendosi di essere “obiettivo” quando è tecnicamente impossibile farlo, vuol dire che non ha capito nulla e quindi è incompetente a giudicare. E’ una specie di paradosso logico analogo a quello del barbiere di Bertrand Russell "che fa la barba a tutti meno a quelli che se la fanno da sé".

La situazione che è risultata da questo rimpallo di competenze talvolta fasulle e di incompetenze sempre autentiche è quanto di meno si possa desiderare. Gli aspetti negativi in ordine decrescente di importanza sono: 

1. Perdurare dell'incertezza angosciosa dei pazienti e dei loro familiari. Questo naturalmente è il male maggiore.
2. Messaggio disastroso per la fiducia del pubblico verso medici,  amministratori e politici al vedere: 
a. Ospedali che si prestano a sottoporre pazienti a cure infondate e rischiose.
b. Un ministro della salute (Balduzzi) che in base a un malinteso criterio di compassione e cedendo alla emotività popolare sostiene e finanzia una sperimentazione clinica priva di ragionevoli requisiti.
c. Medici aventi posizioni di responsabilità che litigano apertamente tra loro.
3. Motivi di dubbio sulla capacità di giudizio di alcuni (speriamo pochi) magistrati che sembrano continuare a vivere in un mondo tutto loro senza percepire che nel terzo millennio non si possono dirimere questioni medico-scientifiche con la dialettica di Hegel e relativa triade (tesi, antitesi e sintesi). 
4. Ancora sprechi di denaro pubblico.
5. Un altro colpo alla credibilità dell'Italia all'estero. Meno male che di figuracce in questo campo ne abbiamo fatte già tante sicché una più una meno… Questo forse è il male minore. 

Prevale "il riso o la pietà"? La risposta è implicita nella seconda parte de "La Ginestra" di Leopardi (che comincia con: "Sovente in queste rive...").

lunedì 25 novembre 2013

BOSONE DI HIGGS, ERRORE DI TRASPOSIZIONE E… AGOPUNTURA


BOSONE DI HIGGS, ERRORE DI TRASPOSIZIONE E… AGOPUNTURA

Quest'anno il britannico Peter Higgs è stato uno dei due vincitori del Nobel per la fisica. Higgs per primo, su basi teoriche, predisse nel 1964 l'esistenza di una nuova particella subatomica: il "bosone di Higgs" come poi essa venne chiamata. L'importanza di questa particella è capitale, senza di essa non starebbe in piedi la matematica dello Standard Model, una teoria alla base della fisica quantistica che unifica due delle quattro forze fondamentali della natura: la nucleare debole e la elettromagnetica.

Prima che questa entità, particolarmente elusiva nel pur al massimo grado elusivo mondo delle particelle subatomiche, potesse esser dimostrata è dovuto passare quasi mezzo secolo. L'annuncio della sua esistenza fu dato infatti il giugno dell'anno passato da un portavoce del CERN, il Consiglio Europeo per la Ricerca Nucleare avente sede a Ginevra. 

Come la scoperta è avvenuta ne hanno parlato nei mesi seguiti all'annuncio numerose riviste di divulgazione scientifica quali lo Scientific American e il New Scientist. Per chi, come me, conosce la fisica non molto al di là di quanto appreso al liceo, l'introduzione più chiara è forse l'editoriale apparso sul New Economist il 13 luglio del 2012, scritto presumibilmente da uno scienziato col dono della comunicazione. 

Le cose, più o meno, sono andate così. Il CERN dispone a Ginevra di un laboratorio avente un tunnel sotterraneo circolare con un perimetro di 27 Km nel quale vengono fatti correre nei due sensi fasci di protoni a un velocità vicina a quella della luce. Dall'energia sviluppata negli scontri frontali che occorrono tra i protoni originano particelle più piccole tra cui il bosone di Higgs (BH) che a loro volta decadono istantaneamente in particelle ancora minori da alcune delle quali si può risalire alla particella che le ha generate. Si tratta di 40-100 milioni di scontri casuali per secondo che generano un enorme rumore di fondo in cui annega il segnale prodotto dal decadimento dei BH.

La figura sottostante, tratta da un da seminario tenuto dal CERN sul BH il 4 luglio 2012, riporta il risultato complessivo dell'esperimento ove la linea punteggiata è il tracciato da attendersi in assenza del BH (o, se vogliamo essere più cauti, in assenza di una particella dalle caratteristiche compatibili con il BH). La linea rossa invece è il tracciato da attendersi in presenza di questa particella il cui segnale dopo trilioni e trilioni di scontri tra protoni (l'esperimento è continuato ininterrottamente per anni) emerge come una gibbosità corrispondente a una massa di circa 125 GeV - ove GeV è una unità di misura di massa usata in fisica atomica e subatomica. Se non esistesse il BH (ipotesi nulla o Ho), col ripetersi dell'esperimento dovremmo aspettarci l'apparizione del segnale costantemente entro la banda verde attorno linea punteggiata i cui bordi distano ± 2 sigma o deviazioni standard dalla media nel 95% dei casi. Sommando i risultati ottenuti da due programmi di ricerca (ATLAS e CMS) sponsorizzati dal CERN tali limiti di confidenza sono stati superati in quella singola regione di ben 5 deviazioni standard in modo da toccare la probabilità incredibilmente bassa di 0.000001 che capiti di osservare un segnale di fondo in assenza del BH, se fosse cioè vera l'ipotesi nulla Ho (P-value = 0.000001 secondo il test frequentistico di significatività correntemente in uso).



Il ragionamento fatto dei fisici può riassumersi così:
1. Supporre che il HB (o una particella con le caratteristiche compatibili con quelle del BH) non esiste (Ho).
2. Calcolare la probabilità (Pr) di osservare risultati (dati) ugualmente netti o ancora più estremi di quelli ottenuti nell'esperimento nel caso che il BH non esista espressi da un P-value≤ 0.0…1  cioè Pr(dati | Ho) ove il simbolo | sta per "posto che".
3. Se la probabilità di ottenere tali dati è estremamente bassa, posta sempre l'ipotesi Ho che il BH non esiste, vuol dire che l'ipotesi Ho è falsa o, come meglio sarebbe dire, può essere rifiutata.
4. Se è falsa l'ipotesi Ho che il BH non esiste è vera l'ipotesi alternativa H1 per cui il BH esiste. 

Fin qui tutto bene. Una controversia è sorta però per il modo con cui molti mezzi di comunicazione quali il New York Times, il Wall Street Journal e anche Nature hanno cercato di quantificare il risultato riferendo la bassissima probabilità di ottenerlo non strettamente ai dati, come avrebbero dovuto, ma a una sua supposta implicazione con l'affermare che esiste solo una probabilità su 3.5 milioni che i risultati sono solo un caso fortunato passando così da Pr(dati | Ho) a Pr (Ho | dati) o Pr(nessun BH | risultato). Esperti di statistica hanno obiettato che dire "senza il BH la probabilità di ottenere un segnale di fondo (falso positivo) tanto al di fuori dei limiti attesi è 0.0…1", cioè astronomicamente bassa, non significa che il BH esiste con una probabilità altrettanto astronomicamente alta di 1 meno 0.0…1. Ragionando così infatti si commette un "errore di trasposizione del condizionante", un tipo di fallacia che ricorre in diverse situazioni. Una illustrazione semplice di questa fallacia è la seguente: se quando piove scostiamo l'ombrello e guardiamo in su vedremo quasi certamente delle nuvole, ma la presenza di nuvole in cielo non comporta la stessa alta probabilità che piova.

Un esempio di questo abbaglio riguardante il diritto è la cosiddetta fallacia del pubblico ministero ("prosecutor fallacy"), in cui viene confusa la probabilità che un accusato risulti positivo a un test di identificazione quale le impronte digitali, o il cui caso rientri in una circostanza particolarmente insolita, con la probabilità che quel soggetto sia il colpevole. Fallacia pericolosa che in passato ha inflitto terribili sofferenze a innocenti Prosecutor’s Fallacy. In medicina, su cui torneremo, questa fallacia occorre di frequente e non sempre è così chiara, e quindi facilmente evitabile, come nel caso in cui la probabilità che un bambino col morbillo abbia macchie rosse sul pancino non è la stessa (è molto più alta cioè) di quella che un bambino con macchie rosse nello stesso luogo del corpo abbia il morbillo.

Il gioco d'azzardo aiuta a capire un altro aspetto dell'errore. Prendiamo una ipotetica roulette priva dello zero. Avere una serie ininterrotta di rossi (o di neri) è un evento sempre più raro quanto più numerosi sono i giri di roulette. Se il congegno è perfettamente funzionante la probabilità di ottenere, ad esempio, 12 rossi di fila è 0.5^12 cioè molto bassa (0,000024 o 0.0024%). Niente da obbiettare se ci limitiamo a parlare in termini assoluti di probabilità esprimibili come P-value. Le cose cambiano se usiamo questi dati anomali per arguire la probabilità che la roulette sia truccata. Questo perchè Pr(dati | Ho), cioè la bassa probabilità di ottenere il risultato posto che la roulette non sia truccata/ben funzionante (Ho), non è necessariamente la stessa di quella che la roulette sia stata manomessa vista l'eccezionalità dei dati o Pr(Ho | dati). Trasposizione ancor più discutibile data la scarsa plausibilità dell'ipotesi proposta se, dopo aver vinto un mucchio di soldi col puntare sempre sul rosso, sosteniamo per esempio che ciò è avvenuto grazie al rapporto telepatico che abbiamo con un nostro familiare defunto: una situazione simile a quella del film "Totò e i re di Roma" in cui Totò suggerisce dall'aldilà i numeri giusti del lotto alla moglie. L'anormalità dei molti rossi in successione resta immutata ma non è una prova altrettanto chiara che esista un suggeritore ultraterreno.

Tornando al BH, se vogliamo passare da Pr(dati | Ho) - ove, ricordiamo, Ho sta per l'ipotesi che non esista alcun HB - a Pr( Ho | dati) e calcolare questa probabilità occorre usare la statistica "bayesiana" la quale, a differenza di quella espressa in termini di P-value chiamata "frequentistica", prende in considerazione la probabilità a priori che sia corretta l'ipotesi Ho, cioè che il segnale non sia stato generato dal BH ma dal rumore di fondo. Il teorema di Bayes su cui questa statistica è fondata ci dice che la probabilità che sia vera una ipotesi H posto nuovi dati D (Pr(H | D) o probabilità posteriore è uguale alla probabilità dei dati osservati data l'ipotesi (Pr(D | H) moltiplicato per la probabilità che sia vera l'ipotesi H prima di aver ottenuto i nuovi dati o probabilità a priori di H, il tutto diviso per la probabilità a priori di ottenere quei dati:

Pr(H | D) = Pr(D | H)•Pr(H)/Pr(D). 

A differenza della statistica frequentistica e che, dipendendo solo dalla probabilità descritta dalla distribuzione normale o gaussiana, è considerata "oggettiva", la statistica bayesiana ha in sè la difficoltà di un passaggio "soggettivo" poichè comporta la valutazione della probabilità a priori, quella cioè presente prima di aver eseguito il test, che sia vera l'ipotesi nulla Ho. Valutazione che, pur basandosi su dati di fatto quali la plausibilità scientifica dell'ipotesi e risultati precedenti è inevitabilmente il risultato di un giudizio individuale. 

Un semplice esempio di come applicare questo tipo di calcolo all'esperimento del CERN si trova in un articolo visibile in rete dal titolo "Reverend Bayes helps us understanding the Higgs". L'autore considera solo l'esperimento ATLAS in cui il tracciato osservato si allontana in un punto dalla media attesa di 2.3 sigma corrispondente a un P-value di 0.01, cioè 1 probabilità su cento di ottenere il dato in assenza del BH. Questo però non ci informa sulla probabilità speculare che il BH non esista per ottenere la quale occorre appunto usare la statistica bayesiana. Ecco il semplice calcolo.

La probabilità di ottenere il dato osservato è fissa ed è determinata dall'escursione di 2.3 sigma cioè 0.01, quindi una probabilità molto bassa. L'esistenza del BH era da tempo fortemente presunta su basi teoriche - se no, tra l'altro, i fisici non si sarebbero impegnati in una ricerca tanto laboriosa e costosa. Il problema qui è il valore da attribuire a priori a Pr(no BH) nel secondo membro della equazione, cioè quanto noi valutiamo probabile che il BH non esista. Volendo essere scettici si può fissare a 0.7 questa probabilità. Adattando la formula di Bayes al problema abbiamo:

Pr(no BH|Dati) = Pr(Dati|no BH)•Pr(no BH)/Pr(Dati)

ove Pr(no BH) al numeratore è la probabilità a priori che conferiamo all'inesistenza del BH e Pr(Dati) al denominatore è la probabilità a priori di ottenere il dato osservato. Facendo i dovuti conti otteniamo una probabilità finale molto bassa (0.022) che il BH non esiste e, per converso, una alta (1-0.022 = 0.98 o 98%) che il BH infatti esiste.

Ripetendo questo tipo di calcoli basandoci sui dati combinati dei due esperimenti del CERN (ATLAS e CMS) ove l'escursione osservata passa da 2.3 a 5 deviazioni standard si ottiene una probabilità ancor più bassa della non esistenza del BH e una ancor più alta probabilità del contrario, proprio come i fisici del CERN hanno riportato.

Da tutto ciò si comprende il peso che può avere nella valutazione conclusiva di un esperimento la probabilità a priori che sia vera l'ipotesi che l'esperimento mette alla prova, importanza illustrata recentemente dall'annuncio del neutrino "più veloce della luce", reperto non confermato da ulteriori esperimenti. Anche in questo caso era stata osservata una escursione di 5 sigma, però la probabilità a priori dell'ipotesi era considerata molto bassa da una gran parte dei fisici teorici e questo avrebbe dovuto suggerire maggior cautela nell'interpretare il risultato.

Al pari dei fisici che si sono occupati del BH, chi fa ricerca clinica valuta i risultati che ottiene per mezzo della statistica frequentistica esprimendoli di regola in termini di P-value e quando i risultati permettono il rifiuto dell'ipotesi nulla (Ho) la condotta è di accettare l'ipotesi alternativa H1. Nel caso del BH, H1 era l'esistenza della particella mentre per la ricerca clinica H1 è di regola l'efficacia specifica della terapia esaminata. Conclusione corretta anche se bisogna tener presente che se vogliamo sapere, oltre a un verdetto di sì o di no, la probabilità di aver sbagliato (cioè che il nostro risultato sia un falso positivo) dobbiamo ricorrere alla statistica bayesiana.

Dove la statistica frequentistica si rivela del tutto insufficiente è quando viene usata per valutare gli studi clinici sulle medicine complementari o non convenzionali (MnC) quali agopuntura, medicina tradizionale cinese, omeopatia per citarne le più importanti. Riprendendo la fisica quantistica possiamo grosso modo tracciare un parallelo tra i tradizionali studi clinici e gli esperimenti sull'esistenza del BH da un lato e, dall'altro, tra gli studi clinici sulle MnC e quelli sulla eventuale velocità maggiore della luce del neutrino. I primi due infatti testano ipotesi aventi una plausibilità scientifica, gli altri ipotesi in contrasto con i principi scientifici da tempo comprovati.

Prendiamo gli studi volti a provare l'efficacia della moxibustione nel correggere la presentazione del feto al parto proposta dalle MnC. Questa tecnica consiste nell'accostare al quinto dito del piede della partoriente una sigaretta accesa fatta di una erba aromatica chiamata Artemisia. Il fondamento scientifico (e semplicemente razionale) di questa misura è inesistente a meno che non si vogliano elevare a scienza le congetture degli antichi cinesi sul fluido vitale Qi e sui canali corporei in cui esso dovrebbe scorrere. Si è tentati di chiamarla una stupidaggine se non fosse che, come ha notato il matematico Norman Levitt, siamo passati dal concetto di uguaglianza tra individui a quello di uguaglianza tra opinioni ed è oggi politicamente scorretto chiamare sciocca un'idea sciocca.

Bene, alcuni studi sostengono che la moxibustione nel parto è "fondata sull'evidenza" perchè hanno ottenuto un P-value significativo di ≤ 0.05 o ≤0.01. Questo senza che agli autori venisse minimamente il sospetto che, data l'incongruità dell'ipotesi messa alla prova, il risultato fosse un falso positivo dovuto a errore di metodo o/e bias. Probabilità di errore ignota dato che la statistica usata non può dire nulla in proposito tanto più perchè riguarda una ipotesi inverosimile al pari della vicenda immaginata nel film di Totò. Infatti una recente rassegna molto accurata moxibustion breech presentation si mostra nel complesso scettica sulla reale utilità di questo intervento.


Va detto che gli studi sulla velocità del neutrino appartengono a un categoria del tutto diversa da quelli sulla MnC. Anche questi studi mettevano alla prova una ipotesi improbabile (se si fosse superata la velocità della luce si sarebbe dovuto mettere in discussione praticamente tutta la fisica) però con la differenza di un P-value astronomicamente basso e l'enorme rigore con cui questi studi venivano condotti. Questo oltre al fatto che nella fisica quantistica i cambiamenti di paradigma sono stati fin dall'inizio all'ordine del giorno e quindi mai da escludersi a priori, mentre i fondamenti della medicina quali anatomia, fisiologia, biochimica sono rimasti essenzialmente gli stessi almeno negli ultimi due secoli.

venerdì 25 ottobre 2013

DO YOU BELIEVE IN MAGIC?




"Do You Believe in Magic? The Sense and Nonsense of Alternative Medicine" (Harper editore) è un libro uscito da poco che critica le terapie non fondate sulla scienza cioè, in sostanza, le medicine alternative (o complementari - o integrative, come sembra che si debba chiamarle oggi). L'autore è Paul Offit un pediatra americano, esperto in malattie infettive e in vaccini. Il libro riguarda prevalentemente circostanze e fatti attuali negli Stati Uniti e qui ne commenterò solo alcuni aventi interesse anche al di fuori di quel paese.

Offit cominciò a occuparsi di medicine alternative da paziente quando, dopo una microfrattura a un ginocchio, gli furono consigliate dall'ortopedico compresse a base di solfato di condroitina e glicosamine per affrettare la guarigione col promuovere la deposizione di collagene nella lesione. Offit prese a esaminare la letteratura medica in proposito e trovò solo un paio di articoli ben fatti i quali però concludevano che queste due sostanze non avevano una azione superiore a quella del placebo. Perchè allora venivano consigliate? Per nessun'altra ragione che non la credenza nella magia. Infatti le medicine si dividono in due gruppi: quelle che funzionano (secondo i metodi di verifica dettati dalla scienza) e quelle no. Usare le cure del secondo tipo vuol dire affidarsi all'illusorio mondo del soprannaturale.

Da molti anni gli Stati Uniti hanno intrapreso un costoso studio delle medicine alternative per mezzo del NCCAM (National Center for Complementary Alternative Medicine). Offit ci dice che dal 1998, anno della sua istituzione, il NCCAM ha speso ben 1.6 miliardi di dollari senza, in pratica, trovarne alcuna che funzionasse. Alcuni esempi. Inalare profumo di lavanda non affretta la guarigione di ferite (374,000 $), i rimedi tradizioni indiani sono inutili nel diabete (390,000 $), i materassi magnetici sono inefficaci nell'artrite (466,000 $), clisteri di caffè non curano il cancro del pancreas (406,000 $), le preghiere non hanno effetto su AIDS, tumori cerebrali e nel corso postoperatorio di tumori mammari (1.8 milioni $). Va detto che solo chi è di grana grossa poteva aspettarsi risultati differenti.

Per inciso, il NCCAM fu fondato in seguito alle pressioni dell'influente senatore democratico Tom Harkin, sostenitore delle medicine alternative, allo scopo di provarne la validità. Deluso dai risultati per lui inaspettati, Harkin se ne lamentò in una memorabile audizione al senato dicendo che i ricercatori si erano "concentrati principalmente a negare le cose piuttosto che a cercare di provarle" e suscitando ilarità negli ambienti scientifici. Infatti non è il caso di scomodare il filosofo della scienza Popper per capire che chi fa ricerca deve mettere alla prova le proprie idee piuttosto che adoperarsi di confermarle. Anzi, il vero scienziato deve avere un "bias inverso", dovrebbe cioè essere particolarmente scettico verso i risultati che gli danno ragione (Pascal e Darwin, per fare due esempi, lo erano al massimo grado). Immaginabili le proteste per lo spreco di pubblico denaro: inutile finanziare ricerche per provare che gli asini non volano era il senso della lagnanza più comune. Per fortuna, ci dice Offit, il NCCAM sembra aver abbandonato questo tipo di studi e oggi si occupa prevalentemente di supplementi dietetici e di cura del dolore.  Staremo a vedere.

Interessante la menzione nel libro che il cancro del pancreas di Steve Jobs era di un tipo raro, quello neuroendocrino, che è il meno maligno e poteva guarire se aggredito in tempo. Jobs, abituato a vedere gli altri uniformarsi alla sua volontà, fece lo sbaglio di considerare il tumore che aveva addosso come un qualsiasi sottoposto dell'Apple trattandolo a modo suo, cioè con i metodi in cui credeva (agopuntura, rimedi vegetali, irrigazioni coloniche e altre "magie"). Facendo così ritardò di 9 mesi il corretto trattamento medico forse compromettendo le sue possibilità di sopravvivenza. Va detto che altri non sono così sicuri di questa ipotesi, tra l'altro non verificabile, anche se tutti concordano che rimandare di quasi un anno la cura corretta non ha giovato.

Offit ricorda un caso analogo, quello dell'attore Steve Mc Queen (quello della "Grande Fuga" per intenderci) affetto da mesotelioma pleurico che si affidò a una cura anticancro fasulla a base di laertrile (un derivato di mandorle) per morire pochi mesi dopo. Qui le cose sono un po' diverse perchè il tumore di Mc Queen era già assolutamante incurabile quando egli si affidò alla magia. Inoltre Mc Queen non aveva alcuna preparazione scientifica il che rende più comprensibile l'errore che nel caso precedente.

Nel libro ricorrono a intervalli irregolari personaggi più eloquenti che competenti resi noti al grande pubblico da rubriche TV. Il celebre show televisivo americano condotto da Oprah Winfrey ha dato voce a numerosi soggetti aventi idee tutte loro su salute e malattie. Uno di questi è la nota modella e attrice Jenny McCarthy, madre di un bambino affetto da autismo, la quale ha esposto in una puntata della trasmissione ciò che a suo parere provoca questa malattia. Le cause, sostiene McCarthy, sono varie e molteplici: allergie, difetti della spina dorsale, disfunzione mitocondriale, avvelenamento da metalli pesanti, cattiva digestione, disturbi dell'immunità, infezione da funghi e, principalmente, vaccini. Come dire tutto o quasi, ma una malattia con tutte queste cause non è più una malattia, è un cassonetto. La cura? Ancora secondo la McCarthy, vitamine, minerali, erbe, clisteri di caffè e consimili: più meno gli stessi rimedi prescritti a Jobs e a Mc Queen. E' la conduttrice? Assenso incondizionato. Il che equivale a trasmettere a milioni di spettatori di grana grossa sospetti infondati e speranze irragionevoli (al presente non c'è cura per l'autismo). 
  
La Winfrey è un personaggio di enorme successo associato a una commisurata ricchezza personale e che, come tale, si sente autorizzata a dare un'opinione su problemi di ogni tipo. Il punto è che per dire la propria quando le questioni riguardano la scienza occorre competenza specifica e la competenza (quella vera) è una qualità bisbetica che richiede anni e anni di studio. Studi che alla Winfrey mancano. Tra parentesi, conduttori TV irresponsabili non esistono solo negli Stati Uniti, da noi un esempio recente l'ha dato la trasmissione "Le Iene" che, puntando più sull'emotività che sulla obiettività, ha fatto conoscere al grande pubblico una cura infondata con cellule staminali. La conseguenza: confusione, spreco di denaro pubblico e sofferenze addizionali per malati e loro familiari.

Come infettivologo Offit si è occupato in modo speciale di vaccinazioni e nel libro dà alcune interessanti cifre in proposito. Prima dei vaccini, ogni anno negli Stati Uniti si potevano attendere 15,000 morti, in gran parte bambini, per difterite; 20,000 neonati con danni visivi, auditivi, mentali da rosolia; 15.000 bambini paralizzati da poliomielite; un numero indefinito di danni auditivi da parotite epidemica (orecchioni). Numeri che rendono gli sporadici effetti collaterali prodotti dai vaccini o attribuiti ad essi di importanza quasi trascurabile.

Offit ricorda in diversi punti la campagna "antivax" (antivaccini) che alcuni gruppi portano avanti negli Stati Uniti con vari pretesti primo tra i quali una loro supposta tossicità da mercurio usato come conservante (tra l'altro non più in uso). Campagna che ha luogo anche nel nostro paese (secondo un articolo sul Corsera del 19 settembre 2013 in Italia su 100 siti internet 95 son contrari) con Grillo occasionale sostenitore (vedi il post precedente GRILLO E LA MEDICINA II. I VACCINI). Cosa succederebbe, si chiede Offit, se dessimo retta a questi allarmismi e smettessimo di vaccinare i bambini? Che questa mirabile arma difensiva funziona lo mostra il fatto che, grazie ad essa, il flagello del vaiolo è scomparso dal nostro pianeta. Prendiamo per contro la poliomielite la quale ha persistito in Pakistan, Afganistan e Nigeria i soli tre paesi dove la vaccinazione è stata fortemente ostacolata da pregiudizi religiosi. Un importante corollario di questa situazione è la necessità di continuare la vaccinazione nei paesi indenni per prevenire la possibilità di infezione presente oggi col diffondersi dei viaggi internazionali.


Numerosi gli ingannevoli Dulcamara, ricordati da Offit, che negli Stati Uniti si sono arricchiti illudendo i malati. Particolarmente spregevoli (non è il caso di misurare le parole) sono quelli che si approfittano di persone molto vulnerabili come i malati di tumore. Leggendone le gesta si capisce perchè Dante colloca i traditori di chi si fida nell'imo dell'Inferno. Alla fine del libro Offit ammonisce però che se questa gente ha successo la colpa è anche dei pazienti, cioè di tutti noi dato che nessuno sfugge alle malattie. Il semplice rimedio, dice Offit, è essere consumatori razionali. Quando prendiamo decisioni riguardo alla nostra salute occorre non essere influenzati dall'irrazionale, dal "magico" che è in noi, bisogna cioè non farci sedurre da rimedi solo perchè hanno attributi accattivanti quali "naturale", "organico", "antiossidante", oppure solo perchè sono usati da questa o quella celebrità, non cadere vittime di guaritori il cui carisma nasconde la pochezza scientifica. Rifiutiamo ciò e, invece, facciamo lavorare il nostro cervello andando a vedere la qualità degli studi scientifici alla base delle medicine che pensiamo di prendere. 

domenica 13 ottobre 2013

GENERICI: I FARMACI CHE PIACCIONO ALLE AMMINISTRAZIONI, MENO AI MEDICI E POCO AI MALATI


GENERICI: I FARMACI CHE PIACCIONO ALLE AMMINISTRAZIONI, MENO AI MEDICI E POCO AI MALATI 

“Il vantaggio del farmaco generico è uno solo: il risparmio” (GB Bonanno, Ordinario di Farmacologia all’Università di Genova, 24.4.2013) http://www.primocanaledica33.it/singolo_video.php?id=20776&keyw=  .

Da quando è andata in pensione, la signora Giovanna A si tiene la pressione del sangue sotto controllo prendendo giornalmente le compresse XY di una casa farmaceutica svizzera. Giovanna è una ex insegnante, è ben informata e sa tra l'altro che un motivo del generale allungamento della vita è il trattamento dell'ipertensione, il "Silent Killer", oggi ancora causa di tante morti per infarto cardiaco ed emorragia cerebrale. Alla cura attuale Giovanna è arrivata dopo alcuni tentativi tra cui uno disastroso con farmaci beta bloccanti che le causarono un forte attacco di asma.

Anche il signor Enrico B si cura da molti anni, lui per un tumore alla prostata, col preparato ormonale YX di una casa americana. Gli esami  di laboratorio dicono che il tumore non dà segni di crescita ed Enrico pensa che sia merito della compressa che prende ogni giorno, sempre alla stessa ora. Suo nonno e uno zio materno sono morti dello stesso male ma a quei tempi quel farmaco non esisteva.

Bene, arriva un giorno che sia Giovanna che Enrico non trovano più in farmacia la solita medicina ma un "equivalente" di essa: praticamente la stessa cosa, così si sentono dire, ma non "la stessa cosa": un "generico". Anche la confezione non è più la stessa: la scatola è cambiata, le compresse hanno un altro colore, forma e dimensioni. Nel caso di Enrico le nuove pillole sono sciolte in un contenitore mentre nella vecchia confezione erano incorporate in foglietti ciascuna col nome del giorno della settimana il che rendeva impossibile tralasciare o raddoppiare la dose giornaliera, eventi comuni negli anziani smemorati: un'altra sorpresa sgradevole. Per avere la vecchia medicina occorre una nuova ricetta in cui il medico specifichi che il farmaco è "non sostituibile". 

Non è una seccatura da poco. Sia Giovanna che Enrico non vogliono assolutamente cambiare: quella che prendono non è una medicina qualunque, come una pomata cutanea contro il morso di un insetto o un occasionale antidolorifico: è una medicina che essi pensano prolunghi la loro vita. Certo, hanno letto sui giornali che secondo gli esperti i farmaci generici sono equivalenti a quelli di marca, cioè in pratica gli stessi ma diffidano: se per loro le cose vanno bene così perché cambiare? Inoltre può sorgere il sospetto che ci siano in gioco motivi economici estranei all'interesse dei pazienti a molti dei quali viene in mente l'associazione minor prezzo-qualità inferiore. Nel caso del signor Enrico le cose possono essere ancor più complicate perché la sua medicina non è più in giacenza ed è divenuta introvabile perché i grossisti non se ne sono provvisti a sufficienza. Sono compresse costose ma Enrico è pronto a pagarle per intero, comincia allora una angosciosa caccia per le farmacie della città.

Anche i medici diffidano. Molti hanno una percezione confusa del problema e vedono nei generici una ulteriore difficoltà in un lavoro che sta diventando sempre più intricato e rischioso. Prescrivere una medicina infatti comporta sempre un rischio e i medici non vogliono lasciare il sicuro per un medicinale nuovo che per definizione non è un farmaco migliore (più efficace, con meno effetti collaterali o altro) ma che ha il solo vantaggio di essere meno costoso. Alcuni medici hanno ragioni fondate per fidarsi di una particolare casa farmaceutica i cui prodotti non vogliono abbandonare, altri hanno sentito colleghi lagnarsi di effetti collaterali spiacevoli attribuiti a un generico, altri ancora, o i loro pazienti, hanno avuto l'impressione che un generico funzionasse peggio dell'originale che ha sostituito.

Più si considerano i farmaci generici più si ha la sensazione di trovarci di fronte a un edificio alquanto bislacco simile a una grossa casa costruita da un bambino di pochi anni col Lego del fratello maggiore. L'edificio è asimmetrico, pencola da un lato, presenta protuberanze e sovrastrutture senza una funzione precisa e, soprattutto, ha caratteristiche che ne mettono in dubbio l'utilità complessiva.

Metafore a parte, i farmaci generici si possono considerare l'esempio di un fenomeno originato da un proposito lodevole (in questo caso il risparmio di denaro pubblico) il quale però durante la sua attuazione è stato inquinato da interessi non pertinenti che lo hanno ingrandito e complicato allontanandolo dal suo fine primario. Infatti le incertezze e gli inconvenienti legati a questi rimedi si sono moltiplicati in tal misura che se nel frattempo non interviene un processo di semplificazione e razionalizzazione è lecito mettere in dubbio la complessiva utilità dell'iniziativa.

Espongo alcuni fatti che giustificano almeno in parte la diffidenza dei pazienti e le esitazioni dei medici. So che suscitare dubbi e timori è facile, specie in questioni che ci toccano da vicino come quelle concernenti la salute. Tuttavia irritano l'approssimazione e la faciloneria con cui spesso si cerca di persuadere pazienti e operatori sanitari che tutto va bene ed è sotto controllo. Così non è e vorrei mostrarlo menzionando alcuni fatti da cui si può arguire quanto questo campo sia complesso, suscettibile di manipolazioni e irto di occasioni di sbagliare.

FONDAMENTO TEORICO OPINABILE E ALTRE DIFFICOLTA' 

Anche se può essere inappropriato valutare aspetti della medicina impiegando le regole della logica è pur evidente che il fondamento dei farmaci generici è il risultato di un puro assunto pragmatico: la presupposizione che si possa derivare la loro equivalenza terapeutica dalla loro equivalenza farmacocinetica, che si possa cioè arrivare alla equivalenza terapeutica servendosi della sola farmacocinetica. 

A norma di logica elementare, il generico dovrebbe essere efficace quanto il farmaco che sostituisce. Bisognerebbe cioè provarlo in tal senso sui pazienti allo stesso modo in cui è stato provato nella fase II, e III della farmacologia clinica l’originale da cui esso deriva. Tuttavia far ciò comporterebbe per ogni generico l'impiego di un gran numero di volontari e pazienti con costi tali da vanificare il risparmio. Si è deciso allora di rinunciare alla sicura convalida dell'equivalenza clinica e imboccare la scorciatoia della pura farmacocinetica adottando in essenza il seguente ragionamento. 
  1. L’effetto terapeutico è causato dalla interazione farmaco-ricettore cioè dalla azione che il farmaco esercita sulle cellule corporee atte a essere sollecitate da esso.
  2. La concentrazione del farmaco nel sangue è determinata dall’assorbimento e dalla eliminazione di esso.
  3. Studiando la cinetica del generico se ne può derivare l'equivalenza biologica  (bioequivalenza) con l'originale e quindi in pratica l'efficacia. 
Il ragionamento sembra filare ma siamo proprio sicuri che è corretto? Si tratta sempre di un assunto ancora da provare formalmente.

Quali sono i parametri di bioequivalenza usati? Li leggiamo spesso nelle divulgazioni ad uso dei medici e dei pazienti istruiti. Sono: Cmax, cioè la concentrazione massima raggiunta nel plasma dal farmaco, Tmax o tempo in cui è raggiunta la concentrazione plasmatica massima, AUC ("area under the curve") o quantità complessiva nel plasma accertata dopo la somministrazione.
Sembra abbastanza semplice ma in realtà le cose sono più complicate di quanto appaiano alla prima. Facile determinare l'AUC, il Cmax, il Tmax per il preparato originale e per il generico mentre il confronto tra i due tira in ballo la statistica inferenziale con tutte le sue complicazioni. Chiunque si metta a scorrere la letteratura su come viene determinata la bioequivalenza si accorge quanto la procedura sia complessa e, di conseguenza, quanto numerose le occasioni di sbagliare.

Naturalmente non si può pretendere che il generico abbia i tre parametri sopra menzionati identici a quelli dell’originale che intende sostituire. Occorre accettare che differiscano. Ma quanto? Non tanto da influire significativamente sull'azione terapeutica è la risposta. Il punto è che "significativo" e “non significativo” sono bellissime parole ma anche del tutto arbitrarie e su cui può essere di volta in volta non facile mettersi d'accordo.

Nel nostro caso l'ampiezza concessa della diversità che si può avere nelle curve di concentrazione nel sangue dopo l’assunzione del farmaco originale e del generico è ± 20%, in questo caso compresa tra 80-125% (i limiti sono asimmetrici a causa della trasformazione logaritmica dei dati impiegati per la comparazione http://learnpkpd.com/2011/01/24/where-did-the-80-125-bioequivalence-criteria-come-from/). Perchè proprio ±20%? Naturale pensare che alla base di confini così netti e perentori ci sia la decisione di un congresso internazionale, di  qualche lavoro fondato su solida roccia di prove e raffronti. Invece niente di tutto ciò. La ragione è che l'FDA ("Food and Drug Administration" cioè l'agenzia federale che negli Stati Uniti controlla farmaci e prodotti alimentari), in accordo con corrispondenti agenzie di altri paesi, ha deciso che differenze del 20% (cifra tonda leggermente sospetta) non sono clinicamente rilevanti. La consuetudine seguita a questo convenzione è divenuta fondamento, un po' come, secondo Pascal, avviene per giustizia umana che si fonda sulla sola ragione che è seguita.

Dunque una differenza di ±20%. Alla prima sembra molto, anzi troppo, e infatti simili variazioni, se assolute, non sarebbero tollerate da alcun ente normativo. In realtà il complesso meccanismo con cui è calcolata la bioequivalenza restringe notevolmente questo intervallo. Prendiamo uno dei parametri di equivalenza, il Cmax, cioè la concentrazione massima raggiunta nel plasma da generico e originale. Di quanto essi possono differire ce lo dice l'intervallo di confidenza CI (confidence interval), lo spazio cioè entro cui con una certa probabilità si può attendere che cada il rapporto tra i due valori. Bene, "si è convenuto" - così si legge - che due medicinali sono equivalenti quando il CI 90% del rapporto delle loro medie si mantiene entro il già menzionato intervallo 80%-125%.

Osserviamo la figura qui sopra spesso usata per illustrare la bioequivalenza. I segmenti orizzontali sono gli intervalli di confidenza al 90% entro cui ripetendo indefinitamente il raffronto tra la biodisponibilità del generico e quella dell'originale possiamo contare che cada 9 volte su 10 il valore del loro rapporto. A occhio e croce il rapporto non è un gran che, in ben 10% dei casi si eccedono i limiti convenuti. Non è poco specie se il farmaco in questione cura una malattia pericolosa, ad esempio un antibiotico: pochi, penso, salirebbero su una funivia che non arriva a destinazione una volta su dieci. A questo proposito va detto che il limite del 90% è considerato generoso in biologia, il Handbook of Biological Statistics ci dice che "generally 95% CI is used".

Continuando a considerare la figura ci rendiamo anche conto che è ingiustificata la frequente obiezione ai generici fondata sul malinteso per cui "il generico può variare del ± 20%". Ciò sarebbe vero soltanto se CI fosse estremamente piccolo: una situazione eccezionale. In pratica la barra (vedi figura) si prolunga visibilmente a partire dal valore medio a sinistra e a destra ed è quando oltrepassa uno dei due limiti che il generico non è per convenzione considerato bioequivalente. Bene, l'ampiezza della barra è data dal valore critico di "z" (quando i raffronti siano stati 30 o più) moltiplicato per l'errore standard. Per un CI al 90% l'ampiezza della barra è data da 1.65•s/√n cioè z (1.65) moltiplicato l'errore standard cioè la deviazione standard (s) diviso la radice quadrata del numero dei raffronti (n).
  
Nella formula quindi c'è una variabile che può essere modificata a volontà ed è il numero dei raffronti. Aumentandolo diminuisce l'ampiezza del CI. In questo modo un preparato con una biodisponibilità inferiore o superiore mettiamo del 15%, cioè di un bel po', dell'originale può esser fatto rientrare nel famoso intervallo 0.8-1.25 aumentando adeguatamente n. Tuttavia, come mi ha fatto notare un esperto in materia, il numero dei pazienti non può essere accresciuto a piacere poiché il potere del test aumenterebbe oltre il lecito, regola questa osservata da sperimentatori scrupolosi. Che non è sempre il caso – vedi lo scandalo Ranbaxy di cui parlo in seguito. Il rilievo è banale ma mostra che non è difficile manipolare questo tipo di dati.

Le procedure dello studio prevedono che né i volontari partecipanti ai test nè l’operatore sanitario addetto alla somministrazione devono sapere quale dei due farmaci viene somministrato, e questo è bene. Meno bene è che i volontari partecipanti abbiano un’età di almeno 18 e non superiore a 55 anni. Questo perché una simile ampiezza di età non è probabilmente rappresentativa della popolazione cui il farmaco è destinato. Infatti non occorre aver studiato medicina per sapere che è dopo i 55-60 anni che si cominciano a prendere medicine spesso e in quantità consistente, non prima.

PROBLEMI DI BIOEQUIVALENZA. IMPORTANZA DEGLI ECCIPIENTI

Per definizione i farmaci generici hanno gli stessi principi attivi del farmaco originale. Essi però possono variare riguardo ai componenenti inerti o eccipienti che sono capaci di modificare l’assorbimento e la distribuzione del principio attivo. Eccipienti diversi possono determinare fenomeni allergici in soggetti che non avevano avuto questo tipo di problemi quando assumevano il prodotto brevettato. Evento possibile, nel foglietto illustrativo di ogni medicamento è riportata l’avvertenza che il farmaco non deve essere assunto da pazienti allergici al principio attivo o ad uno degli eccipienti. 

Nei generici in forma di compresse possono essere presenti altre sostanze quali disperdenti e "fillers", che costituiscono la massa dei medicamenti contenenti quantità molto basse del principio attivo e che possono influenzare la biodisponibilità del medesimo nei pazienti. Questo può essere un inconveniente importante nel caso di farmaci con stretto indice terapeutico ove una modesta variazione della biodisponibilità può causare inconvenienti relativi all’efficacia o alla tossicità. Uno di questi farmaci è l'anticoagulante warfarin usato in pazienti a rischio di trombosi che richiede frequenti controlli della coagulazione per evitare che nel paziente si raggiungano livelli ematici insufficienti o eccessivi del farmaco. Un'altra categoria a rischio è quella degli antiepilettici che richiedono una determinazione accurata della dose ottimale per ciascun paziente il quale può essere messo a rischio dalla sostituzione con un’altra formulazione.

Problemi di questo tipo sono sorti per l'L-T4, un importante farmaco usato nell'insufficienza tiroidea ove i ripetuti inconvenienti osservati con la sua sostituzione hanno fatto sì che nel 2008 la Endocrine Society americana a richiedesse alla FDA controlli molto più stringenti di bioequivalenza. Cosa interessante: secondo la Endocrine Society la bioequivalenza, così come è correntemente determinata, non è equivalenza terapeutica. 

PROPAGAZIONE DEGLI ERRORI

Il concetto è intuitivo: in molti esperimenti eseguiamo due o più misurazioni distinte.  Dato che a questo mondo di infallibile c'è solo la musica di Mozart, ogni misurazione è soggetta a errori che si aggiungono in vario modo a quelli della misurazione successiva amplificando l'errore finale quando essi si sommano. Nel nostro caso le fonti di errore sono due: quello riguardante le misurazioni del farmaco originale e le misurazioni del generico.

Nell'evenienza peggiore gli errori si sommano. Certo, due errori di segno diverso possono annullarsi ma ciò non toglie niente all'indesiderabile imprevedibilità della situazione. Uno degli esperti da me interpellati mi ha cortesemente scritto che il problema esiste anche se l’errore è assai più piccolo di quello che deriva dalla variabilità biologica, come dire: incertezza più incertezza meno… No so quanto l'argomento sia convincente.

EFFETTO NOCEBO

La nostra è un'epoca in cui la fiducia nelle cosiddette autorità si è ridotta pericolosamente includendo, purtroppo, anche l'autorità scientifica. Accade quindi che le ricorrenti rassicurazioni sui farmaci generici non solo da parte di chi amministra la sanità ma anche da parte di esperti non vengano credute da numerosi pazienti i quali istintivamente applicano ai generici la correlazione minor costo-qualità inferiore. In questo modo a una considerevole fetta di malati vengono tolti i benefici dell' "effetto placebo" a cui possono aggiungersi gli svantaggi del meno noto "effetto nocebo". Mi spiego.

In sintesi l’effetto placebo (EP - vedi il post precedente "Stimolare l'autoguarigione e effetto placebo") è un fenomeno psicobiologico che tra l'altro interferisce notevolmente nella valutazione delle cure mediche. Quali cure? In pratica tutte e lo fa di regola accrescendone l’azione benefica se c’è, o simulandola interamente allorché essa manca. Tenerlo dunque in considerazione è importante quando si esamina qualsiasi terapia, e ancor più se la terapia in questione ha una efficacia incerta. L’EP è in essenza una semplice illusione di miglioramento oggettivo in cui cadono i pazienti, specie se suggestionabili, che risulta dall’aspettativa di un beneficio di regola generata da un medico curante comprensivo e visibilmente competente o anche mediata da ragionamento e dalle convinzioni del paziente stesso. Possono anche esserci effetti  “oggettivi”  (ma qui le cose si fanno incerte) di vario tipo sul sistema endocrino, immunologico, nervoso, cardiovascolare, respiratorio, gastroenterico.

Quando questa aspettativa manca (medico che non ispira fiducia, che magari prescrive la medicina con l'atteggiamento del "ut aliquid fieri videatur", cioè tanto per sembrare di far qualcosa, o, come nel caso in questione, che ordina un rimedio in cui il paziente non crede) non solo vengono meno i vantaggi addizionali dell'EP positivo ma a questa mancanza si possono aggiungere gli svantaggi di un effetto placebo negativo o "effetto nocebo". Se il malato, invece di un miglioramento, si aspetta il peggioramento di un sintomo come il dolore o di una difettosa funzione motoria, l'aggravamento può verificarsi davvero. Tali effetti collaterali indesiderati possono essere importanti nelle terapia neuropsichiatriche ove si può anche avere una diminuita aderenza alla cura: il malato trascura spesso di prendere medicine in cui non crede, oppure, curiosamente, se queste hanno un aspetto inconsueto, ad esempio compresse di altra forma e/o colore. Una omissione pericolosa in alcuni casi, quali i farmaci contro l'epilessia.

Ma lasciamo perdere l'"effetto nocebo" e consideriamo solo il lato umano della questione: penso che sia odioso, specie in un'epoca in cui si fa un gran parlare della "medicina centrata sulla persona", costringere pazienti che non possono pagare sovrapprezzi a usare medicine di cui diffidano e che causano loro apprensione e angoscia. 

ORIGINE DEL FARMACO

L'aumento rapidissimo degli scambi internazionali ha esteso su scala globale la pratica già esistente per cui, una volta scaduto il brevetto, la materia prima dei farmaci può essere prodotta da altre ditte e acquistata da altre ancora per la confezione di generici. In questo modo si ha una situazione analoga a quella di prodotti industriali come televisori in cui alcune componenti provengono da paesi e compagnie diverse da quella che vende il prodotto finito. Alcuni paesi come India e Cina sono da poco divenuti grandi produttori di farmaci il cui brevetto è scaduto e in questi casi i controlli possono essere difficili.

A questo proposito vorrei ricordare (non dico che sia emblematico) lo scandalo Ranbaxy, una grande casa farmaceutica indiana produttrice di generici che il 13 maggio 2013 si è riconosciuta colpevole ed ha acconsentito a pagare una multa di 500 milioni di dollari per aver venduto medicinali adulterati e aver fornito alla FDA americana dati falsi riguardo ai propri prodotti. Le irregolarità accertate all'inizio riguardavano prove di efficacia che la Ranbaxy dava in appalto a una ditta locale, la Vimta, la quale moltiplicava i test con l'aiuto di una fotocopiatrice. Prove di efficacia che non riguardavano pasticche per l'alito ma farmaci retrovirali per la cura dell'AIDS destinati al Sudafrica. Irregolarità che invalidavano altri prodotti della ditta.

La rivista Fortune, ove la preoccupante storia è riportata, fa presente che la ditta indiana fornisce al mercato statunitense un notevole numero (27) di generici aventi importanti indicazioni quali antivirali, antiipertensivi, diuretici, antibiotici tra cui l'amoxicillina, il tradizionale antibiotico che si dà ai bambini piccoli in caso di otite media. Alla Ranbaxy era stato anche affidato il monopolio legale negli Stati Uniti della versione generica del Liptor, una diffusissima medicina atta a diminuire i lipidi nel sangue.

L'articolo, che è pesantemente intitolato "Dirty Medicine" ed è molto dettagliato, ha una sezione chiamata "The dark side of the generic boom" in cui tra l'altro si fa presente un problema facile a intuire e cioè che ispezioni e controlli indipendenti sono molto più difficili e quindi meno sicuri se eseguiti in un paese straniero.

Si tratta di uno scandalo enorme ("the greatest corporate scandal you never heard of") che ha avuto una eco presso l'opinione pubblica minore di quanto meritasse. Il punto è che la realtà dei generici è così complessa da essere difficilmente comprensibile all'opinione pubblica. La quale si indigna altamente per frodi infinitamente minori ma che capisce subito, ad esempio se viene a sapere che una mozzarella etichettata di bufala è in realtà di mucca.

Negli Stati Uniti, ove l'80% dei generici che hanno invaso il mercato è di provenienza estera, c'è il timore che si tratti solo della punta di un iceberg, timore aggravato dalla sensazione che la FDA sia incapace di controllare propriamente questi prodotti. Secondo un ufficio di controllo governativo nel 2009 sono state ispezionate solo l'11% delle case produttrici di medicinali straniere contro il 40% delle nazionali. Inoltre, difficoltà logistiche riducevano la durata dell'ispezione all'estero a una settimana contro sei settimane nel territorio nazionale.

Sorprendentemente la Ranbaxy è sopravvissuta a uno scandalo che può dirsi devastante per una impresa che "runs on the honor system", cioè in cui il comportamento etico è importante quanto la competenza scientifica, e prosegue la sua attività. Di recente il governo indiano è sceso in campo per difendere l'industria farmaceutica del paese sottolineandone la presente serietà dei controlli, dando minor rilievo alle passate irregolarità e attribuendo alla concorrenza accuse interessate. Juvat sperare, tanto più che alcuni prodotti di questa casa farmaceutica sono venduti anche in Italia.

PUBBLICITA’  FACILONA E RASSICURAZIONI A CUOR LEGGERO
    
Esiste una sorta di campagna pubblicitaria in favore dei farmaci generici improntata a un facile ottimismo che può destare il sospetto di essere mossa da interessi commerciali. Infatti non è credibile che un problema così complesso e così importante per molti pazienti venga liquidato, come spesso si apprende, con un tutto va bene che per di più si serve di argomenti dubbi.

Un argomento spesso usato che poi è una fallacia logica (“Argumentum ad populum”) è quello del “così fan tutti", per usare, con cambiamento di genere, la locuzione del librettista Lorenzo Da Ponte. Secondo questa argomentazione i generici sono molto diffusi negli Stati Uniti e in Europa quindi dobbiamo far così anche noi italiani per “non restare indietro”. 

 "…restiamo indietro all'Europa, dove i farmaci non firmati si usano da 35 anni. Da noi solo da 12…" Così in un articolo su Repubblica del 27-4-2012 intitolato "Generici: una inspiegabile ostilità", autore G Pepe, editorialista del supplemento "Salute" di quel giornale. Tra parentesi Pepe ricorre altre volte a questo tipo di ragionamenti ad esempio sostenendo che l'omeopatia è usata in "ospedali pubblici di tutto il mondo con successo contro alcune patologie"; sottinteso: se lo fanno gli altri perché non anche noi?

E non sono solo giornalisti a usare ragionamenti del genere, si guardi il video ove il dottor Antonio Tomassini, presidente della XII Commissione permanente Igiene e Sanità del Senato, ci rassicura così: "se l'86% delle prescrizioni dei farmaci sono per farmaci generici negli Stati Uniti e altrettanto avviene nell'Inghilterra […] c'è da chiedersi perché questi paesi usino tanto farmaci equivalenti e molto di più rispetto all'Italia."  Sicché, di nuovo, "se lo fanno gli altri…"; tra l'altro Tomassini si appoggia qui sulla fallacia dell'incredulità personale. Spero che questa asserzione non sia rappresentativa della competenza del senatore altrimenti varrebbe ancor oggi il giudizio che il Leopardi dava di quello che accadeva nell'età sua: "Sceso il sapiente e salita la turba a un sol confine che il mondo agguaglia."

E' incerto quanto possa esser consolante il fatto che anche in Francia esista questa pubblicità a buon mercato: "Médicaments génériques? Il n'y a que la couleur qui change…", così rassicura l'Assurance-maladies francese.

"Fools rush in where angels fear to tread" (gli sciocchi si precipitano laddove gli angeli temono di metter piede) è un adagio che viene in mente in proposito. E' infatti avventato dire alla gente di fidarsi senz'altro in un campo come questo disseminato di caveat e incertezze. Tra l'altro le rassicurazioni generiche servono poco a generare fiducia, nessuno si preoccupa meno solo a sentirsi solo dire che non deve preoccuparsi. A questo scopo occorre anche specificare le ragioni per cui non bisogna farlo, in questo caso, ad esempio, essere rassicurati con esempi concreti sulla scrupolosità dei controlli in modo che non avvengano casi come quello dei generici indiani.

Su un altro numero di Repubblica che posso rintracciare si legge l'affermazione che "i generici aiutano la ricerca". Questo può essere vero se si pensa che le procedure per determinare la bioequvalenza affinino i metodi della farmacologia. A occhio e croce non si vedono però altri vantaggi in questo senso. Anzi, esiste il palese discapito di convogliare in processi di sterile duplicazione energie che sarebbero meglio spese nella messa a punto di nuovi rimedi o per lo meno nella versione migliorata di quelli già esistenti.

Va detto anche che, per quel che so, i media italiani non hanno menzionato lo scandalo  della casa farmaceutica indiana come hanno fatto l'americana Fortune e l'inglese Daily Telegraph. Perché? Farlo non sarebbe stato allarmismo ma doverosa informazione. 

In Europa l'appoggio ufficiale ai generici non è plebiscitario almeno a giudicare da una comunicazione del 2006 per cui "the Danish Medical Agency does not recommend the introduction of generic prescription". Mi sono informato in proposito presso il Ministero della Salute Danese da cui ho appreso che non si tratta necessariamente di un parere negativo ma di una semplice sospensione di giudizio. La quale sospensione si è però protratta fino ad oggi dato che a tutt’ora quelle autorità sanitarie non si sono pronunciate sulla questione. Segno che in Europa c'è qualcuno che non è sensibile all’argomento del “così fan tutti” e aspetta di vederci chiaro prima di pronunciarsi.

SPRECO E DIVERSIONE DI ENERGIE

Un trito luogo comune dice che “il mondo è bello perchè vario”. Non sempre. La medicina non è la fisica: è una scienza biologica e, come tale, ricca di variabili  scomode che ne complicano la valutazione e l’esercizio. Un palese inconveniente dei generici è quello di immettere nuove variabili - e, con esse, fonti di incertezza - in un settore che ne ha già anche troppe.

E’ lecito avere dubbi sulla utilità complessiva di risparmiare pubblico denaro duplicando farmaci. Il vero progresso nella cura delle malattie consiste in gran parte nella creazione di nuovi rimedi ed è presumibile che questo ramo commerciale della farmacologia distragga risorse dalla ricerca medica che veramente conta. Un cortese esperto in materia da me interpellato via email mi ha fatto notare che le grandi case farmaceutiche (i "Big Pharma" come alcuni le chiamano con un pizzico di denigrazione) concentrano oggi le ricerche sui farmaci più profittevoli, quelli cioè di uso a lungo termine quali antidiabetici, antilipidici, ecc trascurando gli ugualmente necessari studi sui farmaci da impiegare per brevi periodi come gli antibiotici. Critiche giustificate che però non legittimano l'accentuare questa inclinazione incrementando l'orientamento finanziario dalla ricerca.

I farmaci generici sono una realtà così complessa da richiedere agli organi regolatori un notevole impegno normativo, vedi la descrizione della cornice legale cui conformarsi in USA, Canada e Europa. Basta una scorsa alla letteratura per intuire quanto sia grande il lavoro supplementare che i generici richiedono agli organi di vigilanza. Ciononostante esiste la possibilità che vengano immessi nel mercato generici di qualità inferiori agli standard stabiliti.

CONCLUSIONE PLAUSIBILE

I farmaci generici sono divenuti attuali in Italia con la "Spending Review" (a proposito, perché mai non dire "Revisione della Spesa"?). Come ho riportato all'inizio, secondo il farmacologo professor Bonanno “Il vantaggio del farmaco generico è uno solo: il risparmio”. Alla luce delle incertezze e degli inconvenienti sopra riportati occorre tuttavia chiedersi:

   1. E’ il vantaggio economico giustificato nonostante gli inconvenienti? 
   2. E’ il vantaggio economico reale oppure vanificato da spese aggiuntive?
   3. Si poteva risparmiare sui farmaci in modo migliore?

Sono domande fondamentali cui bisognerebbe dar risposta prima di ampliare ancora questo settore della farmacopea. Verosimilmente, le priorità della medicina sono quelle dettate dai benefici autentici che si possono apportare ai malati. I quali, naturalmente, sono più interessati a disporre di nuovi rimedi in aree quali i tumori maligni e le malattie metaboliche ove i progressi sono ancora lenti. Penso che sia nell'avanzamento decisivo in questi campi che, alla fine, risiedono i veri risparmi sanitari ed è lì che dovrebbe esser concentrata l'attenzione dei ricercatori e delle amministrazioni sanitarie.