¿Resuelto el misterio de la heredabilidad faltante?


La exploración del genoma en busca de aquellos genes que son susceptibles de enfermedades comunes ha dado como resultado encontrar que la mayoría de ellos no existen, siendo la enfermedad genética una fantasía de la ciencia que ha hecho perder tiempo y dinero, al mismo tiempo que la salud de todos nosotros se deteriora.

Por la doctora Mae-Wan Ho, 25 de enero de 2012

¿Dónde están los genes prometidos?

La secuencia del genoma humano se anunció en el año 2000, y el Presidente Clinton dijo que “revolucionaría el diagnóstico, la prevención y el tratamiento de la mayoría, si no todas, de las enfermedades humanas”. Diez años después, la revista Fortune habla de “La gran caída del ADN”. Una encuesta realizada por la revista científica Nature incide en el mismo veredicto: “La esperanza en una revolución contra las enfermedades humanas aún no ha llegado”. 

Es decir, como algunos de nosotros ya habíamos predicho en el año 2000 en los artículos ([1] Human Genome -The Biggest Sellout in Human History, Informe ISIS TWN ) y posteriormente [2] Genetic Engineering Dream or Nightmare, publicación de ISIS).

El Proyecto Genoma Humano ha generado cantidades ingentes de datos desde su creación, pero se ha avanzado muy poco, incluso en áreas aparentemente simples de encontrar los genes responsables de susceptibilidad a enfermedades comunes ((véase [3] Ten years of the Human Genome, SiS 48).

Los genetistas admiten ahora que la genética humana ha estado persiguiendo hasta ahora el misterio de la “heredabilidad faltante” de rasgos comunes. Los estudios de asociación por todo el genoma (véase recuadro 1) es el estándar oro actual en la búsqueda más exhaustiva que se ha podido realizar de genes – se han identificado aproximadamente 2000 variantes genéticas asociadas con 165 enfermedades comunes y rasgos, pero estas variantes sólo parecen explicar una pequeña fracción de la heredabilidad en la mayoría de los casos (4,5).

Estudios de asociación en todo el genoma

Los estudios de asociación del genoma completo (GWAS) consisten en escanear de forma rápida los marcadores del genoma completo de muchas personas para encontrar asociaciones de variantes genéticas de determinadas enfermedades o rasgos. Se ha analizado el genoma de miles o decenas de miles de personas de forma simultánea para un máximo de 550.000 polimorfismos de nucleótidos simples (SNPs) – diferencias comunes en los nucleótidos individuales en lugares específicos del genoma humano con una frecuencia >5% – usando microarrays de ADN (chips de ADN)).

La heredabilidad es técnicamente la proporción de variabilidad de un rasgo en una población debido a los genes. La variabilidad se mide estadísticamente por la varianza, la suma de las desviaciones de la media de la población. La heredabilidad se refiere comúnmente como un componente genético de la variación en comparación con la proporción debida al medio ambiente, lo que es el “componente ambiental”. Hay que tener en cuenta que la heredabilidad se refiere a la variación, y no a la propia característica. La heredabilidad cambia con el medio ambiente. No es raro que la heredabilidad de los caracteres, tales como la producción de leche o la altura de una planta, de una misma cepa genética cambien sustancialmente de un año para otro. Sin embargo, hay una tendencia por parte de algunos científicos, así como de algunos medios de comunicación populares, a asumir erróneamente que cualquier rasgo notable de heredabilidad está predeterminado genéticamente, lo cual definitivamente no es el caso.

¿No hay genes de las enfermedades más comunes?

Sin embargo, la búsqueda de los genes que determinan la susceptibilidad a las enfermedades más comunes se viene realizando desde hace décadas, impulsada en los últimos 5 años por la disponibilidad de los chips de ADN, que permiten la exploración del genoma en más de 50.000 nucleótidos simples de forma simultánea.

Eric Lander ha trabajado en el Board Institute MIT & Harvard, Harvard, Massachusetts, en los Estados Unidos, ha encontrado que la mayor parte de la heredabilidad faltante nunca existió (5). Basan su argumento en la genética biométrica, una disciplina matemática que se ocupa de los rasgos que varían continuamente, tales como la altura, la masa corporal, los índice de CI, o las enfermedades relacionadas con la glucosa en sangre, la presión arterial, u otro aspecto que mida la incidencia de una enfermedad.

Debo señalar que se ha llegado precisamente a la misma conclusión, dada la influencia siempre presente de la epigenética, la influencia del ambiente en el desarrollo (1,3), que ha sido ampliamente confirmado y ampliado desde que se secuenció el genoma humano (ver [6] Death of the Central Dogma y otros artículos de la misma temática, SiS 24; [7] Epigenetic Inheritance – What Genes Remember y otros artículos , SiS 41; [8] Nurturing Nature, publicación científica de ISIS)).

Esta convergencia de los analisis realizados desde la genética molecular y la biométrica es la más contundente refutación del paradigma reduccionistas del determinismo genético de la causalidad lineal de los genes a los rasgos, algo que había hecho del Proyecto Genoma Humano pareciera una empresa convincente, quedando un tanto desacreditado (ver [9] Living with the Fluid Genome, ISIS publication) (Véase también : http://iniciativaciudadanaii.blogspot.com/2010/04/nueva-vision-del-cuerpo-humano-el.html)

Ahora sabemos que gran parte de la variación puede estar relacionada de las relaciones de cada uno con el medio ambiente, y además esas experiencias pueden cambiar y marcar los genes, que influyen en el desarrollo de la persona y, en muchos casos, en la descendencia del individuo. Los genes y el medio operan en una compleja red de interacciones que se extiende a otras generaciones. Esta causalidad fundamental entre los genes y el medio ambiente significa que las contribuciones genéticas y ambientales son inseparables y cualquier intento de asignar efectos lineales a un solo gen está condenado al fracaso.

Vamos a ver como el determinismo genético es finalmente desentrañado en el seno de la genética, a partir de los hallazgos de Lander respecto a los rasgos de las enfermedades comunes y el continuo debate entre inteligencia y coeficiente intelectual ([10] No Genes for Intelligence in the Human Genome, SiS 53).

El componente genético ha sido sobreestimado

En concreto, Lander y sus colegas muestran que la heredabilidad faltante se debe a una sobreestimación de la heredabilidad total ( el componente genético de la variación del rasgo), que asume implícitamente que no hay interacciones de genes ( o genes interactuando con el medio ambiente), algo que se asume pero que parece injustificado. Si incluimos las interacciones de los genes, se obtiene una heredabilidad total mucho menor. En pocas palabras (5), “la heredabilidad faltante no necesariamente se corresponde directamente con las variantes que faltan, ya que las actuales estimaciones de heredabilidad total pueden estar significativamente infladas por las interacciones genéticas”. 

En realidad, las interacciones de los genes no pertenecen al “componente genético” de la heredabilidad. En la genética biométrica, “la heredabilidad en sentido amplio “ H2 incluye los efectos genéticos aditivos, así como los efectos debidos a las interacciones de los genes y cualquier efecto no aditivo, los efectos no lineales debido a los genes. La heredabilidad en sentido amplio es muy difícil de determinar. En la práctica, sólo la “heredabilidad en sentido estricto” h2 (efectos aditivos, efectos lineales debido a los genes) puede ser medida. La heredabilidad en sentido estricto se aplica a los rasgos poligénicos de muchos genes, cada uno con un efecto aditivo pequeño, y se asume implícitamente que se aplican a todos los caracteres poligénicos, desde los inicios de la genétrica biométrica (ver más adelante).

Por lo tanto, los genetistas definen el porcentaje de heredabilidad de un rasgo, rexplained, como una proporción de la variación fenotípica explicada por los efectos aditivos de las variantes genéticas conocidas, h2known, a la variación fenotípica que puede atribuirse a los efectos aditivos de todas las variantes, incluidas las aún no descubiertas, h2all (Ecuación 1).
rexplained = h2known/ h2all       

El denominador h2known puede calcularse directamente a partir de los efectos medidos de las variantes, pero el denominador h2all debe inferirse directamente de los datos de población.

La opinión predominante entre los genetistas es que la heredabilidad faltante se debe a variantes adicionales aún por descubrir, ya sea con alelos comunes de moderado o muy pequeño efecto o alelos ratos (frecuencia de <1%) con un gran efecto (4,5).
La otra posibilidad, tenida en cuenta por el equipo de Lander, es que la heredabilidad falante en realidad no existe, siendo algo que surge de la heredabilidad total, h2all, que se ha sobrestimado, ignorando las interacciones entre los genes.

Por ejemplo, en la enfermedad de Crohn (enfermedad inflamatoria del intestino) hasta el momento se han identificado 71 locus asociaciados a los riesgos identificados. Bajo el supuesto habitual de los efectos aditivos, estos locus explican un 21,5% del total estimado de heredabilidad. Las interacciones genéticas podríain explicar casi el 80% restante que falta. ¿Por qué nunca la interacción genética se ha detectado en los análisis de población? Lander y sus colegas señalan que para detectar las interacciones del gen de la enfermedad de Crohn de requieren muestran del orden de 500.000 personas, que rara vez se alcanzan.

Pero la interacción de genes, o epitasis, es algo bien conocido. Se resume en los resultados del Proyecto ENCODE (Enciclopedia de los Elementos del ADN), organizado por el National Human Genome Research Institute de los Estados Unidos, que es un consorcio de 35 grupos de investigación, que ha realizado un examen minucioso del 1% del genoma humano para descubrir cómo funcionan los genes (11). Descubrieron que (12) “Los genes parecen operar dentro de una red compleja e interactúan y se superponen entre sí y con otros componentes, de modo que resulta de difícil comprensión”. Esencialmente el gen como una unidad bien definida, como una unidad separada de una estructura o función ya no se aplica. En cambio, los genes existen como fragmentos esparcidos a lo largo del genoma, y están estructuralmente y funcionalmente interrelacionados con otros genes.

¿Cómo surge la heredabilidad fantasma? 

Lander y sus colegas señalan (5) que en el cálculo de la heredabilidad se explica (Ecuación 1), el numerador h2known se calcula sobre la base de los efectos de las variante sgenéticas individuales. El problema viene de la estimación del denominador h2all. Debido a que no todas las variantes son concodias, su contribución debe ser inferida a partir de las correlaciones fenotípicas en la población. Esto da una heredabilidad aparente h2pop. Y la heredabilidad faltante se estima entonces, suponiendo que h2all = h2pop.

Sin embargo, no hay garantía de que todos los h2all = h2pop, a menos que el carácter sea estrictamente aditivo, y no existe ni la interacción gen-gen, ni interacción entre genes y medio ambiente. Para las características de la interacción de genes, que se aplicaría de una manera realista a prácticamente todos los rasgos comunes y enfermedades h2pop es significativamente superior a h2all. En este caso, aun cuando todas las variantes del rasgo han sido identificadas, la heredabilidad faltante rmissing no adquiere un valor de 0, sino que converge hacia 1 – (h2all/ h2pop), lo que Launder y sus colegas denominan heredabilidad fantasma, rphantom.

Para mostrar cómo la interacciones genéticas crean la heredabilidad fantasma, Lander y sus colegas introdujeron un modelo simple en el que un rasgo depende de la entrada de más de un proceso, la heredabilidad fantasma – lo que sigue faltando, incluso cuando todas las variantes genéticas han sido identificadas. En la enfermedad de Crohn, por ejemplo, sólo con 3 entradas sons suficientes para explicar el 80% de la heredabilidad fantasma.

Del mismo modo, las interacciones entre los genes y el ambiente pueden producir la heredabilidad fantasma adicional (como de hecho desconoce el paradero de otras fuentes tales como los efectos epigenéticos).

Estudios muy defectuosos en gemelos

El marco típico para el análisis de los rasgos humanos insiste en negar de forma sistemática la epistasis, suponiendo que los genes actúan de una manera puramente aditiva, de modo que cada gen contribuye a una pequeña cantidad de una determinada característica, que se resume en función del número de genes que estén presentes.
Una medida de la heredabilidad aparente h2pop (ACE) asume la varianza genética aditiva, así como los componentes comunes del medio ambiente y entornos únicos de varianza, siendo la definición corriente de heredabilidad aparente: h2pop (ACE) = 2(rMZrDZ), where rMZ and  rDZ, son las características fenotípicas (los rasgos medidos) la correlación entre los gemelos monocigóticos (compartiendo el 100% de sus genes) y dicigóticos (compratiendo el 50% de sus genes), mientras que el medio ambiente que comparten su supone que es común, incluyendo el ambiente materno.

Para ser realistas,
h2pop (ACE) = h2all + W                                                              (2­)

donde W representa la suma de las variaciones debidas a todas las adiciones posibles y no las interacciones aditivas entre los genes. El punto crucial es que si hay alguna interacción de genes, entonces W>0, por lo que h2pop (ACE) sobreestima h2all.

Por desgracia, no ha habido manera de estimar W a partir de los datos de la población. En la mayoría de los estudios en humamos, la solución consiste en asumir que no hay interacciones entre los genes, en cuyo caso W=0. Por lo tanto, los estudios realizados en gemelos sobreestiman de modo sistemático la contribución genética a las enfermedades y otros rasgos, sobre, la polémica en torno al cociente intelectual (véase 10).

Asunción aditiva fundamental para la genética biométrica

Lander y sus colegas no son los primeros en exponer los supuestos defectos de la genética biométrica clásica. Helen Wallace, de GeneWatch, Reino Unido, ya publicó una crítica similar hace 5 años (13): las interacciones gen-gen y del gen con el medio ambiente podrían reducir la heredabilidad calculada muy por debajo de los métodos de estudio estándar, basándose en los cálculos del genetista británico Ronald Fisher, que en 1918 supuso que los genes actuaban de forma aditiva.

Implicaciones

La implicación principal es que la búsquedas de genes de susceptibilidad es prácticamente inútil. De hecho, Lander y sus colegas (5) y otros (4) dicen que el objetivo principal de la genética médica es la identificación de las vías y los procesos subyacentes análogos a la caza de mutantes en organismos modelo, y no en “explicar la heredabilidad” o en “la paciente predicción personalizada de riesgos”.

Sin embargo, existen implicaciones más amplias en las políticas de salud. Los Gobiernos y las Empresas han tenido mucho interés en establecer bancos biológicos (biobancos) del genoma desde que se secuenció el genoma humano (véase [14] Human DNA ‘BioBank’ Worthless and other articles in the series, SiS 13/14). El Gobierno del Reino Unido está presionando para que las empresas puedan acceder a los registros de salud pública para impulsar el descubrimiento de las enfermedades genómicas (15). Sin embargo, si la contribución genética a la enfermedad es en gran parte un fantasma, ¿cuál es el punto de integración de las secuencias del genoma completo de la historia clínica electrónica, ya que la mayoría de esta información es probable que sea clínicamente inútil para la mayoría de las personas? (14,16)

Hay intereses creados que quieren mantener vivo el mito de la genética. Como señala Wallace, la evidencia que presentó en el año 2006, y que Lander y sus colegas presentaron en 2011, no ha tenido ningún impacto en las empresas que realizan pruebas genéticas, como Illumina y 23andMe, que siguen afirmando que todo el mundo tendrá su genoma secuenciado en el futuro, desde su nacimiento o como una cuestión rutinaria de atención sanitaria. El Director de los Institutos Nacionales de Salud, Francis Collins, se ha hecho eco de estas afirmaciones en su libro “El lenguaje populista de la vida” (17). Wallace está convencido, al igual que yo, que (16) “la secuenciación del genoma completa de todas las personas lo que lleva en cuanto a predicción y prevención de la enfermedad es una fantasía de la ciencia y enorme desperdicio de dinero”. 

Una fracción de los recursos de los que se ha visto privada la atención primaria y que tanto se necesita, es la prevención de enfermedades a través de intervenciones ambientales/sociales, como la nutrición, y esto haría que mejorase mucho la salud (así como la capacidad del cerebro) de todas las personas.


Para acceder a las referencias es necesario estar registrado en el sitio de ISIS



El verdadero coste de la energía nuclear en Francia

No sólo la energía nuclear francesa no es tan segura como se ha dicho repetidas veces, también está lejos de ser rentable, dice Susie Greaves

Por Susie Greaves, 23 de enero de 2011


 El programa nuclear francés ha sido considerado por los sucesivos Gobiernos franceses como un logro enorme, proveyendo al país de un suministro abundante de energía, asegurando la independencia con respecto al petróleo y evitando excesivas emisiones de dióxido de carbono. En el anterior artículo, traté de demostrar que la energía nuclear francesa no es tan segura como dicen sus defensores y como tratamos de hacer creer al resto (1) (French Nuclear Power Not Safe, SiS 53). Surge la duda de si es barata, como aseguró el Ministro de Asuntos Exteriores francés Bernard Kouchner en 2008: una fuente limpia y barata de energía (2).

¿Es rentable la energía producida por las centrales nucleares? Para contestar a esta pregunta tenemos que entender primero la ventaja competitiva de esta Industria frente a otras formas de producción de energía, comparándola con la Industria Nuclear de otros países [3] (The Nuclear Black Hole, SiS 40 and  [4] The Real Cost of Nuclear Power, SiS 47).

Los datos

La Industria Nuclear francesa ha obtenido un gran beneficio económico de la instrucción específica del Gobierno para que trabajase conjuntamente con el programa de armas nucleares. El informe de 1973 del CEA (Comisariado de la Energía Atómica) lo explica (5): “El CEA debe, dentro del marco de un presupuesto rígido y estrictamente limitado a sus posibilidades de expansión, adaptarse a la producción de material nuclear militar de acuerdo con las necesidades, aprovechando los progresos técnicos y los programas civiles ( que se han beneficiado de los programas militares) a fin de limitar los gastos”. 

En segundo lugar, Francia ha evitado los procesos democráticos y las consultas públicas en sus decisiones, que han sido tomadas por una elite que se mueve entre la Industria y los órganos reguladores, informando a los Ministros responsables del área de energía de las necesidades de esta Industria, más bien que de las necesidades de desarrollo. Por ejemplo, la decisión de construir el EPR (Reactor Presurizado Europeo) en Flamanville se tomó en el año 2006, sin debate Parlamentario. Greenpeace se refirió a los parlamentarios franceses como “elegidos para nada” (5).

En tercer lugar, los proyectos de energía nuclear en Francia reciben préstamos estatales a muy bajo interés, y sin ellos no se construirían nuevas centrales nucleares. El Banco Mundial ya no financia proyectos nucleares desde hace varias décadas, y el Banco de Desarrollo Asiático ( muchos de los proyectos de nuevas centrales nucleares en Asia) nunca lo ha hecho. En Estados Unidos no ha habido ningún proyecto nuclear desde los años 1970. La Administración Obama ha apoyado de forma incondicional a esta Industria, pero después de un debate infructuoso sobre el tipo de reactor que se debía construir, y sobre quiénes debían recaer los costes, nada se ha decidido. Como Amory Lovins, un experto en energía del Instituto Rocky Montain expuso (6): “Las únicos en el mundo que compran centrales nucleares son los planificadores centrales, ya sean Gobiernos como el de China o Japón, o la TVA (Autoridad de Tennessee Valley ), siendo un servicio público que no rinde “.

Finalmente, la falta de competencia ( EDF fue de propiedad estatal hasta 2005) permitió que Francia desarrollase una gran cantidad de centrales nucleares con un enorme potencial de generación de energía. Aún así se tienen dudas sobre el verdadero coste y la eficacia de la Industria Nuclear francesa.

¿Quién necesita tanta electricidad? 

Después de la crisis del petróleo de 1973, Francia pretendió independizarse de las naciones productoras de petróleo, y se construyeron una gran cantidad de nuevas centrales nucleares. El plan Messmer (7) de los años 1970 propuso la construcción de 60 nuevos reactores en un plazo de 10 años, asumiendo un aumento de la demanda de 170 millones de Kwh en 1974 a 1000 millones de Kwh en el año 2000. Tal y como se comprobó después, solamente se necesitaron 470 millones de de Kwh. Parecía haberse aceptado en el mundo industrializado que el consumo de energía se doblaría cada 10 años, pero la relación entre desarrollo económico y consumo de energía había cambiado. En lugar de adaptarse a la nueva situación, se animó tanto en Francia como en otras partes de Europa al consumo de electricidad, para asumir la sobrecapacidad de producción. Schneider dijo (5): “Fue un golpe de gracia para cualquier iniciativa inteligente de producir energía basada en la eficacia y la conservación”. 

La Industria Nuclear francesa concibió dos maneras de deshacerse del exceso: persuadir a los franceses de que usasen más electricidad en sus casas y exportar energía a otros países. Estas dos políticas eran la respuesta a un sistema fundamentalmente defectuoso y un examen más detallado revela su verdadero coste.

Durante varias décadas, la presión del Gobierno francés hizo que el 70% de las nuevas viviendas usasen electricidad para la calefacción y el agua caliente. Fueron buenas noticias para la industria de la construcción, ya que los sistemas que se usan para este tipo de instalaciones son menos caros que otros, pero esto trajo para el consumidor unos altos consumos de electricidad. Esta política fue descrita en 2008 por el Subsecretario de Estado de Ecología Nathalie Kosciusko-Morizet como un error (8) y una aberración desde el punto de vista termodinámico. Las tres cuartas partes de la electricidad de transforma de nuevo en calor que se pierde, al mismo tiempo que se pierde en el transporte antes de que la electricidad se transforme de nuevo en calor en las viviendas. (La transformación de una fuente de energía primaria en electricidad tiene poco sentido económico, sobre todo si se puede usar aquella fuente de energía (P. ej., gas o petróleo) directamente para calentarse o cocinar. En este sentido es interesante ver la excelente película de Greenpeace titulada “What are we waiting for?”[9], que explica por qué el Reino Unido debiera seguir el ejemplo de Dinamarca y construir pequeñas centrales combinadas de energía para dar servicio a una ciudad o lugar. En el Reino Unido, las centrales térmicas, que son las que proveen de la mayor parte de la energía, apenas han cambiado en 50 años y pierden dos tercios de la energía producida en calor residual que se desperdicia en ríos o en el aire. Las nuevas centrales CHP (Combined Heat and Power/ Centrales térmicas de ciclo combinado) son un 95% más eficientes. Greenpeace sostiene que podríamos solucionar muchos problemas de energía con estas tecnologías). La ironía está en que, habiendo persuadido a un cuarto de los franceses de que calentasen sus casas con electricidad, la parte de cada Kwh consumido sólo corresponde en un 10% a la obtenida por la energía nuclear (5). El resto procede en gran parte de los combustibles fósiles. ¡Tanto hablar de la disminución de las emisiones de carbono a la atmósfera con el uso de la energía nuclear! Schneider resume la situación con una claridad devastadora (5): “La constante invitación al consumo de electricidad en forma de calor (calefacción, agua caliente, para cocinar) ha producido que las viviendas francesas tengan el consumo más alto de Europa desde 1976. Hoy, el consumo per cápita de electricidad en Francia es aproximadamente un 25% más alto que en Italia (que se deshizo progresivamente de la energía nuclear después del accidente de Chernobyl en 1986) y un 15% más alto que el promedio de la Europa de los 27”. 

La exportación de energía ha sido igualmente desastrosa económicamente. Francia exporta cuando la demanda, y por lo tanto los precios, son bajos, mientras que la reduce en las horas punta, cuando los precios son más altos. En los años 1980, Francewas ganaba más de las exportaciones de lo que pagaba por la importaciones, pero esta tendencia ha cambiado. En 2007, la capacidad diaria de exportación era de 14 Gigawatios hora, mientras que las importaciones fueron de 12 Gigawatios hora. Según un informe de 2002, los ingresos oficiales de las exportaciones entre 1995 y 2001 no cubrieron los gastos de generación. Las pérdidas anuales variaron entre 800 millones de euros y un máximo de 6000 millones de euros (10). La situación durante los períodos de máxima demanda se hizo extrema en 2006, viéndose Francia en la situación extrema de tener la necesidad de rehabilitar viejas centrales eléctricas de fuel-oil para generar electricidad durante los períodos de máximo consumo (5).

Los franceses desean tanto el petróleo como el que más

La jactancia francesa sobre su independencia con respecto al petróleo se cae por su propio peso si observamos los siguientes datos. En 2007, después de 3 décadas de empleo de la energía nuclear, el 73% de la energía producida en Francia procede de los combustibles fósiles, de los cuáles el 48% lo representa el petróleo, proporcionando solamente la energía nuclear un 16%. Las razones: el transporte, y en particular el uso del automóvil. Schneider dijo (5): “Es una clara lección histórica. Si la independencia de las importaciones de petróleo hubiese sido la razón que impulsó la política energía de Francia, ésta se habría concentrado en el sector del transporte desde hace tiempo.”

La escasez de combustible afecta a Francia

Miremos más estrechamente lo que supone el enorme consumo eléctrico para el consumidor francés. Si utilizamos los Estándares de Poder adquisitivo (antes que usar una comparación directa de costos) pone a Francia en el tercer lugar de la Unión Europea en cuanto a electricidad más barata (0,1211 por Kwh (céntimos de euro)) (2). Pero un precio más bajo de la electricidad no se traduce necesariamente en unas facturas más baratas. La cuarta parte de los hogares franceses que utilizan la electricidad para calentar sus casas, el agua o para cocinar, no están de acuerdo en que sus facturas sean bajas.

Como siempre, son las familias más modestas los que más sufren las consecuencias, pagando una mayor proporción de sus ingresos para el gasto energético. Según ADEME (Agencia para el Desarrollo y control de la energía) tres millones de viviendas pasan frío en invierno y se considera que es por la falta de combustible (11). La mayor parte de estas viviendas reciben ayuda del Gobierno en forma de facturas más reducidas, pero cada año aumenta el número de peticiones aumenta en un 15%. El gasto público para ayudar a tales proyectos supone de unos 150 a 200 millones de euros al año (12). Otros países de Europa tienen niveles similares par acceder al consumo de combustible, pero dado que los sucesivos Gobiernos de Francia han estimulado el malgasto de combustible, a fin de apoyar a la energía nuclear, esta situación es escandalosa.

Algunos hechos

Conocer las cifras que el Gobierno francés ha gastado para producir energía nuclear durante las últimas décadas es muy difícil. Pero hay algunas pistas. Las tres cuartas partes de los fondos de la investigación pública entre 1985 y 2001 fueron para la Industria Nuclear. La situación ha mejorado recientemente, de modo que si en 1997 la investigación en ahorro y eficacia energética, así como en las energías renovables, sólo suponía un 1% de los fondos de investigación, en 2008 ya se destinaba el 7% en ahorro y eficacia y un 5% en las energías renovables (2).

Para algunas cifras más concretas, podríamos examinar tres proyectos nucleares: a partir de 1980, el malogrado Proyecto Super Phénix, y los dos proyectos insignia de la Industria Nuclear francesa que están actualmente en construcción, uno en Finlandia y otro en la propia Francia.

El reactor rápido Super Phénix se construyó en 1986 en Creys Malville y sólo estuvo funcionando durante 174 días (13). Se cerró en 1998 debido a la fuerte oposición pública ( y la muerte de un manifestante) y con dudas sobre su viabilidad, incluso en el seno de la EDF. En 1986, en el Tribunal de Auditores, Jacques Chauvin, presidente de NERSA, el consorcio que poseía la planta (EDF tenía un 51%) declaró que el total de inversión y costes operativos, teniendo en cuenta todos los futuros gastos, Super Phénix habría costado a los franceses 65 billones de francos (11,7 mil millones de euros) (14).

El Proyecto de Olkilouto-3 en Finlandia supone la construcción de un EPR por una empresa franco-alemana conocida como AREVA NP. La parte alemana está en posesión de la empresa Siemens, que anunció que se salían de todos los futuros proyectos nucleares por motivos económicos (15). La financiación viene en parte del Landesbank bávaro, donde se localiza la oficina central de Siemens. Han prestado 1,95 mil millones de euros, que es el 60% de la inversión, con una tasa preferencial de interés del 2%. La Agencia de crédito de exportación pública de Francia, COFACE, ha prestado 570 millones de euros (16). La construcción comenzó en 2005 y el proyecto ha tenido problemas desde entonces. Las autoridades finlandesas han acusado a AREVA de realizar una inadecuada planificación, de emplear a contratistas que carecen de la necesaria experiencia en el campo nuclear, y de cambios en el personal, lo que lleva a confusión y a una falta de responsabilidad total (17). El inspector de seguridad finlandés ha detenido la construcción entre 10 y 15 veces, localizando 300 errores (18). El proyecto lleva un retraso de 5 años y se han destinado al menos 3 mil millones de euros como presupuesto.

La construcción del EPR en Flamanville se detuvo por primera vez (en 2007) cuando los inspectores del ASN detectaron que las especificaciones técnicas y los procedimientos no habían sido respetados, incluso en la mezcla de hormigón (19). Como en Olkilouto-3, se han producido muchas manifestaciones de preocupación en cuanto a la seguridad y en 2011, el presidente del ASN (Autoridad de Seguridad Nuclear), Andre-Claude Lacoste dijo: “No se excluyen dudas en cuanto a la construcción del reactor nuclear de Flamanville y el ASN también las expresa sobre la construcción de un segundo reactor EPR en Penly. Se espera que Flamanville produzca electricidad en 2016, cuatro años después de lo planeado y con un presupuesto de 2,7 mil millones de euros (20). 

 Desmantelamiento: una sangría de recursos durante siglos

La Industria Nuclear francesa no muestra diferencia con el resto de la Industria Nuclear del mundo en su enfoque de esconder la cabeza como el avestruz en cuanto a los problemas de desmantelamiento de las centrales nucleares. Pero en 2006, se tuvo que dar una explicación ante una comisión formada por representantes del Gobierno y expertos independientes. Los gastos de desmantelamiento se estimaron en unos 65 mil millones de euros para los tres principales operadores franceses. Sin embargo, aún siendo estas cifras colosales, han sido calculadas de una forma que genera incertidumbre, siendo necesaria una estimación más acertada.

Por ejemplo, mientras la Industria cree que todos los residuos de larga y media duración deberían ser reprocesados, mantienen que la es la opción más barata es la del almacenamiento subterráneo, punto de vista que se contradice con otros estudios nacionales e internacionales. La estimaciones para la gestión del combustible gastado (sólo una parte del proceso de desmantelamiento) varían en un factor de 4, entre los 13,5 mil millones y los 58 mil millones de euros. Un segundo problema ilustra claramente lo que ocurre cuando la industria que ha prosperado en base al secretismo y la propaganda finalmente necesita de fondos públicos. La búsqueda de lugares en los que almacenar los residuos nucleares se viene haciendo desde hace 30 años y en la década de 1990 el Gobierno aún tenía esperanzas de encontrar lugares que se ofreciesen de forma voluntaria. Pero se encontraron con una fuerte oposición por todas partes y en la legislación de 2006 se constató que esta búsqueda había sido infructuosa. Se seleccionó un sitio al este de Francia, Bure, pero a pesar de los 9 millones de euros investidos en escuelas y carreteras para endulzar la píldora, hay un fuerte movimiento de oposición que exige una moratoria sobre el almacenamiento subterráneo de los residuos nucleares (21).

Seguridad contra un accidente

Antes de 2004, EDF tenía el límite de responsabilidad más bajo de Europa para gastos en caso de accidente nuclear. Se sospechó que la Industria nuclear francesa subestimaba los verdaderos costes. En 2004, se aprobaron enmiendas en la Convención de Bruselas y París, y la prima por responsabilidad para los operadores se elevó de 5 a 700 millones de euros, con el Estado contribuyendo con 500 millones de euros y las partes contratantes ofrecieron 300 millones adicionales (22). Pero esta cifra, 1,5 mil millones de euros en total, es totalmente inadecuada (23): “El coste económico directo de la catástrofe de Bielorrusia, Ucrania y Rusia, hace más de 20 años, superó los 500 mil millones de dólares, que en términos de coste en la Unión Europea supondrían unos 2000 millones de euros, tanto o más que el coste de la infraestructura nuclear mundial”. 

Una visión más amplia

La Industria Nuclear francesa parece proporcionar la electricidad más barata, pero eso sólo si lo observamos bajo un prima muy estrecho, es decir el precio por Kwh que paga el consumidor. Hemos visto que esto no se traduce en facturas de la luz más baratas para el consumidor. Sin embargo, las verdaderas implicaciones del coste están en otra parte. La Industria nuclear se desarrolló sin un control democrático. Habiendo estado bajo el escrutinio público, muchas cosas habrían salido a la luz a su tiempo y no medio siglo más tarde. La sobrecapacidad de la Industria nuclear francesa (24) llevó a soluciones ad hoc que no tienen ningún sentido económico. Las centrales nucleares tienen que funcionar a plena potencia para ser rentables – Francia es el único país del mundo que cierra reactores los fines de semana. La exportación de electricidad nunca debiera de haber formado parte del plan original. La utilización de electricidad para la calefacción y el agua caliente es un absurdo en términos energéticos y es reconocido ahora por los propios Ministros del Gobierno. La cuestión del desmantelamiento es un importante problema ambiental, cuyos gastos tendrán que ser planeados con un presupuesto a lo largo de siglos, aunque cerrasen todas las centrales nucleares mañana mismo. Y finalmente, de suceder un accidente, los gastos quedarían empequeñecidos con todo lo mencionado hasta ahora, como ha ocurrido con las áreas contaminadas por la central nuclear de Chernobyl.

Los Gobiernos que planean construir nuevos reactores señalan a Francia como un ejemplo tanto de seguridad como de rentabilidad. Cuando lo observamos más estrechamente, el cuadro es totalmente diferente. No hay nada de la experiencia francesa que nos anime a confiar en la energía nuclear.

La autora vive en Francia y es miembro de Independent WHO, Sortir du Nucleaire y CRIIRAD. Ha traducido el libro de Wladimir Tchertkoff “El delito de Chernobyl; el gulag nuclear”, publicado por Actes Sud en 2006. 

http://www.i-sis.org.uk/The_True_Costs_of_French_Nuclear_Power.php

Nuestro veneno cotidiano

Un documental de Marie-Monique Robin.

Este documental fue presentado oficialmente a la prensa el pasado 17 de enero de 2011 en París, y luego exhibido en la Cadena Arte el 15 de marzo de 2011 simultáneamente en Francia, Alemania y Bélgica.

Marie-Monique Robin es autora también de “El mundo según Monsanto”

La Ciencia al servicio del poder: la Industria nuclear después de Chernobyl y Fukushima (I)

Por Gayle Greene, 20 de enero de 2012

Asia Pacific Journal


Una de las maravillas que no deja de sorprendernos es la capacidad de la Industria Nuclear para renacer de sus ruinas a finales del siglo pasado, después de derrumbarse bajo su ineficiencia, sus costes y los grandes accidentes. El de Chernobyl liberó varios cientos de veces la radiactividad de las bombas lanzadas en Hiroshima y Nagasaki juntas, contaminando más del 40% de Europa y de todo el hemisferio norte (1). Pero llegó el lobby nuclear para dar nueva vida a esta Industria, limpiando la cara de esta fuente de energía que ha contaminado medio planeta. La “nueva mirada hacia lo nuclear” – en palabras aparecidas en un artículo de The New Tork Times el 13 de mayo de 2006 (2)-, allanó el camino hacia un renacimiento nuclear, que tampoco el accidente de Fukushima ha acabado con él.

 
Los medios de comunicación son poderosos defensores de la energía nuclear, lo cual no es ninguna sorpresa. “Los medios llevan a cabo una campaña especializada de promoción, intensiva y eficaz por parte de la Industria Nuclear, desinformando…y extendiendo creencias incluso entre gente por otra parte bastante sensata”, así lo afirma el Informe Mundial de la Energía Nuclear del Worldwatch Institute (3). Lo que es menos conocido es la naturaleza de las pruebas que presenta la Industria Nuclear, una Guerra Fría de la Ciencia, sobre el riesgo de recibir radiación a dosis bajas, lo que está siendo utilizado para mantener en silencio lo que está ocurriendo en Fukushima y levantando un muro sobre las pruebas que justifican el poner fin a esta Industria.

A continuación algunas de las joyas aparecidas en algunos medios de comunicación:
  • Las cantidades ínfimas de radiación producida por la nube radiactiva que se extiende por Estados no supone ningún peligro para la salud, según aseguraba el Departamento de Energía ( William Broad, “La radiación en Estados Unidos es inofensiva, según las autoridades”, New York Times, 22 de marzo de 2011).

  • El riesgo de padecer cáncer es muy bajo, inferior a lo que la gente piensa”, explica Evan Douple, director de la Fundación de Investigación de los Efectos de la Radiación (RERF), que ha estudiado a los sobrevivientes de la bomba atómica y consideró que “a dosis muy bajas, el riesgo es muy bajo” (Denise Grady, “La radiación está en todas partes, pero ¿cómo evaluar el daño?” New York Times, 5 de abril de 2011).

  • En un programa de la NPR (National Public Radio) emitido pocos días después del accidente de Fukushima Daiichi, se citaba al mismo Evan Douple, diciendo que los niveles de radiación alrededor de la planta “ eran tranquilizadores. A estos niveles no creo que ningún estudio fuese capaz de encontrar efectos sobre la salud, incluso en el futuro”. (Primeros datos sobre radiación y temores sobre efectos en la salud”, Richard Knox y Andrew Prince, 18 de marzo de 2011). El programa de la NPR, como decía Grady, subrayaba que la Fundación de Investigación de los Efectos de la Radiación (RERF) tiene seis décadas de experiencia, por lo que algo sabrá sobre el tema.

  • El periodista británico George Monbiot, un ecologista que se volvió defensor de la Energía Nuclear, se refiere a los datos de la RERF como de “consenso científico”, citando de nuevo que las bajas dosis de radiación tienen un bajo riesgo de producir cáncer. (4)

    Todo el mundo sabe que la radiación a altas dosis es perjudicial, pero los estudios realizados sobre Hiroshima nos deben tranquilizar, ya que el riesgo disminuye a medida que disminuye la dosis, hasta volverse insignificante. Esta es una creencia que necesita extender la Industria Nuclear, porque los reactores nucleares liberan radiación no sólo cuando se produce un accidente, sino que es la rutina diaria durante las operaciones y el tratamiento de los residuos nucleares. Si las bajas dosis de radiación no son despreciables, los trabajadores de la esta Industria no están exentos de riesgo, al igual que las personas que viven en las cercanías de los reactores nucleares – y la vida misma de este planeta. Los residuos producidos por los reactores no se diluye y dispersa, no desaparece, como los defensores de la Industria Nuclear nos quieren hacer creer, sino que son arrastrados por el viento, por las mareas, se filtra en el subsuelo y contamina las aguas subterráneas, se abre paso en la cadena alimentaria y llega hasta nosotros, sumándose a los múltiples factores que producen cáncer y defectos de nacimiento. Su legado es más duradero en el tiempo que cualquier civilización que haya existido, por ejemplo el plutonio, que con una vida media de 24.000 años nos viene a decir que es para siempre.
¿Qué es lo que investiga esta Fundación sobre los efectos de la radiación y qué es lo que tiene que decir la Ciencia sobre “estas afirmaciones tranquilizadoras”?
***
La Atomic Bomb Casualty Commission (ABCC), como fue denominada en un principio, comenzó sus estudios de los sobrevivientes cinco años después del lanzamiento de las bombas atómicas (Su nombre fue cambiado por el de Fundación de Investigación de los Efectos de la Radiación (RERF) a mediados de los años 70…). Japón ha sido bombardeada dos veces con armas nucleares, primero como enemiga de los Aliados y en 2011 al sufrir un accidente nuclear con los reactores de General Electric enviados desde Estados Unidos, siendo por tanto la población más estudiada sobre los efectos de la radiación, ya que los bombardeos de Hiroshima y Nagasaki irradió a un número elevado de personas. “Pero los norteamericanos son maravillosos”, se dice que exclamó el experto en radiación Tsuzuki Maso, de Japón, que lamentó el tener únicamente conejos para seguir trabajando: “Habría hecho falta realizar los experimentos en humanos“ (5)

La ABCC estudió, pero no trató los efectos de la radiación, y muchos de los sobrevivientes no estuvieron dispuestos a identificarse, ya que estos no deseaban exponer sus problemas de salud a investigadores estadounidenses, expuestos a la estigma social y a numerosos trámites burocráticos. Pero a pesar de eso, muchos vinieron voluntariamente y se realizó un gran estudio, el estudio más amplio realizado sobre los efectos en la salud de la radiación nuclear. Ningún otro estudio médico ha podido disponer de tantos recursos, de equipos científicos y otros equipos de tecnología avanzada, financiados por la Comisión de la Energía Atómica (Consejo de Energía Nuclear). Ya que se trata del estudio epidemiológico más amplio, mayor será su fiabilidadad estadística, lo que propició que se considerasen estos datos como el patrón oro del riesgo de la radiación.

 

Examen de la ABCC de las víctimas de Hiroshima

Los médicos japoneses y los científicos que observaron las escenas contaron historias de horror de personas que pareciendo ilesos de repente comenzaban a sangrar por los oídos, la nariz y la garganta, se les caía el pelo a puñados, les aparecieron puntos azulados en la piel, se les contrajeron los músculos, dejando los miembros deformados. Cuando trataron de publicar sus observaciones, se les ordenó primero pasar estos informes a las autoridades estadounidenses. A los largo de los años de ocupación (1945-1952), las observaciones de los médicos japoneses fueron censuradas sobre los asuntos nucleares. A finales de 1945, los cirujanos del ejército estadounidense publicaron una declaración en la que se decía que todas las personas que se esperaba iban a morir por los efectos de la radiación producida por la bomba ya habían muerto y que ningún efecto adicional debido a la radiación se esperaba con posterioridad (6). Cuando la radio de Tokio anunció que hasta la gente que entró con posterioridad a las ciudades después de los bombardeos, moría por causas misteriosas y se desacreditaron armas tan ilegales e inhumanas, rechazando estas acusaciones los norteamericanos como propaganda japonesa (7).

La cuestión del envenenamiento por radiación era algo particularmente sensible, ya que implicaba la utilización de armas prohibidas, como los gases tóxicos. La Bomba Atómica no es un “arma inhumana”, declaró el general Leslie Groves que había dirigido el programa Manhattan (8). Los primeros científicos occidentales a los que se les permitió la entrada en las dos ciudades devastadas lo hicieron con escolta militar. El periodista australiano Wilfred Burchett, que logró entrar en Hiroshima, publicó un artículo en un periódico británico, describiendo que la gente moría “misteriosamente y de manera horrible por algo desconocido, que sólo podía describir como la plaga atómica… muriendo a razón de 100 personas diariamente”. El general MacArthur le ordenó abandonar Japón y la película que había rodado desapareció misteriosamente (9).

No hay radiactividad en las ruinas de Hiroshima” proclamaba u titular del New York Times el 13 de septiembre de 1945”.


Otro titular decía: “Una nueva revisión excluye peligros en Nagasaki”, o este otro: “La radiactividad después de la bomba atómica es sólo 1000 veces superior a la registrada en la esfera de un reloj luminoso”, el 7 de octubre de 1945 (10). Existen poderosos incentivos políticos para minimizar el riesgo de radiación. El fiscal del Ministerio de Asuntos Exteriores, William H. Taft, afirmó: “Se obtiene una impresión equivocada de que un bajo nivel de radiación es peligroso.. afectando al personal de Ministerio de Defensa que trabaja en armas nucleares y programas de propulsión nucleares… afectando a la industria nuclear civil… y podría levantar dudas en cuanto al uso de sustancias radiactivas en el diagnóstico y tratamiento médico” (11). Un folleto publicado por la Comisión de Energía Atómica en 1953 insistía en que “la exposición a bajos niveles de radiación puede recibirse indefinidamente en el tiempo sin que se detecte ningún cambio corporal detectable” (12). El Consejo de Europa de Energía Nuclear pagaba los sueldos de los científicos de la ABCC y los supervisaba “de forma estrecha y algunos consideraron que demasiado estrechamente”, según escribe Susan Lindee en Suffering Made Real (El sufrimiento se hace verdadero), que documenta las presiones políticas que sufrió la ciencia de la Energía Atómica (13). (Otras fuentes son: Roff’s Hotspots, de Sue Rabbit; The Atomic Bomb Suppressed, de Monica Braw; Hiroshima in America, de Robert Lifton y Greg Mitchell).

El New York Times se unió al Gobierno en la censura de la información sobre los efectos de la radiación en los sobrevivientes y minimizó u omitió este tema en sus artículos, como Beverly Ann Deepe Keever demuestra en The New York Times y la bomba (14). Keever, un veterano periodista, escribió que “desde el nacimiento de la época de la bomba atómica,… Times ayudó a extender las informaciones para que fuese aceptada la fuerza más destructiva jamás creada”, ayudando al “encubrimiento de esta guerra fría”, suavizando las informaciones y negando efectos sobre la salud y las consecuencias ambientales de la bomba atómica.

Los científicos de la Atomic Bomb Casualty Commission calcularon que hacia 1950, cuando la comisión comenzó sus investigaciones, el índice de mortalidad de todas las causas, excepto el cáncer, habían vuelto a la normalidad, y las muertes por cáncer eran demasiado pocas como para causar alarma (15)

http://www.japanfocus.org/-Gayle-Greene/3672

Una revista médica cuestiona la vacunación contra el VPH

Por Rosemary Mathis, 11 de enero de 2012. 

Vicepresidenta de la Asociación SANEX VAX, INC de Apoyo a las Víctimas.



NaturalNews. La revista Annals of Medicine ha publicado un artículo revisado por pares titulado “El virus del papiloma humano (VPH),las políticas de vacunación y la medicina basada en evidencias: ¿están en desacuerdo?, (1) firmado por los renombrados investigadores Lucija Tomljenovic y Christopher Shaw, del grupo de investigación de Dinámica neuronal de la Universidad de Britsh Columbia, Vancouver (2).

El artículo viene a decir a la comunidad médica lo que ya muchos pacientes saben acerca de las fraudulentas políticas de las agencias de salud en combinación con la Compañías Farmacéuticas, de la falta de pruebas científicas que demuestren la seguridad y eficacia de Gardasil y Cervarix antes de que fueran administradas a las adolescentes ante sus confiados padres.

Ensayos clínicos en personas sanas frente a las campañas de vacunación

Tomljenovic y Shaw dicen lo que parece obvio: que las vacunas representan “una categoría especial de medicamentos que se administran a personas sanas y por lo tanto la existencia de un pequeño nivel de riesgo por reacciones adversas es algo aceptable”.

Los ensayos clínicos realizados por la Empresa Farmacéutica Merck son incorrectos, ya que se utilizó un adyuvante de aluminio como placebo, y una solución salina al presentar esta opción menos reacciones adversas, no serias. Agruparon los resultados de las reacciones adversas al recibir el adyuvante de aluminio con los resultados del grupo que recibió una solución salina. De esta manera, se ocultó la verdadera tasa de reacciones adversas.

Si la FDA (Administración de Alimentos y Medicamentos de Estados Unidos) aprueba los medicamentos y las vacunas por considerarlas seguras y eficaces, los pacientes se creen que lo hacen porque el nivel de riesgos es muy pequeño o casi nulo. Sin embargo, la cantidad de medicamentos que la FDA tiene que retirar cada año del mercado por daños en la salud y la cantidad de demandas que se presentan por estas causas, son inaceptables.

Poniendo en duda la ética médica

Losa autores también señalan el mito del consentimiento informado – que básicamente consiste en una renuncia por parte de los pacientes una vez que han sido informados por los médicos sobre los beneficios y riesgos de aplicación del medicamento. Tomljenovic y Shaw dicen al principio de su artículo lo siguiente: “La ética médica exige que la vacunación se lleve a cabo con el consentimiento pleno e informado de los pacientes y no sólo debe limitarse a repetir lo que dice el fabricante de la vacuna”. 

Lo que los autores no dicen es qué es lo que pasa cuando los Gobiernos conceden este derecho de consentimiento en los procedimientos médicos a los niños, tal como ocurre en California – a los niños mayores de 12 años se les concede este derecho en el tratamiento de las enfermedades de transmisión sexual. ¿Quizás es porque el Estado tiene más información y sabe más, o es porque han recibido ayudas en sus campañas por parte de las Compañías Farmacéuticas?

Los autores siguen diciendo:

Lo que resulta más desconcertante son las agresivas estrategias de marketing que hacen los representantes de los fabricantes de las vacunas, que es de donde parte la información parcial que el médico transmite al paciente, generando miedo, promoviendo así la aplicación de la vacuna… Por tanto, hasta la fecha, las entidades médicas y reguladoras de todo el mundo continuarán proporcionando información sesgada sobre el riesgo de contraer cáncer de cuello uterino y sobre la utilidad de las vacunas contra el VPH, con lo que un consentimiento bien informado sobre la vacuna es imposible de alcanzar”. 

Conversaciones en torno al dinero, mientras el número de afectadas aumenta

De acuerdo con Maplight California, un sitio web que revela las influencias entre el dinero y la política, las contribuciones de los lobbys para que los legisladores apoyaran el proyecto fueron de 2.174.648 dólares, más de 28 veces la cantidad de 76.404 dólares que recibieron los lobbys que se oponían al proyecto de ley. También en interesante señalar que los grupos republicanos y grupos pro-vida estuvieron al lado de los disidentes, frente a una inmensa mayoría de grupos liberales y demócratas que apoyaron el proyecto.

Proyectos similar se quieren llevar a cabo ahora en Carolina del Sur y en Florida. Estamos siendo testigos de una rápida erosión de la ética médica, alentada por los políticos, que reciben abundante aportaciones por su especial interés. 

Tomljenovic y Shaw continúan su mensaje recordando que los profesionales médicos “contrariamente a las afirmaciones de que el cáncer cervical es el segundo tipo de cáncer más común en las mujeres de todo el mundo, los datos muestran que esto sólo es así en los países en desarrollo. En el mundo Occidental, el cáncer de cuello uterino es una enfermedad rara, con tasas de mortalidad que son varias veces más bajas que la tasa de reacciones adversas graves (incluyendo muertes) por administrar la vacuna contra el VPH”. 

[ N.del T.: En este enlace se puede observar la evolución del cáncer de cérvix en los Estados Unidos] 

Esto nos debiera hacer pensar, tanto a profesionales médicos como pacientes, sobre la seguridad de algunas vacunas y su eficacia.

Las políticas de vacunación deben cumplir con mayor rigor las evidencias médicas y las directrices éticas para un consentimiento bien informado. 

Tomljenovic y Shaw señalan los siguientes puntos clave:
  • Hasta la fecha, la eficacia de las vacunas contra el VPH en la prevención del cáncer de cuello uterino no se ha demostrado, al mismo tiempo que los riesgos de la vacuna aún no han sido evaluados por completo.

  • Las actuales prácticas de vacunación contra el VPH en todo el mundo, con cualquiera de las dos vacunas contra el VPH, parecen no estar justificadas en cuento a los beneficios para la salud a largo plazo, ni es económicamente viable, ni hay ninguna evidencia de que la vacunación contra el VPH (incluso si se demostrase eficaz contra el cáncer cervical) reduzca las tasas de cáncer de cuello uterino, más allá de lo que la prueba de Papanicolaou ya ha logrado.

  • En conjunto, las reacciones adversas graves relacionados con la vacunación contra el VPH en todo el mundo incluyen muertes, convulsiones, parestesias, parálisis, síndrome de Guillain-Barré (GBS), mielitis transversa, parálisis facial, síndrome de fatiga crónica, anafilaxia, desórdenes autoinmunes, trombosis venosa profunda, embolia pulmonar, y cáncer de cuello uterino.

  • Debido a que el programa de vacunación contra el VPH tiene cobertura legal, la salud a largo plazo de muchas mujeres puede estar en riesgo, frente a los beneficios todavía desconocidos de esta vacuna.

  • Los médicos debieran adoptar un enfoque más riguroso en la medicina basada en evidencias, con el fin de proporcionar una evaluación equilibrada y objetiva de los riesgos y beneficios de vacunar a sus pacientes.

  • La dependencia casi exclusiva de los estudios patrocinados por los fabricantes, a menudo de dudosa calidad, como base para la aplicación de las políticas de vacunación debe ser modificado.

  • Se deben hacer mayores esfuerzos para reducir al mínimo las influencias de las corporaciones en las instituciones académicas y en la investigación médica, ya que esta influencia puede impedir una investigación científica imparcial en cuestiones tan importantes relacionadas con la ciencia y las políticas de vacunación.

  • La vigilancia pasiva de las reacciones adversas debe ser sustituida por una vigilancia activa, para así comprender mejor los verdaderos riesgos asociados a las vacunas, y en particular las nuevas vacunas.
En resumen, Tomljenovic y Shaw dicen que las políticas de vacunación contra el virus del papiloma humano (VPH) y la medicina basada en evidencias están en desacuerdo, según se recoge en la página web de SANE VAX Inc. Al documento completo se va a poder acceder desde el día 12 de enero (En el momento de traducir este artículo se puede acceder al artículo completo, pero previo pago en: http://informahealthcare.com/doi/pdf/10.3109/07853890.2011.645353). Sería interesante difundir estas 12 páginas entre médicos, enfermeras y entre los que aplican la legislación estatal, entre padres y tutores, a fin de considerar la conveniencia o no de vacunar contra el VPH a sus hijas. Si tiene dificultad en acceder el documento completo puede comunicarse con la autora del mismo mandando un correo electrónico a la siguiente dirección: lucijat77@gmail.com.

SANE VAX Inc, considera que se está presentando la información de manera parcial, sin decir con claridad la relación entre el riesgo de padecer cáncer de cuello uterino y la utilidad de las vacunas contra el VPH, no siendo científico ni ético. Estas prácticas no sirven a los intereses de la salud pública, ni reducen los niveles de cáncer de cuello uterino. Son necesarias evaluaciones independientes de seguridad de las vacunas contra el VPH y debe ser una prioridad de los programas de investigación patrocinados por el Gobierno.

Fuentes:

1.Human papillomavirus (HPV) vaccine policy and evidence-based medicine: Are they at odds?Annals of Medicine,
http://www.unboundmedicine.com/medline/ebm/record/22188159/full_citation/Human_papillomavirus__HPV__vaccine_policy_and_evidence_based_medicine:_Are_they_at_odds

2. Maplight California -AB 499 – An Act to Amend Section 6926 of the Family Code, Relating to Minors
http://maplight.org/california/bill/2011-ab-499/1007609/total-contributions

Historia de Norma Erickson y Leslie Carol Botha de SANEVAX, INC
Por favor visite nuestro sitio en http://sanevax.org/
http://sanevax.org/vacuna-vph-gardasil-de-merck-es-la-veradera-enfermedad-y-no-el-vph/

Industria farmacéutica: las vacunas y sus intereses

Extracto de la entrevista a Máximo Sandín, donde se dibuja a la Industria Farmaceutica y el negocio de las vacunas. Una prueba más de que esta Industria no busca curar sino la consecución de la mayor cantidad de benificios ecoómicos posibles, con muy pocos escrúpulos.


Bye, Bye, Capitalismo y redes de consumo

por stuartbranhall en Fin del Capitalismo, 11 de enero de 2011


 
 Recensión del libro “Huyendo del Vesubio” (2011, Feasta y Living Economies)

Según mi experiencia, hay dos formas principales que la resistencia contra las corporaciones puede adquirir. La primera forma sería la confrontación directa con el Gobierno y las corporaciones frente a sus actividades criminales e inmorales. Cientos de personas ocuparon con sus campamentos los alrededores de Wall Street a finales de 2011 para protestar contra la avaricia bancaria y la corrupción, representando este enfoque directo. El segundo tipo de resistencia es de los activistas locales que de forma colectiva optan por un estilo de vida distinto, creando sus propios sistemas alternativos de producción de alimentos y producción de energía y distribución, y en algunos casos incluso una banca alternativa y otras sistemas económicos. Este segundo tipo de resistencia es llevado a acabo por varias redes de sostenibilidad nacionales e internacionales. Se incluyen grupos como Transition Towns, Feasta and Cultivate. The Transition movement, que comenzaró en 2004-2005 en Irlanda y Gran Bretaña, siendo uno de los más conocidos. Transition Towns (Ciudades en transición) surgió en Nueva Zelanda, y sigue activa desde 2007.

Huyendo del Vesubio”, publicado por Feasta en Irlanda en el año 2010, se describe como una guía para individuos, grupos y comunidades que intentan una forma de vida al margen del modelo corporativo, yendo hacia otro transición sostenible. Feasta (Fundación para la Economía Sostenible) se creó en Dublín en 1998. La edición de Nueva Zelanda fue publicada por Sistemas Económicos Vivos en julio de 2011. El libro es una colección de ensayos escritos por miembros de Feasta y otros, con una amplia variedad de fondos técnicos. Este primer artículo es una descripción general del libro y la experiencia local en la que está basado. En sucesivos artículos se hará un análisis más detallado.

Preparándose para el colapso económico

El título “Huyendo del Vesubio” hace referencia al volcán que destruyó Pompeya en el año 79 d de C, y de las personas que no se salvaron a pesar de los terremotos, nubes gaseosas y otros signos obvios de que el volcán estaba a punto de entrar en erupción. Durante al menos una década, la mayor parte de los ciudadanos del mundo siguen cerrando los ojos ante las pruebas crecientes de que el planeta está al borde del colapso económico y ecológico. La gran mayoría no hace nada para prepararse frente a las duras condiciones que se presentan.

Todos los ensayos recogidos en “Huyendo del Vesubio” están escritos desde el punto de vista de que el período de energía barata ha terminado. De hecho la sección inicial habla de la reducción del petróleo, no del imprudente comercio de derivados tóxicos y subprimes, como responsable de la crisis económica que se inició en 2008. Como los autores explican, el petróleo que se encuentra más en la superficie se está consumiendo. El que queda es mucho más difícil y costoso de extraer. Una vez que el petróleo alcanzó los 147 dólares por barril en 2008, la energía y la alimentación (directamente relacionado con el precio del combustible en la agricultura industrial) aumentaron de precio y ya la gente no disponía del suficiente dinero como para hacer frente a sus hipotecas y los impagos comenzaron.

Por otra parte se señala que la especie humana tiene que reducir el consumo de energía de una forma drástica. Esto incluye el volver a la época en que la gente producía al menos parte de sus alimentos y otras necesidades elementales , utilizando la fuerza animal (caballos, mulas y bueyes, etc), en vez de motores de combustión que consumen los combustibles fósiles. El autor dice que un barril de petróleo produce la energía equivalente a la de un trabajador adulto que trabajase 40 horas a la semana durante 12 años.

Combustibles fósiles y capitalismo

La Introducción y la Parte 1 (Disponibilidad de Energía) es la sección del libro en la que se establecen las relaciones históricas entre la revolución producida por los combustibles fósiles, la industrialización y el nacimiento del sistema económica capitalista. No pretende entender todas las cifras que se muestran, pero está claro que los cinco primeros ensayos representan una posición de consenso de muchos economistas e ingenieros relacionados con la energía. Antes de la aparición de los combustibles fósiles, era imposible la aparición del capitalismo porque se trataba de una economía que se basaba en el trabajo humano y la potencia animal no contribuía a su desarrollo.

Por definición, el capitalismo depende de la acumulación de capital, la producción de un exceso económico que puede ser invertido de nuevo como capital (propiedad y máquinas) para ampliar la producción. Al principio de “Huyendo del Vesubio” los autores demuestran cómo este excedente de producción sólo era posible gracias a la enorme cantidad de trabajo realizado con el uso de los combustibles fósiles. Había terratenientes y ricos antes de la Industrialización, sin embargo no había capitalistas: la producción era muy limitada como para acumular capital.

Si el capitalismo sólo es posible con una abundancia de energía barata, claramente se ve que éste llegará a su fin cuando los combustibles fósiles dejen de ser baratos, es decir del orden de 200 dólares por barril, que se podría alcanzar en los próximos 6 a 36 meses. Las energías renovables (solar, mareas, eólica, hidráulica…) no pueden sustituir a los combustibles fósiles en términos de precio y eficacia. Siete mil millones de habitantes del planeta se esforzarán por producir comida con la que alimentarse, no pudiendo acumular capital para invertir en nueva producción.

***
Creación de una red de consumo en Valladolid:

Creación de nuevas redes de consumo en Valladolid

by valladolidtransicion
En los últimos tiempos la actividad se ha volcado en el impulso para la creación de redes de consumo en Valladolid. Actualmente ya existe una, pero está saturada de éxito, por lo que nos hemos puesto en contacto con ellos para que nos asesoren en los primeros pasos. Transcribimos a continuación un mail que resume la situación actual. No olvides que en todo momento somos una plataforma abierta y que nos puedes contactar para sumarte.
——————————————————————–
Como comentamos en el último correo, ayer (09-01-2012) quedamos con gente de la Red de la Patata para que nos contaran cómo funcionan y organizar la merendola de lanzamiento de la nueva red y solo decir que fue un exitazo de convocatoria. Nos juntamos unas diez personas con muchas ganas de montar una red similar, así que esto va viento en popa. La próxima cita que fijamos fue el lunes 23 de enero a las 20h en el local de la JOCE, así que los que estéis interesados, allí nos vemos.

Requisitos para montar una nueva red de consumo de agricultura ecológica:
  • Unas 15/20 unidades de consumo/familias como mínimo
  • Un local para la distribución: este es nuestro principal punto flojo. Habíamos pensado que se podría hacer en la JOCE, pero no hay sitio suficiente, así que vamos a hablar estas semanas con varias asociaciones con locales para ver si podríamos empezar allí. Otra posibilidad sería si alguien tiene un garaje, una nave o un bajo que estuviera disponible para poder hacer el reparto. Solo se utiliza este espacio un día a la semana dependiendo de cómo nos organizáramos con los proveedores. En la Red de la Patata, por ejemplo, los proveedores suelen llevar el pedido al local los martes por la mañana y por la tarde se hace el reparto de las cestas.
  • Contactos de proveedores: aquí los compañeros de la Red de la Patata nos pueden pasar bastantes contactos.
  • Una balanza para pesar el género y una nevera/arcón si se quieren pedir también productos lácteos.
Compromiso que conlleva formar parte de una red de consumo:
  • Disponibilidad para organizar el reparto: se va rotando entre las distintas unidades/familias para preparar las cestas de los pedidos y depende del número de personas que formen parte de la red, pero por hacernos una idea, si empezamos más o menos unas 20 unidades, tocaría aproximadamente una tarde cada tres meses (desde las 18h hasta que se termine el reparto).
  • Pedidos regulares: las redes de consumo se basan en juntar un grupo suficiente de consumidores de tal forma que al proveedor le compense distribuir en ese punto. No es obligatorio consumir de todos los productos ni todas las semanas, pero sí cierta regularidad.
  • Fianza y cuota mensual: esto sería cuestión de decidirlo entre toda la gente interesada para organizarse, pero para servirnos de orientación, en la Patata se paga una cuota de 3 €/persona al mes y se pone una fianza de 30 € al entrar a formar parte de la red para poder abonar el primer pedido. La fianza se devuelve íntegra si esa unidad/familia decide abandonar la red. En la Patata la cuota mensual sirve para abonar ciertos gastos como el pago del local y el trabajo de la persona que se encarga de la administración de los pedidos y la contabilidad. Hay otras redes de consumo en las que la administración de los pedidos se va turnando entre las distintas unidades, eso sería cuestión de decidirlo entre todos.
Próximos pasos para montar la nueva red:
  • Lunes 23 de enero (a las 20h en la JOCE: Glorieta del Descubrimiento 1, Barrio Belén): Este día vamos a juntarnos las personas que estemos interesadas en montar la red para hacer el pedido a la Patata con el que prepararemos la merendola de lanzamiento de la red y poner un bote para pagarlo. Sonia nos va a mandar en los próximos días el excel con los productos que tienen ahora para que podamos elegir. Los pedidos hay que hacerlos con una semana de antelación, por lo que lo que encarguemos se recogerá y pagará el martes 31 de enero. Luego nos lo repartiremos para preparar unos deliciosos platos y llevarlo todo listo para la merendola.
  • Sábado 4 de febrero: merendola de lanzamiento de la red.
En este enlace se explican consejos prácticos sobre cómo montar una red de consumo: http://www.letra.org/spip/spip.php?article3969.

http://valladolidentransicion.wordpress.com/author/valladolidtransicion/