Inicio > Mis eListas > el_esceptico > Mensajes

 Índice de Mensajes 
 Mensajes 107 al 136 
AsuntoAutor
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
Edición 2001 - Núm Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT TENEBRIS
EL ESCÉPTICO DIGIT Pedro Lu
 << 30 ant. | 30 sig. >>
 
EED-lista_antigua
Página principal    Mensajes | Enviar Mensaje | Ficheros | Datos | Encuestas | Eventos | Mis Preferencias

Mostrando mensaje 114     < Anterior | Siguiente >
Responder a este mensaje
Asunto: EL ESCÉPTICO DIGITAL - Edición 2001 - Número 18
Fecha:Miercoles, 28 de Febrero, 2001  01:57:18 (+0100)
Autor:Pedro Luis Gomez Barrondo <gargantua @..........es>

=====================================================================

                           EL ESCÉPTICO DIGITAL

       Boletín electrónico de Ciencia, Crítica a la Pseudociencia y
Escepticismo
       © 2000 ARP-Sociedad para el Avance del Pensamiento Crítico

    Edición 2001 - Número 18 - 28 de febrero de 2001

Boletín de acceso gratuito a través de:
http://www.elistas.net/foro/el_esceptico/alta

=== SUMARIO =========================================================

  - ¿Qué son las seudociencias?

  - La ciencia y sus errores.

  - Vacas locas, hombres ignorantes.

  - Descubren un mecanismo por el que un gen puede fabricar hasta veinte
proteínas.

  - EEUU: Identifican la parte del cerebro que marca el ritmo de la
vida.

  - Un experimento da pistas sobre nuevas partículas supersimétricas.

  - El verdadero origen de la aspirina.

  - Una nueva aspirina, eficaz para evitar los problemas de la
Angioplastia

  - Bosques fósiles ibéricos.

  - Archivos del clima antiguo.

  - Las cucarachas y las crisis alérgicas y asmáticas.

  - El satélite de observación de la Tierra Envisat (ESA) pasa las
últimas pruebas ates de su lanzamiento.

  -. El Next Generation Space Telescope (NGST), sucesor del Hubble, será
más pequeño de lo previsto.

  - El gobierno español anuncia que dedicará este año 8.000 millones de
pesetas a la investigación en genómica.

  - Bruselas: La Comisión Europea quiere potenciar la genómica, la
informática y la industria aeroespacial.

  - 80 premios Nobel piden a Bush que no frene la investigación con
células embrionarias humanas.

  - Los creadores de “Dolly” logran ”células madre” sin necesidad de
clonar un embrión.

=== NOTICIAS =========================================================

La Nación http://www.lanacion.com.ar/

¿QUÉ SON LAS SEUDOCIENCIAS?
Por: Mario Bunge - Montreal
Artículo enviado por: Alejandro Agostinelli y Enrique Márquez

Una seudociencia es un montón de macanas que se vende como ciencia.
Ejemplos: alquimia, astrología, caracterología, comunismo científico,
creacionismo científico, grafología, ovnilogía,
parapsicología y psicoanálisis.

Una seudociencia se reconoce por poseer al menos un par de las
características siguientes:

-.Invoca entes inmateriales o sobrenaturales inaccesibles al examen
empírico, tales como fuerza vital, alma, superego, creación divina,
destino, memoria colectiva y necesidad histórica.

-.Es crédula: no somete sus especulaciones a prueba alguna. Por ejemplo,
no hay laboratorios homeopáticos ni psicoanalíticos. Corrección: en la
Universidad Duke existió en un tiempo el
laboratorio parapsicológico de J. B. Rhine; y en la de París existió el
laboratorio homeopático del doctor Benveniste. Pero ambos fueron
clausurados cuando se descubrió que habían cometido fraudes.

-. Es dogmática: no cambia sus principios cuando fallan ni como
resultado de nuevos hallazgos. No busca novedades, sino que queda atada
a un cuerpo de creencias. Cuando cambia lo hace solo en
detalles y como resultado de disensiones dentro de la grey.

-. Rechaza la crítica, matayuyos normal en la actividad científica,
alegando que es ella motivada por dogmatismo o por resistencia
psicológica. Recurre pues al argumento ad hominem en lugar del
argumento honesto.

-. No encuentra ni utiliza leyes generales. Los científicos, en cambio,
buscan o usan leyes generales.

-. Sus principios son incompatibles con algunos de los principios más
seguros de la ciencia. Por ejemplo, la telequinesis contradice el
principio de conservación de la energía. Y el concepto de memoria
colectiva contradice la perogrullada de que solo un cerebro individual
pueden recordar.

-. No interactúa con ninguna ciencia propiamente dicha. En particular,
ni psicoanalistas ni parapsicólogos tienen tratos con la psicología
experimental o con la neurociencia. A primera vista, la astrología es la
excepción, ya que emplea datos astronómicos para confeccionar
horóscopos. Pero toma sin dar nada a cambio. Las ciencias propiamente
dichas forman un sistema de componentes interdependientes.

-. Es fácil: no requiere un largo aprendizaje. El motivo es que no se
funda sobre un cuerpo de conocimientos auténticos. Por ejemplo, quien
pretenda investigar los mecanismos neurales del olvido o del placer
tendrá que empezar por estudiar neurobiología y psicología, dedicando
varios años a trabajos de laboratorio. En cambio, cualquiera puede
recitar el dogma de que el olvido es efecto de la represión, o de que la
búsqueda del placer obedece al "principio del placer". Buscar
conocimiento nuevo no es lo mismo que repetir o siquiera inventar
fórmulas huecas.

-. Sólo le interesa lo que pueda tener uso práctico: no busca la verdad
desinteresada. Ni admite ignorar algo: tiene explicaciones para todo.
Pero sus procedimientos y recetas son ineficaces por no fundarse sobre
conocimientos auténticos. Al igual que la magia, tiene aspiraciones
técnicas infundadas.

Se mantiene al margen de la comunidad científica. Es decir, sus cultores
no publican en revistas científicas ni participan de seminarios ni de
congresos abiertos a la comunidad científica. Los
científicos, en cambio, someten sus ideas a la crítica de sus pares:
someten sus artículos a publicaciones científicas y presentan sus
resultados en seminarios, conferencias y congresos.

Aprendizaje emocional

Veamos en un ejemplo cómo obran los científicos cuando abordan problemas
que también interesan a los seudocientíficos. En 1998 los psicobiólogos
J. S. Morris, A. Ohman y R. J. Dolan publicaron en la célebre revista
Nature un trabajo sobre aprendizaje emocional consciente e inconsciente
en la amígdala humana. Ya que este artículo trata de emociones
conscientes e inconscientes, parecería que debiera interesar a los
psicoanalistas. Pero no les interesa porque los autores estudiaron el
cerebro, mientras que los analistas se ocupan del alma: no sabrían qué
hacer con cerebros, ajenos o propios, en un laboratorio de
psicobiología.

Pues bien, la amígdala cerebral es un órgano diminuto pero
evolutivamente muy antiguo, que siente emociones básicas tales como el
miedo y la furia. Dada la importancia de estas emociones en la
vida social, es fácil imaginar los trastornos de conducta que sufre una
persona con una amígdala anormal, ya sea atrofiada o hipertrófica. Si lo
primero, no reconocerá signos peligrosos. Si lo
segundo, será propensa a la violencia.

La actividad de la amígdala cerebral puede registrarse mediante un
escáner PET. Este aparato permite detectar objetivamente las emociones
de un sujeto en cada lado de su amígdala. Sin embargo, tal actividad
emocional puede no aflorar a la conciencia. O sea, una persona puede
estar asustada o enojada sin advertirlo. ¿Cómo se sabe? Agregando un
test psicológico a la observación neurobiológica. Por ejemplo, si a un
sujeto normal se le muestra brevemente una cara enojada y enseguida
después una cara sin expresión, informará que vio la segunda pero no la
primera. ¿Represión? Los científicos citados no se contentaron con
bautizar el fenómeno. Repitieron el experimento, pero ahora asociaron la
cara enojada con un estímulo negativo: un intenso y molesto ruido
"blanco", es decir, no significativo. En este caso, la amígdala fue
activada por la imagen visual, aun cuando el sujeto no recordara haberla
visto. O sea que la amígdala cerebral "sabe" algo que ignora el órgano
de la conciencia (cualquiera que este sea).

En principio, con el método que acabo de describir escuetamente se
podría medir la intensidad de una emoción. Por ejemplo, se podría medir
la intensidad del odio que, según Freud, un varón siente por su padre.
Sin embargo, antes de proceder a tal medición habría que establecer la
existencia del complejo de Edipo. Pero este no existe, como lo mostraron
las extensas investigaciones de campo del profesor Arthur P. Wolf
condensadas en su grueso tomo Sexual Attraction and Childhood
Association (Stanford University Press, 1995).

Las seudociencias son como las pesadillas: se desvanecen cuando se las
examina a la luz de la ciencia. Pero mientras tanto infectan la cultura
y algunas de ellas son de gran provecho pecuniario para sus cultores.
Por ejemplo, un psicoanalista latinoamericano puede ganar en un día lo
que su compatriota científico gana en un mes. Lo que refuta el refrán
"no es oro todo lo que reluce".

[Nota] * Mario Bunge, pensador argentino radicado en Canadá, es Doctor
en Ciencias Fisicomatemáticas y uno de los principales filósofos
contemporáneos. Posee diez doctorados honoris causa y tres profesorados
honorarios, siendo miembro del Institut International de Philosophie, de
la Académie Internationale de Philosophie des Sciences y de la Academy
of Humanism. Su último libro es “Las ciencias sociales en discusión”
(Ed. Sudamericana).
Mario Bunge es así mismo miembro de ARP-Sociedad para el Avance del
Pensamiento Crítico

                           ------------------

LA CIENCIA Y SUS ERRORES
Por: Javier Armentia

De entre los muchos aspectos que se han tratado en los medios de
comunicación a raíz de la presentación de los dos proyectos sobre el
genoma humano la semana pasada, uno de los que más comentarios ha
generado ha sido que los humanos tenemos “sólo” unos treinta o cuarenta
mil genes, frente a los cien mil que se estimaba inicialmente. Tan solo
una tercera parte más que el gusano Caenorhabditis elegans, e incluso
menos de la mitad de los de una planta. Por un lado, la complejidad de
un ser humano no viene solamente del número de genes: cada gen humano se
organiza de forma muy intrincada, permitiendo la producción de varias
proteínas, unas tres en promedio, frente a la idea de mediados de los
ochenta de que cada gen codificaría solamente una proteína. Por otro
lado, las propias proteínas son más complicadas, con una estructura
variable en su geometría y en su función. Además, en ciertas zonas de
los cromosomas se acumulan más que en otras los cambios o diferencias
que existen entre diferentes individuos, posibilitando una plasticidad
que no se da en otros genomas estudiados. Finalmente, hay una gran
proporción de ADN que no contiene información, pero que, según algunos
investigadores, podría trabajar conjuntamente con genes de otras zonas
de las cadenas para producir diferentes proteínas.

En cualquier caso, ¿de dónde se sacaron los científicos eso de los cien
mil genes humanos? El responsable parece ser el premio Nobel Walter
Gibert, que hizo una estimación “a ojo de buen cubero” en 1984 que
posteriormente muchos mantuvieron sin volver a calcular. De hecho,
mientras se iniciaba el Proyecto Genoma Humano, se mantuvieron esas
cifras y posteriormente se fueron reduciendo: en la presentación que
hizo Clinton en junio del año pasado aún se hablaba de entre cincuenta y
ochenta mil genes. Un pequeño error que no cambia la significación y la
trascendencia de una noticia. Pero que nos recuerda que, en ciencia, los
errores existen, y a veces han podido llegar a ser mantenidos durante
mucho tiempo.
“Algunos son resultado de la falta de cuidado; otros vienen de la
arrogancia; otros son culpa de la ignorancia y las preconcepciones;
algunas veces es una espectacular mala suerte; y otras veces hay que
achacarlo a la frágil moral humana” comenta Robert M. Youngson, médico
autor de un libro titulado “Torpezas científicas: una breve historia que
cuán errados pueden estar a veces los científicos” (no traducido al
castellano, la edición inglesa es de la editorial Robinson, 1998), en el
que analiza numerosos casos en los que la ciencia ha metido la pata.

Un caso paradigmático de las diversas circunstancias que se juntan a
veces en los errores es el llamado “caso de los rayos N”, una misteriosa
radiación descubierta por el físico francés René Blondot en 1903, unos
pocos años después del descubrimiento de los rayos X y de la
radiactividad. Los rayos N eran muy especiales, porque atravesaban casi
cualquier tipo de materia, pero no la madera o el cartón mojado, por
ejemplo. Se podían difractar con un prisma y no eran alterados por los
campos magnéticos. Diversos laboratorios franceses comenzaron a
reproducir los resultados de Blondot, pero curiosamente fuera de este
país no había manera de medirlos. La revista Nature envió al laboratorio
de Blondot a un físico norteamericano, Robert Wood, para comprobar in
situ los experimentos franceses. En un momento de oscuridad, Wood retiró
un prisma que se suponía era fundamental para la experiencia, pero
resultó que todo funcionaba igual. La denuncia del fiasco por parte de
Wood provocó un aluvión de quejas, y durante unos meses casi era una
cuestión nacional para los físicos franceses frente a la arrogancia del
investigador norteamericano. Evidentemente, ya nunca más se habló de esa
nueva e inexistente radiación.

Algo parecido se repitió casi ochenta años después, cuando en un
laboratorio francés el equipo dirigido por Jacques Benveniste afirmó
haber confirmado que los medicamentos homeopáticos actuaban in vitro. El
artículo fue publicado en 1988 la revista Nature, pero lo sorprendente
del resultado (al fin y al cabo las disoluciones extremas que empleaban
no contenía ni una sola molécula del principio activo, algo que va en
contra de las conocidas leyes de la química y de la física) hizo que la
propia revista encargara a un equipo investigar el asunto. El resultado
fue palmario: se descubrieron numerosos fallos de control que
facilitaban el error. Por otro lado, se descubrió que el proyecto estaba
financiado por una compañía farmacéutica productora de
pseudomedicamentos homeopáticos. La controversia duró un tiempo, también
esta vez con tintes nacionalistas y aireando mucho el orgullo herido de
Benveniste, entre otras cosas porque uno de los miembros del equipo
investigador de Nature era un ilusionista, James Randi, conocido por sus
demoledores análisis de las investigaciones psíquicas. Lo cierto es que
experimentos similares realizados posteriormente con adecuados controles
no encontraron nada a favor de las afirmaciones homeopáticas.

Hace sólo cinco años, el anuncio de la fusión fría por Stanley Pons y
Martín Fleischman volvió a poner de manifiesto cómo los científicos
pueden equivocarse, entre otras razones debido a que, es fácil
confundirse entre las llamadas “cuatro Pes” (un término del químico
Nicholas J. Turro): no es lo mismo posible, que plausible, que probable,
o que probado. Lo posible incluye todas las ideas que no violan los
principios básicos de la ciencia; lo plausible limita más, porque dentro
de lo posible toma aquello que razonablemente se podría comprobar. Lo
probable describe la ciencia normal, el avance en áreas desconocidas de
la mano de lo que se conoce. Finalmente, lo probado supone la aplicación
de los principios y la comprobación de las hipótesis.

Los casos mencionados son ejemplos de lo que el químico Irving Langmuir
denominó “ciencia patológica”, mostrando cómo los científicos se
equivocan, y a veces abundan en sus errores porque frente a su deber
metodológico anteponen sus intereses, sus preconcepciones o su propio
orgullo. En nuestro país, un ejemplo de ciencia patológica puede ser el
asunto de la mandíbula descubierta en unas excavaciones paleontológicas
en Orce (Granada), a mediados de los ochenta, que fue presentada como el
primer homínido europeo aunque las pruebas parecían indicar que
realmente se trataba de una mandíbula de caballo.

Graves consecuencias

En otro libro reciente sobre el tema, (“Ciencia Vudú: el camino de la
locura al fraude”, Oxford, 2000), el físico Robert Parker plantea que
además de la ciencia patológica los errores evolucionan a veces hacia la
ciencia basura, “científicos que usan su experiencia para engañar o
confundir a otros”, la pseudociencia “que tiene el aspecto de la
ciencia, pero no aporta ninguna evidencia”, hasta llegar al fraude con
intereses comerciales. Los ejemplos son incontables, y abarcan casi
cualquier rama de la ciencia. De su peligrosidad da un buen ejemplo el
caso soviético del agrónomo Trofim Denisovich Lysenko. Sus teorías
lamarckianas, según las cuales una especie puede adquirir durante su
vida características que pasan a las siguientes generaciones, llevaron a
costosos (y desastrosos) programas de cultivo de cereales en condiciones
extremas. La enorme influencia política de Lysenko no sólo provocó que
la investigación biológica rusa quedara atrasada más de un decenio en
los años 30, sino que condujo a importantes problemas de abastecimiento
de comida en la época de los comienzos de la II Guerra Mundial.

                           ------------------

El País http://www.elpais.es/

VACAS LOCAS, HOMBRES IGNORANTES
Por: Álvaro Delgado-Gal

Las instituciones son como nuestra piel: sólo notamos que existen cuando
se irritan o desgarran al contacto de un cuerpo extraño. Tal ha
sucedido, y seguirá sucediendo durante un tiempo, con motivo de las
vacas locas. Ni los Gobiernos, ni las administraciones, ni los
consumidores estaban preparados para hacer frente a una epidemia de
características peculiarísimas y silueta penumbrosa. De resultas, se han
disparado cien tiros al aire por cada uno que daba en la diana. Trazaré,
sumarísimamente, el perfil general de los hechos, para ir luego a
consideraciones más personales. En 1988 se determina en Gran Bretaña una
conexión entre la EEB en las vacas y la ingestión de piensos que
contienen carne reciclada de oveja. Una variedad de encefalopatía
espongiforme, conocida aquí como 'tembladera', era endémica en el ganado
lanar británico; la gran, trágica novedad, es que el prión letal ha
saltado la barrera entre las especies y penetrado en la cabaña vacuna.
La Administración prohíbe los piensos en Gran Bretaña, aunque no su
exportación. El Parlamento, por cierto, da luz verde a esta decisión
lamentable. Se extiende la mancha de aceite, y la Comisión Europea
decide, en 1990, seguir una política de cencerros tapados. Existen
enormes intereses por medio, y se piensa que el consumo de carne
infectada no es peligroso para el hombre. Los ingleses, y no sólo los
ingleses, han estado ingiriendo durante siglos ovejas enfermas, y hasta
la fecha nunca le había sucedido nada a nadie. El resto, ya se sabe. El
prión que se ha infiltrado en el cerebro de la vaca se ha infiltrado
también en nuestro cerebro, y los Gobiernos han transitado desde el
sigilo oligárquico hasta el desconcierto absoluto. Tan pronto llaman a
la calma como insinúan campañas magnas para finiquitar a todas las reses
que hayan podido codearse con la proteína mutante.

¿Cómo interpretar esta sucesión de carambolas? Los aficionados al género
negro han elaborado ya una teoría cerrada en torno a lo ocurrido. Hubo
una colusión culpable entre el dinero gordo y la política, y de aquellos
polvos vienen estos lodos. La teoría, sin embargo, no me convence. El
dinero gordo y los políticos son racionales, y no parece probable que se
expusieran de modo deliberado a un desastre de la envergadura del que a
la sazón nos aflige. Yo me inclino más... por otra tesis: la tesis de la
ignorancia. Para tomarle a ésta su auténtica medida recomiendo la
lectura de un artículo publicado en Nature el pasado verano (volumen
406, 10 de agosto del 2000). Sus autores -Azra C. Ghani, Neil M.
Ferguson, Christl A. Donnelly y Roy M. Anderson- especulan en él sobre
el número de gente que en Gran Bretaña podría morir por la ingestión de
carne infectada. Y el abanico que manejan dibuja un ángulo obtuso: en el
mejor de los casos, algo menos de cien, y en el peor, cientos de miles.
¿A qué se debe este desnivel fabuloso?

En esencia, a que se desconoce el periodo de incubación de la
enfermedad. Si éste fuera corto, el descenso de muertes en el 99 (14
frente a 18 en el año anterior) señalaría un receso de la epidemia y el
cómputo fúnebre tendería a adquirir proporciones modestas. Tal es la
hipótesis por la que abrumadoramente se sienten tentados los expertos.
Ahora bien, el periodo de incubación podría ser largo. Podría durar
tanto, por ejemplo, como la vida media de un hombre. En este caso, la
inflexión a la baja habría de leerse en una clave distinta, y no sería
prudente descartar futuribles catastróficos. A esta incertidumbre
abismal conviene añadir la dificultad enorme de reunir información
sistemática. Si la enfermedad estuviera causada por un virus podrían
realizarse pruebas en vivo. Se tomaría una muestra pequeña del
individuo -animal o humano- bajo sospecha y se aprovecharía el material
genético del virus para obtener una masa útil de material analizable.
Pero como el prión no es un virus, sino una proteína, y carece de
material replicante es menester rebanar parte del cerebro del afectado o
posible afectado en orden a investigar su estado de salud. Y lo último
no se puede hacer sin causarle la muerte. Los tests post mortem se
hallan sujetos también a incertidumbres varias. ¿Cuán avanzada ha de
estar la enfermedad en la res para que el test dé positivo? ¿Es preciso
que el periodo de incubación haya cubierto un 50% del tramo total? ¿O
quizá un 75%? No se sabe todavía, y como no se sabe, las extrapolaciones
epidemiológicas divergen unas de otras de modo espectacular. Los autores
del artículo señalan que en su enumeración de futuribles han introducido
cinco millones de combinaciones de parámetros. Así las cosas, es
inhacedero comprometerse a predicciones concretas.

El efecto de este desconocimiento objetivo será la adopción de
precauciones máximas, con costes altísimos. Imaginen a un director
general de Tráfico al que ponen en el brete de garantizar que no habrá
accidentes mortales en carretera. Un accidente puede verificarse por un
fallo mecánico, o por el mal estado del piso, o porque el conductor ha
sufrido una embolia, o porque es imprudente, o porque se ha distraído
mirando el paisaje. Todo esto, y mucho más, puede ocasionar un
accidente. A nosotros nos consta, experimentalmente, cuál es el peligro
de conducir un coche, y por lo común, lo asumimos. Ahora bien, ¿lo
asumiríamos si ignorásemos el riesgo real anejo a cada causa posible de
accidente, o sólo estuviéramos en situación de adelantar conjeturas
vagas? Pues, seguramente, no. Cundiría el pánico y se paralizaría el
tránsito por carretera. Algo equivalente podría acontecer en lo que se
refiere a la epidemia de las vacas locas. La presión ciudadana y el
susto de los políticos pueden llevarnos a cualquier sitio. Y la adopción
de decisiones resulta, de nuevo, muy complicada.
Paso ahora a discutir el reflejo de todo esto en la opinión. Se han
suscitado puntos interesantes en los planos político y moral. Les
mencionaré los tres que, a mi ver, son más notables. El primero... se
refiere al afán de lucro como desencadenante del desastre. Se ha
afirmado que el uso de piensos cárnicos, dispensados a las vacas con el
propósito de mejorar su rendimiento, está en el origen de la epidemia. Y
de ahí se ha procedido a la enésima condena de la economía de mercado.

El argumento... no se sostiene. Primero, porque no han sido los piensos
cárnicos, sino los piensos cárnicos infectados, los responsables
presuntos del mal. Y segundo, porque vuelve a hacerse evidente que no se
comprende bien el papel enormemente positivo del afán de lucro, siempre
que éste se halle contenido por la ley y el sentido común. Baste este
recordatorio elemental: la ciencia no habría contribuido a mejorar
nuestro nivel de vida a no ser por la existencia de quienes han
intentado convertirla en algo inmediatamente útil. Y estos sujetos
puente no han sido sólo científicos; muchas veces han sido personas que
buscaban extraer de su mediación un beneficio. Disponemos de un
contraejemplo elocuente en la Unión Soviética. La última generó ciencia
excelente, al menos en física y matemáticas. Pero faltaban los
mecanismos del mercado, que articulan la demanda con la oferta. En
consecuencia, los soviéticos vivieron muy por debajo de su grado de
desarrollo técnico. Bienvenidos sean, en fin, los avariciosos, si sirven
para que todos prosperemos.

El segundo punto integra una inversión del primero. He oído vincular la
epidemia al proteccionismo económico de la Unión Europea. Esto es
parcialmente cierto. Si hubiéramos comprado la carne a los argentinos,
cuyas vacas pacen hierba, no nos habríamos contaminado. Ahora bien, el
argumento no demuestra lo que pretende demostrar: a saber, que el
mercado garantiza, por definición, que todo marchará sobre ruedas.

Para apreciarlo es suficiente con sumar dos y dos. El mercado es
eficiente cuando el propio consumidor se erige en el mejor juez de lo
que le conviene. Pero cuando al consumidor le faltan elementos de
juicio, la cosa cambia. Imaginemos una situación ideal -lo de 'ideal'
suena a sarcasmo, lo admito- desde el punto de vista de la transparencia
informativa: cuando usted ingiere se tiñe de verde clorofila vaca loca e
instantáneamente cae muerto al suelo. Transcurridos unos meses, el
consumidor habrá rastreado las fuentes de carne infectada y castigado
económicamente al productor peligroso. Al cabo, tras equis número de
fallecimientos, el mercado habrá desalojado a los que expenden carne en
malas condiciones.

Naturalmente, no estaríamos dispuestos a pagar semejante precio para
sanear la oferta de carne. Pero el quid no es éste. El quid, aquí,
reside en que no es fácil establecer conexiones causales entre lo que
usted come y lo que le pasa luego. Ya que, a lo mejor, 'luego' significa
'cuarenta años'. Los consumidores no podemos calcular cuando nos lo fían
tan largo. Clarísimamente, el testigo está en manos de los científicos y
los responsables públicos, no del mercado.

El tercer punto es ecológico. Se ha propuesto un retorno a la
agricultura y ganadería tradicionales, al alimento sano y sin presencia
interpuesta de tecnologías peligrosas. La idea es, en parte, apresurada,
y en parte, impracticable. Es apresurada en la medida en que la
tecnología alimentaria está salvando muchas vidas. Y no sólo porque
evita desnutriciones, sino porque produce salud. Con probabilidad
enorme, el uso de conservantes, y la eliminación consiguiente del
botulismo, ha impedido muchas más muertes de las que vaya a generar el
vCJD. Tampoco valen las jeremiadas laterales contra la agricultura
transgénica: la inserción de genes en el DNA de una especie distinta
prolonga, en un plano nuevo, una tradición intervencionista por parte
del hombre que se remonta al Neolítico. Las plantas, en su estado
primigenio, no han sido por lo común inventadas para que usted se las
coma sin ponerse malo. Condenar sin matices la tecnología alimentaria
equivale, en fin, a vivir en el mundo imaginario de la señorita Pepys.

Aparte de esto, nos encontramos con que no hay alternativas. Los países
muy, muy ricos se encuentran quizá en situación de alimentarse con
productos obtenidos por procedimientos naturales. O, mejor dicho, en
situación de alimentarse con productos importados de naciones en que la
abundancia de suelo permite el cultivo de plantas por procedimientos
naturales. Pero ¿qué me dicen del conjunto del planeta? Hacia el 2050,
la población humana habrá alcanzado la cima de los nueve mil millones de
habitantes. Los demógrafos confían en que se verifique a renglón seguido
una descompresión poblacional. Los nueve mil millones, con todo, no nos
los quita nadie. Y habrá que nutrirlos de alguna manera. La tecnología
es el aliado insoslayable. Lo que no sea esto será escenificar las
Bucólicas virgilianas al son del caramillo ecologista. Bonito, desde
luego. Aunque asequible a pocos.

                           ------------------

El Correo http://www.elcorreodigital.com/

DESCUBREN UN MECANISMO POR EL QUE UN GEN PUEDE FABRICAR HASTA VEINTE
PROTEÍNAS
Por: Luis Alfonso Gámez - Bilbao

Sería una de las claves para entender el porqué del reducido número de
genes humanos

La principal sorpresa del mapa del genoma humano ha sido el reducido
número de genes. Entre 30.000 y 40.000, frente a los 100.000 estimados
por la mayoría de los científicos. Es decir, sólo el doble que una mosca
o una lombriz intestinal. La clave de la complejidad estribaría, por
consiguiente, no tanto en el número de genes como en la capacidad de
éstos de producir más proteínas, que son al final las encargadas de
controlar los procesos biológicos. En esa línea, científicos de la
Universidad Johns Hopkins han dado con un mecanismo -visto antes en
plantas y microorganismos, pero que nunca se había revelado esencial
para la fabricación de proteínas- por el cual un gen puede producir
hasta una veintena de proteínas.

El ADN, la molécula de la herencia, está contenido en los cromosomas y
tiene forma de doble hélice. Es como una escalera de caracol cuyas
barandillas se unen entre sí por peldaños formados por dos ‘letras
químicas’. Cada barandilla aporta la mitad de un escalón -una ‘letra’- y
los genes se ‘leen’ en cada lado de la escalera en sentidos contrarios,
hacia arriba o hacia abajo. Los biólogos pensaban hasta ahora que «la
información de un gen que codifica una proteína estaba contenida en sólo
una de los dos hebras del ADN», una de las barandillas y sus
correspondientes ‘letras’. El ARN (ácido ribonucleico) mensajero, que
lleva esa información hasta la zona de la célula donde se fabrican las
proteínas, sería una copia de una única hebra.

Mutaciones anuladas

Esta concepción se viene abajo con un hallazgo del equipo de Víctor G.
Corces, director del Departamento de Biología de la Universidad Johns
Hopkins, del que esta semana da cuenta ‘Nature’. Corces y sus
colaboradores han descubierto que, cuando dos genes se encuentran en una
misma región del ADN, pero en hebras diferentes, los ARN resultantes
pueden combinarse entre sí, «siempre que tengan fragmentos en común»,
dando lugar a proteínas nuevas y diferentes a las que crearían por
separado. «Es como si el ARN copia de una hebra contuviera las
instrucciones para fabricar un vídeo y el de la otra, las de una
televisión. Al combinarlas, tendríamos las instrucciones para fabricar
un solo aparato que fuera a la vez vídeo y televisión», ha explicado el
investigador a EL CORREO.

Los científicos descubrieron la trascendencia de este mecanismo en la
generación de proteínas cuando trabajaban con un gen de la mosca de la
fruta. «Lo encontramos por suerte», reconoce Corces, nacido en Asturias
y residente en EE UU desde hace veintitrés años. Tras identificar dos
mutaciones del gen, cada una de las cuales hacía que una misma proteína
dejara de funcionar y la mosca muriera, las combinaron. Esperaban que el
resultado fuera una proteína que aunara los defectos de ambas
mutaciones. Sin embargo, se encontraron con una proteína en la que no se
sumaban las mutaciones, sino que se corregían.

Más proteínas

Fue Mariano Labrador, otro miembro español del equipo, quien apuntó la
posibilidad, luego confirmada, de que el resultado se debiera a que las
dos moléculas de ARN se habían combinado entre sí para formar la nueva
proteína. Un fenómeno que los biólogos conocen como ‘trans-splicing’,
algo así como ‘trans-montaje’ y que, en este caso, había hecho que la
nueva proteína se produjera a partir de las secuencias correctas de cada
hebra de ADN, desdeñando los errores.

«La conclusión principal de nuestro estudio es que el ARN que codifica
una proteína determinada, que hasta ahora se pensaba que sólo se formaba
por un gen específico, también se puede formar por la combinación de los
ARN de dos genes», indica Corces. El hallazgo que explicaría cómo, a
pesar de no tener muchos más genes que otros organismos, el ser humano
es mucho más complejo. «Si las células pueden hacer más proteínas usando
el ‘trans-splicing’, quizá no se necesiten tantos genes». De hecho, en
el gen estudiado de la mosca de la fruta, nada menos que veinte.

                           ------------------

El Mundo http://www.el-mundo.es/

ESTADOS UNIDOS: IDENTIFICAN LA PARTE DEL CEREBRO QUE MARCA EL RITMO DE
LA VIDA.
EFE - Washintong

Estos mecanismos nos indican que ha llegado la hora de comer, o cuándo
es el momento preciso para patear una pelota — Según este estudio, el
cerebelo no sería la estructura clave para la percepción del tiempo

 El sentido del paso del tiempo, con el cual marcamos los ritmos en
nuestras actividades cotidianas, proviene de un circuito que relaciona
una región en lo hondo del cerebro con el lóbulo derecho.

Un equipo de investigadores en el Colegio Médico de Wisconsin, en
Milwaukee, y del Centro Médico para Veteranos en Albuquerque, Nuevo
México, ha identificado los mecanismos del cerebro que nos indican que
ha llegado la hora de comer, o cuándo es el momento preciso para patear
una pelota o pulsar la cuerda en una guitarra.

Lo sorprendente del estudio, que publica la revista ‘Nature Neuroscience
’, es que contradice el consenso que por mucho tiempo ha habido en la
comunidad científica según el cual el cerebelo es la estructura clave
del cerebro para la percepción del tiempo.
El nuevo estudio es el primero que ha demostrado que las áreas más
importantes para el marcapasos cerebral son los ganglios basales,
hundidos en la base del cerebro, y el lóbulo parietal derecho.

El investigador principal, Stephen Rao, profesor de neurología en el
Colegio Médico, dijo que las conclusiones de ese estudio podrían
aplicarse para una mejor comprensión de los trastornos neurológicos.
«La identificación del área del cerebro que regula nuestro sentido del
tiempo permitirá que estudiemos la percepción defectuosa del tiempo como
la que se ha observado en pacientes con el Mal de Parkinson, y el
déficit de atención o hiperactividad», añadió Rao.
«Comúnmente se piensa que estos dos males están relacionados con un
funcionamiento anormal de los ganglios basales», dijo el investigador.

Para la mayoría de los aspectos de la conducta humana es crucial la
capacidad de tomar decisiones en períodos que van de 300 milisegundos a
10 segundos y, aunque la teoría científica presume la existencia de
«cronómetros» cerebrales, la ubicación de los mismos ha sido difícil.
Imagen por resonancia magnética

El equipo de investigadores encabezado por Rao empleó una novedosa
técnica de imagen por resonancia magnética funcional (FMRI por su sigla
en inglés) que registra, segundo a segundo, los cambios en la actividad
del cerebro, y así identificaron las regiones de ese órgano que forman
el sistema de percepción del tiempo.

Los científicos hicieron FMRI de 17 hombres y mujeres jóvenes y
voluntarios mientras se les pedía que percibieran la duración del tiempo
entre presentaciones de dos tonos consecutivos.
Un segundo más tarde se presentaron dos tonos más, y se pidió a los
sujetos que opinaran si la duración entre los segundos tonos era más
corta o más larga que entre los dos primeros.
Para asegurarse de que identificaban claramente los sistemas del cerebro
relacionados con la percepción del tiempo, los investigadores asignaron
a los sujetos dos tareas de control que requerían escuchar los tonos o
discernir la nota, pero sin un juicio sobre su duración.

De esta manera se aislaron las áreas del cerebro activadas durante la
presentación de los primeros dos tonos, cuando los sujetos sólo atendían
a la percepción del tiempo.
Y estas áreas resultaron ser los ganglios basales y la corteza cerebral
en el lóbulo parietal derecho.
Los ganglios basales tienen células nerviosas que, como todas, se rodean
del neurotransmisor dopamina, el cual muestra una disminución en los
pacientes con el Mal de Parkinson que experimentan problemas con la
percepción del tiempo.

Cuando a estos pacientes se le administra un medicamento que aumenta los
niveles de dopamina en el cerebro se atenúan parcialmente sus
dificultades con el manejo del tiempo.
También se ha observado una percepción defectuosa del tiempo en los
pacientes con el Mal de Huntington y los que presentan hiperactividad o
déficit de la atención.

                           ------------------

El País http://www.elpais.es/

UN EXPERIMENTO DA PISTAS SOBRE NUEVAS PARTÍCULAS SUPERSIMÉTRICAS
Por: James Glanz – Nueva York

Unas nuevas observaciones de partículas subatómicas parecen no encajar
en las teorías aceptadas que explican la materia, según han anunciado
científicos del Laboratorio Nacional de Brookhaven (EE UU). Los
resultados pueden ser indicios de un nuevo tipo de materia nunca visto
antes. Si el hallazgo se confirma, el núcleo de la teoría subatómica, el
modelo estándar, sería 'insuficiente para describir nuestro universo',
dice Thomas B. Kirk, de Brookhaven.

Los científicos del experimento, de Alemania, Japón, Rusia y EE UU,
advierten que los resultados pueden ser sólo efectos estadísticos de los
datos, pero que han hecho medidas muy laboriosas de unos mil millones de
las partículas llamadas muones para reducir a un 1% la probabilidad de
error. Los muones son primos de los electrones y en estos experimentos
se ha medido la respuestas de estas partículas a campos magnéticos. Los
resultados muestran una desviación de las predicciones basadas en el
modelo estándar sobre la fluctuación cuántica de los muones en presencia
de un campo magnético intenso.

La mecánica cuántica indica que el espacio aparentemente vacío es, en
realidad, un océano de partículas virtuales que aparecen y desaparecen
instantáneamente y pueden interactuar con los muones. El modelo estándar
indica cómo calcular la fluctuación de las partículas conocidas de ese
océano subatómico, y eso se ha medido y verificado con precisión. Pero
las nuevas medidas difieren de las predicciones, lo que sugiere que
están escondidas también partículas desconocidas.

Aunque el modelo estándar no predice dichas partículas, su existencia no
sorprendería a los físicos. Pese al éxito de esa teoría al explicar
datos experimentales, probablemente no representa la ley de la
naturaleza a su nivel fundamental. Para superar esto, se ha desarrollado
una teoría muy especulativa llamada supersimetría con nuevas partículas
supersimétricas. Su existencia podría explicar la fluctuación de los
muones medida en Brookhaven.

                           ------------------

CNN http://www.cnnenespanol.com/

EL VERDADERO ORIGEN DE LA ASPIRINA
Por: Matías Loewy – Salutia
Noticia enviada por: Enrique Márquez

Félix Hoffmann, un químico de 29 años, intentaba desarrollar una
variante menos tóxica de un analgésico de la época cuando se topó con lo
que sería la solución "mágica" para una amplia variedad de malestares.
Su padre, casi postrado por un reumatismo crónico, le había rogado que
descubriera un medicamento que, a diferencia del salicilato de sodio,
aliviara sus dolores sin destrozarle el estómago.

El 10 de agosto de 1897, el talentoso hijo tuvo éxito: anotó en su
cuaderno de laboratorio que había logrado producir ácido
acetilsalicílico (ASA) puro, una sustancia que poco después se haría
famosa mundialmente con el nombre de aspirina.

En el mundo farmacéutico, la leyenda de este descubrimiento es casi tan
conocida como el mismo fármaco. Pero la historia no es rigurosamente
exacta.

Walter Sneader, un científico escocés de la Universidad de Strathclyde,
en Glasgow, acaba de proponer que Hoffmann no fabricó la aspirina por
pedido de su padre sino por las órdenes de su supervisor, el jefe de la
sección farmacéutica de Bayer, Adolf Eichengrün. Y que sin la
intervención de este último la droga descubierta jamás habría salido al
mercado.

Casi medio siglo más tarde, en 1949, el mismo Eichengrün se lamentó
amargamente de que su papel en el descubrimiento de la aspirina hubiera
sido relegado casi por completo. Sneader sugiere ahora en el British
Medical Journal que la omisión no habría sido ajena al hecho de que a
Eichengrün (que era judío) le tocó vivir en la Alemania nazi de Hitler.

Los primeros equívocos

La leyenda sobre el descubrimiento de la aspirina apareció por primera
vez en 1934 en el pie de página de un libro sobre la historia de la
ingeniería química, escrito por Albrecht Schmidt, un ex empleado de
Bayer.
En el mismo también se asegura que Hoffman decidió formular no sólo el
ASA sino otros derivados del ácido salicílico, la molécula madre del
salicilato de sodio, pero sin el propósito de encontrar un medicamento.

El escocés Sneader, un farmacéutico doctorado en química medicinal que
escribió tres libros sobre el descubrimiento y desarrollo de fármacos,
revela que esa afirmación es falsa, porque los otros derivados también
fueron patentados pocos años después con la esperanza de convertirlos en
herederos de la aspirina. "Se los desarrolló con una finalidad
terapéutica. Si esa parte del pie de nota es poco creíble (...) ¿Hay que
creerle al resto?", se pregunta. Luego demuestra por qué no.

En realidad, nadie discute que el ASA no vio la luz en una probeta de
Hoffmann. Un químico francés, Charles Gerhardt, la inventó sin refinar
en 1853, y 16 años más tarde el alemán Karl-Johann Kraut la sintetizó en
forma más pura y describió correctamente su estructura.
El mérito de Hoffmann sería haber dado con el primer procedimiento para
fabricar la droga sin impurezas y en forma químicamente estable. En su
famosa anotación manuscrita del 10 de agosto de 1897, el químico de
Bayer escribe que el ASA tiene propiedades físicas ventajosas en
comparación con el ácido salicílico (y que por eso) "se estudiará su
posible utilización en ese contexto".

Sneader detecta aquí un malentendido, fruto de las ambigüedades del
idioma alemán. Según él, esa frase en su lengua original también puede
leerse como que la droga "(ya) está siendo estudiada", o sea, que
Hoffman sólo la fabricó para suministrar más materia prima con la cual
seguir las investigaciones.

¿Qué investigaciones? Analizando diversas fuentes documentales, Sneader
deduce que Eichengrüm instruyó a Hoffmann para producir derivados del
ácido salicílico en abril de 1897. El objetivo era desarrollar un
analgésico con menos efectos adversos que el salicilato de sodio
(irritación gástrica, zumbidos en los oídos o náuseas), según afirma
Eichengrün en un trabajo que publicó en diciembre de 1949 en la revista
Pharmazie, el mismo mes de su muerte a los 82 años. Nunca se encontraron
constancias escritas de ese trabajo porque Hoffmann recién empezó a
tomar apuntes de sus experimentos en mayo de ese año.

Las cosas ocurrieron luego en forma vertiginosa. Eichengrüm habría
estado presente cuando Heinrich Dreser, el encargado de los ensayos
farmacológicos de Bayer, estudió la aspirina en ratones. Dreser, un
reputado profesor de la Universidad de Bonn que tenía poder de veto
sobre qué investigaciones continuaban y cuáles no, concluyó erróneamente
que el fármaco no era viable porque era nocivo para el corazón.

Pero Eichengrüm, tenaz, habría tenido tanta confianza en la aspirina que
la probó en él mismo y luego la distribuyó subrepticiamente entre los
médicos y dentistas de Berlín para que la ensayaran. Los resultados
antifebriles y analgésicos fueron espectaculares, pero Dreser -según
palabras de Eichengrüm- seguía encogiéndose de hombros: "Es la
presunción habitual de Berlín; el producto no vale nada".

En el excelente libro Las guerras de las aspirinas, Charles Mann y Mark
Plummer atribuyen el desliz de Dreser a una simple distracción: estaba
demasiado entusiasmado con otro exitoso producto de Bayer recientemente
lanzado, un sedante para la tos, la heroína.

Sea como sea, la historia de la aspirina finalmente llegó a oídos del
jefe de investigaciones de Bayer, Carl Duisberg, quien ordenó chequear
los resultados por un farmacólogo independiente. Sneader supone que ese
habría sido el motivo para que Hoffman pusiera manos a la obra y
volviera a fabricar la droga, ese célebre 10 de agosto de 1897.

Por qué calló Eichengrün

El resto de la historia puede imaginarse. Nuevos ensayos de laboratorios
y reportes favorables de médicos torcieron la negativa inicial de Dreser
e impulsaron el lanzamiento comercial de la aspirina a mediados de 1899.
La repercusión fue inmediata y pocos años después el remedio lo vendían
desde las farmacias de Siberia hasta las de San Francisco.

Ahora bien: si el pie de página que describía por primera vez el
descubrimiento de la aspirina apareció en 1934, ¿por qué Eichengrüm
esperó 15 años para refutarlo y dar su versión de los hechos?
Los motivos -afirma Sneader- se desprenden de la situación de Eichengrüm
en ese tiempo. Tras dejar Bayer en 1908 estableció su propia fábrica en
Berlín, donde produjo exitosamente materiales resistentes a las llamas.
Pero para cuando se publicó el reporte que le asignaba todos los méritos
a Hoffmann, los Nazis habían prohibido a los judíos tomar posiciones
independientes en la vida económica del país. "Se imponía el perfil
bajo", resume Sneader.

Eichengrüm, quien era judío, tuvo que entregar su empresa y finalmente
fue confinado en 1944 al campo de concentración de Theresiendstadt. El
viejo industrial languideció durante 14 meses hasta ser rescatado por
los soviéticos. Su figura sólo comenzó a ser rescatada por colegas en
1947, en ocasión de cumplir 80 años.

En el trabajo de Pharmazie, Eichengrün se anima finalmente a dar su
versión y desliza la idea de que fue expulsado de la historia por el
solo hecho de ser judío. El revisionismo histórico era frecuente en
tiempos de Hitler.

La versión oficial de Bayer, según el libro Cien años de la aspirina,
editado en 1997, es que no existen pruebas documentales de que
Eichengrüm hubiera sido víctima de una intriga. Ni tampoco colegas que
recordaran que él hubiera propuesto desarrollar el ASA. "Además, la
patente norteamericana de 1900 asigna el descubrimiento a Félix
Hoffmann", agrega el informe.
Nadie lo sabe y tal vez nunca se sepa, pero Sneader dice que las
evidencias sugieren que Eichengrün estaba diciendo la verdad.
"Bayer fue ciertamente afortunada de tener a Eichengrün como empleado,
aunque es poco probable que él hubiera descubierto la aspirina de no
trabajar en la compañía. Bayer (en definitiva) tiene todo el derecho de
celebrar orgullosamente el centenario del medicamento más usado en la
historia", concluye Sneader.

                           ------------------

Healthscout http://www.healthscout.com/

UNA NUEVA ASPIRINA, EFICAZ PARA EVITAR LOS PROBLEMAS DE LA ANGIOPLASTIA

Investigadores italianos y estadounidenses han descubierto un fármaco
que podría ser eficaz contra la formación de tejido en la luz de las
arterias tras las operaciones de angioplastia, un problema que acompaña
a muchas intervenciones de este tipo. Se trata de una aspirina a la que
se añade óxido nítrico. El nuevo medicamento se llama, de momento,
NCX-4016.
Esta novedosa aspirina ha sido probada con éxito en ratones, en los que
ha conseguido reducir la frecuencia de restenosis, que es como se
denomina a la formación de tejido cicatrizal que sucede a las
angioplastias.

Esta intervención es muy frecuente y consiste en introducir un catéter
que se infla en la punta para desbloquear las arterias en las que la
placa de ateroma impide el correcto paso del flujo sanguíneo.

El problema está en que, tras la operación, y por el daño al que se
somete a la arteria, se suele formar un tejido cicatrizal que, aunque
con composición distinta a la placa de ateroma, acaba, igualmente,
generando el bloqueo.

Los investigadores llevan tiempo intentando acabar con este problema,
por lo que la eficacia de este fármaco, de demostrarse en humanos, sería
una buena noticia para los cardiólogos de todo el mundo.

El estudio, realizado por el premio Nóbel doctor Louis Ignarro, de la
Universidad de California en Los Angeles, UCLA, y un equipo de
investigadores italianos, ha sido publicado en la última edición de “”.

Los resultados del trabajo sugieren también que la NCX-4016 podría
también utilizarse como prevención, tratando a los pacientes con este
fármaco antes de que se sometieran a la intervención.

Para más Información:
Proceedings of the National Academy of Science http://www.pnas.org/

                           ------------------

El País http://www.elpais.es/

BOSQUES FÓSILES IBÉRICOS
Por: Mónica Salomone  - Madrid

Las obras de la autovía del Cantábrico sacan a la luz secuoyas de hace
tres millones de años

Para imaginar el paisaje del norte de España hace tres millones de años
hay que buscar inspiración en el litoral de California, al oeste de
Norteamérica, o en los bosques de China. Pinos de especies que ya no
existen en la cuenca mediterránea, cipreses y hasta gigantescas secuoyas
poblaban entonces la cornisa cantábrica. Lo ha revelado un bosque fósil
que hace cuatro años salió a la luz gracias a las obras de la autovía
del Cantábrico, y que aún analizan botánicos de la Escuela Técnica
Superior de Ingenieros de Montes de Madrid. Es un yacimiento 'fabuloso'
que, sin embargo, nadie podrá volver a visitar, enterrado como está bajo
el asfalto de la autovía. Su estudio y el de otros yacimientos da datos
sobre la antigua flora y el clima peninsular.

Este grupo de paleobotánica, el único especializado en España en el
estudio de maderas fósiles no carbonizadas, suele recibir soplos de
agentes forestales, o simplemente de buenos observadores, alertando
sobre un posible yacimiento. El aviso que en 1996 les llevó hasta
Caranceja, cerca de Cabezón de la Sal, provino de geólogos de la
Universidad de Cantabria que a su vez supieron de los investigadores de
Madrid por un artículo publicado en EL PAÍS.

'Nos llamaron, fuimos para allá y nos encontramos con algo asombroso.
Había troncos de hasta 80 centímetros de diámetro, de especies que no
habíamos visto antes en la Península Ibérica', explica el botánico
Carlos Morla. 'La gente creía que eran palmeras, y también estaban muy
sorprendidos porque allí no las hay ahora', dice su colega Fernando
Gómez Manzaneque.

Palas excavadoras

Las palas excavadoras habían tropezado con los troncos a varios metros
de profundidad. Tras la recogida de muestras los botánicos volvieron a
Madrid. No, no eran palmeras: había restos de una decena de tipos de
árboles, entre ellos piñas de tres especies de pinos -dos de ellas
extintas ya en todo el Mediterráneo-; de picea -una conífera similar al
abeto-; y también frutos de hayas y maderas de secuoyas. Según los
geólogos el bosque crecía sobre material depositado por el río Saja, que
riega la zona y cuyo trazado ha sido muy cambiante.

Pese a que a simple vista las maderas no se diferencian de las
actuales -no están mineralizadas-, el estudio de los estratos geológicos
y de otros yacimientos europeos con flora parecida indicaron a los
investigadores que se encontraban ante el yacimiento más antiguo con que
habían trabajado: entre los dos y tres millones de años de edad, entre
el periodo Terciario y Cuaternario. El carbono 14 sólo sirve para
muestras de hasta 40.000 años, por lo que no ha servido aquí para una
datación más precisa.
'Los cipreses no sorprenden porque hoy se ven muchos, pero sí es un
resultado importante porque los actuales sólo crecen de forma natural en
África, Asia y sobre todo en América', dice Morla. 'De secuoyas sí se
habían encontrado restos, por ejemplo, en Cataluña. Es una especie que
se extinguió de Europa hace casi dos millones de años. Estamos ante una
flora que sólo se ve hoy en algunos puntos del planeta, como el oeste de
Estados Unidos o el oriente de Asia'.

La lentitud de las obras de la autovía permitió a los investigadores
volver cuatro veces más al yacimiento, de unos 500 metros cuadrados de
extensión.
Entre los años 1996 y 1997 recogieron 50 muestras de maderas no
carbonizadas, 90 de carbones y más de un centenar de piñas. Hoy se
amontonan en el departamento de botánica de la escuela y son el material
de la tesis doctoral de Cristina Alcalde, becada por la Comunidad
Autónoma de Madrid. El análisis aún no ha terminado pero algunos
resultados preliminares están publicados ya en el boletín de la Real
Sociedad Española de Historia Natural. 'Creímos interesante dar a
conocer lo antes posible el hallazgo', explica Morla.

Especialmente de cara al lento pero imparable avance de las obras de la
autovía. Los vetustos troncos están hoy bajo los carriles y la cubierta
vegetal plantada en los taludes laterales. Para Morla, 'la riqueza de
este yacimiento lo sitúa entre los mejores de la Península. Es una pena
que no haya sido conservado, incluso como atracción turísticocultural'.

Las muestras de Caranceja comparten espacio en el laboratorio de
botánica con las de otra treintena de yacimientos de toda la Península,
cuya historia está a menudo relacionada con la de carreteras o presas.
'Lo irónico', dice Gómez Manzaneque, 'es que nosotros nos beneficiemos
de los estropicios ecológicos'.

Doñana

No es el caso del bosque sumergido hallado en la costa de Huelva, en el
Parque Natural de Doñana, también muy valioso para los investigadores y
aún en estudio. Les avisó un ingeniero de Minas: también aquí los
lugareños decían que las mareas más bajas del año descubrían grandes
troncos de palmeras. 'La marea adecuada sólo se da unos días al año, así
que esperamos casi un año entero y finalmente fuimos con el
correspondiente permiso. También están apareciendo sorpresas', dice
Morla. El yacimiento es del Pleistoceno (hace entre 2.5 millones y
10.000 años).

El grupo acaba de terminar también el análisis de maderas halladas en el
yacimiento arqueológico de Cal Guardiola, en Tarrasa, que tiene el valor
añadido de tener unos 800.000 años de edad, es decir es contemporáneo de
algunos de los restos de Atapuerca. Las maderas se dataron en Gerona con
técnicas de paleomagnetismo, y también se usaron dataciones indirectas
de otros restos paleontológicos.

En Cal Guardiola no se han encontrado restos de asentamientos humanos
pero sí de unas treinta especies de vertebrados -desde elefantes y
caballos hasta anfibios y animales marinos-, y unos 2000 fragmentos de
maderas fósiles. Su análisis se recogerá en la tesis doctoral de José
María Postigo, en preparación.

El número de yacimientos valiosos ha crecido en los últimos tiempos más
que la capacidad para analizarlos del grupo, integrado por tres
profesores, dos doctorandos y un estudiante con un beca de colaboración.
Los investigadores tienen que usar fungicidas para evitar el deterioro
de las muestras. 'Tenemos las maderas amontonadas en el departamento.
Necesitamos fondos sobre todo para contratar a más personas y para pagar
las dataciones', dice Morla.

                           ------------------

ARCHIVOS DEL CLIMA ANTIGUO
Por: Mónica Salomone  - Madrid

Las maderas fósiles no carbonizadas dan información sobre el paisaje
antiguo y, por extensión, sobre el clima de la época. Pero para esto
último el tipo de resto paleobotánico más usado es el polen.

Como explica el botánico de la Escuela de Ingenieros de Montes Javier
Maldonado, 'el polen te da un registro continuo en diversos estratos
geológicos de una misma zona; se observan cambios a lo largo de
milenios, mientras que las maderas dan información de un momento
concreto'. Pero según este experto sólo dos yacimientos de polen
analizados hasta ahora en España -en Burgos y en Zamora- han permitido
ya reconstruir el clima de una zona en un determinado momento. Y estos
trabajos no han servido aún para validar modelos de evolución de clima.
'En España se conocen menos yacimientos que en Europa, hay menos
tradición', dice Maldonado. Otro motivo para que el análisis de polen
esté más extendido es que fosiliza más fácilmente que las maderas. Para
que éstas se conserven bien deben estar en medios no oxigenados,
aisladas de la atmósfera. Además de los yacimientos en las costas, el
grupo de Montes los ha encontrado sobre todo en turberas, 'zonas de
acumulación de restos orgánicos, generalmente, de musgos, con PH muy
ácido', explica su colega Fernando Gómez Manzaneque. Los restos de
maderas, una vez cortados en lonchas de milésimas de milímetro de grosor
y observadas al microscopio, permiten en ocasiones identificar la
especie, al contrario que el polen. Con el grupo de Montes colaboran
expertos en polen; en análisis de anillos de troncos; y geólogos de las
universidades de La Coruña, Complutense, Politécnica y Autónoma de
Madrid.

                           ------------------

Clarín http://www.clarin.com/diario/

LAS CUCARACHAS PUEDEN CAUSAR CRISIS ALÉRGICAS Y ASMÁTICAS
Por: Paula Andalo
Noticia enviada por: Enrique Márquez

Según un estudio realizado en EEUU

En un departamento equipado con microcámaras colocaron a 600 cucarachas
durante cinco meses.
Descubrieron que proteínas que se encuentran en la saliva y las heces
del insecto son muy alergénicas

Un sabio fumigador dijo alguna vez que era sencillamente imposible
combatirlas. Que eran animales bíblicos, insectos que habían soportado
todo, lluvias de meteoritos, pisadas de dinosaurios, inundaciones,
incendios, insecticidas. Con 290 millones de años de vida, las
cucarachas siguen haciendo de las suyas: un nuevo estudio confirma que
pueden provocar alergias y asma tanto o más que un ácaro.

El trabajo realizado por el Instituto de Investigación del Hospital de
Arkansas y por el Departamento de Agricultura de los Estados Unidos
identificó los antígenos de la cucaracha asociados con las crisis
asmáticas y los colocó, en el ranking de alergenos (las sustancias que
provocan asma), por debajo de los ácaros.

Los antígenos son proteínas que se encuentran en la saliva, heces,
huevos y piel de los insectos. El trabajo concluyó que la presencia de
cucarachas en los hogares puede "disparar" la enfermedad, especialmente
en chicos (que son blanco fácil del asma) que viven en las ciudades.

El hallazgo detecta nuevos "amigos" de esta enfermedad pero también abre
puertas a distintas opciones terapéuticas: según Richard Brenner, médico
entomólogo y director del estudio, pronto se podrán desarrollar
medicamentos a partir de estos antígenos.

El asma es una de las enfermedades más comunes. Aunque no es curable,
puede ser tratada y controlada. En la Argentina, casi el 5 por ciento de
la población la padece, con un enorme crecimiento anual, según datos de
la Asociación para la Prevención y Asistencia del Asma. Parece ser que
aumenta al ritmo de la vida moderna: a más contaminación, más asma.

Según el Centro Nacional de Salud Ambiental de los Estados Unidos, en
ese país el número de personas con asma pasó de 6,7 millones en 1980 a
17,3 millones en 1998. La mayor parte de este porcentaje es gente pobre
que vive en grandes ciudades.

Para la Organización Mundial de la Salud, el asma es una de las ocho
enfermedades crónicas más graves. Pero, a diferencia del cáncer o la
diabetes —que integran ese mismo grupo— encierra, para los científicos,
una verdadera paradoja: la incidencia mundial aumenta a la par del
avance de la ciencia. En la última década, la enfermedad creció casi un
50 por ciento y hoy afecta a 600 millones de personas en todo el mundo,
según el Instituto Internacional de Asma.

Aunque los índices de mortalidad bajaron un 10 por ciento respecto de la
década pasada, en la Argentina todavía mueren unas 900 personas por año.
Las estadísticas escolares indican que el 21 por ciento de los chicos
que faltan más de diez días seguidos a clase lo hace por crisis
asmáticas. Y el 70 por ciento de las urgencias del Hospital de Niños
Ricardo Gutiérrez se deben a crisis respiratorias.

Desde que el asma comenzó a tratarse como una enfermedad
inflamatoria —antes los tratamientos sólo se centraban en el control del
broncoespasmo—, reducir la inflamación de las vías áreas con remedios
preventivos para controlar las crisis comenzó a ser la gran prioridad de
la ciencia. Según coinciden los médicos, el incremento del asma se debe
a un aumento de la polución ambiental combinado con una mayor exposición
a factores alergénicos en las viviendas.

El Instituto Nacional de Pulmones, Sangre y Corazón de Estados Unidos
resalta la importancia del diagnóstico precoz ya que los alergenos, que
inflaman las vías respiratorias y pueden desencadenar una crisis en el
asmático, están en todas partes: en el aire, los objetos, la ropa y los
alimentos.

Antes de la aparición de los síntomas de la enfermedad, todavía es poco
lo que la medicina puede hacer. Los especialistas anticipan que faltan
más de dos años de experimentación para una vacuna destinada a disminuir
el anticuerpo de la alergia antes de que éste se exacerbe y provoque una
crisis en el paciente.

Se trata de una enfermedad caracterizada por el estrechamiento de los
bronquios frente a algunos estímulos: sustancias que producen alergia
como el polen o los ácaros, horribles bichitos microscópicos presentes
en el polvo de la casa.

Los ataques de asma varían en frecuencia e intensidad. Algunas personas
que padecen asma están libres de síntomas la mayor parte del tiempo.
Otras, en cambio, tosen, tienen silbidos al respirar y sienten sensación
de ahogo con mayor frecuencia.

Los alergenos domésticos más frecuentes son los ácaros del polvo de la
casa, ahora en segundo lugar las cucarachas, las plumas y los pelos de
los animales. Disminuir estos agentes reduce la posibilidad de crisis
asmáticas. También es posible bajar la incidencia quitando las alfombras
que van de pared a pared y manteniendo baja, durante el verano, la
humedad relativa mediante el uso de aire acondicionado.

                           ------------------

EL 'ENVISAT' PASA LAS ÚLTIMAS PRUEBAS ANTES DEL LANZAMIENTO

El satélite de observación de la Tierra Envisat, de la Agencia Europea
del Espacio (ESA), es un enorme paralelepípedo de 10 metros de altura y
ocho toneladas de peso que estas semanas se somete a los últimos
controles en un hangar del centro tecnológico de la ESA en Holanda,
apoyado en una estructura metálica como las que sujetan los focos en los
conciertos de rock -encargada a una empresa especializada en tales
eventos-. El satélite emprenderá en Abril su viaje a Kourou,en la Guyana
francesa, desde donde será lanzado por un cohete Ariane 5 en Julio.

El Envisat ha costado 2.000 millones de euros y es el mayor satélite de
observación de la Tierra jamás hecho. En su construcción han participado
más de un centenar de empresas europeas, incluidas las españolas CASA,
que se ha ocupado de la estructura exterior, CRISA y Sener.

El principal objetivo del Envisat es continuar el trabajo de sus
predecesores europeos, los ERS 1 y 2 -el primero lanzado hace una
década-. Pero el Envisat medirá más parámetros y con mucho más detalle.
Como explicó Jacques Louet, director del programa, en una reciente
presentación del satélite en Holanda, el Envisat cuenta con 10
instrumentos a bordo que le permitirán realizar desde estudios de
química atmosférica hasta de biología marina, incluyendo mediciones de
la temperatura superficial del agua y su altura. Tales datos servirán
para alimentar modelos de cambio climático, de corrientes marinas y del
agujero en la capa de ozono, entre otros usos.

La órbita del Envisat, que estará a unos 800 kilómetros de altura, pasa
por los polos y cubre el planeta entero como máximo cada tres días. Sus
datos estarán disponibles por Internet, a un coste variable según su uso
sea comercial o para investigación. El satélite tiene oficialmente cinco
años de vida útil, pero se espera que dure toda la década. En su agenda
hay ya planeadas unas 700 observaciones solicitadas por investigadores
de todo el mundo.

                           ------------------

EL SUCESOR DEL 'HUBBLE' SERÁ MÁS PEQUEÑO DE LO PREVISTO

Los planes para el heredero del telescopio Hubble, el Next Generation
Space Telescope (NGST), se están revelando demasiado ambiciosos. Un
reciente estudio del equipo de ese futuro telescopio reconoce la
necesidad de introducir cambios a la baja, como reducir el tamaño del
espejo principal. La NASA ha cancelado por innecesaria, según el
estudio, una misión de demostración planeada para el 2003, la Nexus.

El telescopio espacial Hubble lleva desde abril de 1990 dando vueltas a
la Tierra a 600 kilómetros de altura. Seguirá haciéndolo otros nueve
años y después cederá el puesto al NGST, en cuyo diseño trabajan ya las
agencias espaciales estadounidense (NASA), europea (ESA) y canadiense
(CSA).
Ya en los primeros estudios del NGST, en 1996, se admitía que el
proyecto implicaba 'un gran desafío tecnológico', por ejemplo, el de un
diseño completamente distinto a los telescopios espaciales que le
precederán de aquí a su lanzamiento, en el 2009. Por eso en sus
primerísimos esbozos el NGST tenía un espejo principal de sólo cuatro
metros de diámetro, pero el año pasado la NASA ya hablaba de un espejo
de ocho metros. Sería además desplegable: dividido en varios pétalos, se
lanzaría plegado para que cupiera en la cofia del cohete y se abriría
cuando el telescopio estuviera de camino a su órbita final. El equipo
del NGST compara su trabajo con 'diseñar un barco dentro de una
botella'.

Ningún telescopio espacial ha usado un espejo así, ni tan grande (el del
Hubble tiene 2,4 metros). Además NGST observará en el infrarrojo, lo que
impone más obstáculos: los instrumentos deben enfriarse a unos 240
grados bajo cero, y el propio espejo debe soportar cambios de
temperatura de cientos de grados. Eso obliga a colocar el telescopio a
millón y medio de kilómetros de distancia -lejos de la influencia de la
Tierra y del Sol-, lo que impone severas restricciones de peso. El NGST
debería pesar tres veces menos que el Hubble.

El pasado año, antes de publicar la convocatoria de ofertas para el
contratista principal del telescopio la próxima primavera, el equipo del
NGST emprendió una revisión detallada del proyecto. Contaban con dos
límites: la fecha de lanzamiento -necesariamente antes del 2010 si no se
quiere invertir en una nueva misión de reparación del Hubble-; y el
coste económico de la misión.
Por ello los expertos han optado por 'relajar los requisitos acerca del
diámetro, área colectora y temperatura del espejo principal', entre
otras especificaciones. 'Una reducción modesta en el diámetro del espejo
pueden redundar en una mayor dureza sin superar las restricciones de
peso', señalan los expertos, que también sugieren operar a temperaturas
no tan bajas. 'Esto permitirá hacer verificaciones en tierra mucho más
completas [...], lo que reduce la necesidad de un experimento de
validación en vuelo. La misión Nexus por tanto ha sido cancelada'.

Aunque extraoficialmente se habla de un espejo de seis metros o mayor,
en el estudio los expertos no se comprometen a poner un límite máximo
porque prefieren que sean los aspirantes a contratista principal los que
propongan nuevas soluciones. Hasta el momento cinco industrias han
construido ocho prototipos de espejos ultraligeros con diferentes
tecnologías.

El NGST se considera un proyecto crucial para entender cómo se formaron
las primeras galaxias y estrellas. También investigará la formación de
sistemas planetarios, aunque no llegará a obtener imágenes directas de
planetas extrasolares. La participación de la ESA y la CSA es de un 15%
y un 5% respectivamente.

                           ------------------

EL GOBIERNO ESPAÑOL ANUNCIA QUE DEDICARÁ ESTE AÑO 8.000 MILLONES DE
PESETAS A LA INVESTIGACIÓN GENÓMICA

El Gobierno español, por medio de la Comisión Interministerial de
Ciencia y Tecnología, acordó ayer dedicar en 2001 un total de 8.000
millones de pesetas a promover la investigación en Genómica y
Proteómica. La comisión, bajo la presidencia del presidente del
Gobierno, José María Aznar, reconoció que España ha estado
'insuficientemente representada' en la primera fase de la investigación
del genoma, por lo que 'no debe dejar pasar las oportunidades' de la
segunda fase. Para ello está previsto mantener una financiación pública
de 8.000 millones de pesetas los próximos dos años, lo que supondría,
según cálculos oficiales, alcanzar un total de 26.000 millones de
pesetas en el trienio (2001-2003) de ejecución del Plan Nacional de
Investigación y Desarrollo (I+D). La aportación pública se instrumentará
mediante las actuaciones del Ministerio de Sanidad y Consumo, a través
del Fondo de Investigación Sanitaria (FIS).. La participación del
Ministerio de Ciencia y Tecnología se canalizará a través de todos sus
instrumentos.

La Comisión adoptó tres acuerdos. En primer lugar, la creación de la
Fundación para la Ciencia y la Tecnología; de modo 'inmediato', la de la
Fundación para la Investigación del Genoma Humano; y asimismo, la del
Comité de Ética en Investigación Científica y Tecnológica.

La Fundación para la Ciencia y la Tecnología tiene como objetivos
reforzar la evaluación y el seguimiento realizados por la Agencia
Nacional de Evaluación y Prospectiva, definir los grupos de excelencia
según el Espacio Europeo de investigación y coordinar a la comunidad
científico-técnica.

La Fundación para la Investigación del Genoma Humano impulsará los
trabajos en Genómica y Proteómica, tanto en el ámbito científico como en
el tecnológico.

Por último, el Comité de Ética en Investigación Científica y Tecnológica
será un órgano asesor promovido por ambos ministerios.

La semana pasada, Alemania destinó 870 millones de marcos (más de 70.000
millones de pesetas) a la investigación genética.

                           ------------------

BRUSELAS ELEVARÁ UN 10% EL PRESUPUESTO DE INVESTIGACIÓN DE LOS PRÓXIMOS
CINCO AÑOS
Por: Gabriel Cañas – Bruselas

La Comisión Europea quiere potenciar la genómica, la informática y la
industria aeroespacial

La Comisión Europea ya tiene perfilada su política de investigación
comunitaria para el periodo 2002-2006. Hoy presenta su proyecto en
Bruselas con una propuesta presupuestaria de 2,7 billones de pesetas, lo
que representa un aumento del 9,8% respecto al presupuesto del actual
programa marco. Los científicos europeos deberán centrar su actividad,
según Bruselas, en la genómica, la informática, la nanotecnología y la
industria espacial. Paralelamente se desarrollarán una serie de
iniciativas para lograr que hagan de Europa un verdadero mercado único
de la ciencia.

El presupuesto de un programa marco de investigación es el dinero con
que cuenta Bruselas para cofinanciar proyectos de investigación y
desarrollo europeos al 50% con los países miembros o con empresas
privadas. El presupuesto del actual programa, que termina este año, es
de 15.000 millones de euros (2,49 billones de pesetas). El departamento
de Investigación, que dirige el comisario Philippe Busquin, propone que
para el próximo periodo dicho presupuesto alcance los 16.475 millones de
euros (2,741 billones de pesetas).

Pese a que la petición es ambiciosa, el aumento es similar al
estadounidense y Bruselas constata la tendencia a la baja de los
presupuestos nacionales para investigación, lo que seguirá manteniendo a
Europa lejos del nivel de EE UU, en contra del compromiso adquirido por
los jefes de Estado en la cumbre de Lisboa en marzo del pasado año y
ratificado en diciembre en Niza. Los políticos saben que la I+D es, como
indica Busquin, la razón de la mitad del crecimiento.

Por eso es importante, a ojos del comisario europeo de Investigación,
optimizar recursos disponibles. La evaluación hecha por expertos
presididos por el español Joan Majó del actual programa marco indicó en
2000 que, además del déficit presupuestario, el problema de la
investigación europea es su fragmentación. 'Tenemos que abrir los
programas nacionales, facilitar el intercambio y que los científicos
europeos trabajen conjuntamente', explica a EL PAÍS Busquin. 'Es
fundamental que un científico se sienta europeo más que británico,
francés o español, y que pueda participar en proyectos competitivos. Hay
que extender este cambio de mentalidad que ya tienen algunos
científicos'.

Europa se plantea como gran desafío las ciencias y las tecnologías de
los seres vivos; es decir, la biotecnología y el análisis del genoma
humano, un gran éxito científico en el que han participado algunos
países europeos (sobre todo el Reino Unido), pero no la UE. Otro cambio
fundamental que ya se está operando es la participación creciente en los
programas de investigación de los países candidatos a entrar en la
Unión, entre los que están Polonia, República Checa, Eslovaquia,
Eslovenia o Hungría.

Busquin cree que hay que facilitar la movilidad de los científicos. 'Hay
países dentro de la propia Unión que tienen investigadores en paro,
mientras en otros se necesitan', añade Busquin. El informe que hoy
presenta la Comisión Europea desgrana siete áreas prioritarias de
interés a desarrollar. Son las siguientes:
- Genómica. El plan plantea que Europa explote de forma integrada el
análisis del genoma humano con fines médicos, especialmente en la lucha
contra el cáncer, la resistencia a medicamentos y la neurociencia. El
70% de las empresas de genómica están en EE UU.
- Tecnologías de la información. El proyecto prevé estimular el
desarrollo de estas tecnologías para mejorar la competitividad
industrial. La informática y las telecomunicaciones están más
desarrolladas en Estados Unidos, pero este sector económico es ya el
segundo dentro de la Unión, con un mercado anual de 2.000 millones de
euros y dos millones de empleados. El plan plantea específicamente el
desarrollo del comercio electrónico.
- Nanotecnología. Europa, que tiene un buen nivel de investigación en
nanofabricación y nanoquímica, debe coordinar mejor sus esfuerzos en
este terreno creando materiales inteligentes y aplicando nuevos
procedimientos de producción. La industria manufacturera europea produce
ya bienes y servicios por un valor de 4.000 millones de euros anuales.
- Aeronáutica y espacio. Las necesidades en materia de transporte aéreo
se elevan, a escala mundial, a 14.000 nuevos aparatos en los próximos 15
años. El plan se plantea un fuerte desarrollo en este área, en la que
Europa quiere apostar por una mejora en la seguridad. En el ámbito
espacial buena parte de los recursos se destinarán al sistema de
localización por satélite Galileo, un proyecto alternativo al GPS
norteamericano.
- Seguridad alimentaria. Europa, que afronta la crisis alimentaria de
las vacas locas, se plantea mejorar sus métodos de análisis y detección
de contaminantes químicos, procedimientos de trazabilidad, medidas del
impacto del consumo de organismos genéticamente modificados y análisis
de riesgos medioambientales para la salud.
- Desarrollo sostenible y cambio climático. El protocolo de Kioto obliga
a la UE a reducir las emisiones de gases de efecto invernadero. Para
ello, Europa planea desarrollar energías renovables y transportes
inteligentes. También debe mejorar sus análisis del cambio climático y
lograr un mayor equilibrio de ecosistemas.
- Sociedad del conocimiento. El plan propone acercar la ciencia a los
ciudadanos y promover el estudio de las ciencias económicas, políticas y
sociales para profundizar en la democracia y en la buena gobernación.

                           ------------------

El Correo http://www.elcorreodigital.com/

80 PREMIOS NOBEL PIDEN A BUSH QUE NO FRENE LA INVESTIGACIÓN CON CÉLULAS
EMBRIONARIAS HUMANAS
Por: Redacción El Correo – Bilbao

George W. Bush recibió ayer en la Casa Blanca una carta en la que
ochenta premios Nobel le reclaman que no bloquee la investigación con
‘células madre’ obtenidas de embriones humanos sobrantes de procesos de
fertilización condenados a la destrucción. Los firmantes de la
misiva -entre quienes están James Watson, codescubridor de la estructura
del ADN, Murray Gell-Mann y Steven Weinberg- destacan el enorme
potencial terapéutico de estas células, presentes en los primeros
estadios del desarrollo y con capacidad para convertirse en cualquiera
de las especializadas de nuestro organismo.

Los científicos piden al presidente Bush que no dé marcha atrás en la
decisión de Clinton de dotar de fondos federales al programa y le
recuerdan que esta investigación puede abrir la puerta a tratamientos
efectivos contra la diabetes, el Alhzeimer y el Parkinson. Los laureados
admiten las implicaciones éticas del proyecto, pero añaden que «es
importante entender que las células usadas en esta investigación están
destinadas, en cualquier caso, a ser desechadas». Ya que los embriones
serán destruidos, «sería trágico desperdiciar una oportunidad» como ésta
de trabajar por el alivio el sufrimiento humano, dicen.

                           ------------------

El País http://www.elpais.es/

LOS CREADORES DE 'DOLLY' LOGRAN 'CÉLULAS MADRE' SIN NECESIDAD DE CLONAR
UN EMBRIÓN
Por: I. Ferrer y J. Sanpedro - Leicester / Madrid

La empresa de Edimburgo ha probado la técnica en vacas y predice ensayos
clínicos en 4 años

Las células madre, que pueden cultivarse y después transformarse en
cualquier tejido adulto, son una de las mayores promesas para el futuro
inmediato de la medicina, pero fabricarlas requiere clonar un embrión
humano, lo que suscita el rechazo de muchos sectores sociales. Los
científicos que crearon a la oveja Dolly han dado ahora un paso de
gigante para esquivar ese rechazo, al lograr transformar vulgares
células de piel adulta en células madre directamente, sin necesidad de
usar embrión alguno. Nada impide que la técnica, probada en vaca,
funcione en humanos.

La técnica para producir células madre a partir de un embrión humano fue
presentada en noviembre de 1998 por el equipo de James Thomson, de la
Universidad de Wisconsin (EE UU). Esas células pueden cultivarse
indefinidamente en el laboratorio y luego transformarse en cualquier
tipo de tejido adulto: piel, músculo, hueso, tejido nervioso o cualquier
otro. La mayoría de los científicos cree que esos tejidos podrán usarse
para reparar órganos dañados, por lo que revolucionarán el tratamiento
del Parkinson, la diabetes, las quemaduras, los infartos y muchas otras
dolencias.

Para que esos trasplantes sean realmente útiles, el embrión del que
proceden las células madre debe ser un clon del paciente. Así, los
tejidos resultantes son genéticamente idénticos a los del paciente y se
elimina por completo el problema del rechazo inmunológico. El problema
es que la clonación -y, de hecho, casi cualquier manipulación- de los
embriones humanos suscita un gran rechazo social y está prohibida en
todos los países occidentales excepto el Reino Unido y Estados Unidos, y
aún allí con reservas.

PPL Therapeutics, una empresa privada constituida por científicos del
Instituto Roslin de Edimburgo -los creadores de la oveja Dolly- ha
conseguido ahora transformar células adultas de vaca en células madre
sin necesidad de crear un embrión, según reveló ayer el director
ejecutivo de la compañía, Ron James, en un congreso de la Sociedad
Británica de Fertilidad celebrado en Londres.

De piel a corazón

Un portavoz de PPL Therapeutics explicó ayer a este diario desde
Edimburgo que los científicos no sólo habían logrado transformar la
célula de piel adulta en células madre, sino que luego habían mostrado
que éstas podían diferenciarse en tejidos funcionales distintos del
cutáneo. En concreto, en tejido del músculo cardiaco.

El portavoz de la empresa explicó que, para poder seguir la
transformación celular desde el principio, los expertos de la compañía
insertaron un marcador genético (un gen que produce alguna
característica visible al microscopio) en la primera célula, la de piel
de vaca. Y pudieron comprobar que el marcador estaba presente luego en
las células madre. Y luego en las del músculo cardiaco obtenido.
'La presencia del marcador en los tres grupos de células demuestra que
las del corazón se derivaban de la original', añadió el portavoz. El
experimento fue realizado por los miembros del laboratorio que PPL
Therapeutics posee en Estados Unidos.

Pese a estas explicaciones, los detalles completos de la técnica
permanecerán de momento en secreto para evitar que otra compañía rival
pueda copiarla. Las aplicaciones médicas potenciales de las células
madre son de tal magnitud que el método de PPL Therapeutics, que evita
toda traba legal, puede convertirse en una inimaginable mina de oro.
'Los resultados del experimento nos dan confianza en que el método que
estamos desarrollando como una fuente de células madre está funcionando,
y creo que será igualmente aplicable a los seres humanos', dijo James en
el congreso de Londres. 'Si todo va bien, los primeros ensayos clínicos
podrían empezar dentro de unos cuatro años'.

Pistas indirectas

Pese al estricto secreto comercial, los científicos de Edimburgo han
dado pistas indirectas a lo largo del último año que permiten atisbar
cuál es el fundamento de su innovación. Estos investigadores son los
pioneros mundiales en la clonación por transferencia nuclear. Esta
técnica consiste en tomar una célula adulta de cualquier mamífero,
extraerle el núcleo (que contiene el genoma completo) e introducirlo en
un óvulo al que previamente se ha extraído su propio núcleo. El
resultado es un embrión clónico, es decir, genéticamente idéntico al del
adulto del que se obtuvo la célula de partida.

La razón de que esta técnica funcione es que el material del óvulo, por
alguna razón hasta ahora desconocida, es capaz de reprogramar el núcleo
adulto para que empiece a funcionar como el de un embrión recién
formado. Los miembros del Instituto Roslin o de PPL Therapeutics han
dado a entender en varias ocasiones durante el último año que uno de sus
proyectos era el de encontrar qué factores del óvulo son responsables de
la reprogramación del núcleo. Es muy posible, por tanto, que su nuevo
avance se base precisamente en que han encontrado esos factores.

Casi todas las células del cuerpo contienen una copia completa del
genoma. Lo que distingue a un óvulo fecundado de las demás células no
son los genes, sino la sopa (citoplasma) que rodea al núcleo. Entre las
decenas de miles de componentes de ese citoplasma, deben encontrarse
forzosamente unas pocas moléculas, seguramente algunas proteínas, que
son capaces de interactuar con los genes y devolverlos a sus patrones de
actividad típicos del embrión.





_______________________________________________________________________
http://www.eListas.net/
Crea y administra tus propias listas de correo gratuitas, en español.