Inicio > Mis eListas > el_esceptico > Mensajes

 Índice de Mensajes 
 Mensajes 17 al 46 
AsuntoAutor
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
EL ESCÉPTICO DIGIT Pedro Lu
 << 17 ant. | 30 sig. >>
 
EED-lista_antigua
Página principal    Mensajes | Enviar Mensaje | Ficheros | Datos | Encuestas | Eventos | Mis Preferencias

Mostrando mensaje 51     < Anterior | Siguiente >
Responder a este mensaje
Asunto:EL ESCÉPTICO DIGITAL - Edición 2000 - Número 49 - 30 de septiembre de
Fecha:Sabado, 30 de Septiembre, 2000  04:23:55 (+0200)
Autor:Pedro Luis Gomez Barrondo <TXINBO @.....es>

=====================================================================

                           EL ESCÉPTICO DIGITAL

       Boletín electrónico de Ciencia, Crítica a la Pseudociencia y
Escepticismo
       © 2000 ARP-Sociedad para el Avance del Pensamiento Crítico

    Edición 2000 - Número 49 - 30 de septiembre de 2000

Boletín de acceso gratuito a través de:
http://www.elistas.net/foro/el_esceptico/alta

=== SUMARIO =========================================================

  - ¿Fue el accidente del Challenger un mero problema de estadística?.

  - La Antártida y el suelo de Marte.

  - Reacción en cadena.

  - La retirada de un producto con maíz transgénico reabre el debate en
EE.UU sobre la biotecnología.

  - Para José Antonio Mingolarra, catedrático de la UPV / EHU  “el
olvido es un elemento necesario”.

  - La Masa Oscura podría no ser necesaria.

  - El Universo Plano.

  - Entrevista a Sheldon Glashow, premio Nóbel de Física.

  - Compañía británica desarrolla un nuevo sistema de administración de
terapias génicas.

  - 2º Congreso virtual de Antropología y Arqueología.

=== NOTICIAS =========================================================

“EL CHALLENGER NO SE HABRÍA LANZADO SI EN LA NASA HUBIERAN SABIDO
ESTADÍSTICA”
Por: Unai Maraña – San Sebastián

Juan Antonio Cuesta aborda problemas reales mediante herramientas
estadísticas.

«Si en la NASA hubieran conocido una simple fórmula estadística, el
Challenger no se habría lanzado», señaló el matemático Juan Antonio
Cuesta, profesor de la Universidad de Cantabria, en el transcurso de su
ponencia La estadística: problemas y métodos, dentro del curso
Matemáticas en el mundo real, en los Cursos de Verano de la UPV.

La exposición consistió en el análisis de algunos problemas reales,
resueltos mediante la aplicación de sencillos métodos estadísticos.
Cuesta puso de manifiesto la posibilidad de calcular probabilidades
complicadas mediante simulaciones realizadas por ordenador.

El matemático comenzó por un caso en el que el hotel Hilton de San
Francisco fue acusado de discriminación racial a la hora de contratar
trabajadores. Para estudiar las cifras de empleados contratados a lo
largo de varios años, divididos en función de su raza, Cuesta había
empleado en su ordenador un «generador de números aleatorios».

Este mecanismo «elige números de cuatro cifras decimales entre 0 y 1, de
manera que cualquier número tiene las mismas probabilidades de salir».
EL ponente comparó este sistema con la posibilidad de lanzar una moneda
«10.000 veces».

El accidente de la nave Challenger sirvió a Cuesta como ejemplo de «a
dónde lleva la ignorancia en estadística». Según el conferenciante, «si
en la NASA hubieran conocido una simple fórmula estadística no se
hubiera lanzado».

El estadístico explicó que la estructura del cohete estaba unida por
doce anillos, y que el fallo de alguno de ellos provocaría una fuga de
combustible que, al contacto con los gases de combustión, haría estallar
la nave, como finalmente ocurrió. Teniendo en cuenta la sospecha de que
el frío afectaba a los anillos, el ponente demostró que la temperatura
del día del lanzamiento, -IºC, tendría que haber hecho desistir a la
NASA de realizar la operación.

El matemático presentó cálculos que revelaban que el número de anillos
del Challenger que se podía esperar que fallasen a menos de 0ºC era «de
entre 9 y 10, sobre un total de una docena». «No hace falta saber mucho
de estadística para darse cuenta», subrayó el especialista ante un
gráfico sobre el caso del Challenger. Cuesta resaltó que la comisión
encargada del análisis de las causas del fallo «concluyó que en todos
los controles de tierra de la NASA tenía que haber un. experto en
estadística».

El ponente presentó otro problema de discriminación, en este caso
sexual, que comprometió a la Universidad de Berkeley en 1973, antes de
involucrar a los asistentes en la realización de un experimento. El
estadístico solicitó a la mitad de los asistentes que arrojaran al aire
200 veces una moneda, y anotaran en una tabla el número de caras y
cruces que salieran, mientras que el resto inventaba los resultados.
Desgraciadamente, el experimento resultó «mas bien un fracaso».

                           ------------------

El Correo http://www.elcorreodigital.com/

EL SUELO DE MARTE
Colpisa - Madrid

Las concentraciones de sal en los Valles Secos de la Antártida
proporcionan claves sobre la atmósfera del planeta rojo

Un grupo de químicos de la Universidad de San Diego (California) ha
descubierto que las altas concentraciones de sal que se encuentran en el
suelo de los Valles Secos de la Antártida se deben, en gran parte, a
emisiones de sulfuro biológico en los océanos que rodean al continente.
En un artículo que publica esta semana la revista ‘Nature’, los
científicos aseguran haber descubierto una señal química inconfundible
en las muestras de suelo de esta región, que muestra un especial
parecido con el de Marte: los sulfatos de las algas marinas contribuyen
en gran medida a las altas concentraciones de sal en la zona.

Durante décadas, los investigadores han supuesto que las altas
concentraciones de sal se debían principalmente a un viejo mar que
antiguamente cubrió la región, a la sal marina transportada al
continente por los fuertes vientos antárticos, a sulfatos producidos
biológicamente, a la humedad de las rocas o a la actividad hidrotermal.

Anomalía única

Los autores del presente estudio han aclarado esta cuestión, al
descubrir una anomalía incomparable en las pruebas de los sulfatos que
recuperaron químicamente de los suelos de esta región, únicos en la
Antártida por estar a salvo del hielo y la nieve durante todo el año.
El descubrimiento les ha permitido llegar a la conclusión de que los
sulfatos proceden de gases de sulfuro que se han sometido a reacciones
químicas en la atmósfera y que fueron transportadas a los Valles Secos.

Dado que la Antártida está a miles de kilómetros de las fuentes
productoras de gases sulfúricos de origen humano o debidos a la
combustión de petróleo, los científicos pudieron concluir que estos
sulfatos proceden de unas algas que abundan en los océanos que rodean al
continente.
Estas observaciones poseen, según los especialistas, importantes
implicaciones en la búsqueda de evidencias de vida pasada o presente en
el planeta Marte y en la comprensión de las interacciones químicas entre
la atmósfera marciana y la superficie del planeta rojo.
«Estudiando el suelo de los Valles Secos adquirimos una buena noción de
lo que puede estar pasando en Marte. Las condiciones de los Valles Secos
son lo más parecido a Marte que podemos encontrar en la Tierra, de tal
forma que, si queremos entender lo que pasa en un entorno tan extremo
como el del planeta rojo, esto puede ser un ejemplo», comentan los
autores del estudio.

                           ------------------

REACCIÓN EN CADENA
Noticia enviada por: Luis R. Manso
Versión en español por: Julio Arrieta (ARP-Traductores)

Una revisión realizada durante dos años en 52 laboratorios de otras
tantas escuelas públicas de Colorado (EEUU) ha encontrado que el 92%
poseen elementos químicos lo suficientemente viejos e inestables como
para hacer necesaria la intervención de los equipos de artificieros de
la policía para su retirada.

En una de estas escuelas, se encontró "Pastel Amarillo", una forma
concentrada de uranio. Otra  de las muestras de uranio estaba almacenada
de una forma tan inapropiada que un profesor que había manipulado la
botella días antes había sido contaminado.

Algunas de las muestras químicas localizadas eran lo suficientemente
inestables como para provocar una explosión, con la suficiente potencia
como para matar a cualquiera en el edificio, simplemente con que se les
hubiese dado un empujón. Cuando preguntaron sobre el asunto al
Comisionado de Educación del estado Bill Moloney, éste declaró: "Éste no
es un tema de mi competencia. No puedo ayudarles con esto. Se trata más
bien de un asunto para el departamento de Sanidad". Pero los oficiales
locales de Sanidad dicen que no están entrenados para trabajar en este
tipo de revisiones. "Yo sabía que pasaba por alto cosas así porque sabía
que desconocía la naturaleza de lo que veía en las inspecciones", dijo
un oficial del condado después de una inspección escolar. "No tengo los
conocimientos, y de ninguna manera soy químico".

Algunos oficiales están ansiosos por aumentar las inspecciones mediante
expertos a todas las escuelas, pero no han proyectado ninguna inspección
nueva porque no hay fondos para ello. Una revisión similar se ha
completado recientemente en Ohio, y ha costado 3 millones de dólares.
(Denver Post) ... ¿Qué son unos pocos millones destinados a asegurar las
escuelas cuando un sólo tiroteo escolar en Columbine High costó a las
arcas 10 millones de dólares?

                           ------------------

LA RETIRADA DE UN PRODUCTO CON MAÍZ TRANSGÉNICO REABRE EL DEBATE EN
EE.UU. SOBRE LA BIOTECNOLOGÍA
Europa Press

La retirada de las tortillas para tacos, que contenían una especie de
maíz transgénico no autorizado por las autoridades sanitarias, ha sido
considerada por los senadores demócratas como la prueba de que la
normativa sobre biotecnología vigente en Estados Unidos debe ser
reforzada. Mientras, los republicanos señalan que el único cambio
necesario es promover la información sobre el tema.

La retirada voluntaria por parte de Kraft de las tortillas afectadas ha
alimentado un debate sobre la seguridad de los alimentos transgénicos
justo cuando la FDA, organismo que regula alimentos y fármacos, prepara
una nueva normativa destinada a reforzar la confianza de los
consumidores sin incluir cambios importantes.

"Lo irónico de esta polémica es el mayor grado de preocupación de parte
de los consumidores por unos alimentos, que hasta ahora, el gobierno, la
comunidad científica y algunas asociaciones de consumidores consideran
seguros", ha señalado el senador James Jeforrds, republicano y
presidente del comité de sanidad.

Kfrat, una compañía filial de Phillip Morris, anunció el pasado viernes
la retirada de los productos, después de confirmar la presencia de un
gen StarLinK en algunos paquetes de tortillas para tacos. La compañía
también hizo un llamamiento al gobierno para la aprobación de medidas
más estrictas a la hora de autorizar nuevos cultivos biotecnológicos.

El StarLink es una de las variedades Bt de maíz manipuladas
genéticamente para repeler las pestes antes de ser utilizadas como
pienso animal. Esta variedad es la única que la Agencia de Protección
Medioambienteal rechazó aprobar para el consumo humano debido a que los
científicos sospechan que podría producir reacciones alérgicas.

                           ------------------

Para José Antonio Mingolarra, catedrático DE LA UPV / EHU  “EL OLVIDO ES
UN ELEMENTO NECESARIO”
Por: Unai Maraña - Donosti

José Antonio Mingolarra, catedrático de la facultad de Ciencias Sociales
y de la Comunicación de la UPV y director del curso “La memoria y el
olvido. Imaginario colectivo y cultura”, impartió ayer la conferencia
titulada Memoria, olvido e historia en los Cursos de Verano de la UPV.

Pregunta- ¿Qué relación existe entre la memoria, el olvido y la
historia?
Respuesta- La memoria individual y la colectiva son necesarias para
comprender el mundo y construir la identidad, aunque la segunda, según
cómo se genere, configura una memoria enfermiza que determina
interpretaciones equívocas. Para curar esa patología es necesario acudir
a la historia. La memoria colectiva se caracteriza porque constituye los
relatos de interpretación de la vida, mientras que la historia los
ordena científicamente. La historia palia el desorden de la memoria
colectiva. En medio de ambas aparece el olvido, como elemento sin el
cual no podríamos vivir.

P- ¿El olvido histórico es necesario?
R- Existe un olvido huidizo, que sólo lo puede corregir el rigor
histórico, y otro activo, que corresponde a la idea de reinterpretar o
reelaborar la historia para comprender una situación bipolar que puede
producirse después de grandes catástrofes o acontecimientos sociales.

P- ¿Las instituciones condicionan la memoria colectiva?
R- Parece un poco paradójico en un momento como este plantear la
recuperación del olvido para poder soportar la memoria. Pero esto no
significa que el olvido lo imponga un poder establecido de manera
perversa. El perdón está implicado en la relación entre memoria, olvido
e historia. Hay dos tendencias de las que rehuyo. La primera de ellas,
puesta de moda recientemente, afirma que nuestro pasado reciente no fue
ni tan doloroso ni tan traumático. La otra es contraria, y manifiesta
que nada ha cambiado, sin entender la transformación del imaginario
colectivo desde un pasado autoritario hasta un presente democrático.

P- ¿Qué indicadores culturales sirven de referencia para el estudio de
la memoria colectiva?
R- Aunque el curso es de naturaleza política, aborda la historia a
partir de micro representaciones culturales para explicar la memoria
colectiva. Los ejes son los conceptos, los testimonios, las
representaciones espectaculares y las informaciones o estrategias
persuasivas.

P- ¿Esas representaciones culturales están tomadas de la cultura de
masas?
R- No, el curso trata la cultura desde las grandes palabras: la
publicidad, política, la literatura, el cine, la fotografía y la teoría
del espectáculo, que comprende el teatro y la danza.

P- ¿Conocen los jóvenes la historia reciente?
R- El curso nació porque los que lo impartimos, profesores de la UPV
cercanos a mi departamento, constatamos la imposibilidad de desarrollar
un debate académico sobre la historia reciente con nuestros alumnos, que
hayan o no hayan sido testigos, adolecen de un desconocimiento casi
absoluto de la misma. Viven sin la memoria del pasado reciente.

                           ------------------

Info.Astro http://www.infoastro.org/

LA MASA OSCURA PODRÍA NO SER NECESARIA
Por: Víctor Ruiz

Hasta ahora, los científicos buscan el origen del 90% de la masa
faltante en el Universo. Al observar rotar las galaxias, la velocidad de
las estrellas es muy grande. Contando toda la masa que se observa en la
galaxia (en forma de estrellas, planetas, y nebulosas) ésta es
insuficiente para retener a las estrellas... éstas deberían salir
despedidas hacia el espacio, pero el hecho es que siguen rotando en
torno al núcleo galáctico. ¿Dónde está ese 90% de la masa que no se ve?

A día de hoy habían dos hipótesis diferentes. Por un lado, la masa
oscura "fría", que apunta a que ese 90% de la masa estaría en forma de
partículas exóticas. Por otro lado, la masa oscura "caliente" explica
que el 90% de la materia no observada estaría escondida en forma de
numerosísimos planetas y estrellas frías muy débiles.

McGaugh trabajaba en la rotación de galaxias de bajo brillo superficial.
Sus datos no encajaban bien dentro del modelo de la materia oscura
"fría" (partículas exóticas cuya naturaleza exacta es desconocida). Sin
embargo, topó con la llamada Dinámica Newtoniana Modificada (DINEMO, o
MOND en inglés) que explicaba perfectamente las observaciones.

DINEMO es una teoría ad hoc, es decir, una modificación realizada a las
leyes de la mecánica de Newton exclusivamente para resolver el problema
de la rotación de las estrellas en las galaxias. Es por ello por lo que
los físicos y astrofísicos se sienten algo incómodos. Sin embargo, a
decir de los "conversos", funciona muy bien. Esta modificación fue
propuesta por Moti Milgrom, de la Institución Weizmann (Israel), en
1983.

La modificación a la gravitación de Newton rompe uno de los pilares
básicos de la Física, la equivalencia entre masa inercial y masa
gravitacional en condiciones de pequeñas aceleraciones. Según se explica
en AstroCosmo «DINEMO propone que la masa inercial de un cuerpo depende
de la intensidad del campo al cual está sometido». Por tanto, «una
estrella que está a gran distancia del centro de una galaxia está
inmersa en un campo gravitacional débil, así su masa inercial es más
pequeña, y cuesta menos acelerarla para mantenerla en órbita».

McGaugh aplicó a la teoría de la Gran Explosión un modelo que contuviera
sólo la cantidad de materia "normal" que indican los datos de DINEMO en
las galaxias. Para sorpresa de todos, fue una de las pocos modelos en
ajustarse bien a los datos del globo aerostático científico Boomerang.
«Lo que predije fue la amplitud del segundo pico del espectro de
potencia del fondo de radiación cósmico de microondas, en comparación
con el primero».

Sin embargo, DINEMO dista mucho de ser una teoría ampliamente aceptada.
Cole Miller, colega suyo, opina que aún es muy temprano para determinar
cual de las teorías es cierta. A McGaugh esto no le preocupa mucho, cree
que es natural un escepticismo ante ideas tan radicales como DINEMO la
primera vez que se tiene constancia de ella. «Pero para ser francos,
creo que deberíamos aplicar el mismo grado de escepticismo a la materia
oscura».

A DINEMO, por su parte, le quedan también muchas causas teóricas
pendientes.

Para más información:
“La Alternativa a la materia oscura exótica” (Entrevista con el
astrofísico Robert H. Sanders en el Boletín de noticias del Instituto de
Astrofísica de Canarias)
.http://iac.es/gabinete/iacnoticias/1-99/materia.htm
Boomerang (ver el artículo siguiente en EL ESCÉPTICO DIGITAL)
Instituto de Astrofísica de Canarias (IAC) http://www.iac.es/
DINEMO http://www.civila.com/chile/astrocosmo/tmond.htm
Nota De prensa original (en inglés)

                           ------------------

Info.Astro http://www.infoastro.org/

EL UNIVERSO PLANO
Por: Víctor Ruiz (publicado el 04 jun 2000)

Como todos los lectores sabrán a estas alturas, a finales del mes de
abril, astrofísicos italianos y estadounidenses anunciaron los
resultados del experimento Boomerang. Consistente en un globo con
instrumentos a bordo, durante diez días del mes de enero de 1999,
realizó el mapa más preciso del fondo de radiación de microondas (CMB)
obtenido hasta el momento. Su conclusión: el universo no posee curvatura
positiva o negativa, es plano.

Boomerang y la Gran Explosión.

Boomerang, desde la Antártida, obtuvo un mapa de una región del cielo en
el espectro de microondas. Sus instrumentos obtuvieron mil millones de
medidas de pequeñas variaciones en la temperatura del CMB. Julián
Borrill afirma que «este es el conjunto de datos del fondo cósmico de
microondas más preciso y grande hasta ahora obtenido». En realidad, no
es un mapa completo de toda la bóveda celeste, porque la región
estudiada posee sólo una superficie del 3% del cielo.

Los primeros 300.000 años del Universo.

Una de las mayores consecuciones de las famosas teorías de Einstein fue
el predecir que el Universo debió formarse tras una Gran Explosión. En
ese entonces, toda la energía y materia del Universo estaba concentrada
en una región de pequeñas dimensiones. Al comienzo, el cosmos era opaco;
los fotones no podían caminar más allá de unos cuántos milímetros sin
chocar con una partícula. Mientras el diámetro del Universo crecía, la
densidad disminuía. 300 000 mil años después de la gran explosión, la
temperatura del Universo fue suficientemente baja como para que protones
y electrones dejaran de chocar repetidamente y comenzaran a formar
átomos de hidrógeno. En ese momento, los fotones quedaron libres: por
fin el Universo se tornó transparente.

Desde que esos fotones quedaron libres, hasta hoy en día, los cosmólogos
calcularon que habrían reducido su longitud de onda hasta equivaler a la
radiación de un cuerpo negro a 2,73° Kelvin (menos de 3° por encima del
cero absoluto). En 1965, Arno Penzias y Robert Wilson, estaban
trabajando para la compañía telefónica AT&T. Tenían a su disposición una
gran antena. Durante meses, trataron de conocer el origen de un ruido.
Llegaron a desmontarla en piezas y limpiarla por completo. Pero el ruido
seguía ahí. Penzias y Wilson recibieron posteriormente el Nóbel por
descubrir el fondo cósmico de microondas (CMB).

«La cara de Dios».

Pero si primitivamente todo el Universo era igual en todas partes, ¿por
qué hoy en día no ocurre lo mismo y vemos que la materia se condensa en
galaxias rodeadas de grandes vacíos? La confirmación a las sospechas de
los cosmólogos llegó en 1991, gracias a los resultados obtenidos por el
satélite COBE. Su objetivo fue el mismo que el de Boomerang,
cartografiar el cielo en la zona de las microondas. Se necesitan recoger
cientos de medidas para un solo punto: «Hay ruido del instrumento,
fuentes superpuestas que emiten radiación en microondas, como el polvo.
Y finalmente hay variaciones intrínsecas del CMB que es lo que estamos
tratando de medir», apunta Borrill. Estas pequeñísimas variaciones en la
radiación de fondo cósmico son la razón de la formación de estructuras:
el universo no era totalmente homogéneo.

Los cosmólogos se han congratulado de los resultados del experimento
Boomerang porque les ha permitido concretar los valores de las variables
(matemáticas) que manejan para determinar la geometría y dinámica del
Universo. Una de las incógnitas que hasta ahora se mantenía era
precisamente qué geometría tenía el Universo. Y eso es lo que ha dado
titular a las noticias: «El Universo es plano».

El secreto está en la masa.

En la mecánica clásica, la que postuló Isaac Newton, la gravedad es una
fuerza que sólo afecta a los cuerpos celestes. Por tanto, preguntarse
qué geometría posee el Universo no tiene sentido: dos rayos de luz
emitidos paralelamente no modificarán su trayectoria y seguirán
paralelos por siempre. Pero Einstein introdujo el concepto de
espacio-tiempo. El espacio-tiempo, como si fuese un colchón, se deforma
en presencia de un cuerpo masivo. Este hecho fue confirmado gracias a un
eclipse de Sol: el Sol cambiaba la posición aparente de las estrellas de
fondo.

A una escala mucho mayor, dependiendo de la masa total que existe en el
Universo, su geometría puede ser plana, curvada negativa o curvada
positivamente. La geometría, además, nos da pistas sobre el futuro del
universo: si es abierto, plano o cerrado.

Imaginemos que el Universo es un automóvil que no ha pasado la
inspección técnica (la profesión de cosmólogo no da para mucho) y
viajando por una recta a 40 kilómetros por hora, se nos para el motor y
los frenos no funcionan. Si nos encontramos subiendo por una montaña,
está claro que la gravedad hará que el automóvil se llegue a parar en
unos instantes, regresaremos justo por donde habremos llegado (caso del
Universo cerrado). Si por el contrario no subíamos, sino que bajábamos
la pendiente de la montaña, nuestro automóvil seguirá viajando hasta el
infinito y más allá (caso del Universo abierto, y que como no tengamos
cuidado, lo mismo le pasará a nuestro cráneo). El tercer caso estaría en
una recta sobre una carretera: el automóvil frenará por rozamiento y se
quedará quieto (caso del Universo plano).

Por tanto, en un universo abierto, el cosmos jamás llega a desacelerar
lo suficiente su velocidad de expansión y crece por siempre jamás. En un
universo cerrado, la masa existente es tanta que frena el acelerón
primordial y se colapsa sobre sí mismo. Un estado intermedio es el del
universo plano, en el que la masa que existe es justo la crítica para
frenar la aceleración, pero no la suficiente para hacer colapsar el
Universo.

Cartomancia: El futuro mediante un mapa.

La curvatura del Universo se relaciona con el futuro fácilmente: un
universo curvado negativamente es a su vez cerrado y un universo curvado
positivamente es un universo abierto.

El experimento Boomerang obtuvo detalles lo suficientemente finos para
determinar qué geometría tiene el Universo. En la imagen que acompaña
estas líneas está el mapa obtenido por el Boomerang. Según el tamaño de
las manchas frías y calientes, los cosmólogos puede determinar la
curvatura del espacio. Si el Universo tiene geometría plana, entonces el
mapa estará dominado por manchas de un tamaño de un grado (dos veces el
diámetro de la luna llena). Si el Universo tiene curvatura, la imagen es
distorsionada. En el caso del universo cerrado (líneas convergentes), la
imagen es magnificada y las estructuras aparecerán más grandes de un
grado. Si el universo es abierto, y las líneas paralelas divergen,
entonces las estructuras aparecerán más pequeñas de un grado.

Y, tal y como desvelábamos nada más empezar el artículo, las imágenes de
Boomerang indican que el universo es plano: existe justamente la
densidad crítica para que el cosmos, en el infinito, frene su expansión.

Los cosmólogos, además, están de enhorabuena puesto que el modelo más
aceptado de la Gran Explosión, el inflacionario, predecía precisamente
que el universo debía ser plano.

Para más información.
«Pictures of the Early Universe», Science@ NASA
http://science.nasa.gov/headlines/y2000/ast27apr_1.htm
«Los tres primeros minutos del Universo», Steven Weinberg. Editorial
Alianza.
«Fundamentos de astronomía», Michael A. Seeds. Editorial Omega.
Pagina del experimento Boomerang (inglés).
http://www.physics.ucsb.edu/~boomerang/

                           ------------------

La Vanguardia http://www.vanguardia.es/

''TARDÉ DIEZ AÑOS EN VER LA IMPORTANCIA DE LA INVESTIGACIÓN POR LA QUE
ME DIERON EL NOBEL''
Entrevista a Sheldon Glashow, premio Nóbel de Física.

El físico estadounidense Sheldon Glashow realizó en 1960 una
investigación que cambió la historia de la física. Aquella investigación
sentó las bases para demostrar que dos de las cuatro fuerzas que
gobiernan el Universo -el electromagnetismo y la nuclear débil- eran en
realidad dos expresiones de una misma fuerza. Para que le cuadraran los
cálculos, Glashow introdujo en sus ecuaciones un nuevo tipo de
partículas que más tarde fueron descubiertas: los bosones. Desde
entonces, los físicos tratan de probar que las otras dos fuerzas -la
gravedad y la nuclear fuerte- son también aspectos de la única fuerza
fundamental que, según sus deseos, debería gobernar el universo.

Por aquella investigación, Glashow recibió el premio Nóbel de Física en
1979. Sin embargo, tal como reconoció el martes en Barcelona -donde ha
participado en las jornadas "El segle dels quanta", coorganizadas por el
Museu de la Ciència de la Fundació "la Caixa" y la sociedad España Nuevo
Milenio-, "tardé diez años en darme cuenta de la importancia de la
investigación".

Pregunta- ¿Por qué tanto tiempo?
Respuesta- Debo decir que no fui el único. En aquel momento, nadie se
dio cuenta. Faltaban demasiadas piezas en el razonamiento. Por ejemplo,
faltaba la idea de los quarks o el trabajo de Steven Weinberg, con quien
compartí el Nóbel pero que tampoco se dio cuenta de la importancia de lo
que estaba haciendo.

P- ¿El gran Weinberg tampoco se dio cuenta?
R- Él había escrito unos años antes un artículo que fue fundamental para
unificar las fuerzas. En 1970, fui a verle al MIT con dos colegas para
explicarle las ideas que teníamos sobre la unificación. No le interesó
especialmente y no nos comentó nada de la relación que tenía nuestro
trabajo con el artículo que él había hecho. Al parecer lo había
olvidado.

P- ¿Y después?
R- En aquel momento, no habíamos encontrado la manera de unificar las
fuerzas de un modo matemáticamente consistente. Todo encajó en 1971
cuando los holandeses Gerard t'Hooft y Martinus Veltman, a quienes han
dado el último premio Nóbel, eliminaron las inconsistencias matemáticas
y demostraron que la teoría tenía sentido.

P- Pensando en lo accidentada que fue esta investigación, ¿usted cree
que merecía el Nóbel?
R- ¿Yo? Desde luego que sí. Al igual que muchos otros científicos que
sin embargo no lo han ganado, ya que el número de científicos que
merecen el premio es superior al número de científicos que lo ganan.

P- Una persona de la academia sueca dijo en una reciente visita a Madrid
que el Nóbel es bueno para la ciencia y malo para los científicos.
R- No sé por qué se supone que es bueno para la ciencia.

P- ¿Porque motiva a algunos investigadores, tal vez?
R- Un científico no necesita el premio Nóbel para motivarse. Investiga
por el placer de investigar, y si además gana el Nóbel, pues mejor. Y no
creo que sea malo para él. Yo personalmente estoy muy contento de
haberlo ganado.

P- Pero los premios Nóbel son personajes tan solicitados que su
actividad científica a menudo se resiente.
R- No se resiente mientras sepas decir que no.

P- ¿Es la física de partículas tan apasionante hoy, como cuando se
unificó la fuerza electrodébil?
R- Los 60 y los 70 fueron una época realmente apasionante y es cierto
que hoy día las cosas se mueven más lentamente. Pero la física teórica
sigue siendo un campo de gran interés que atrae a alumnos
extraordinariamente brillantes.

P- Pero el modelo estándar, que explica la historia del Universo, va
camino de convertirse en el modelo final y la física de partículas
parece cada día más una ciencia de confirmación y menos de
descubrimiento.
R- Esto no es cierto. Los astrónomos nos han convencido de que existe la
materia oscura, que no está hecha de ninguna de las formas de materia
incluidas en las versiones más simples del modelo estándar. De modo que
es un modelo incompleto que aún debe desarrollarse. Y además, el modelo
estándar no puede ser la última palabra porque hay muchas preguntas que
no puede abordar. Por ejemplo, ¿por qué hay tres familias fundamentales
de partículas? ¿Por qué la estructura matemática del Universo es la que
es?

P- ¿Tienen respuesta todas las preguntas?
R- No. Pero piense en lo que hemos aprendido en el último siglo... Y
ahora piense en lo que aprenderemos en los próximos cien siglos.

P- Me resulta inconcebible.
R- Es inconcebible para cualquier persona.

                           ------------------

UNA COMPAÑÍA BRITÁNICA DESARROLLA UN NUEVO SISTEMA DE ADMINISTRACIÓN DE
TERAPIAS GÉNICAS
Europa Press

La compañía británica de biotecnología Eurogene declara haber
desarrollado un nuevo sistema para la administración de terapias génicas
que se basa en un nuevo tip de virus para transportar los genes al
organismo.
El sistema, que utiliza un baculovirus como vector para el transporte
del material genético, ha demostrado su eficacia en estudios con
conejos, según un artículo publicado en la revista “Gene Therapy”.

La terapia génica supone introducir nuevos genes en el organismo para
tratar una enfermedad. El uso de virus como vectores ha levantado una gr
an polémica, siendo los adenovirus los más utilizados actualmente.
"Los baculorvirus se utilizan en la actualidad en insecticidas, y su
ventaja es que no infectan ninguna especie vertebrada. Los otros virus
utilizados son todos patógenos humanos", declaró Alan Boyd, director de
Eurogene. Los adenovirus son una clase de gérmenes que provocan el
resfriado común.

"Además, podemos obtener mayores fragmentos de genes en el baculovirus".
Boyd espera que el nuevo sistema vector puede servir de base para
futuros tratamientos génicos para el cáncer y las enfermedades cardiacas
y neurológicas.

El principal problema al que se enfrentaron los científicos de Eurogene
es evitar que el sistema inmune acabe con el baculorivus antes de que
este pueda transferir la carga génica. La solución residió en utilizar
un mecanismo que protegía al virus durante el tiempo suficiente.

Para más información:
Gene Therapy http://www.stockton-press.co.uk/gt/

====CONGRESO ======================================================

2º CONGRESO VIRTUAL DE ANTROPOLOGIA Y ARQUEOLOGIA.

El próximo domingo día 1 de Octubre de 2000 se celebrará, durante todo
el día, el Segundo Congreso Virtual de Antropología y Arqueología.

Dicho Congreso tendrá su sede virtual en
http://www.naya.org.ar/congreso2000/, pagina en la que se podrá realizar
la inscripción como ponente, y se desarrollará a través de Internet
durante todo el mes de Octubre.

Este Congreso Virtual tiene como antecedente el 1er Congreso Virtual de
Antropología y Arqueología realizado el año pasado, en el que
participaron medio centenar de investigadores con sus ponencias, y casi
700 personas en los debates.
Las ponencias de dicho 1er Congreso se encuentran disponibles On Line
en: http://www.naya.org.ar/congreso/index.htm

Para cualquier información pueden dirigirse a: naya@...