martes, 29 de mayo de 2007

Marrrditísima vaina

Hoy vengo endiablao y echando chispas. Ustedes perdonen que una persona tan profesional, ecuánime e intelectual como este servidor pierda la chaveta de esta manera, pero hay cosas en este Puerto Rico que me sacan por el techo. Hoy es el día del desahogo.


¡Qué óspera, puñales! Me requetejode la paciencia que en pleno Siglo 21 todavía haya medios de prensa supuestamente serios como El Nuevo Día, WKAQ Radio, Notiuno, o Telemundo que le den espacio a MALDITOS CHARLATANES ASTRÓLOGOS y MENTALISTAS como David Hernández, Rukmini, Walter Mercado o Anita Cassandra. Y no con chismes de farándula o entretenimiento, sino en predicciones del futuro de eventos y figuras políticas. Y que traten estas IDIOTECES TOTALMENTE ANTI-CIENTÍFICAS como si fueran una noticia seria.

Sale hoy en el periódico El Nuevo Día un artículo escrito por ese fraudulento y embaucador astrólogo David Hernández sobre el nuevo partido político Puertorriqueños por Puerto Rico (PPR) basado en la supuesta "carta astral" (algo que ningún astrólogo explica nunca que es, como se hace y bajo que principios teóricos se formula tal cosa) del día en que finalmente se inscribió el partido en la Comisión Estatal de Elecciones (CEE). Yo no tengo nada contra este nuevo partido, y una de las "predicciones" del astrólogo de que va a sacar pocos votos y no va a quedar inscrito la puedo hacer yo por simple sentido común sin tener que mirar a las estrellas, consultar los intestinos de una oveja, o usar una tabla de Ouija para hablar con los espíritus (como si a alguien le fuese a interesar la política puertorriqueña después de muerto).

No solo lo publican en el diario de mayor circulación del país, sino que lo comentan como si fuera una noticia real en varios programas de radio. El pobre presidente del PPR, Rogelio Figueroa, se ve obligado a usar el poco tiempo de entrevistas que tiene en los medios no para hablar de sus propuestas políticas, ambientales o de desarrollo económico. Noooo… Tiene que estar hablando de la condená astrología. Pobre hombre.


¿Qué la gente no se ha dado cuenta de que la ASTROLOGÍA es un FRAUDE? ¿Qué es FALSA? ¿Qué no FUNCIONA? ¿Qué todas las bases intelectuales por las que pudiera justificarse FUERON TOTALMENTE DEMOLIDAS por la ciencia HACE YA MÁS DE 300 AÑOS? ¿Qué no PUEDEN EXISTIR mecanismos físicos algunos por el cual la posición de objetos celestes en el cielo (algo que depende más de donde uno esté en la Tierra y no de las "estrellas" mismas) puedan influenciar NADA en la Tierra? ¿Qué los astrólogos no saben de lo que hablan, y ni siquiera miran al cielo antes de escribir las vaguedades idiotas que le publican en periódicos y revistas? ¿Qué ni siquiera dos astrólogos del mismo país en dos periódicos diferentes se pueden poner de acuerdo en las boberas que van a "predecir"? ¿Qué hay por lo menos 500 MILLONES de personas de cada signo astrológico, y que solo alguien fuera del uso de sus facultades mentales, (por no decir bordeando en la estupidez crónica o retardación mental), puede creer que a todos le vaya a pasar lo mismo o todos se sientan en un día de la misma manera?

Dice el charlatán de David Hernández en su artículo que "Las estrellas pueden predecir el futuro y la muerte de un partido político." ¿De dónde estos morones sacaran una idea tan ridícula y medieval como ésta? Como si las estrellas pudiesen predecir algo o les interesase un partido político minoritario en una de las islas más pequeñas de un minúsculo planeta en una estrella común y corriente entre billones y billones de estrellas que hay en el universo. Hay que ser bien ignorante, provincialista, bobolón, y jamás haber entendido ningún curso de ciencia de segundo grado en adelante para decir una barrabasada como esa. Eso, o la explicación alterna de que es un buitre que, aunque sabe que la basura que dice es totalmente falsa, se dedica a estafar a los ignorantes que cumplen con la descripción anterior.

Hay que ser bien anormal para creerle algo a este tipo de astrólogos estafadores y charlatanes, (máxime con el récord de fracasos abismales que tienen "prediciendo" eventos políticos), pero aún más bestia e irresponsable si se es un periodista o editor y se deja pasar este tipo de basura pseudo-científica como si fuese una noticia digna de merecer valioso espacio en un periódico, radio o noticiero de TV. Dejar pasar esta clase de falsedades solo por lograr "ratings" o escándalos pasajeros es un flaco servicio al pueblo, y solo contribuye a hacer el trabajo de los maestros de ciencia mucho más difícil. Estamos en el 2007, gente.... Tenemos que erradicar este tipo de brutalidades irracionales de nuestro país si queremos progresar como una sociedad moderna.


lunes, 28 de mayo de 2007

La nanotecnología en Puerto Rico

En varias ocasiones anteriores hemos recalcado en el hecho de que si queremos que este país eche para adelante en el futuro tiene que moverse a una "economía del conocimiento". Los países pequeños y similares a Puerto Rico que compiten de tú a tú con nosotros, y que son prósperos y exitosos basan sus economías en la ciencia y la tecnología. Solo hay que ver los ejemplos de Singapur, Corea del Sur, Irlanda, Chile o Taiwán.

Debe ser la máxima prioridad de cualquier gobierno, educador, y empresa nativa el que la sociedad puertorriqueña acepte la ciencia y la ingeniería como parte FUNDAMENTAL de nuestra educación, nuestra economía y nuestra cultura como pueblo. A un país pequeño, sin mucho terreno ni recursos naturales, solo lo pone en el mapa global contemporáneo el que su economía tenga un fuerte componente científico. El que casi todos sus niños quieran ser científicos cuando sean grandes. El que sus políticos y ciudadanos internalicen la ética de la ciencia y el método científico como parte de su pensar cotidiano. El que sus escuelas y universidades, sean públicas o privadas, tengan como meta una educación en ciencias y matemáticas de excelencia. El que nuestros científicos recién-graduados internalicen que tienen un deber ético y moral de quedarse a trabajar por Puerto Rico, pero que encuentren buenos trabajos y quedarse no les haga perder dinero ni oportunidades de crecimiento profesional. El que hayan políticas para crear, atraer y retener empresas de alta tecnología donde la investigación y el desarrollo sean de las operaciones más importantes. Este es el modelo de un Puerto Rico futuro que todos los puertorriqueños deberíamos de poner por escrito como compromiso de campaña, y exigirle firmemente a los gobernantes y a las universidades que lo adopten, no importa el partido o la ideología política que profesemos. Y esto no es un sueño loco, es una meta realizable a corto y mediano plazo. Puerto Rico cuenta ya con la infraestructura científica madura para plasmar este plan de futuro. Y de las pocas cosas buenas que se puede decir de este gobierno es que parece haber internalizado esta idea, y está dando pasos afirmativos para ponerla en práctica.

Vemos con mucha alegría, y para variar del panorama negativo y deprimente de los noticieros diarios en Borinquén, una noticia EXCELENTE en el periódico de hoy. La National Science Foundation (NSF) acaba de aprobar una propuesta de sobre 13 millones de dólares para un Centro de Investigación en Nanotecnología Funcional (INF) en la Universidad de Puerto Rico, una entidad multidisciplinaria, desarrollada en el último año, que aglutinará los talentos y trabajos de 28 investigadores de los recintos de Río Piedras, Mayagüez, Humacao y Cayey. Las investigaciones de los científicos del INF serán encaminadas a desarrollar noveles procesos con nano partículas aplicables a la medicina, biotecnología, energía, ingeniería e informática, que contribuyan a la economía y el conocimiento en Puerto Rico. El nuevo instituto de nano ciencias y tecnología reclutará 15 nuevos científicos en transcurso de los próximos tres años. Como parte de este esfuerzo, la UPR proyecta desarrollar y graduar 12 nuevos doctores en nano ciencia en los próximos cinco años. Proyectos educativos como éste ponen a Puerto Rico en el mapa mundial. Somos altamente competitivos en nichos de la más avanzada ciencia y tecnología. Esto si se une a proyectos de apoyo para atraer nuevos estudiantes, y empujes administrativos que estimulen la creación de patentes y conferencias con industriales y empresarios, puede hacer de este tipo de inversiones algo que nos ponga en el camino de realizar las metas como pueblo que describí en el párrafo anterior.

¿Qué es eso de la "nanotecnología"? Según esa fuente gratis del conocimiento universal que es Wikipedia: "La nanotecnología es un campo de las ciencias aplicadas dedicado al control y manipulación de la materia a una escala menor que un micrómetro, es decir, a nivel de átomos y moléculas. Lo más habitual es que tal manipulación se produzca en un rango de entre uno y cien nanómetros. Para hacerse una idea de lo pequeño que puede ser un nanobot, más o menos un nanobot de 50 nanómetros tiene el tamaño de 5 capas de moléculas o átomos (depende de qué esté hecho el nanobot)." En Puerto Rico se trabaja con crear nanopartículas de diamante para aplicación en sensores y películas para dispositivos electrónicos. En desarrollar estructuras microscópicas para modificar las propiedades de transporte electrónico de materiales. En modificar y mejorar nuevas tecnologías para caracterizar y entender el funcionamiento de estructuras a escalas ultramicroscópicas. En nanopartículas biológicas para que se peguen de ciertas macromoléculas en nuestros cuerpos y puedan ayudar a crear imágenes detalladas del funcionamiento de ciertos tejidos. Para estimular reacciones químicas y entender sus mecanismos de intercambio atómico.

Las posibilidades son ilimitadas. El desarrollo de estas tecnologías en Puerto Rico es impresionante. Junto con las neurociencias y la biotecnología, el gobierno y la industria están convirtiendo esta área de investigación en una de las bases fundamentales para nuestro desarrollo económico futuro. Atrayendo compañías multinacionales en estas áreas y creando compañías nativas de apoyo esto puede tener un efecto multiplicador muy positivo en nuestra economía, creando miles de empleos indirectos. Y podemos usar nuestra experiencia para crear redes con investigadores de universidades americanas y europeas, a la misma vez que ayudamos al desarrollo de la ciencia en América Latina, proveyendo educación para estudiantes latinoamericanos y facilidades de laboratorio e investigación para que colegas de universidades latinoamericanas también se puedan insertar en el mundo de las ciencias.

"Nanotechnology is the base technology of an industrial revolution in the 21st century. Those who control nanotechnology will lead the industry."

-- Michiharu Nakamura, Executive VP at Hitachi


sábado, 26 de mayo de 2007

La Materia que no se ve pero se siente

En la ciencia generalmente se funciona bajo el principio de Santo Tomás, (el apóstol razonable y lógico que no creía ese negocio de que su jefe había resucitado después de muerto). Es la sensata máxima de "Hasta no ver no creer". Y esto casi siempre funciona bastante bien, siempre que estiremos un poco la definición del verbo "ver" no solo a lo que percibimos con los ojos sino con cualquiera de los 5 sentidos, y permitiendo la ayuda de aparatos tecnológicos (siempre que se entienda perfectamente bien cómo funcionan esos aparatos, y cualquiera pueda construir uno si tiene el dinero y los recursos para hacerlo). Pero esta regla epistemológica no siempre funciona. Hay cosas que existen pero no se pueden ver por más que uno trate. Un ejemplo de esto son los átomos y las partículas subatómicas. Aunque estamos casi 100% seguros de que tales cosas ultramicroscópicas existen solo podemos inferirlas indirectamente. Ningún microscopio electrónico ni detector de partículas puede ver un átomo por más potente que sea. Todo lo que conocemos de cualquier átomo individual se logra por medio de cálculos matemáticos sobre propiedades medibles indirectamente relacionadas con los putativos átomos. Creemos tan firmemente en ellos (y solo de unos 100 años para acá) por la consistencia lógica entre muchas medidas de este tipo, y porque la teoría atómico-molecular funciona a las mil maravillas para todas las reacciones químicas, equipos electrónicos y artefactos nucleares.

En astronomía el problema se complica aún más porque todo está horriblemente lejos, y lo único que nos llega de las cosas que vemos en el espacio exterior es la
luz que emiten y que recolectamos en telescopios y satélites. No podemos tocar ni oler ni oír nada fuera de la Tierra, (bueno con la excepción de las piedrillas que trajeron los astronautas de la Luna), solo podemos ver su luz. Por suerte la luz es un mensajero que contiene mucha información sobre las cosas que la emiten. La luz que vemos es solo una pequeña fracción del espectro electromagnético. Se puede decir que hay muchos tipos de "luz invisible". Entre ellos está el radio, las microondas, la radiación infrarroja y ultravioleta, los rayos X, y los rayos gamma (no el grupo de sátira política). Como la luz a gran escala se puede describir como una onda las propiedades de cada tipo de onda que recibimos en nuestros telescopios nos proveen de información valiosa sobre el objeto que emitió esa luz. El color de la luz y cuanta intensidad hay de cada color nos puede dar información detallada sobre la temperatura, composición atómica, velocidad, edad y distancia de nosotros de las estrellas o nebulosas que emitieron la luz. Además de producir retratos tremendamente hermosos. Del análisis de la luz que vemos proveniente del espacio sale prácticamente TODO lo que sabemos del universo.

Pero claro, esto tiene una limitación. Si algo no emite luz pues no vamos a poder saber que existe, ni saber nada de él, ¿no? Aunque hay billones de galaxias en el universo, cada una con billones y billones de estrellas y nubes de gas que podemos ver, ¿habrá cosas que no se pueden ver? La teoría astronómica dice que sí. Que debe haber remanentes fríos de estrellas, así como objetos exóticos como huecos negros, neutrinos y quién sabe qué otras cosas más que existen en el universo pero que como no emiten luz no se pueden ver. Pero los científicos si no ven algo pues tienden a creer que eso no existe. Si no hay pruebas pues se asume que no existe, no importa cuán bonito suene en teoría eso que uno quiera postular que existe.

Sin embargo, un análisis del movimiento de rotación de las estrellas en una galaxia sugería la existencia de grandísimas cantidades de esta "materia oscura" que no se puede ver. Porque aunque la materia no se vea, tiene peso. Si pesa es porque ejerce la fuerza de gravedad sobre cualquier otra materia vecina. Las estrellas en las afueras de la galaxia se veían que rotaban demasiado rápido. De acuerdo a la Primera Ley de Newton para que algo rote circularmente debe haber una fuerza hacia el centro de la rotación. En el espacio interestelar esa fuerza TIENE QUE SER gravedad. Pero la masa de las estrellas que uno veía en la galaxia no era suficiente para producir la fuerza necesaria para mover las estrellas a la velocidad a la que se ven girar. Una de dos: o las leyes de Newton están horrendamente mal a gran escala, o debe haber mucha más materia de la que uno ve en las estrellas. Y cuando decimos mucha más es porque es MUCHÍSIMA MÁS la materia que no se ve que la que sí se ve. La materia que vemos parece ser solo el 5-6% de toda la materia. Con estrellas apagadas o huecos negros estelares parece muy difícil llegar al 94% restante. Por eso la pregunta de " ¿Qué rayos es esa materia oscura? " es uno de esos misterios excitantes de la Física que todos queremos resolver, (y que hace a nuestro trabajo uno tan divertido).

Para ayudarnos recurrimos a uno de nuestros héroes, Albert Einstein. Según su Teoría de la Relatividad General aunque la materia oscura no se ve, se pueden hacer mapas detallados de ésta usando lo que se conoce como "lentes gravitacionales". La gravedad no solo atrae otros pedazos de materia, sino que tiene la propiedad de doblar un haz de luz. Cuando la luz pasa cerca de una gran concentración de materia se "curvea" debido a la gravedad producida por ésta. Al curvearse se ven "imágenes espejo" repetidas de estrellas que uno ya ha visto, pero como su luz se dobló las vemos fuera de su lugar normal en el cielo. Analizando la distribución espacial de estas débiles imágenes estelares distorsionadas podemos calcular donde está y cuanta masa tiene la "materia oscura" que las creó. Esto todavía no resuelve el misterio de de qué está hecha esta "materia oscura" pero nos da importantes pistas al respecto. Por lo menos sabemos que aparentemente está ahí desde los principios del Big Bang y que tiene una enorme influencia en cómo se forman y se distribuyen las galaxias en el universo.

La aventura del conocimiento continúa. Los físicos seguimos explorando la frontera final y llegando a donde jamás ha llegado el ser humano.




Blogalaxia Tags:


jueves, 24 de mayo de 2007

El crédito de Puerto Rico sigue escocotándose


Este “gobierno compartido” que elegimos imprudentemente solo comparte la miseria, la desfachatez y la ignorancia. Se acaba de recibir otra noticia nefasta para todo el pueblo de Puerto Rico. La degradación del crédito del gobierno que realizó la agencia Standard & Poor’s redujo los bonos gubernamentales de la gradación “BBB” a la gradación “BBB-” (el nivel próximo al de los llamados "bonos chatarra", que es el más bajo). También cambió la perspectiva del crédito de “negativa” a “estable”. (Claro, está “estable” porque es muy difícil que algo tan malo se pueda poner aún peor). Para un país que vive de coger prestado, y donde la mayoría de la gente asalariada si no cobra directo del gobierno depende de que éste le compre cosas, la noticia no puede ser peor. Vivimos en un país al borde de la quiebra y donde nadie en el mundo nos va a querer fiar ni un chicle.

Aníbal y su desgobierno dicen que “aquí no ha pasado nada” y que sus políticas de seguir recortando servicios, encarecernos la vida a todos (excepto a las grandes corporaciones), no botar ni una batata, y echarle la culpa de todo al PNP seguirá como hasta ahora. Los PNP se alegran de la desgracia, le echan la culpa de todo a Aníbal pero nunca dicen que harían diferente. Y cualquiera con dos deditos de frente sabe que si ellos ganaran seguirían cobrando el IVU igualito que ahora, y no tendrían una política fiscal nada diferente a la de Aníbal.

Sila y Aníbal llevan ya seis años de desastre administrativo y todavía siguen con la cantaleta boba de que Rosselló y Primitivo Aponte tienen toda la culpa de lo que pasa. No te dicen nunca que gran parte del problema es lo que malgastaron sus administraciones de gobierno. Las batatas que emplearon. Las contribuciones a empresarios que no cobraron. La incompetencia de sus jefes de agencia. El gobernar con chavos prestaos que no saben cómo van a pagar. La irresponsabilidad fiscal de subir sueldos a gente que no se lo merece y gastar millonadas en fiestas, "arte público", gastos de publicidad y abogados por contratos de $500 la hora.

POR ESO ES QUE SILA y ANÍBAL no sirven. No por lo que roban. Por lo MAL que ADMINISTRAN el presupuesto del país.

Mientras sigamos votando POR LA MISMA GENTE y tengamos un gobierno compartido de 2 buitres que se pelean por la carne de un mismo muerto seguiremos de mal en peor como país. El PPD y el PNP solo se preocupan del bienestar de los grandes intereses que le financian las campañas, y del bienestar de los políticos incompetentes y corruptos que componen su cúpula y su maquinaria.

Tienen las mismas políticas fiscales:

• Súbele las contribuciones al pueblo, nunca a las corporaciones.
• Súbele los sueldos a los legisladores y jefes de agencia.
• Usa el dinero público para politiquear.
• Critica al otro de corrupto pero defiéndelo si lo hace el tuyo.
• Premia a tus fanáticos con puestos y batatas aunque no hagan nada en sus trabajos.

Mientras sigamos con más de lo mismo, seguiremos barranco abajo. Y hay opciones buenas. El que busca, encuentra. Si siguen obligados a votar por la misma zahorria sin intelecto porque le tienen miedo a la independencia, el ELA colonial terminará tan pobre y tercermundista como las repúblicas con las que nos meten miedo.

miércoles, 23 de mayo de 2007

Tech Support Medieval

Como estoy corrigiendo exámenes finales no tengo mucho tiempo para escribir las largas pero excitantes entradas que les gustan a los fanáticos de este blog. Hoy solo pongo un corto video humoroso que le encantará a los "geeks" (y no lo nieguen, que todos los que leen esto lo son). Es un chiste sueco bastante interesante.

Esto ocurre en uno de los raros casos en que se introdujo una nueva tecnología revolucionaria en la Edad Media. La capacidad de bregar con esta tecnología se me parece a la de muchos de mis estudiantes, que con el internet y la TV han olvidado cómo usar estos antiguos, pero valiosísimos artefactos.



Blogalaxia Tags:



martes, 22 de mayo de 2007

¿Qué es una “teoría”?

Mucha gente usa la palabra "teoría" sin entender de verdad lo que significa. El uso coloquial de esta palabra se escucha en los medios de comunicación masiva en frases como "Bueno, yo tengo una teoría de por qué pasó eso" o "Los policías investigan la teoría de que…" o "Una cosa es la teoría y otra es la práctica". Para muchas personas una "teoría" es cualquier idea loca que alguien se invente.

En las ciencias, sin embargo, la palabra teoría tiene un significado preciso y exacto. Sin embargo, en discusiones sobre ciencia en las noticias y otros medios mucha gente cree que "La Teoría de la Relatividad" o "La Teoría de la Evolución" están en el mismo nivel epistemológico que "La Teoría del Diseño Inteligente" o "La teoría del posmodernismo en la pintura". La mayoría de la gente (incluyendo muchos científicos, pues este tipo de cosas nunca se enseña en las clases especializadas de ciencia a los físicos, químicos o biólogos en la universidad) cree que una teoría es una especie de escalón intermedio en la escalera de la certidumbre y la verdad. Se estima que una teoría es algo no tan cierto como una ley, pero más cierto que una hipótesis (las cuales a su vez son más ciertas que los embustes malintencionados de un político como el famoso "Nunca pondré un "sales tax" en mi administración de gobierno"). Por lo tanto, mucha gente parece creer que una teoría científica es algo dudoso de lo cual no se está muy seguro de que sea verdad. Y un corolario lógico de esta creencia es que una teoría es algo para lo que no hay prueba contundente, y que solo cuando se "prueba" con experimentos es que una teoría puede considerarse verdadera, y así convertirse en "ley de la naturaleza".

Pero esto es FALSO. Una teoría científica no tiene nada que ver con si su contenido es cierto o no. Hay teorías científicas totalmente falsas que siguen siendo teorías. La falsedad no le quita el status de "teoría científica". Y lo más importante es que el corolario no es válido entonces. Hay teorías COMPLETAMENTE PROBADAS por toda la evidencia disponible, y eso no las sube a otra categoría superior ni las convierte en leyes. Una teoría se define no por cuan cierta sea sino por su

  • LÓGICA INTERNA
  • CAPACIDAD DE SER COMPLETA (explicar TODOS los fenómenos bajo estudio conocidos sin que se quede ni uno)
  • COMPATIBILIDAD CON LA EVIDENCIA (al momento en que se cree la teoría)
  • PLAUSIBILIDAD NATURAL (no incluir explicaciones misteriosas o sobrenaturales)

Según la National Academy of Sciences de los Estados Unidos una teoría es "una explicación completa y bien fundada de un aspecto del mundo natural que incorpora datos, leyes, inferencias e hipótesis falsables y respaldadas por evidencia." Una teoría es por tanto un complejo de muchas hipótesis conectadas por un armazón de lógica cuyo cemento es la evidencia empírica.

Por eso el embeleco religioso creacionista del "Diseño Inteligente" NO ES UNA TEORÍA. Y el argumento creacionista de que "la evolución es dudosa porque solo es una teoría" es una falacia que ignora el significado epistemológico del término teoría según lo definen con su práctica los verdaderos científicos. Cuando un físico se refiere a la Teoría de la Relatividad o a la Teoría Electromagnética de Maxwell no piensa que es dudosa o que no haya certeza de que sus predicciones sean correctas.

La evolución biológica es un HECHO. De que ocurrió, está ocurriendo y ocurrirá la evolución biológica no hay duda alguna ya. TODA la evidencia paleontológica, biológica, genética y del récord fósil apoya el que los organismos vivos en la Tierra tuvieron un origen común hace como 3 billones y medio de años. Aunque no había nadie allí para verlo y la evolución ocurre muy lentamente para que nadie la pueda ver directamente, la evidencia indirecta es INCONTROVERTIBLE.

Ahora bien, hay varias Teorías de la Evolución porque no se entiende bien los mecanismos de especiación, el efecto de condiciones ambientales, factores cósmicos extra-terrestres (si algunos) y la rapidez con la que ocurrió la evolución de varias especies. Pero el que no se entienda todo lo que una teoría A propone y aún haya controversias entre sus proponentes NO SIGNIFICA que la Teoría A es falsa y por tanto su competidora, (la falacia mágico-religiosa B sin ninguna evidencia a su favor), entonces debe ser cierta. Esto es un embuste malicioso de los religiosos derechistas a la Bush que quieren prostituir la enseñanza de las ciencias en las escuelas públicas. Y todos los científicos y personas inteligentes debemos de estar pendientes y defender la verdadera ciencia de estos ataques religiosos y politiqueros. De eso depende el futuro y la economía de nuestros países.


jueves, 17 de mayo de 2007

Pasando el alma humana a una computadora


Desde tiempo inmemorial los humanos hemos soñado con un concepto aparentemente imposible: la INMORTALIDAD. El vivir para siempre. Casi todos aceptan la muerte como algo natural. Ya lo dice el conocido refrán: “Hay dos cosas seguras: la muerte y los impuestos.” Todos nos tenemos que morir. Y ahora eso es así. Las religiones y la mitología siempre han tratado de obviar el miedo a la terminación completa y absoluta del “yo” que tendría que venir con la muerte postulando un “fantasma” inmortal. Un espíritu inmaterial que sobrevive al cuerpo. Este mítico espíritu invisible o “sube” al “cielo” (una idea totalmente mitológica de cuando se creía que la Tierra era el centro del universo, y el “cielo” era una bola que giraba encima de nuestro planeta), o “reencarna” en otro cuerpo (otra idea algo absurda porque ahora hay billones de veces más “almas” que hace 3 o 4 generaciones atrás. ¿De dónde vienen entonces las almas “nuevas”? Y si se crean almas “nuevas de paquete”, ¿para qué reciclar las viejas por magia? ¿Y donde se guardan los recuerdos de vidas pasadas si no hay memoria sin bits físicos de información?).

De más está decir que no hay absolutamente NINGUNA EVIDENCIA empírica de que existan tales espíritus fantasmales hechos de “protoplasma inmaterial” que ni pesa ni ocupa espacio, controla al cerebro por magia no física, y sobrevive a la muerte del cuerpo biológico. El no querer morirnos y soñar con una vida en el “más allá” es un deseo universal de todas las culturas humanas. Pero el querer que algo exista no hace que eso exista. Máxime si ese ente espiritual mágico violenta las leyes de la Física según las conocemos.

Pero si el espíritu inmortal de las religiones y las mitologías no existe (por más que lo deseemos), ¿podría la ciencia proveernos de “INMORTALIDAD”? ¿Estaría dentro del poder de la medicina y la biología “curar” la muerte? ¿Transferir mis memorias, mis emociones y mi conciencia a otro sitio cuando yo me muera para que no se pierdan? ¿Podría “yo” seguir viviendo después de morir por algún artilugio científico-tecnológico?

La contestación ahora mismo es definitivamente que NO. Nada nos puede salvar por ahora de la muerte que nos acecha a todos, y que tarde o temprano nos alcanzará sin remedio. Podemos extender la vida un poco y curar ciertas fallas en nuestro cuerpo biológico, pero los mecanismos de envejecimiento y eventual muerte parecen ser ineludibles.

Pero las ideas modernas de que nuestra alma es un set de patrones neuronales en el cerebro que sirven de control maestro a todas las percepciones, emociones, acciones y pensamientos del animal que identificamos como que soy “yo” sugiere una posible salida a la inevitabilidad de la muerte. Mi cuerpo biológico tiene que morir. Pero, ¿se podrá grabar y rescatar este complejo patrón de memorias y señales electroquímicas en algún otro sitio que no sea mi cerebro? Si nuestra inteligencia y personalidad es el SOFTWARE del cerebro, ¿no se podrá hacer un “backup copy” de ese SOFTWARE en otro medio físico?

En la ciencia-ficción esta idea de que nuestro yo interno es una computadora compleja que eventualmente nuestras computadoras pueden alcanzar en complejidad es cada vez más popular, (entre mis instancias favoritas está Data, el maravilloso androide de Star Trek: The Next Generation o la espectacular trilogía de The Matrix). Lo interesante es que hay varios científicos visionarios trabajando en esta meta.

¿Cómo crear una computadora tan compleja que sea capaz de reproducir el alma de un ser humano? Muchos piensan que eso es imposible. Dicen con una seguridad categórica que nunca jamás una computadora podrá reír o llorar o amar. Que no podrá tener libre albedrío. Que no podrá ser impredecible como un ser humano. Pero este tipo de prohibición (que ahora es totalmente cierta) se basa en un desconocimiento de cómo funciona la mente humana (lo que la hace tan “mágica” e impredecible) y en creer que las computadoras en el futuro seguirán siendo esencialmente iguales a las de ahora, y teniendo siempre las mismas limitaciones. Ambas premisas me parecen dudosas y poco confiables como para hacer estas predicciones tan tajantes de que “esto siempre será imposible”. No veo ninguna imposibilidad ni matemática ni en las leyes de la física que prohíban el desarrollo de computadoras “inteligentes” (y los matemáticos más “nerds” que no me vengan a citar el Teorema de Gödel, porque no es eso lo que dice).

En el 2005 se comenzó un proyecto revolucionario denominado el “Blue Brain Project”. Este es un consorcio entre IBM y el Brain and Mind Institute en la École Polytechnique de la ciudad de Lausanne en Suiza. Usando la arquitectura de la supercomputadora Blue Gene (famosa por ser la campeona mundial de ajedrez) este ambicioso proyecto intenta crear una simulación funcional y biológicamente similar a un cerebro humano. La idea es simular en software el funcionamiento de una neurona y luego crear una red neural que conecte las sinapses electrónicas de millones de estas neuronas artificiales. La meta inicial es crear un enjambre de sobre 60,000 neuronas electrónicas para simular el funcionamiento de la columna neocortical del cerebro (esta es la unidad independiente más pequeña de la corteza frontal del cerebro). El proyecto ha logrado simulaciones de sobre 30 millones de conexiones sinápticas en sus posiciones correctas en una red en 3 dimensiones. Los neurocientíficos cada vez más se acercan a la meta de un entendimiento completo de ese gran misterio científico que es el cerebro humano.

La meta del proyecto no es crear una “computadora inteligente” todavía. Más bien lo que busca es investigar ciertos aspectos neurológicos de los procesos cognitivos básicos, así como averiguar el porqué de ciertos desordenes nerviosos como el autismo. Pero es un gran paso de avance hacia el sueño de la ciencia-ficción de poder plasmar nuestra conciencia y nuestra memoria en un cerebro artificial computarizado y así, por medios científicos y no por espiritismos mitológicos, lograr algún día alguna medida de inmortalidad de nuestra alma.

martes, 15 de mayo de 2007

Ciencia, verdad y consenso

Hemos recalcado antes que la ciencia es una disciplina humana que busca la "verdad". Su meta es explicar de la forma más certera posible las cosas que todos podemos ver cuando observamos el mundo con cuidado. Detesta la falsedad, y si encuentra que alguna explicación de los sucesos del mundo no concuerda con lo que todos objetivamente pueden ver la descarta. Es por eso que se considera a la ciencia como una disciplina confiable y siempre en progreso. Porque su método de estudio y su ética de trabajo es "auto-correctiva". Se puede decir que el método científico es el mejor "detector de mentiras" inventado por la humanidad. Y la mejor prueba de esto es el impresionante historial de progreso de todas las ciencias desde que en el Siglo 17 Galileo Galilei sentó las bases fundamentales de cómo hacer una ciencia moderna y exitosa.

En esencia la ciencia moderna se caracteriza por ser "falsable". Es decir que nunca se sabe a ciencia cierta si una teoría científica es cierta. Lo que sí se sabe con certeza es que si una teoría no concuerda con la realidad empírica que se puede observar de manera objetiva pues entonces es FALSA. Según Karl Popper ese es el criterio definitorio de esa empresa colectiva que conocemos como CIENCIA. Pero en verdad a nosotros nos interesa saber cómo funciona el mundo y que va a pasar en el futuro, aunque técnicamente lo único que sabemos con seguridad es COMO NO FUNCIONA.

La "verdad" científica es un concepto más elusivo y difícil de tener. En esencia algo es "verdad" en la ciencia si la mayoría de los científicos creen en ese momento de la historia que es verdad. La verdad la deciden por consenso la mayoría de los que componen la comunidad científica de la época. Lo que hoy es verdad, mañana puede que no lo sea. Sin embargo, no siempre hay consenso entre los científicos sobre cuando una cosa es verdadera o no. A veces se suscitan debates grandísimos entre dos o más contendientes al título de "Verdad Científica". Los debates duran hasta que uno de los grupos logra convencer a los demás usando la lógica y la evidencia, ya sea confirmando algunas predicciones importantes de uno de los contendientes o demostrando que algo de lo que se alega es falso y no corresponde con la evidencia que se obtuvo.

Lo más impresionante de la historia de la ciencia es que estos debates se rigen totalmente por la lógica y la razón, con unas reglas de debate justas y equitativas, donde se les da oportunidad a todos por igual de presentar su caso, y con una ética de honestidad intelectual envidiable. Como en toda empresa humana, siempre se cuelan algunos embusteros, tramposos y chanchulleros pero en mucha menor cantidad que en la política, la religión, los negocios, los vecindarios o las disputas familiares. De nuevo, y aunque suene un poco arrogante, la física y las ciencias naturales son las actividades humanas donde se adquiere EL MEJOR TIPO DE CONOCIMIENTO CONFIABLE y ÚTIL. Todos debiéramos de emular la forma lógica de pensar, la duda institucionalizada, y la ética del debate de las ciencias en muchos otros ámbitos de nuestra sociedad y nuestra vida diaria.



En este video se ve al Dr. Lee Smolin comentando sobre cómo se dan estos debates en la ciencia. El Dr. Smolin es un cosmólogo muy famoso del Perimeter Institute for Theoretical Physics de Canadá y que acaba de publicar un excelente pero controversial libro criticando la teoría de las supercuerdas titulado "The Trouble with Physics: The Rise of String Theory, the Fall of a Science, and What Comes Next". Es el último y el más famoso de una serie de libros que han salido recientemente con este tipo de críticas. Smolin argumenta que la teoría no es falsable porque no se pueden hacer experimentos para probar si es cierta o no. Esto no es culpa de la teoría sino de que ella postula que las supercuerdas son de tamaños del orden de un largo de Planck (una unidad natural en gravedad cuántica construida de G, c y ħ y que es del orden de 10-35 cm. En gravedad cuántica esta es la unidad más pequeña que puede haber. Ninguna partícula material puede estar a menor distancia de otra que esto). Esto hace que sea totalmente imposible tener evidencia experimental sobre las supercuerdas y sus propiedades en detalle, pues para resolver cosas tan pequeñas se necesitarían aceleradores de partículas billones de veces más potentes que los que tenemos y que usarían más energía que la que emiten todas las estrellas de nuestra galaxia. Muchos críticos argumentan que una teoría del mundo sobre la cual no se pueden hacer predicciones experimentales no es ciencia sino filosofía.

Los defensores de las supercuerdas argumentan que si se puede lograr una teoría consistente y completa que se reduzca a la Mecánica Cuántica y a la Relatividad General pues se está de acuerdo con toda la evidencia que tenemos, lo que ninguna teoría ha logrado hacer hasta ahora. Han diseñado propuestas para tratar de medir efectos de scattering sobre las supercuerdas de la luz que viene de quasares a billones de años-luz de distancia, y que puede que esos efectos ultra-minúsculos se sumen hasta producir efectos medibles luego de que la luz recorra tan grandes distancias. También se busca medir en aceleradores de partículas efectos que denoten la existencia de supersimetría o de dimensiones grandes adicionales a las 4 de nuestro espaciotiempo que proponen ciertas cosmologías de "brane-worlds" basados en teoría de supercuerdas (de todo esto habrá que hablarse en más detalle en entradas futuras del blog). La cuestión es que aunque aceptan que es casi imposible verificar predicciones nuevas de la teoría de supercuerdas, los defensores creen que esto se puede hacer en un futuro, y que quizás la ciencia no necesariamente tiene que cumplir con el criterio Popperiano de falsabilidad.

Otra de las críticas de Smolin indica que la teoría de las supercuerdas creció desde la Mecánica Cuántica y luego descubrió que puede incorporar el Lagrangiano de la Relatividad General, en esencia creando la curvatura del espaciotiempo y la gravedad de enjambres de supercuerdas en un universo plano y con una estructura del espaciotiempo fija y definida. Pero esto va contra el espíritu de la teoría de Einstein de que toda teoría debe ser relativa en donde cualquier marco de referencia debe ser tan válido como cualquier otro y no hay observadores privilegiados. Esto implica que cualquier teoría de física fundamental debe ser válida en cualquier espaciotiempo de cualquier forma que tenga la misma topología del que estemos usando en un momento dado. A esto Smolin le denomina como que la teoría debe ser "independiente del fondo" ("background independent"). Es decir que la teoría correcta del universo no debiera de casarse con, o solo funcionar en un espaciotiempo de fondo particular. Como la teoría de supercuerdas adolece de esto, los críticos dicen que es muy improbable que funcione.

Otro problema de la teoría de supercuerdas es que algunos de sus resultados más famosos y elegantes son en casos particulares de mucha simetría que no se han visto en la naturaleza y la empresa depende de que estos resultados se puedan generalizar a TODOS los casos del universo en donde apliquen. Los teóricos de supercuerdas asumen implícitamente que esto es cierto pero no tienen ni seguridad ni pruebas matemáticas de que esto sea así. Por eso Smolin, que es uno de los campeones de una teoría de gravedad cuántica competidora con las supercuerdas conocida como "loop quantum gravity" argumenta que las fundaciones como NSF que financian la investigación científica y las universidades no debieran poner todos los huevos en la canasta de las supercuerdas. Que les debieran tirar con chavos y trabajos académicos a los estudiantes graduados de proyectos minoritarios y medio "loquillos" como los de Smolin y otros grupos que cada vez más fuerte critican la empresa de la teoría de supercuerdas.

Es un debate científico la mar de interesante que está empezando a ganar atención de revistas populares, estaciones de radio, programas de TV de PBS como NOVA, y blogs (como éste). Y de nuevo ilustra nítidamente como se llevan las "guerras" en la ciencia entre adversarios acérrimos. Ojalá las peleas de presupuesto, status, y desarrollo de nuevas leyes entre populares y penepés se diera con el civismo, la inteligencia y la lógica de los debates entre físicos teóricos.


Blogalaxia Tags:





lunes, 14 de mayo de 2007

La Madre de las Teorías Científicas


Como ayer fue el Día de las Madres, (¡Hola mami!, espero que estés leyendo esto), pero yo vivo obsesionado con la Física por su belleza, asombro y esplendor, pues voy a dedicar esta entrada al candente debate que se está suscitando actualmente entre dos campos opuestos de físicos teóricos sobre las TEORÍAS DE TODO. El “Santo Grial” de la Física, (es decir, la meta deseada de todo físico), es poder explicar TODO lo que se ve en la naturaleza con un set de ecuaciones matemáticas lo más reducido posible, donde cada una de ellas sea lo más chiquita, simple y elegante posible. Esto, claro está, es relativo. Lo que es simple y elegante para uno puede ser muy complejo y feísimo para otro. Pero al menos para la gente con un doctorado en Física esta ciencia debe ser lo más “fácil” y “bonita” que se pueda tener.

Aunque mucha gente encuentra esto sorprendente e increíble por los mitos y la mala fama que adquiere la Física desde la escuela elemental, y los clichés sobre la ciencia que vemos en películas y novelas de ciencia-ficción. El que no es físico cree que la Física es una disciplina horrendamente difícil, fea, incomprensible y odiosa que es bueno verla de afuerita, pero que solo un loco bien “nerdy” escogería como profesión para toda la vida. Pero para los físicos teóricos lo que nosotros estudiamos es una disciplina creativa sumamente hermosa y elegante. La Física de los últimos 30 años ha estado motivada casi totalmente por la estética. Como no tenemos data experimental accesible, (pues ésta requiere muy altas energías y por tanto máquinas que cuestan varios billones de dólares), pues buscamos tener las teorías más LINDAS y FÁCILES posibles. Estamos guiados por el principio de que “la belleza es la verdad, y la verdad debe ser bella”.

Claro, hay otra pequeña limitación en las ciencias. Tu hermosa y escultural teoría NO PUEDE PREDECIR NADA FALSO ni contradecir la data experimental que se conozca hasta ese momento. En esencia eso quiere decir que bajo las condiciones de relativamente baja energía a la que los humanos tenemos acceso tu teoría debe terminar pareciéndose mucho a las 2 teorías actuales que cumplen con este requisito de ser siempre correctas empíricamente. Como todos ya saben de leer mis entradas anteriores, estas 2 teorías son la Mecánica Cuántica y la Relatividad General.

La Madre de las Teorías de TODO es el set de teorías conocidas como “Superstring Theory” o teoría de supercuerdas. Y la teoría que postula que las diferentes teorías de supercuerdas se pueden convertir unas en las otras mediante ciertas transformaciones matemáticas conocidas como “dualidades” se conoce así como “M-Theory”. El nombre se lo puso uno de los Decanos de la teoría de supercuerdas, Edward Witten, aunque él nunca ha dicho de que palabra es inicial esa misteriosa M (¿Madre? ¿Misteriosa? ¿Maldita? ¿Mágica?) .

De una década para acá todos los físicos teóricos jóvenes e inteligentes querían trabajar en esto. Esta teoría está “pegá” y como 8 de cada 10 profesores nuevos de física teórica en universidades norteamericanas y europeas era un teórico de supercuerdas. La teoría se empezó a vender en la prensa y las conferencias científicas como la culminación del sueño de Einstein de lograr una teoría de campos unificada que explicara todas las partículas fundamentales y todas las fuerzas de la naturaleza en un marco conceptual simple, bonito y sin cálculos que dieran resultados infinitos y absurdos (como le pasa tanto a la Mecánica Cuántica como a la Relatividad General en varios casos). Todo parecía indicar que en unos pocos años se obtendría una teoría única y consistente que se redujera a la Mecánica Cuántica en el ámbito de partículas subatómicas de baja energía, y a la Relatividad General en el ámbito de gravedad y la curvatura del espaciotiempo. Muchos físicos optimistas predecían hace 15 o 20 años que la teoría de supercuerdas sería “el final de la física teórica”: la teoría final que lo explicaría todo en principio y que sería el paradigma a seguir para todas las otras ciencias de la naturaleza. Todas las universidades y las agencias gubernamentales que financian la ciencia pura se tiraron con fuerza detrás de este proyecto tan ambicioso.

Pero luego del período conocido como “La Segunda Revolución de las Supercuerdas” hace ya más de 10 años el proyecto parece avanzar a paso de tortuga. Ninguna de las promesas grandiosas se ha materializado aún. Es muy temprano para decir que la teoría de las supercuerdas está mal o que no sirve, pero han empezado a salir varios críticos vocales que creen que la teoría de supercuerdas ha sido un fraude y que no se debe gastar tanto dinero ni recursos en ella como hasta ahora. Un debate científico está tomando forma y parece que va en dirección a una guerra revolucionaria campal entre los defensores de la teoría de las supercuerdas (el “Imperio” que ahora es mayoría y tiene muchos recursos) y los críticos con teorías alternas (los “rebeldes” que quieren cambiar el estado de cosas en la Física). Esta guerra puede cambiar nuestra concepción básica de la realidad y el universo (oootra vez).

Mañana haremos un resumen de los argumentos a favor y en contra de la teoría de supercuerdas de ambos campos. No se lo pierdan. ¿Ven que la ciencia es tan excitante como una telenovela o una serie televisiva de acción y suspenso?


sábado, 12 de mayo de 2007

Cuidado con el agua embotellada


A la verdad que a las grandes corporaciones capitalistas no se le puede creer ni el Ave María. Con tal de ganarse unos pesos más, son capaces de vender hasta a su madre. Ante el afán desmedido de lucro ni corporaciones supuestamente santas e inofensivas como Disney o Coca-Cola se salvan de mentir, estafar y traquetear ilegalmente.

En esta espeluznante noticia, se descubrió que la famosa agua embotellada Dasani (una subsidiaria de la Coca-Cola) tuvo que retirar del mercado sobre 500,000 botellas en Inglaterra porque lo que estaban vendiendo era agua de la pluma proveniente del contaminado río Támesis. Además del fraude y los anuncios engañosos, se confirmó además que Dasani tenía el doble de bromato que lo permitido, conteniendo de esa manera sustancias carcínogenas, por lo que resultaba especialmente peligrosa si era bebida en grandes cantidades. Ello como consecuencia del tratamiento que a esa agua de la pluma se le hizo con productos químicos, a fin de hacerla pasar como “mineralizada” y competir así en el mercado con las verdaderas aguas minerales. Como se dijo, los planes de Coca Cola para expandirse hacia otros países europeos fueron cancelados de inmediato.


Explicándole a sus lectores el “modus operandi” de Coca Cola para crear Dasani, el diario The Guardian señaló: “Sería algo así: tome agua del río Támesis de la canilla en la fábrica en Sidcup; sométala a un proceso de purificación y denomínela ‘pura’; agregue un poco de cloruro de calcio que contenga bromuro, para darle el ‘sabor’; luego bombee ozono, oxidando el bromuro, lo cual no es un problema, convirtiéndolo en bromato, que sí lo es. Por último, envíe a los comercios botellas de agua que contengan hasta el doble del límite legal de bromato, que es de 10 microgramos por litro”.

Y si eso es en Europa, ni quiero imaginar lo que harán con la que venden aquí o en Latinoamérica. Mejor me reafirmo en mi política de beber solo cerveza Medalla.

viernes, 11 de mayo de 2007

Huecos Negros Supermasivos

Otra pregunta que se hacen los astrónomos locos (¿o serán los locos que son astrónomos?) cuando miran al universo por sus telescopios y satélites es: ¿Por qué las estrellas están tan lejos unas de otras? Usando la teoría del Big Bang uno entiende porqué las galaxias están bien lejos unas de otras. La razón es que el universo crece y se expande con el paso del tiempo. Y como han pasado 14 billones de años desde la Gran Explosión Inicial, pues estos enjambres de estrellas, polvo y materia oscura que llamamos galaxias han sido llevados por este espaciotiempo que se infla a estar cada vez más lejos unas de otras como una tabla de surfing es movida por una ola del mar.



Pero las galaxias mantienen a todas las billones de estrellas que las integran juntas por gravedad. Se mueven como un colectivo en el gran mar del espaciotiempo universal inflable. Una estrella, como seguro saben, es una gran esfera de gas (mayormente hidrógeno) miles de veces más grande que todo el planeta Tierra. Pero, ¿qué impide que se formen unas estrellas justo al lado de las otras de las grandes nubes de gas primordiales que se coagularon en proto-galaxias luego del Big Bang? Esto a veces pasa, claro está, y se conocen como estrellas binarias . Dos estrellas que están bien cerca una de la otra, y cada una es como si fuese un planeta de la otra, girando en un tango cósmico impresionante.

Pero por suerte esto es una ocurrencia relativamente rara. La mayoría de las estrellas están solas y aisladas de todas las demás. La distancia promedio entre una estrella y otra en una galaxia típica es de varios años-luz (acuérdense que un año-luz es la distancia que la luz recorre en un año, y la luz viaja a la friolera de 300,000 kilómetros CADA SEGUNDO. Un año-luz es casi un cuadrillón [1012] de kilómetros). Y es una suerte que estén tan aisladas unas de otras porque con sobre 250 billones de estrellas en una galaxia habrían muchísimos “choques” entre unas estrellas y otras de no ser así. Pero si las estrellas se pasaran chocando o cruzando cerca unas de las otras no habría sistemas planetarios pues estos “encuentros cercanos” entre estrellas desbaratarían los planetas y los sacarían de sus órbitas.

Es bueno para los habitantes de los planetas que esto sea así, pero hasta hace poco esto era un misterio en el estudio de la evolución y formación de estructuras galácticas. ¿Qué procesos físicos son responsables de hacer que una nube de gas se fragmente y sus aglomeraciones de gas proto-estelares estén tan lejos unas de otras? Y los culpables de esto parecen ser los huecos negros supermasivos.

Un descubrimiento asombroso, (y lo divertido de estudiar astrofísica es que casi todos los descubrimientos que se hacen lo son), de la década de los 90 fue el hecho de que casi todas las galaxias cuyos núcleos podemos estudiar tienen un gigantesco hueco negro adentro. Incluyendo nuestra propia galaxia de la Vía Láctea, que tiene un hueco negro gigante denominado Sagitario A que pesa sobre 2.6 MILLONES de masas solares. Es como meter 2.6 BILLONES de veces los 1024 kilogramos que pesa TODO en la Tierra en un espacio menor que un grano de arena. Qué concepto tan bárbaro, ¿no? Aplastar estas cantidades inmensamente grandes de materia para obligarlas a caber en un espacio tan pequeño requiere de una fuerza de gravedad tan grande que no hay nada en el universo que se le pueda oponer. Esto deforma el espaciotiempo de una manera tan salvaje que todas las leyes de la física que conocemos pierden todo sentido. Un hueco negro supermasivo es un monstruo invisible que se traga todo lo que caiga en sus garras gravitatorias, y todo lo que entra en él se pierde total y completamente de este universo. Son negros porque se tragan hasta la propia luz. Son puertas a un Hades cósmico del cual nunca habrá salida y los que por ellas pasan deberán perder toda esperanza de regresar, como en el Infierno de Dante.

La teoría más aceptada actualmente indica que lo primero que se forma en una galaxia nueva cuando nace es uno de estos huecos negros que entonces empieza a tragarse de forma voraz todas las trillones de toneladas de gas y materia que tiene a su alrededor. Al irse tragando estas inmensas cantidades de gas, y debido a la fricción de caer hacia el hueco negro a la velocidad de la luz, este potaje cósmico se calienta a temperaturas que desafían la imaginación encendiendo una de las conflagraciones más brillantes y energéticas de todo el universo. Como dije en una entrada anterior, se cree que este mecanismo es responsable de los quasares y de los jets relativistas que se observan en los núcleos de galaxias activas.

Hace algunos años, Laura Ferrarese y sus colaboradores de la Universidad de Rutgers descubrieron otra pista interesante. Mientras más pesado era el hueco negro supermasivo en el centro de la galaxia más rápido giraban las estrellas en la periferia de esa galaxia. ¿Pero que relación podía haber entre estas 2 cantidades si las estrellas en la periferia de una galaxia están a decenas de miles de años-luz de distancia del hueco negro? Por más grande que sea la gravedad en la vecindad del hueco negro no puede tener un brazo tan largo como para acelerar estrellas a tan enormes distancias de éste.

Todo parece indicar que en la formación de cada galaxia el hueco negro juega un papel importante en la formación de todas las demás estrellas. Cuando se forma el hueco negro supermasivo en el centro y éste empieza a tragar materia en grandes cantidades se generan enormes flujos de radiación X y radiación gamma de alta energía. Este viento energético barre hacia atrás las capas exteriores de gas. Esto crea bolsillos de variada densidad y se especula que esto sirva de semilla para un período de formación intensa de nuevas estrellas. Al barrer el gas hacia regiones lejos del hueco negro las estrellas se separan bien lejos unas de otras, y el hueco negro se queda sin comida. Mientras más grande y densa sea la región central donde está el hueco negro, más se tardará esto en ocurrir y más rápido irán viajando las estrellas exteriores cuando este festín estelar termine.

La moraleja de este cuento astronómico es que sin estos huecos negros masivos, (que ahora vamos descubriendo por todos lados pero hace apenas 20 años atrás ni creíamos que existiesen), las estrellas probablemente estarían enbonchadas muy cerca unas de otras. Y no habría planetas. Y sin planetas no hay vida ni evolución. Y sin evolución no existiría este blog ni el que los escribe ni los que lo leen. Así que aunque usted no lo crea, le debe la vida a un monstruoso hueco negro supermasivo comelón en el centro de la Vía Láctea.

La física te da sorpresas. Sorpresas te da la física. ¡Ay, Dios!

jueves, 10 de mayo de 2007

La educación científica y el quehacer político

Recientemente compré y estoy leyendo el excelente libro “Mokita en blanco y negro” del Dr. Daniel Altschuler, físico de la Universidad de Puerto Rico y ex-Director del Observatorio de Arecibo. Altschuler es otro de esos raros científicos que no solo se preocupa por algún problema científico de interés para la comunidad de los expertos en estas áreas, sino por educar y divulgar la ciencia a la gente que NO SON CIENTÍFICOS. Es de la estirpe de Carl Sagan, Stephen Hawking, Albert Einstein y varios otros físicos, que además se han hecho escritores famosos por libros “best-seller” de ciencia popular (sin ecuaciones matemáticas, aunque no siempre eso quiere decir que son fácilmente inteligibles). El libro lo encuentran en las librerías La Tertulia o Norberto Gónzalez en el pueblo de Río Piedras, o escribiéndole al autor a daniel@naic.edu.

Es un libro excelente (y sumamente controversial, y quizás por eso tan bueno), y se los recomiendo a todos los que me leen. Es uno de los mejores libros que he leído (y he leído un montón). Es una visión algo pesimista (porque “un pesimista es un optimista bien informado”) pero certera y de denuncia al mundo alucinante, descabellado y absurdo que el fanatismo político, la religión acrítica, y la irracionalidad consumerista nos ha legado. La mayoría de los científicos tienden a ignorar y no querer mirar este mundo que han ayudado a crear y por el cual se tienen que hacer responsables. La única esperanza de salvación radica en que los científicos enseñemos a todo el resto de la población a pensar como científicos, a adoptar la ética de los científicos, y a entender los logros y desaciertos que han tenido los científicos.

Quería dejarlos con algunas citas sobre porqué coger cursos de ciencia en la escuela superior y la universidad (algo que casi todos odian) es tan importante para nuestro quehacer político moderno y para nuestra supervivencia como especie:

Es paradójico que en un mundo cada vez más dependiente de la ciencia y la tecnología (le guste a uno o no) la fracción del tiempo dedicado a la enseñanza de la ciencia, y especialmente de la relación entre la ciencia y la sociedad, es muy pequeña.

Si no es posible y acaso contraproducente una educación científica para todos, al menos debemos intentar una política de educación y divulgación que enfatice la naturaleza de la empresa científica, y que permita al público comprender su valor y limitaciones. Que entienda que es la mejor forma de obtener conocimiento confiable. La historia de la ciencia y su carácter e impacto social son ingredientes importantes para su apreciación
.”

Es necesario enseñar a razonar, dudar y cuestionar, especialmente aquello que se expone por autoridad. Sin esa base no hay posibilidad de lograr una ciudadanía científicamente alfabetizada y gobernantes que nos lleven por el mejor camino, a pesar de los muchos intereses que ejercen presión para desviarlos. En pocas palabras: no enseñar qué pensar sino cómo pensar.”

“Se dice, seguramente sin que en realidad se piense en lo que significa, que en una verdadera democracia cualquiera puede ser miembro del gobierno. Yo creo que ése es justo el problema. De igual modo que no aceptamos que cualquiera sea el presidente de una universidad, o el gerente de una empresa, o nuestro médico, es absurdo no exigir más a aquellos que pretenden dirigir el destino de las naciones. […]

Si no cualquiera puede ser el gerente de una empresa, entonces ¿por qué cualquiera puede ser el gerente de la empresa más compleja de todas y la que nos afecta a todos, la nación o el país, como quiera llamarlo?


Hay que decirlo, basta de mokita. Nuestros dirigentes, democráticamente electos, son en muchos casos unos energúmenos incompetentes, y en otros simples malhechores o competentes perpetuantes del status quo. Son grises por la sencilla razón de que un pueblo educado para no pensar críticamente no distingue lo blanco de lo negro. Los candidatos son fabricados por expertos en publicidad al igual que muchos otros productos inútiles que es necesario vender.”

martes, 8 de mayo de 2007

Peligros y promesas de la energía nuclear

Dice James Lovelock, uno de los creadores de la Teoría de Gaia, que si queremos salvar al planeta Tierra del desastre al que se encamina tenemos que empezar a usar mucha más energía nuclear en vez de petróleo. Pero esta es una posición bastante controversial pues Lovelock es uno de los “gurús” del movimiento ambientalista verde a nivel internacional pero la posición convencional de los ambientalistas (particularmente en Estados Unidos) es de férrea oposición a la energía nuclear, por sus peligros de haber una explosión en un reactor y por los problemas de deshacerse de desperdicios radioactivos cuya media vida puede ser de entre 280 años (como la de Estroncio-90) hasta 760,000 años (como la de Níquel-59). Asegurarse que grandes cantidades de material radiactivo se mantengan selladas y sin filtrarse a cuerpos de agua o al suelo durante tanto tiempo no es tarea fácil, y conlleva grandes peligros. Pero esto es un problema cuya solución debe existir si se le mete mano científicamente y con una ingeniería bien diseñada. El costo de no usar energía nuclear y seguir quemando petróleo en lo que se desarrollan otras fuentes confiables puede ser desastroso y hasta suicida. El problema radica en que, además de la inercia económica monumental de los países ricos, está el hecho político sensitivo de que a nadie le va a gustar la idea de tener un reactor nuclear o un vertedero radiactivo cerca de su casa.

Hay 2 tipos de energía nuclear: la fisión nuclear (que es romper núcleos atómicos grandes e inestables en pedazos más pequeños) y la fusión nuclear (que es unir dos núcleos pequeños para formar uno más grande y pesado). Como ustedes seguramente saben, los núcleos atómicos se componen de 2 partículas subatómicas: los protones y los neutrones. Los protones y neutrones se atraen entre sí debido a la fuerza nuclear fuerte, y forman los núcleos que definen los diferentes elementos químicos. Mientras más protones y neutrones en el núcleo, más pesado es el átomo y más abajo está en la Tabla Periódica de los elementos. Pero los protones tienen carga eléctrica y mientras más protones haya más fuerte será la repulsión eléctrica que intenta romper el núcleo. En todo núcleo atómico hay esta competencia entre estas 2 fuerzas, una que quiere unirlo y otra que quiere destruirlo.

La energía nuclear convencional (las de las bombas atómicas genocidas que asesinaron a mansalva viejos, mujeres y niños en Hiroshima y Nagasaki, así como la de los reactores nucleares usados para generar electricidad) se basa en la fusión de núcleos radiactivos grandes y pesados (como Uranio o Plutonio) donde son ya de por sí inestables por la gran cantidad de protones que hay en cada núcleo. Bombardeando una gran cantidad de estos elementos con neutrones crea una reacción en cadena donde cada vez que se parte un núcleo en pedazos se libera energía y más neutrones, que a su vez rompe más núcleos y así sucesivamente. Si se deja esto sin control se tiene una explosión nuclear. En un reactor se trata de enfriar y controlar esta reacción para que solo dé una cantidad de energía en forma de calor que podamos manejar (si no ocurren accidentes, claro está). A pesar de los accidentes notorios de Chernobyl y Three Mile Island, la experiencia de décadas en submarinos nucleares, y miles de centrales nucleares operando continuamente en países como Francia y Japón han demostrado que con un mantenimiento adecuado, buen monitoreo de las condiciones del reactor y varios sistemas de seguridad redundantes se pueden tener plantas nucleares bastante seguras y confiables. El problema es con la disposición de los desperdicios radiactivos que se generan luego de las reacciones nucleares. Un problema es de salud porque son desperdicios tóxicos de muy larga vida, y el otro de seguridad y política, pues muchos de esos desperdicios son ricos en isótopos radiactivos que pueden usarse para construir armas atómicas.


La otra manera de producir energía nuclear lo es la fusión de 2 núcleos livianos en uno más pesado. Esto ocurre en el interior del Sol y las estrellas (éstas brillan por ser gigantescos reactores termonucleares) así como en la infame Bomba-H (que era millones de veces más poderosa que la bomba atómica de Hiroshima). El problema es que para producir reacciones de fusión nuclear se necesitan millones de grados Kelvin, unas temperaturas tan altas que no existe material alguno que contenga plasmas tan calientes. Hay mucho interés en la comunidad científica internacional en investigar como contener los plasmas con campos magnéticos sumamente intensos en configuraciones toroidales conocidas como “reactores tokamak”. Uno de los proyectos de mayor interés es el gigantesco reactor experimental de fusión ITER , el que costará varios billones de dólares y en el que colaboran Estados Unidos, Rusia, la Unión Europea, China, India y Korea. Es un reactor experimental con el propósito de producir energía de fusión a un costo competitivo con el petróleo, sin producir desechos radiactivos ni gases de invernadero, y mediante reactores seguros y eficientes.


Se espera que tome varias décadas lograr esta importante meta, pero si los físicos logran la meta de crear reactores nucleares de fusión en nuestra vida habremos dado un gran paso de avance en la meta de sobrevivir como especie y vivir con avances tecnológicos, pero sin poner en peligro la ecología y la convivencia con el resto del planeta Tierra.

miércoles, 2 de mayo de 2007

La maldita dependencia en el petróleo

Tenemos como sociedad una adicción sumamente peligrosa. Usamos diariamente sobre 70 millones de barriles de petróleo para generar electricidad, calentar casas y agua, correr carros, barcos y aviones, y todos los fabulosos embelecos tecnológicos de nuestra sociedad industrial moderna. Pero cada día que pasa todos nos percatamos de lo terrible que es esta adicción al petróleo y los perniciosos efectos ambientales, económicos y políticos que nos trae.

No hay que hablar de que el petróleo es un combustible que tomó millones de años en formarse por la descomposición química de plantas y animales bajo fuerzas geológicas en las profundidades de la Tierra. Cada barril toma millones de años en producirse y nosotros extraemos y lo gastamos en segundos como si no tuviese fin. Al ritmo que vamos en menos de 50 años habremos llegado al punto de que el costo de extraer petróleo será mayor que la energía que sacamos de éste. Si seguimos sin hacer nada y mirando para el lado como si la cosa no fuese con nosotros en 50 años todo el mundo se va a quedar sin electricidad y sin gasolina. Y en ciudades llenas de cemento donde viven millones de personas será imposible para la inmensa mayoría de la población prender fogones de leña, viajar a caballo o alumbrarnos con quinqués. Muchos de los que leen esto van a estar vivitos y coleando cuando esta catástrofe global empiece a suceder. Que nos quiten la “droga” petrolera de golpe y porrazo, y nos vayamos a quedar a lo “cold turkey” sin la cura no va a ser nada fácil.

Y esto de los 50 años es si los países tercermundistas no aumentan dramáticamente su uso anual, libreto que países con sobre un billón de habitantes como China e India no parecen estar muy inclinados a acatar. Y si el glotón mayor de petróleo del planeta Tierra, los Estados Unidos, no sigue teniendo tasas de uso de combustible que ellas mismas aumentan. Los Angeles, California se declaró ya una de las ciudades más contaminadas del planeta porque no solo cada año usan más petróleo que el anterior, sino que el aumento cada año en el uso de petróleo es cada vez más grande. Es una voracidad insaciable, y por consecuencia los apagones y “brownouts” ya se están volviendo en California tan comunes como en Cuba o Bangladesh.

Añádale a este tétrico cuadro el hecho de que al quemar petróleo vorazmente lanzamos millones de toneladas de bióxido de carbono a la atmósfera, lo que ha creado el peligroso y amenazante problema del calentamiento global que se nos viene encima, con su secuela de desertificación, huracanes, inundaciones, y extinción masiva de especies de plantas y animales. Y si todavía no se ha deprimido lo suficiente recuerde que el 44.5% de los 61 millones de barriles de petróleo diarios que producen los 15 principales países productores están en Oriente Medio o países no muy amigos de los EE.UU. y Occidente. Y que en los próximos 50 años este porcentaje va a aumentar cada vez más pues estos países tienen las más grandes reservas del combustible. Por eso no le debe extrañar los amiguismos de Bush y Cheney con jeques árabes corruptos y antidemocráticos, los robos de elecciones en EE.UU. y las guerras e invasiones aduciendo embustes sobre “armas de destrucción masiva” a los países en los cuales los oligarcas no sean títeres manipulables de los EE.UU. y Europa.

Pero no todo es pesimismo y llanto, querido lector. Gracias al cielo los científicos del mundo están al tanto de los graves aprietos que enfrentamos como especie, y ya están trabajando activamente para minimizar o resolver nuestro problema de adicción global a los combustibles fósiles no-renovables.

He aquí una lista de mis fuentes de energía alternas favoritas, (y en la que nuestros gobiernos deben financiar investigación y poner en práctica planes para adoptarlas tan pronto como sea económicamente viable):

  1. Fusión Nuclear – esta sería el palo más grande si se pudiese lograr. Fusionar átomos de hidrógeno como ocurre dentro del Sol sería una fuente de energía limpia, su producto sería no contaminante, y potencialmente podría producir Tera-Watts de potencia.
  2. Reactores nucleares de Fisión – esta no es un sueño ni un experimento a largo plazo. Países como Francia y Japón producen grandes fracciones de su energía con reactores nucleares. Pero experiencias como las de Chernobyl meten miedo, y todavía no se sabe que hacer con los desperdicios radioactivos.
  3. Biocombustibles – usar la celulosa y otros materiales orgánicos en varias plantas para producir combustibles que quemen limpia y eficientemente como el etanol. En Brasil ya hay varias plantas funcionales, y los carros híbridos están empezando a aparecer en los mercados. Pero usar hectáreas para producir maíz o caña para combustible de carros y plantas eléctricas son hectáreas que no se sembrarán para alimentos.
  4. Energía del viento – Hay ya turbinas de viento con rotores de más de 25 metros de largo que pueden producir sobre 6 Mega-Watts cada una en sus mejores días. Llenar un campo extenso de estas puede ser una alternativa en países con grandes extensiones de terreno disponibles.
  5. Energía solar – Además de los calentadores de agua, la tecnología de celdas fotovoltaicas que conviertan la luz del Sol en energía eléctrica a un costo razonable se proyecta como una realidad económicamente viable en pocos años. El problema con esto y la energía del viento es que no producen una cantidad constante y dependen de condiciones climáticas variables. Sin gigantescas baterías mucho más eficientes que las que hay hoy en día es difícil depender de estas fuentes.


En entradas futuras del blog discutiré en más detalle los últimos avances científicos en cada una de estas alternativas, y que investigaciones se hacen en Puerto Rico en este importante campo para el futuro de la humanidad.