“Hoy en día, el pensamiento predominante es el cinismo”



Ciertos conceptos que antes podían causar interés y generar movimientos para mejorar el sistema se han convertido en fantasmas. Es el caso de los conceptos de verdad y revolución, pero también el de comunismo o la simple búsqueda de un sistema alternativo al capitalismo. El reconocido filósofo y psicoanalista esloveno, Slajov Zizek, indaga en estas cuestiones y pone de relieve la necesidad de un esfuerzo colectivo para mejorar y cambiar el sistema.
Si los países del bloque socialista eran diabólicos, Zizek subraya que lo que se ha instalado después es igual de diabólico o más. Los regímenes comunistas han quedado descreditados porque han fallado con la consecución de sus principales objetivos. Ahora bien, los problemas generados por el sistema actual obligan a buscar nuevas soluciones. El calentamiento global, los vertidos de crudo (a los que EEUU responde de la manera más equivocada), la emergencia de biotecnologías que amenazan con la seguridad y la privacidad del ser humano, las nuevas formas de exclusión o la especulación desequilibrante son algunos de esos problemas que exigen una solución fuera del marco capitalista.
Fracaso y concepto de repetición
Según el filósofo esloveno, el fracaso del comunismo no puede explicar una total aceptación del capitalismo. Soluciones creativas y justas han de buscarse más allá de los límites impuestos por los actuales mecanismos económicos. Así pues, Slajov destaca la importancia de repetir el esfuerzo de mejora. Las grandes revoluciones y los grandes avances se logran gracias a la repetición y el deseo de un desarrollo continuo. Todo esto implica un cuestionamiento constante que Zizek ilustra con una de las más interesantes iniciativas de Lenin en 1922: la NEP (Nueva Política Económica). El líder ruso la presentó en su día como una retirada estratégica para volver a empezar y consolidar las bases. “Hay que repetir una y otra vez, desde el principio”, insiste el filósofo esloveno.
La revolución francesa también es una fuente de enseñanzas para el pensamiento crítico y la búsqueda de alternativas. Este evento inicialmente centrado en el país galo se convirtió en un acontecimiento universal al repetirse en Haití y otras islas de las Antillas francesas (Guadalupe y Martinica). Era la primera vez que los esclavos se rebelaban con la voluntad de ser mejores que los colonialistas y, para acabar con lo que consideraba un inaceptable precedente, Napoleón mandó a matarlos todos. Más de treinta mil soldados franceses llegaron a la isla caribeña y, al encontrarse con los rebeldes, se dieron cuenta de que cantaban el himno francés (la marsellesa) con tanto o incluso más orgullo que ellos mismos. Ese detalle les llevó a preguntarse si luchaban en el bando correcto y esa fue la primera gran derrota del ejército francés. La moral de quienes querían repetir y mejorar la historia se impuso con una victoria aplastante.
El cinismo de hoy y el deseo de creer en algo
Ante una notable desconexión entre el pueblo y la clase dirigente, Zizek clama que, en la actualidad, el pensamiento predominante es el cinismo. No creer en nada, distanciarse de los movimientos críticos está bien visto y es, incluso, marca de sensatez. El conformismo se impone de tal manera que los conservadores de hoy justifican su posición por sus antiguos actos de insubordinación y el desengaño consecuente. Así pues, los que alimentaron el movimiento de 68 con pancartas y manifestaciones son en gran mayoría los defensores del actual sistema
Sin embargo, el cinismo de hoy es aprendido, inculcado desde arriba, y Zizek subraya que siempre tenemos a una persona que piensa por nosotros. “Queremos seguir creyendo”, comenta él antes de describir el caso interesante de Santa Claus. Los padres no creen en él pero fingen que sí para que sus hijos también crean en él. Estas situaciones llevan a contradicciones enormes porque así es cómo se perpetuán cadenas de fingimientos que conducen a desilusiones y engaños masivos. En esta misma línea, una experiencia dolorosa es darse cuenta que una persona de nuestro entorno no cree en lo que hace o defiende a diario.
El cinismo convive con un deseo de creer en algo, así piensa Zizek. “Todos los cínicos tienen un secreto profundo, una creencia escondida que, para ellos, cuenta de verdad”, pronuncia él con contundencia para luego recalcar la necesidad de un cambio y de un compromiso. Lo queremos profundamente pero, por cuestiones externas, ideas prestadas o simple temor, lo disfrazamos de una ingenuidad cotidiana (que nos hace parecer más coherentes y puede ser legada de todos los mensajes de los grandes medios de comunicación). Para ilustrar esta última idea, Zizek pone el dedo sobre un tema interesante: el uso de la palabra “imposible” en los medios de comunicación. Si analizamos bien, comprobaremos que todo lo que se refiere al sistema económico y político actual es casi imposible cambiarlo. Los medios lo dan por hecho. Sin embargo, otras noticias como los viajes al espacio, la creación de maquinarias tecnológicas impresionantes, el cambio de sexo o la selección genética ya son moneda corriente en las noticias y demuestran que, para el ser humano, nada es imposible. Por eso, pregunta Zizek: ¿realmente es imposible revolucionar el sistema actual y cambiar las reglas del juego?

¿Amenaza sobre el Modelo Estándar? 


Resultados preliminares hablan de una diferencia de masa entre neutrinos y antineutrinos, algo que contradice la teoría actual en Física de Altas Energías.

Investigadores del experimento MINOS del Fermilab han anunciado un sorprendente resultado que podría apuntar hacia una diferencia fundamental entre neutrinos y sus antipartículas. El hallazgo, si se confirma en futuros experimentos, podría ayudar a los físicos a explorar algunas de las diferencias fundamentales entre materia y antimateria.
El experimento MINOS está diseñado para poner a prueba la teoría sobre los neutrinos y su capacidad de cambiar de un tipo a otro, capacidad conocida como oscilación. Como ya sabemos los neutrinos vienen en tres tipos: electrónico, muónico y tauónico, asociados a sus leptones correspondientes: electrón, muón y tau. A su vez, cada uno de estos está asociado a una familia de quarks, todo según el Modelo Estándar de partículas.
La razón de que se propusieran las oscilaciones se debió a que se detectaban menos neutrinos electrónicos procedentes del Sol de lo que la Física Nuclear dictaba. Si los neutrinos, en su viaje hasta la Tierra cambiaban de “sabor” hacia los otros que los detectores no veían, el problema quedaba solventado. Pero cuando en los años cincuenta se propuso la idea de las oscilaciones fue controvertida porque implicaba que los neutrinos tenían que tener masa, algo que contradecía el Modelo Estándar. Sin embargo, esta cualidad fue demostrada posteriormente hace no tanto tiempo. El Sol producía los neutrinos en la cantidad adecuada y éstos transmutaban de un sabor a otro. La fisica nuclear de fusión quedaba a salvo, pero aparecía un nuevo problema.
Las oscilaciones también explicaba la aparente menor cantidad de neutrinos muónicos producidos por los rayos cósmicos en la alta atmósfera terrestre.
Según David Wark, de Imperial College, los nuevos resultados no demolerían un modelo particular, sino que requerirían un revisión del modo en que se hace Física de Partículas.
Con MINOS se estudian, por primera vez con muy alta precisión, las oscilaciones de los neutrinos de una haz controlado de neutrinos producido con un acelerador de partículas. Cada experimento empieza en el Fermilab, cerca de Chicago, donde un blanco es bombardeado con protones de alta energía, produciéndose un haz de neutrinos. Este haz está está dirigido hacia la mina Soudan en Minesota, a 737 km del lugar. Los neutrinos cruzan esa porción de corteza terrestre y llegan hasta el detector MINOS situado en la mina, que consiste en un calorímetro en presencia de un campo magnético. El detector está diseñado para realizar con extremada precisión medidas del espectro de energía de los muones surgidos de la interacción de los neutrinos con el material del detector.
Aparentemente cierto número de neutrinos muónicos oscilan hacia neutrinos tauónicos de menor energía, que no son registrados por el detector. La gama de energías sobre las que se da el fenómeno puede revelar información acerca de las diferencias de masas entre los distintos tipos de neutrinos. Los experimentos comenzaron en 2006 y después de registrar numerosos eventos se ha obtenido como resultado que esta diferencia de masa es de 2.35 x 10-3eV2, que representa el cuadrado de la diferencia de autoestados de masa entre los dos tipos de neutrinos (Δm2). Hasta ahí todo bien.
Sin embargo, cuando los investigadores se fijaron en los antineutrinos apareció la sorpresa. El detector funciona exactamente de la misma manera con antineutrinos, excepto que los muones (antimuones) producidos por estos tienen una carga contraria a los producidos por los neutrinos. La teoría dice que los antineutrinos deben oscilar de la misma manera que los neutrinos entre los diferentes sabores de antineutrinos.
Pero en este caso se ha registrado una diferencia masa de 3.35 x 10-3eV2, que es aproximadamente un 40% más que en el caso anterior. Ambos resultados son contradictorios con la teoría establecida con un nivel de confianza del 90-95%, que corresponde a una significación estadística de 2 sigma.
Jenny Thomas, de University College London y portavoz del equipo MINOS, dice que el resultado es completamente inesperado, pero advierte que hay que esperar hasta tener una significancia estadística de 3 ó 4 sigma antes de empezar a tomar en serio el hallazgo, pues estos resultados preliminares podrían deberse a una fluctuación estadística. Quizás, puede que los antineutrinos interacciones de manera diferente con los más de 700 km de roca que atraviesan.
Si al final todo esto se confirma, el hallazgo tendría un enorme impacto tanto en el Modelo Estándar de partículas como en la teoría de campos cuánticas relativistas relativistas locales. Algunos físicos han calificado esta posibilidad de que haya algo que no se entiende como de “fantástica” en el sentido positivo, puede que sea la puerta hacia una nueva física por conocer. Quizás podría ayudarnos también a encontrar la explicación definitiva para la asimetría manifiesta de materia sobre antimateria que se observa en el Universo.
El equipo de MINOS continuará midiendo la diferencia de masa en antineutrinos. Esperan tener una significación estadística de 3 sigma para febrero de 2012.

El LHC bate otro récord 


La máquina de Dios parece encontrarse en estado de gracia y se dirige a toda velocidad hacia la fuente del misterio de la existencia. Tras muchos problemas y retrasos en su arranque, las cosas han comenzado a encarrilarse y el acelerador de partículas más famoso del planeta ha logrado marcar otro récord en su carrera por encontrar los secretos del Universo. Ya era hora de que funcionase como es debido.

Hace poco, anunciábamos el primer récord del LHC, que había llegado a una energía de impacto tan grande  que ningún otro competidor del planeta había soñado jamás con alcanzar. Y sólo era la mitad de la que el Gran Colisionador de Hadrones pretende en su ambicioso proyecto final. Sin embargo, sus rivales, sin hacer mucho ruido, habían logrado avances más significativos e interesantes que el LHC, que no conseguía librarse de sus problemas de puesta a punto. Esto parece haber quedado atrás definitivamente y el Gran Colisionador marcha con paso firme hacia el objetivo para el que fue diseñado.

Si bien la energía con que proyectan los protones se mantiene a unos niveles muy por encima de sus competidores, un segundo parámetro que interesa a los científicos, el número de partículas que viaja en cada haz, era bastante menor que el de su gran rival, el Tevatrón de EEUU. Esto se entiende si pensamos en los rayos de protones como un puñado de canicas. Lo que importa en estos aceleradores son la cantidad e intensidad con que choquen esas “canicas”, por tanto, no sólo es necesario lanzarlas con fuerza, sino que cuantas más se arrojen, más probabilidades existen de que choquen unas con otras. El LHC había batido el récord de “fuerza” con que se proyectan esas canicas, pero hasta ahora, permanecía por debajo del Tevatrón en cuanto a la cantidad de ellas que despide.

El LHC ahora ha pulverizado a su máximo rival y ha logrado alcanzar el doble de colisiones que cualquier otro acelerador del planeta. Exactamente, la cifra se sitúa en las 10.000 colisiones por segundo, dos veces más que el 30 de Marzo.   "A esta potencia, generamos en un solo día la misma cantidad de información que se ha acumulado desde el 30 de marzo", explica Teresa Rodrigo, presidenta del Consejo de Colaboración del CMS, uno de los grandes detectores de colisiones del LHC. El físico Andrei Golutvin asegura que este récord supone el comienzo de una nueva etapa que convertirá al LHC en el candidato definitivo para descubrir los misterios más profundos del Universo. "Cuantas mas colisiones consigamos, más cerca estaremos de la supersimetría, la materia oscura, el Bosón de Higgs y otros problemas modernos de la física", aseguró el científico. Tiembla, Tevatrón, los europeos no tienen intención de hacer prisioneros.

Probando la mejor teoría de la naturaleza hasta el momento 


La mejor teoría para explicar el mundo subatómico nació en 1928 cuando el teórico Paul Dirac combinó la mecánica cuántica con la relatividad especial para explicar el comportamiento del electrón. El resultado fue la mecánica cuántica relativista, que se transformó en un ingrediente primario en la teoría cuántica de campos. Con unas pocas suposiciones y unos ajustes ad-hoc, la teoría cuántica de campos ha probado ser suficientemente poderosa para formar la base del modelo estándar de las partículas y las fuerzas.

“Incluso así, debería recordarse que el modelo estándar no es una teoría final de todos los fenómenos, y que es, por tanto, un modelo per se incompleto”, dice Dmitry Budker, científico miembro de la división de ciencia nuclear del departamento de energía del Laboratorio Nacional Lawrence Berkeley, en EE.UU., y profesor de física en la Universidad de California en Berkeley.
Budker ha estado interesado mucho tiempo en comprobar las bases comúnmente aceptadas de las teorías físicas a los límites. En el número 25 de Junio de la revista Physical Review Letters, él y sus colegas informan de las pruebas más rigurosos de una todavía fundamental suposición sobre el comportamiento de las partículas a escala atómica.
Por qué necesitamos el teorema de estadística del espín.
“Comprobamos uno de los pilares teóricos de la teoría cuántica de campos, el teorema de estadística del espín”, dice Damon English, un ex-estudiante de Budker y postdoctorado actualmente en el departamento de física de la Universidad de California, quien dirigió el experimento. “Esencialmente, estábamos preguntando, ¿son los fotones realmente bosones perfectos?”
El teorema de estadística del espín dice que todas las partículas fundamentales deben ser clasificadas en dos categorías, fermiones o bosones. (Los nombres vienen de las estadísticas de Fermi-Dirac y de Bose-Einstein, que explican sus respectivos comportamientos.)
Dos electrones no pueden estar en el mismo estado cuántico. Por ejemplo, dos electrones en un átomo no pueden tener conjuntos idénticos de números cuánticos. No obstante, Cualquier número de bosones puede ocupar el mismo estado cuántico; esto hace posible entre otros fenómenos, el láser.
Los electrones, neutrones, protones, y muchas otras partículas de materia son fermiones. Los fotones de la fuerza electromagnética, las partículas W y Z mediadores de la fuerza débil, y partículas de materia como núcleos de deuterio, mesones pi, y otras, son bosones. Es el teorema de estadística del espín el que nos dice qué es un fermión y qué un bosón.
La forma de separarlos es por su espín – no el clásico giro de una peonza, sino el momento angular intrínseco, un concepto cuántico. El espín cuántico es entero (0, 1, 2…) o semientero (1/2, 3/2…). Los bosones tienen espín entero. Los fermiones semientero.
“Hay una prueba matemática del teorema de estadística del espín, pero es tan oscura que tienes que ser un profesional en teoría cuántica de campos para entenderla”, dice Budker. “Todos los intentos de encontrar una explicación simple han fracasado, incluso los realizados por científicos de la talla de Richard Feynman. La prueba está basada en diferentes suposiciones, algunas explícitas y otras sutiles. Por esto, los tests experimentales son esenciales”.
English dice que: “Si tuviéramos que derribar el teorema de estadística del espín, el edificio completo de la teoría cuántica de campos caería con él. Las consecuencias serían importantes, afectando a nuestras suposiciones sobre la estructura del espacio-tiempo e incluso la causalidad misma”.
En busca de transiciones prohibidas
English y Budker, junto con Valeriy Yashchuk, científico miembro del Laboratorio de fuentes de luz avanzadas de Berkeley, intentan comprobar el teorema usando rayos láser para excitar electrones en átomos de bario. Para los experimentales, los átomos de bario tienen dos transiciones de dos fotones especialmente adecuadas, en las que los dos fotones son absorbidos simultáneamente, contribuyendo a llevar a los electrones a un estado de energía mayor.
“Las transiciones de dos fotones no son raras”, dice English, “pero lo que las hace diferentes de las de un fotón es que sólo hay dos posibilidades de alcanzar el estado excitado final – dos caminos que difieren en el orden en que los fotones son absorbidos durante la transición. Estos caminos pueden interferir destructivamente o constructivamente. Uno de los factores que determina si la interferencia es constructiva o destructiva es si los bosones son fermiones o bosones”.
En la transición de dos fotones de bario que los investigadores usaron, el teorema de estadística del espín prohíbe la transición cuando los dos fotones tienen la misma longitud de onda. Estas transiciones de dos fotones prohibidas están permitidas por todas las leyes de conservación permitidas excepto el teorema de estadística de espín. Lo que English, Yashchuk y Budker estaban buscando eran excepciones a esta regla, o como dice English, “bosones actúando como fermiones”.
El experimento comienza con un flujo de átomos de bario; se apuntan dos láseres a dicho haz en sentidos opuestos para prevenir efectos indeseados asociados con el retroceso atómico. Los láseres se sintonizan a la misma frecuencia pero con polarizaciones opuestas, lo que es necesario para conservar el momento angular. Si las transiciones prohibidas fueran causadas por dos fotones de la misma longitud de onda de los dos láseres, serían detectados cuando los átomos emitieran una luz fluorescente de un color determinado.
Los investigadores sintonizaron cuidadosa y repetidamente los láseres en las regiones prohibidas de dos fotones, y si alguna se diera, sería detectada. Y no detectaron nada. Estos rigurosos resultados limitan la probabilidad de que dos fotones cualquiera pudieran violar el teorema espín-estadística: las posibilidades de que dos fotones estén en un estado fermiónico no son mejores que una en 1011 – de lejos el test mas sensible a bajas energías, que puede ser más sensible que experimentos realizados en colisionadores de partículas de altas energías.
Budker insiste en que éste fue “un experimento compacto de verdad, capaz de hacer descubrimientos significativos en física de partículas sin gastar miles de millones de dólares”. El prototipo fué ideado originalmente por Budker y David DeMille, ahora en Yale, quienes en 1999 fueron capaces de limitar severamente la probabilidad de los fotones de estar en un estado “incorrecto” (fermiónico). El último experimento, llevado a cabo en la universidad de Berkeley, usa un método más refinado y mejora el anterior resultado en más de tres órdenes de magnitud.
“Seguimos buscando, porque los tests experimentales con sensibilidades mayores están motivados por la importancia fundamental de la estadística cuántica”, dice Budker. “La conexión de estadística del espín es una de las suposiciones más básicas en nuestro entendimiento de las leyes fundamentales de la naturaleza”.
“El test espectroscópico de la estadística de Bose-Einstein para fotones”, por Damon English, Valeriy Yashchuk y Dmitry Budker, aparece en el número 25 de junio de la revista Physical Review Letters, y está disponible en la red. La investigación ha sido financiada por la Fundación Nacional de Ciencia.

La exclusión social potencia la religiosidad
 

Un equipo de científicos de la Universidad de Muchich, en Alemania, ha realizado diversos estudios en los que se ha analizado el efecto de la exclusión social en las tendencias religiosas. Los resultados obtenidos han demostrado que los sentimientos de aislamiento propician niveles significativamente más altos de afiliación religiosa. La religión podría establecerse como una solución para estas situaciones porque proporciona una comunidad para aquéllos que se adapten a la ideología grupal, explican los investigadores.

 
Un equipo de científicos de la Universidad de Muchich (LMU), en Alemania, ha realizado diversos experimentos en los que se ha analizado el efecto de la exclusión social en las tendencias religiosas de los humanos.

Los resultados, según publican los investigadores en un artículo aparecido en el Personality and Social Pychology Bulletin, demuestran que las personas que se sienten socialmente excluidas presentan niveles significativamente más altos de afiliación religiosa.

Por otra parte, este tipo de individuos tienden a implicarse más en comportamientos religiosos (como seguir rituales o relacionarse con otras personas religiosas) que las personas que no se sienten excluidas.

Por último, los experimentos realizados demostraron que la religiosidad puede funcionar como inhibidora del estrés, reduciendo las reacciones agresivas que puede generar la exclusión social.

Hipótesis inicial

La hipótesis inicial de la que partieron estos estudios, dirigidos por la doctora Nilüfer Aydin, del departamento de psicología de la Universidad de Munich, fue la de que a los humanos, como a otros primates, les preocupan en gran medida sus iguales y la pertenencia grupal. Esto se debe a que el aislamiento social puede conllevar consecuencias letales.

La religión podría establecerse como una solución para estas situaciones porque proporciona una comunidad para aquéllos que se adapten a la ideología grupal, e incluso ofrece la compañía de Dios u otras entidades divinas, en función de las creencias de cada religión.

En la revista Epiphenom se explica en qué consistieron los experimentos realizados por Aydin y sus colaboradores con el fin de comprobar la veracidad de esta hipótesis.

Un primer estudio fue realizado con emigrantes turcos que vivían en Alemania y que, por esa razón, se sentían más excluidos socialmente que turcos que vivían en Turquía, independientemente de su edad y riqueza.

En este experimento se comprobó que los turcos emigrantes eran más religiosos que los otros turcos, y que cuanto más excluidos se sentían los primeros, más religiosos eran.

Comprobaciones experimentales

En un segundo estudio, los investigadores analizaron a un grupo de cristianos a los que se les pidió que escribieran acerca de un momento de sus vidas en que se hubieran sentido excluidos socialmente.

Después de hacer este ejercicio, los participantes afirmaron sentirse más religiosos que otros cristianos participantes, a los que se les había pedido que escribieran acerca de un momento de sus vidas en el que se habían sentido aceptados o integrados.

En otro experimento similar, los investigadores constataron que aquellos cristianos que habían escrito sobre su exclusión social tendían más a aprobar toda una serie de comportamientos religiosos, como hablar con Dios o los encuentros con otras personas religiosas.

En un cuarto experimento, los psicólogos descubrieron que el malestar social podía relacionarse con un aumento de la religiosidad, más que con cualquier efecto de dicho malestar sobre la autoestima.


También reduce la agresividad

Por último, los científicos hicieron un experimento más: de nuevo se pidió a un grupo de cristianos que escribieran sobre la exclusión social, mientras que a otro grupo, también de cristianos, se les pidió que escribieran acerca de ser aceptados.

A algunos de los participantes se les pidió, además, que escribieran sobre religión (con el fin de que estuvieran “condicionados” por la religión durante el estudio). Posteriormente, con todos ellos se hizo una tarea aparentemente no relacionada, bajo la excusa de pedirles ayuda para otro estudio.

Dicha tarea consistió en que los participantes introdujeran sus manos en agua helada durante poco más de 30 segundos, lo que ocasiona un gran dolor. Los participantes reaccionaron ante esta prueba de formas diversas.

Aquéllos que habían escrito sobre la exclusión social se mostraron más agresivos, desahogándose con el extraño que les había pedido hacer la prueba.

Sin embargo, dentro de este mismo grupo, aquellos participantes que, además de escribir sobre exclusión, habían escrito sobre religión no mostraron ese comportamiento agresivo. Esto sugiere que la religiosidad puede servir para reducir el estrés, señalan los investigadores.

Otras ideas

Los resultados de estos estudios inciden en la idea de que la religiosidad podría ser un recurso cognitivo humano que propicia la supervivencia.

El antropólogo Lionel Tiger y el neurocientífico Michael McGuire lo han enfocado recientemente desde la perspectiva neurológica.

En su libro God’s Brain, estos científicos sugieren que la religión es un fenómeno presente y persistente en todas las sociedades humanas porque el propio cerebro crea y necesita la religiosidad, dado que ésta permite reducir el estrés propio de la vida cotidiana.

El ser humano encuentra alivio en las creencias y los rituales religiosos, lo que ayuda al cerebro a apaciguarse y, en consecuencia, a gastar menos energía y recursos, afirman Tiger y McGuire.

El doctor Andrew Newberg, especialista en el estudio de la relación entre el funcionamiento del cerebro y las experiencias místicas y religiosas de la Universidad de Pensilvania, afirma, por su parte, que la religión y las prácticas espirituales, generalmente, tienen un efecto positivo en la salud física, emocional y neurológica de la gente.

Los relojes cósmicos podrían tener la llave a los secretos del Universo
 

Un equipo internacional de científicos han desarrollado una nueva y prometedora técnica que podría convertir a los púlsares – relojes cósmicos naturales excelentes – en registradores del tiempo todavía más precisos.
Este importante avance, liderado por científicos de la Universidad de Manchester y que ha aparecido el 24 de junio en la revista Science Express, podría mejorar la búsqueda de ondas gravitatorias y ayudar en los estudios del origen del universo.

Las ondas gravitatorias son misteriosas y poderosas perturbaciones que no han sido todavía observadas directamente, aunque se sabe que existen y fueron predichas por Einstein.
El descubrimiento directo de ondas gravitatorias, que llegan a los relojes cósmicos, modificándolos, podría permitir a los científicos estudiar eventos violentos como los procesos de fusión de agujeros negros supermasivos y ayudar a entender el universo poco después de su formación en el Big Bang.
Los científicos progresaron usando observaciones de púlsares realizadas durante décadas con el radiotelescopio Lovell, en el observatorio Jodrell Bank de la Universidad de Manchester.
Los púlsares son estrellas que han colapsado y que rotan, estudiadas con gran detalle desde su descubrimiento en 1967. La rotación extremadamente estable de estos volantes cósmicos ha conducido previamente al descubrimiento del primer planeta orbitando otras estrellas, y proporcionado rigurosos tests para las teorías de la gravedad que dan forma al universo.
Sin embargo, esta estabilidad rotacional no es perfecta y hasta ahora, pequeñas irregularidades en su rotación han reducido significativamente su utilidad como herramientas de precisión.
El equipo, liderado por el profesor Andrew Lyne de la Universidad de Manchester, ha usado observaciones del telescopio Lovell para explicar estas variaciones y mostrar un método por el cual éstas pueden ser corregidas.
El profesor Lyne explica: “Los mejores relojes humanos necesitan correcciones por diferentes motivos. Cambios en la temperatura, en la presión atmosférica, en la humedad, o en el campo magnético local. Ahora, hemos encontrado un medio potencial de corregir un reloj astrofísico”.
Se sabe que la tasa a la que los púlsares rotan decrece muy lentamente. Lo que el equipo ha encontrado es que las desviaciones surgen porque en realidad hay dos tasas de decrecimiento y no una, y que los púlsares cambian de tasa de modo impredecible y abrupto.
Estos cambios están asociados a un cambio en la forma del pulso emitido por el púlsar. Debido a esto, las medidas de precisión de la forma del pulso en un instante dado indican exactamente a cuál de las dos tasas corresponde y permite el calculo de una “corrección”. Esto mejora significativamente sus propiedades como relojes.
Los resultados dan una nueva visión sobre las extremas condiciones cerca de las estrellas de neutrones y ofrecen el potencial de mejorar los ya muy precisos experimentos en gravitación.
Se espera que este nuevo entendimiento de la rotación de los púlsares mejorará las probabilidades de que los púlsares que giran más rápido sean usados para detectar por primera vez las ondas gravitatorias.
El equipo de la universidad de Manchester colaboró en el proyectó con el Dr. George Hobbs del Australia Telescope National Facility, con el profesor Michael Kramer del Instituto Max Planck de Radioastronomía, y con la profesora Ingrid Stairs de la Universidad de British Columbia.
La investigación fué financiada por el Consejo de Instalaciones Científicas y Tecnológicas.
Su director científico, el profesor John Womersley, dijo: “La astronomía no es como la mayoría de las otras ciencias, ya que no podemos medir directamente las propiedades de las estrellas y las galaxias. Éstas tienen que ser calculadas basándose en nuestro conocimiento de cómo funciona el universo – lo que significa que algo tan significativo como ser capaz de usar los púlsares como relojes cósmicos, un nuevo estándar para la medida del tiempo, tendrá importantes consecuencias para el avance de la ciencia y el conocimiento del universo”.
Muchos observatorios a lo largo del mundo están intentando usar los púlsares para detectar las ondas gravitatorias que son predichas como consecuencia de los agujeros negros supermasivos del universo.
Con la nueva técnica, los científicos pueden ser capaces de revelar las señales de ondas gravitatorias que permanecen ocultas por las irregularidades en la rotación de los púlsares.
El director del grupo de púlsares de la Universidad de Manchester, Dr. Ben Stappers, dijo: “Estos excitantes resultados fueron posibles gracias a la calidad y duración de la única base de datos de tiempos de púlsares del telescopio Lovell.

Descifrando el Cosmos 


En el centro de control de la Reserva Nuclear de Hanford en el estado de Washington, depósitos de plasma esperan una señal que tal vez nunca llegue. La esperanza nace de dos tubos de hormigón que se extienden en ángulo recto desde el centro de control hasta 4 kilómetros hacia el horizonte. Dentro de ellos, unos rayos láser van rebotando de un lado a otro sin descanso. El sitio, es uno de los dos que componen el Interferómetro Láser del Observatorio de Ondas gravitatorias, LIGO, el mayor experimento hasta la fecha dedicado a espiar las ondulaciones del espacio-tiempo, más conocido como ondas gravitacionales.

En la costa de África occidental, encaramado en el punto más alto de las Islas Canarias (España), un telescopio de rayos gamma, llamado MAGIC, explora los cielos buscando ráfagas de fotones de alta energía por todos los rincones del universo. De vez en cuando atrapa una visión fugaz de algo. Segundos, quizá, de actividad seguidos de nuevo por el silencio.

De nuevo en EE.UU., los equipos trabajan a toda máquina en los planes de una sonda espacial de 650 millones dólares, llamada Joint Dark Energy Mission. Es sólo la oferta más reciente y más ambiciosa, para estudiar cómo el universo se expande y de qué está hecha la vastedad del cosmos.

Estos son sólo tres de los muchos experimentos que nos pueden ofrecer grandes avances en nuestra comprensión de la fuerza más enigmática de la naturaleza, la gravedad. Si esto es así, lo harán de la forma que suele hacerlo la gran física, con grandes colaboraciones y grandes saldos de banco. Pero este no es el único camino. Si las exploraciones de unos cuantos físicos son correctas, la gravedad cuántica y la energía oscura podrían dejar al descubierto la extraña danza de los átomos enfriados a una línea de distancia del cero absoluto.

Sin embargo, la inescrutable gravedad es una permanente tomadura de pelo. Su mecanismo une estrellas y galaxias, estabiliza la Tierra en su viaje alrededor del Sol, y nos mantiene pegados al suelo. De acuerdo con nuestra teoría actual de la gravedad y de la relatividad general de Einstein, todo esto se debe a que los objetos masivos deforman el espacio y el tiempo, de forma que las cosas vayan hacia ellos.

Hay unos pocos flecos en esta explicación; por ejemplo, el fallo de los instrumentos como LIGO al detectar ondas gravitacionales, pese a que la relatividad general indica que la aceleración de los cuerpos cósmicos debería producirlas. Mas, en conjunto, la teoría parece sólida. Ningún experimento ha emitido un resultado en desacuerdo con las predicciones de la relatividad general.

Aún así, muchos físicos no están satisfechos. Para ellos es profundamente perturbador que la relatividad general no sea una teoría cuántica, a diferencia de las teorías que describen las otras tres fuerzas de la naturaleza. A esto se añade, la observación de que el cosmos parece estar expandiéndose cada vez más rápido, algo difícil de explicar si la gravedad dominara el universo, y deja patente el por qué nos parece que aún nos queda mucho por aprender.

La división del átomo

Los trucos de laboratorio que nos permitan hacer esto, sin gastar una fortuna, son variantes de una técnica llamada interferometría atómica. Es un modelo más reciente del instrumental de los físicos, que se conoce como interferometría óptica. Consiste en dividir un haz de luz, enviándolo por dos diferentes rutas y recombinarlo con espejos. Cualquier demora a esa luz que viaja por una u otra ruta, producida por una alteración exterior que revelará un “patrón de interferencia” característico, creado donde los dos haces se recombinan.

Este método óptico es el que utiliza LIGO y otros interferómetros muy avanzados en Alemania, Italia y Japón, en busca de los estiramientos y contracciones del espacio a escalas tan pequeñas como de 10 a 18 metros, causado por el paso de las ondas gravitacionales. No obstante, este enfoque plantea unos desafíos: los espejos usados para guiar la luz son susceptibles de aturdirse por las vibraciones mecánicas, y porque la luz viaja tan rápido que necesita un interferómetro con brazos muy largos para un retraso apreciable pueda acumularse.

Los átomos enfriados vagabundean, y gracias a esa extraña dualidad onda-partícula que subyace en el corazón de la física cuántica, se puede hacer que interfieran más. En un interferómetro atómico, los átomos se "dividen" en dos caminos a la vez y son después recombinados, produciendo señales claras de interferencias con la más pequeña perturbación. Eso hace que los superlativos sensores de rotación y aceleración se utilicen para probar las predicciones de la relatividad general con una precisión sin igual en el laboratorio.

La impresionante sensibilidad de interferómetros de átomos podría también utilizarse para captar ondas gravitacionales en frecuencias más bajas de lo que pueden detectar los existentes interferómetros ópticos. Estas ondas de baja frecuencia son las que se predicen que son irradiadas por una pareja de agujeros negros orbitando o por estrellas de neutrones, y quizás, por el ruido cósmico de la primera fracción de segundo después del Big Bang.

En la práctica, sin embargo, hay un gran problema: a pesar de que las ondas asociadas a los átomos se mueven agradablemente lentas, también son delicadas, y no pueden viajar más de un metro o así sin perder el carácter cuántico que nos permitiría interferir. Eso ponía un límite a la sensibilidad que la interferometría atómica sí podría llevar a cabo. "Es una idea atractiva, pero los átomos, en este momento, están muchos órdenes de magnitud fuera del alcance de los sistemas ópticos", dice Craig Hogan, del Fermi National Accelerator Laboratory en Batavia, Illinois.

Pero no todo está perdido. En 2008, Savas Dimopoulos y sus colegas, en la Universidad de Stanford, California, propusieron que un interferómetro híbrido, óptico y de átomos, podría combinar las ventajas de ambos. Sugirieron usar los pulsos de rayos láser desde una sola fuente, para golpear los átomos fríos en dos interferómetros separados por una gran distancia. Estos golpes, por lo general, se producen con precisión cronométrica, produciendo el mismo patrón de interferencia en cada interferómetro. Si el paso de una onda gravitacional perturba el haz láser, en su camino hacia uno de los interferómetros, cambiará el patrón de interferencia (Physical Review D, vol 78, p 122002).

Es una idea ingeniosa, librar a los aparatos de los rígidos espejos propensos a vibraciones, que son el punto débil de los actuales interferómetros ópticos. Pero el dispositivo resultante no es mucho más pequeño que los actuales detectores de ondas gravitacionales: Deja espacio suficiente para que una onda gravitacional agite las cosas de forma apreciable. Los dos interferómetros atómicos deben estar conectados por un brazo láser vertical de aproximadamente 1 kilómetro de largo. Mientras que un extremo del aparato podría estar en el laboratorio, el otro tendría que estar en un profundo pozo debajo del laboratorio.

Puede haber una solución. La mayoría de las teorías de la gravedad cuántica predicen que, por debajo de la escala de Planck, el espacio no es un tejido suave y continuo, sino una especie de espuma pixelada o un revoltijo de microscópicas dimensiones extra. Esto podría tener efectos detectables. A finales de 1990, por ejemplo, los teóricos se dieron cuenta que los fotones con diferentes energías, emitidos simultáneamente por distantes explosiones cósmicas, podrían llegan a la Tierra en diferentes momentos, pese a que todos viajan a la velocidad de la luz.

En 2005, el telescopio MAGIC detectó evidencias de este efecto, en un estallido de rayos gamma desde una galaxia a 500 millones años luz de distancia. La observación aislada de estos residuos, sin embargo, y la interpretación de las mediciones están llenas de suposiciones sobre el funcionamiento de los objetos astrofísicos extremos y distantes. A finales del año pasado, Giovanni Amelino-Camelia, de la Universidad Sapienza de Roma, en Italia, y sus colegas, sugirieron que podría haber una forma más inteligente de ver las cosas: los experimentos con átomos enfriados podrían proporcionar una manera de sintonizar el espacio cuántico sin mirar más allá de la Tierra.

Si un átomo enfriado es golpeado por un láser con una frecuencia específica, puede absorber un fotón y retroceder ligeramente. Entre tanto, un segundo láser puede ajustarse para hacer que el átomo emita un fotón. Los investigadores demostraron que la cantidad de energía necesaria en un espacio-tiempo cuántico para conducir este proceso, sería ligeramente distinta a la necesaria en un espacio-tiempo alisado, clásico, y esto se mostraría como un patrón de interferencia cuando los dos rayos láser se combinen (Physical Review Letters, vol 103, p 171302).

David Mattingly, físico de la Universidad de California, señala que esto podría presentar una nueva línea de ataque a la gravedad cuántica. Los problemas con observaciones astrofísicas, agrega, es que las teorías que lo explican sólo son aplicables "a una o dos clases de partículas de un cierto sector de alta energía". De hecho, Amelino-Camelia calcula que, con vistas a los fenómenos de baja energía a favor de los dramáticos procesos cósmicos, podría resultar ser un factor decisivo tras 80 años de fracasos en la investigación de la gravedad cuántica.

La suya, no es una voz solitaria. En marzo de este año, Charles Wang, de la Universidad de Aberdeen, Reino Unido, y sus colegas, esbozaron un experimento con el interferómetro atómico que, dijeron, podría revelar huellas de la gravedad cuántica, sin utilizar los patrones de interferencia de un átomo normal, pero sí los de la cuántica superatómica. Su propuesta consiste en cargar un interferómetro con unos 100 millones de átomos de rubidio y luego enfriarlos, cercanos al cero absoluto. En estas temperaturas, los átomos de todos se apiñan en un mismo estado cuántico de baja energía, convirtiéndose en una exótica sustancia amorfa llamada condensado de Bose-Einstein (arxiv.org/abs/1002.2962).

Este monstruo cuántico pone el foco en los efectos que son difíciles de observar en un objeto más ligero. Wang y sus colegas sugieren que, así como las fluctuaciones cuánticas aleatorias del campo electromagnético se caracterizan por cambiar los niveles de energía de un átomo de hidrógeno, llamado el efecto Lamb, de esta manera las oscilaciones de este espacio-tiempo con forma de espuma producirá pequeños cambios energéticos en un superátomo de Bose- Einstein. La idea es muy especulativa, y probarlo requeriría la exactitud de la interferometría atómica, que debe mejorar considerablemente el fin de distinguir el cambio de positivos ficticios, reseñó Guglielmo Tino de la Universidad de Florencia, Italia. "Pero apunta a posibilidades muy interesantes."

Energía repulsiva

El objeto de este experimento, sin embargo, no es nada comparado con la propuesta presentada en enero de este año por Holger Müller de la Universidad de California, Berkeley, y Martin Perl del SLAC National Accelerator Laboratory en Stanford, California. Müller es un gurú de la interferometría atómica, mientras que Perl es un experimentador tenaz, que ganó el premio Nobel en 1995, por su participación en el descubrimiento del leptón tau, el primo más pesado del electrón. Perl considera que los interferómetros atómicos pueden ser las herramientas adecuadas para descubrir la naturaleza de la energía oscura, el origen de esa misteriosa fuerza repulsiva que causa que la expansión del universo se acelere.

Sabemos poco sobre la energía oscura, y mientras otras ideas pueden venir de los grandes telescopios y las sondas espaciales como la Joint Dark Energy Mission, Perl piensa que podría aprender más buscando las pequeñas diferencias en la caída libre de los átomos en dos interferómetros colocados uno al lado del otro, a un metro de separación (arxiv.org/abs/1001.4061).

Sin embargo, no todo el mundo está convencido. "Una nueva tecnología, con frecuencia abre la puerta a nuevos efectos", señala Robert Caldwell de Dartmouth College en Hanover, New Hampshire; "pero hasta que no haya una buena teoría que explique cómo se puede detectar la energía oscura en un laboratorio, la mejor manera de aprender acerca de ello seguirá siendo a través de las observaciones cosmológicas."

Junto a la gran física, constantemente empujando hacia nuevos límites, queda por ver si los experimentos con átomos enfriados están a la altura de su cartelera. En la próxima década, por ejemplo, un trío de naves espaciales conocidas colectivamente como la Laser Interferometer Space Antenna, o LISA, podrían despegar, con destino a un punto a 50 millones de kilómetros de la Tierra. Allí, la nave se dispondrá en un orden triangular de 5.000.000 de kilómetros para continuar la búsqueda de ondas gravitatorias. Con un coste de más de mil millones de dólares, LISA no saldrá barato precisamente. Si el dinero se va en este tipo de sistemas, podemos estar agradecidos por soluciones más cerca de casa.

Ray Kurzweil: "El genoma puede representarse por 50 millones de bits"
 

No existe un detector de conciencia en los seres humanos, explica el inventor y futurólogo norteamericano Ray Kurzweil en la siguiente entrevista. Añade que la memoria no puede confundirse con la conciencia y que no es posible probar que no estemos realmente conscientes incluso bajo la anestesia. Respecto a los intentos de simular al cerebro humano, Kurzweil señala que mediante la compresión de la información, el genoma puede estar representado por 50 millones de bits, de los cuales la mitad solamente interesa a la génesis del cerebro. Eso puede ser simulado por un millón de líneas de código solamente.

El inventor y futurólogo Ray Kurzweil representa una referencia inevitable. En su obra «Singularity is Near» señala que los progresos exponenciales y convergentes de las ciencias llamadas todavía emergentes contribuirán a producir en cincuenta años uno universo terrenal radicalmente diferente del nuestro, todavía inimaginable por los hombres de nuestro tiempo.

Ray Kurzweil, sin embargo, pronostica que los humanos « aumentados » por las tecnologías de la singularidad serán más capaces que nosotros de resolver las enormes dificultades materiales que afronta la humanidad actualmente, ante a un mundo cuyos recursos no sólo parecen finitos, sino también que están en vías de agotarse.

Se ha reprochado, nosotros los primeros, a esta hipótesis, de ser exageradamente optimista sin estar soportada por razonamientos científicamente creíbles. Por un lado, la degradación irreversible del medio ambiente puede producirse mucho antes de que surjan los recursos aportados por las nuevas ciencias.

Por otro lado, y desde un punto de vista más fundamental, la evolución inducida por la Singularidad, no siendo en sí misma previsible, podría provocar la emergencia de situaciones o entidades que, en relación con nuestras concepciones actuales del mundo, aparecen insoportables.

Dicho esto, es interesante disponer de un punto de vista reciente de Ray Kurzweil sobre la cuestión de la Singularidad. No hemos tenido la posibilidad de preguntárselo. Pero la publicación Hplus acaba de hacerlo. Aquí traducimos y simplificamos esa entrevista, a la que añadiremos nuestros propios comentarios.

Recordemos antes que nada que Ray Kurzweil ha llamado la atención en la Singularity Summit 2009 tratando dos temas que abordan precisamente las cuestiones que hemos evocado: la ubiquidad y predictibilidad del crecimiento exponencial de las TIC (tecnologías de la información y las comunicaciones) y las críticas de la Singularidad.

Las Cumbres de la Singularidad están organizadas por el Singularity Institute fundado en 2006 por Ray Kurzweil, Tyler Emerson y Peter Thiel. Más tarde, Ray Kurzweil ha creado la Singularity University, que propone formación intensiva en las principales disciplinas afectadas por su objeto: las biotecnologías, bioinformáticas, nanotecnologías, Inteligencia Artificial, Robótica, Finanzas, etc. La Universidad está cofinanciada por Google y por el Ames Reserch Center de la Nasa.

Es necesario saber además que Ray Kurzweil, definitivamente inaglotable, ha realizado dos pelícuas que saldrán muy pronto: "Transcendant man" y "The Singularity is near, A True Story about the Future".
Nos limitamos aquí únicamente a retomar y comentar las propuestas de Ray Kurzweil relativas a la ingeniería inversa del cerebro. (La ingeniería inversa es un método de resolución. Aplicar ingeniería inversa a algo supone profundizar en el estudio de su funcionamiento, hasta el punto de que podemos llegar a entender, modificar, y mejorar dicho modo de funcionamiento. Nota de T21).

Por lo demás, Ray Kurzweil se dedica en la entrevista a despreciar las alegaciones de un tal James Lovelock, según las cuales las innovaciones resultantes de la Singularidad llegarán demasiado tarde para impedir los miles de millones de muertos que pronostica el naturalista inglés. Ni Kurzweil ni Lovelock aportan pruebas convincentes de sus afirmaciones.

¿Qué diría acerca de las relaciones que pueden existir entre la consciencia, el cálculo cuántico y la complejidad?

Me han preguntado acerca de una posible relación entre el cálculo cuántico y el cerebro. ¿Podríamos utilizar un cálculo cuántico para crear una inteligencia artificial (IA) con la eficiencia del cerebro humano? Mi respuesta es negativa. No sostengo, particularmente, las hipótesis de Roger Penrose relacionadas con la existencia en el cerebro de micro tubos en donde los fenómenos de la mecánica cuántica podrían tener un papel muy importante. El cálculo cuántico es capaz de acelerar considerablemente ciertos procedimientos en los cuales el cerebro es muy lento, como la factorización de números muy grandes. Pero no se qué papel podría tener dentro de los mecanismos cerebrales que dan origen a lo que denominamos consciencia. No puedo tomar seriamente el argumento según el cual la consciencia humana y el cálculo cuántico, siendo igualmente misteriosos, deban proceder con la misma lógica.

He reflexionado acerca de la pregunta de la consciencia desde hace 50 años. Y no tengo todavía una respuesta clara. Cuando leo en uno u otro artículo que los investigadores han identificado en el cerebro uno u otro proceso susceptible de generar estados de consciencia, soy siempre escéptico. Me pregunto en cada momento cuál es la relación entre los procesos que describen y la consciencia. Así, durante una presentación, el Dr Hammeroff relacionó la consciencia con eso que llamamos coherencia gamma de ondas cerebrales. Éstas son ondas de alrededor de 10 ciclos por segundo que pueden resultar de una sincronización entre neuronas. Ahora bien, la anestesia hace desaparecer la coherencia gamma. Es cierto que la anestesia es interesante en el estudio de la consciencia, ya que tiene la reputación de hacerla desaparecer. Pero de hecho, la anestesia hace también desaparecer otras actividades, especialmente una gran parte de aquellas de la capa más moderna del cerebro llamada neocórtex. Esto quiere decir que, ¿quién puede probar que no estamos realmente conscientes bajo la acción de la anestesia? No es posible, ya que no podemos decir que perdiendo la memoria, perdemos la consciencia. La memoria no debe de ser confundida con la consciencia.

Me intereso, más bien, en proyectos actuales que tienen por objetivo construir neocórtex artificiales, por ejemplo, los proyectos Blue Brain y Numenta. Ciertos modelos que producen son infinitamente más simples en comparación a lo que realmente es un tejido cortical humano, pero nos permiten obtener observaciones interesantes. Entonces, ahí no hay nada de cuántica.

Usted mencionó igualmente las relaciones posibles entre la complejidad y la consciencia. Abordé ese tema en The Singularity is Near. Es importante no confundir la complejidad, que Shanon ha propuesto medir, con la repartición al azar. En mi libro, hablo acerca de la complejidad organizada, incluso orientada, (purposeful complexity). Ésta podría medir la aptitud de la consciencia. Está orientada en función de la historia evolutiva de las entidades. Un hombre es más consciente que un gato y éste a su vez más consciente que una lombriz de tierra. En cuanto al Sol, ¿es él consciente?

Podemos pensar en efecto que estas discusiones acerca de la consciencia son ociosas. ¿Hablamos de consciencia primaria o de consciencia superior? ¿Se integra como un modelo de Yo? Pensamos, por nuestra parte, de acuerdo con Alain Cardon y algunos otros, que todo sistema multiagente de evolución artificial, que fuera relativamente simple, podría generar estados conscientes evidentemente limitados, que podrían agregarse y enriquecerse en el seno de poblaciones de sistemas equivalentes en competencia darwiniana. Es sin duda también el punto de vista de Ray Kurrzweil. ¿Cómo probar la existencia de la consciencia?

No existe un “detector de consciencia”, como tal entre los humanos. Es necesario acordar un cierto número de signos objetivos que pueden hacer suponer que la entidad biológica o artificial interrogada, es consciente, en el sentido en el que lo entendemos. Se trata de una variante del test de Turing. En esta perspectiva, se tiene que admitir que entes artificiales pudieran ser conscientes y sufrir. Y entonces no estaría bien atormentarlos. Éste es uno de los temas de mi película The Singularity is Near. Pero todavía no estamos preparados para esto. Será sin embargo una de las preguntas morales o filosóficas que se cuestionarán en los próximos años: ¿podemos hacer sufrir a los hombres bajo el efecto de la anestesia, a animales y robots que se suponen con el poder de albergar, más que un simple ordenador actual, estados conscientes eventuales?

¿Qué diría acerca de las perspectivas que se ofrecen a la inteligencia artificial por parte de la ingeniería inversa aplicada al cerebro (brain reverse engineering), de la cual usted es promotor?

Actualmente trabajo, después de mis películas, en dos libros, How the Mind Works y How to uild one (a Mind). Trato principalmente acerca del cerebro, pero evoco al espíritu (mind) para abordar la cuestión de la consciencia que venimos mencionando. Un cerebro se vuelve espíritu cuando se conjuga con un cuerpo y, más allá de este cuerpo, con las múltiples entidades sociales que le implican.

Para mí, la ingeniería inversa del cerebro no será una simple operación mecánica, de la cual David Chalmers ha dicho que no llevaría a gran cosa. Se tratará al contrario de hacer comprender las bases mismas de la inteligencia. Por esto será necesario experimentar a partir de simulaciones operacionales. Descubriremos entonces que ciertas cosas son importantes y otras no: la gestión de jerarquías y de cambios, las propiedades de los patrones, los determinantes de alto nivel, etc. Ahora bien, se sabe que el neocórtex tiene una estructura muy uniforme. La forma en la que trata estas cuestiones básicas parece reproducirse en todos lados. Si se consigue simularlas a una escala pequeña, podremos reproducirlas y hacer una amplificación a gran escala. Ahí será donde se hará la ingeniería.

El cerebro del homo sapiens es ciertamente muy pesado y complejo, pero trata la información sobre el mundo de una forma muy lenta, y las conexiones interneuronales son todas parecidas. Muchas son además redundantes. Podemos entonces esperar, a partir de un autómata elemental bien conocido pero simple, reproducirlas sin limitaciones de tamaño en un cerebro artificial, introduciendo además si es necesario nuevos niveles de jerarquía. De hecho, todo será una tarea de experimentación, haciendo énfasis en las problemáticas que son propias del cerebro humano, o en otras que nos imaginaremos.

Podremos en esta perspectiva estudiar también los desórdenes mentales, como la psicosis maniaco-depresiva o la esquizofrenia, simulando comportamientos equivalentes. Pero claro, se debe de ser muy prudentes, ya que no sabemos gran cosa de la manera en la cual estas psicosis se producen en los cerebros verdaderos.

Me han objetado, particularmente John Horgan, que para simular el cerebro humano, se necesitarían de trillones de líneas de código, mientras que los programas más sofisticados no pasan de algunas decenas de millones de líneas. Pero es absurdo. No existe en el cerebro nada que sea tan complicado. El cerebro es el resultado de un genoma. Ahora bien, éste no sobrepasa alrededor de 800 millones de bits de información. Además, está lleno de concordancia. Las secuencias, las más largas, pueden estar repetidas cientos de millones de veces. Si utilizamos la compresión de la información, el genoma puede estar representado por 50 millones de bits, de los cuales la mitad solamente interesa a la génesis del cerebro. Eso puede ser simulado por un milllon de líneas de código solamente. Otras formas de cálculo dan el mismo orden de magnitud.

Comentarios al margen

Podemos pensar, aún si no lo dice claramente, que Ray Kurzweil se coloca en una perspectiva evolucionista. Es cierto que los cerebros humanos, o el aparato nervioso de organismos más simples, no se construyeron de un solo golpe. Éstos son el resultado de la agregación de procesos ciertamente muy simples, asociando componentes biológicos ellos mismos también muy simples aparecidos en los orígenes de la vida, en los bacilos e incluso en los virus primitivos. Son los azares de la competencia darwiniana los que imponen la necesidad de resolver problemas, en si mismos tan simples, pero poco a poco más numerosos, que provocaron la alianza al nivel de genomas de genes que codificaban para organizaciones cerebrales que nos parecen hoy terriblemente complejas, pero que en realidad no lo son.

Por otro lado, hoy en día parece que las imágenes cerebrales aplicadas a los cerebros humanos para estudiar las operaciones cognitivas juzgadas particularmente complejas, como lo es el reconocimiento de rostros, no hace aparecer las bases neurales muy diversificadas y complejas. Es la unión de estas bases dentro de las distintas áreas cerebrales en relación con las neuronas reentrantes, bajo el comando de una programación genética poco diferenciada, la que explica la variedad de funciones permitidas por el cerebro. De la misma forma, es el surgimiento de las funciones más complejas tales como la consciencia. En ninguna parte, ha sido posible identificar a las neuronas responsables de las funciones complejas y menos aún, las hipotéticas neuronas de la consciencia.

Es entonces plausible pensar que, una vez realizado un módulo artificial único permitiendo realizar funciones cognitivas (realmente) elementales, y por otro lado, una vez puesto en su lugar el motor (muy simple) que permite fabricar y ensamblar millones de módulos semejantes, la totalidad en los organismos artificiales (ya sean robots o entidades virtuales) asociando estas bases neurales artificiales y los cuerpos artificiales dotados de entradas y salidas, ellas mismas simples, entonces todos los elementos serian reunidos para generar por medio de una competencia darwiniana un cierto número de funciones complejas que permitan ordenar funciones intelectuales capaces de resolver problemas del tipo de aquellos que enfrentan los cuerpos y cerebro humanos.

En esta perspectiva, las sofisticaciones de la inteligencia artificial actual, como lo subraya Ray Kurzweil, no podrán ellas solas permitir crear un cerebro artificial (modelos de Markov, algoritmos genéticos, redes neuronales, algoritmos de búsqueda y aprendizaje). Se trata sólo de técnicas. Serán muy útiles en su momento para dotar los modelos de funciones, pero nada remplazará un trabajo paso a paso, análogo a aquel consumado por la evolución durante centenas de millones de años. Así es como las tecnologías emergentes resultantes de la Singularidad deberían permitir hacer este trabajo en algunas decenas de años sino es que en menos, este es el camino que pensamos debería de ser explotado. Observemos que ese camino, con algunas diferencias, es el que propone el investigador francés Alain Cardon.

Concluimos constatando que las propuestas hechas por Ray Kurzweil en relación a la ingeniería inversa del cerebro no han actualmente añadido gran cosa a una de las ideas que había contemplado: telecargar un espíritu humano a una plataforma tal, que tenga por finalidad obtener duplicados de sí. Pero cada cosa a su tiempo…


Fuente: http://www.tendencias21.net/Ray-Kurzweil-el-genoma-puede-representarse-por-50-millones-de-bits_a4603.html
Francis Collins: "En 10 años tú y yo tendremos el genoma secuenciado"
 

La conclusión general de la encuesta que la revista Nature ha realizado a 1000 científicos sobre qué han dado de si estos 10 primeros años tras la presentación del primer borrador de la secuencia del genoma humano el 26 de junio de 2000 es: “hemos avanzado mucho en investigación básica, pero poquísimo se ha trasladado a la práctica médica. Hemos acumulado una enorme cantidad de información, y también vemos que interpretarla es más complejo de lo que pensábamos. La revolución pronosticada hace 10 años no ha llegado todavía; pero justo está empezando y en la próxima década sí esperamos que los descubrimientos tengan importante impacto clínico”.
Uno podría pensar: “¿Cómo vamos a confiar en vuestros augurios para la próxima década, tras reconocer que no cumplisteis las expectativas que anunciasteis 10 años atrás?”. Hay motivos para confiar que esta vez sí algo grande se aproxima.
El primero, que las expectativas no cumplidas no son tanto las que en su momento expresó la comunidad científica, como las que se inflaron al ser transmitidas a la sociedad. Pero lo más importante: se acerca el momento en que la información genética deje de estar en manos de los cuidadosos científicos, y se expanda por las consultas médicas o el disco duro de tu ordenador. “Me sorprendería mucho que dentro de 10 años, tu y yo –o cualquiera que tenga acceso al sistema sanitario- no tuviéramos nuestro genoma secuenciado. Los beneficios de conocer esta información serán enormes, y el coste se está desplomando”. Esta frase me dijo textualmente hace dos semanas Francis Collins, actual director del NIH y ex líder de la iniciativa pública del Proyecto Genoma Humano, durante una entrevista que le hice para El Mundo.


A continuación transcribo dicha entrevista. En ella Collins asegura que sin la iniciativa privada de Venter el mapa del genoma se hubiera completado igualmente, que la existencia de patentes genéticas es un escollo a superar, que en realidad la medicina personalizada ya ha llegado, y que la actitud proactiva de los pacientes solicitando conocer su genoma es lo que podría marcar el verdadero punto de inflexión.
En una de esas preguntas que no encajan dentro de una entrevista formal le consulté: “Si supiera todo lo que sabe, pero en lugar de ser director del NIH fuera un inversor de riesgo privado, ¿apostaría su dinero a una empresa relacionada con la secuenciación del ADN?”. Su respuesta fue: “Sin duda! Invertiría en analizar genomas de células cancerígenas y proponer tratamientos específicos
“LA MEDICINA PERSONALIZADA HA LLEGADO”
(entrevista a Francis Collins publicada en el suplemento Eureka de El Mundo)
Pere E.– ¿Estamos cerca de la medicina personalizada basada en la información genética?
Francis Collins.– Ya estamos inmersos en ella. Si en tu historial familiar hay antecedentes de cáncer de colon, ya puedes analizar tus genes para saber si estás en riesgo. Es sólo un ejemplo. En los últimos 10 años, hemos conocido las bases moleculares de más de 1.000 enfermedades raras, y localizado centenares de genes implicados en otras comunes, como la diabetes o el cáncer.
(*) Comentario: Francis Collins es bien consciente de las dificultades que tienen enfrente: falta poder de computación y software bioinformático, la información genética es más compleja de lo esperado, y capacitación de expertos y personal sanitario, entre otros. Pero se muestra optimista al ver el ritmo ascendente de los progresos. Y sobre todo, porque la misión –y recursos- que tiene como director del NIH es clara: trasladar todos estos esfuerzos de ciencia básica a la práctica clínica. En otoño se publicará un plan de ruta para marcar las pautas a seguir en esta dirección.
P.– ¿Es el cáncer el gran reto?
F. C.– El gran reto y la gran esperanza, y refleja perfectamente qué significa la medicina personalizada. El cambio más importante llegará con los tratamientos personalizados: si sufres un cáncer, veremos qué subtipo concreto de error genético lo provoca, y usaremos fármacos específicos en función de qué esté fallando.
(*) Comentario: Este punto es importante. Tras comprobar la enorme complejidad y cantidad de genes involucrados en patologías comunes como diabetes, cáncer o problemas coronarios, la idea de conocer tu predisposición a enfermedades está perdiendo fuerza. Hay demasiados matices. El impacto se prevé en el diagnóstico más certero y desarrollo de tratamientos y fármacos más específicos a cada subtipo de cáncer o problema coronario.
P.– ¿Sacamos el máximo provecho de esa información?
F. C.– Todo no. Pero, sin duda, cada vez más. Ya hay mucha mujeres que evitan la quimioterapia después de un cáncer de mama porque, analizando la mutación que lo causó, sabemos que no reaparecerá. Sólo con esto, el año pasado ahorramos, además de muchísimo sufrimiento, 100 millones de dólares. Y ya encuentras más de un centenar de fármacos que avisan en sus etiquetas que debes conocer tu información genética antes de utilizarlos. El Plavix (clopidogrel), contra las enfermedades coronarias, es el segundo medicamento más recetado de EEUU, pero a un tercio de nosotros no nos sirve de nada porque debido a una alteración genética nos falta un enzima imprescindible para metabolizarlo.
P.– Con la rápida caída del coste de la secuenciación, ¿será más efectivo tener todo nuestro genoma secuenciado de una vez?
F. C.– Sin duda. Me sorprendería mucho que dentro de 10 años, tú y yo no tuviéramos nuestro genoma secuenciado. Los beneficios serán enormes. Secuenciar un genoma con alta precisión cuesta 10.000 dólares; dentro de tres o cuatro años, costará 1.000.
(*) Comentario: le pregunté si, siguiendo este espíritu práctico, veía cercano un escenario en que a los recién nacidos, entre otras pruebas, también se les secuenciara de manera rutinaria su genoma para disponer desde el principio de toda su información genética. Contestó que a largo plazo sí, pero a medio no porque antes se deben aclarar ciertos aspectos éticos.
P.– ¿Serán los pacientes el motor de la medicina personalizada?
F. C.– Cada vez más pacientes desean saber qué está ocurriendo en sus cuerpos, y asegurarse de recibir el mejor tratamiento. La buena noticia es que la genética es bastante directa: sabiendo un poco de herencia, estadística y cómo interpretar los riesgos se le puede sacar un partido abismal.
(*) Comentario: Mi apuesta personal es que cuando la secuenciación baje de 1000 dólares, será la actitud proactiva de algunos individuos lo que marcará –con todos los riesgos e incertidumbres que pueda conllevar- un punto de inflexión. Querremos ser dueños de nuestra información genética, y buscaremos activamente interpretarla. Francis Collins se mostraba dubitativo sobre este punto, pero sí reconoció que podría estar cercano el día en que un paciente entrara con su genoma secuenciado en la consulta del médico, le pidiera que lo interpretara, y el doctor se quedara pensando “no tengo ni idea, pero deduzco que es el momento de espabilarme y aprender genética”
P.– En EEUU, hay genes patentados por compañías privadas...
F. C.– Cuando no había suficiente información, se decidió conceder patentes a genes humanos. Es muy cuestionable que esto haya beneficiado a la población. En el diagnóstico, desde luego que no, porque los precios son exageradamente altos, y mucha gente no puede acceder a una información tan valiosa como saber si tienes las mutaciones BRCA 1 y 2 relacionadas con el cáncer de mama, que son las patentes que ha intentado invalidar el juez Sweet. Veremos si el recurso prospera, pero no está claro.
P.– En el Proyecto Genoma Humano, garantizar que la información fuera pública se convirtió en una lucha frente al esfuerzo privado dirigido por Venter.
F.C.– La diferencia entre el esfuerzo privado y el público no era la tecnología, que era muy parecida, sino saber si esto iba a ser una información abierta, sin patentes y disponible para todos o iba a ser un producto comercial en manos de una compañía. Los historiadores dirán: «Menos mal que el sector público se salió con la suya e impuso su modelo».
P.– ¿Fue beneficiosa la presión ejercida por el sector privado?
F. C.– Realmente, no. Esa carrera ayudó a que los medios prestaran más atención. Pero, científicamente, no creo que influyera. Nos metió presión y forzó a tener un primer borrador mucho más rápido: el que presentamos hace ahora 10 años. Pero el genoma completo lo hubiéramos finalizado igualmente en el año 2003, aunque no hubiera existido ninguna compañía privada.
El pasado miércoles estuve en una charla en el NIH sobre su Programa de Enfermedades no Diagnosticadas. La mayoría de los pacientes sobre los que investigan sufren mutaciones extrañísimas, algunas en las que sólo hay un caso documentado en todo el mundo. Uno de los mensajes transmitido fue quem sin la comparación con el mapa completo del genoma humano publicado en 2003, este trabajo sería imposible. Un “inconveniente” que tiene la investigación en biomedicina, respecto otras ciencias, es que los científicos nos anticipan con bastante detalle sus planes. Hay muchos más pequeños avances ya previstos, que grandes descubrimientos inesperados. La progresión es lenta, y no genera sorpresas ni cambios de paradigmas. Sólo nos damos cuenta cuando observamos en perspectiva temporal. Francis Collins insistió en que la medicina personalizada no llegará de un día para otro. Será un goteo constante de conocimientos y aplicaciones clínicas concretas. Y en este sentido, ya ha empezado.

Intentan reproducir el Big Bang en el LHC 



Científicos del Gran Colisionador de Hadrones (LHC, por sus siglas en inglés) han simulado el sonido de las partículas subatómicas cuando chocan como método para intentar detectar el bosón de Higgs o la 'partícula de Dios'.
El bosón nunca ha sido visto pero si existiera podría explicar el origen de la masa de otras partículas elementales y responder a muchas preguntas sobre el origen del Universo.
Para ello, en el LHC se están llevando a cabo experimentos en los cuales pequeñísimas partículas son puestas a circular en direcciones opuestas y de forma simultánea en el túnel de 27 kilómetros de longitud, con el objetivo de recrear las condiciones que se presentaron durante los primeros estadios del Universo tras el Big Bang.
La doctora Lily Asquith, quien llevó a cabo el modelo de datos en el experimento del LHC, ha trabajado con ingenieros de sonido para convertir los datos que se esperaban de las colisiones en sonidos. "Si la energía está cerca de ti escucharán un tono bajo y si está lejos de ti escucharás un tono alto", ha dicho la científica, al tiempo que ha puntualizado que si se trata de grandes cantidades de energía el sonido será mucho más fuerte y si es poca energía el tono será más débil.
Según explica la BBC, este experimento ha sido llevado a cabo en 'Atlas', uno de los cuatro que se desarrollan en el Gran Colisionador de Hadrones. Dentro de éste hay un instrumento, el calorímetro, que se utiliza para medir la energía y está compuesto de siete capas concéntricas. Cada una de ellas está representada por una nota y el tono de cada una de éstas difiere según la cantidad de energía que se deposita en esa capa. El proceso de convertir los datos científicos en sonidos se llama 'sonificación'.




"Cuando escuchas lo que hacen las sonificaciones realmente están escuchando los datos científicos. Son auténticas, y te están diciendo algo sobre los datos que no podrías saber de otra forma", ha afirmado el ingeniero de software que trabaja en el proyecto, Archer Endrich.
El compositor Richard Dobson, por su parte, dice que también está involucrado en el proyecto, y reconoce estar sorprendido por lo musical del sonido de las colisiones. "Podemos escuchar estrucutras claras en el sonido, casi como si hubieran sido compuestas", ha puntualizado.


¿Podemos encontrar Diseño Inteligente en estructuras naturales no vivas?


El Diseño Inteligente postula que en los seres vivos existen estructuras tan sumamente complejas que éstas no pueden haberse formado por procesos que explica la evolución, sino que tienen que ser responsabilidad directa de alguna fuerza sobrenatural que lo controle todo.
Que existen estructuras complejas en la naturaleza no es algo nuevo que haya descubierto el DI, eso forma parte de especialidades descriptivas de la biología y la geología. El desarrollo de estas ciencias ha permitido encontrar también esas estructuras a nivel microscópico, cosa que han hecho la citología y la microbiología, y a nivel químico y bioquímico tal y como ha hecho la bioquímica o la mineralogía. Ahora bien, el DI postula que si bien es posible explicar el origen de la diversidad en términos darwinianos (leer esta entrevista entrevista) hay estructuras tan complejas que a la fuerza requieren de un diseñador.

Pero, ¿quién decide si una estructura es compleja o no?. Dembski afirma que una de las misiones de los que estudian el DI es encontrar qué estructuras pueden definirse como complejas, y por tanto no puede ser explicada en términos evolutivos, y cuáles no. Pero de momento da la sensación de que esa explicación sólo pretende separar las estructuras de las que se conoce su origen evolutivo, de las que aún se están discutiendo o aún no se conoce. En resumen, la impresión que da es que está tratando de rellenar un agujero de conocimiento con una idea mítica. Porque, ¿el conjunto de cristales de la imagen son complejos o no?




Su estructura cristalina es bien compleja. De hecho, si repasamos los sistemas de cristalización veremos muchas formas de elevadísima complejidad, tanta que cuesta creer que éstos se formen de forma espontánea a lo largo de cientos o miles de años de lento proceso de cristalización. Sin embargo la geología conoce y explica bien su origen, e incluso se han podido cristalizar en el laboratorio alguno de estos minerales copiando las condiciones naturales. Al fin y al cabo si los cristales son como son es debido a que las propiedades físico-químicas junto con las condiciones donde se realiza esa cristalización restringen por completo la forma final del cristal. Éstos no se ordenan al azar, sino como las propiedades de la materia dictan.
¿Por qué no se plantea un diseño inteligente para otros elementos de la naturaleza, por qué sólo para los vivos? Estoy convencido de que el concepto de DI hace un par de siglos bien hubiese abarcado esos otros elementos, pero hoy ya conocemos el origen de los mismo y proponer algo semejante, sería negar la ciencia, algo que sólo los elementos más recalcitrante del creacionismo se atreven a hacer. Por eso bajo mi punto de vista, el DI en estos momentos intenta tapar los agujeros del conocimiento colocando en ellos una figura sobrenatural e inteligente. Sólo aquellas estructuras cuyo origen no es entendido del todo son irreduciblemente complejas. El día que sepamos con detalle de su evolución, como ya se conoce para muchas estructuras de la naturaleza, dejarán de serlo: Pero lo defensores del DI pueden estar tranquilos, el conocimiento completo está lejos de ser alcanzado, aunque hay muchos que machaconamente trabajan para que las lagunas de conocimiento se amplíen al máximo.
Bonus final:¿Son complejas las estructuras que se observan en la foto?, ¿cómo se explicaría su origen?. A ver quien se atreve a contestar.
















Estos también son cristalitos