Entrelazamiento cuántico y libre albedrío
 
Un trabajo teórico de unos físicos interpreta el libre albedrío de los experimentadores que estudian el entrelazamiento cuántico. 

Uno de los efectos cuánticos más desconcertantes es el del entrelazamiento cuántico y su colapso en un experimento EPR. En este tipo de experimentos se entrelazan cuánticamente dos partículas que podemos llamar Alice y Bob y se disparan en sentidos opuestos. Los estados de de ambas partículas estarán indeterminados hasta que una medida colapse el estado de una de ellas, entonces, automáticamente, el estado de la otra quedará totalmente determinado y de manera instantánea, incluso si median años luz de distancia. Aunque no se viola la causalidad relativista, pues el proceso no trasmite información, no deja de ser sorprendente. Si además tenemos en cuenta que la primera partícula en ser medida depende de nuestro sistema de referencia según la Relatividad Especial, no es de extrañar que esta “acción a distancia” le desagradara tanto a Albert Einstein (la E de EPR).
La solución que se propuso en un principio fue el afirmar que la Mecánica Cuántica (MC) no es una teoría final, sino una suerte de aproximación estadística a una teoría más fundamental que tendría unas variables aún por descubrir y que se denominaron “ocultas”.
Gracias al trabajo teórico de Bell con sus desigualdades se pudo demostrar más tarde que tal teoría de variables ocultas no existía. Los experimentos, por tanto, descartan correlaciones ocultas entre partículas en las que los resultados de las medidas están de acuerdo desde un principio. La Naturaleza parece ser tan extraña como estos experimentos dicen, cuyos resultados no son fruto de nuestra ignorancia, sino de una física real y sorprendente.
El proceso de medida en MC también ha hecho correr ríos de tinta y todavía no está del todo solucionado al gusto de todos. Aunque se han propuesto buenas soluciones, también ha dejado abierta la puerta a cantamañanas sin escrúpulos que introducen misticismo en el asunto, y hablan del supuesto papel de la consciencia en el proceso de colapso (algo que vende muchos libros de “divulgación”).
No obstante, la naturaleza de la MC ha hecho que los físicos reconsideren su propio papel en este tipo de procesos.
Imaginemos que una mano invisible forzara a los experimentadores a realizar medidas que siempre den lugar a este extraño acuerdo en los experimentos EPR de acción a distancia.
Ahora, Jonathan Barrett de la Universidad de Bristol y Nicolas Gisin de la Universidad de Ginebra nos proporcionan una nueva perspectiva a este problema.
Asumen que el entrelazamiento se da como un mecanismo cuántico que prohíbe, entonces se preguntan cuanta libertad tiene el experimentador que tener para descartar la posibilidad de interferencias ocultas.
La respuesta es interesante. Según estos dos físicos si se comparte alguna información entre el experimentador y las partículas que mide, entonces el entrelazamiento puede ser explicado por algún tipo de proceso oculto que es determinista. Esto, en términos prácticos, viene a decir que no hay información compartida entre un generador de números aleatorios que determine los parámetros del experimento y las partículas que son medidas.
Pero lo mismo se mantiene para los experimentadores y no hay información compartida entre ellos y las partículas que miden. En otras palabras, tienen libre albedrío.
Es más, si un experimentador carece de sólo un poquito de libre albedrío entonces la MC puede ser explicada en términos de variables ocultas. Pero si aceptamos la validez de la MC entonces podemos ser capaces de estudiar la naturaleza del libre albedrío.
Claro que, todo depende de lo que entendamos como libre albedrío.

Nueva visión de las placas tectónicas


Informáticos y geofísicos de la Universidad de Texas, en Austin, y el Instituto de Tecnología de California, han desarrollado nuevos algoritmos que por primera vez permite la modelización simultánea del flujo del manto terrestre de la Tierra, una tectónica a gran escala de los movimientos de las placas, y del comportamiento individual de las zonas de fallas, para producir una visión sin precedentes de las placas tectónicas y las fuerzas que la impulsan.

Los informáticos, del Instituto de Texas de Ingeniería y Ciencias Computacionales (CIEM), han empleado una técnica computacional conocida como malla de refinamiento adaptable (AMR, siglas de 'Adaptive Mesh Refinement').

Las ecuaciones derivadas parciales, describen el flujo del manto mediante la subdivisión de éste en regiones, en una cuadrícula computacional. En general, la resolución se mantiene igual en toda la red. Aunque muchos problemas de la dinámica característica a pequeña escala sólo se encuentran en regiones limitadas. "Los métodos AMR se adaptan para crear una resolución más fina allí donde se necesita", explica Omar Ghattas, del CIEM. "Esto conduce a grandes reducciones del número de puntos en la cuadrícula, haciendo posible simulaciones que antes estaban fuera de nuestro alcance."

Esta complejidad significa que los actuales algoritmos de AMR no han reducido la necesidad de los modernos superordenadores a petaescala. Los ordenadores a petaescala son capaces de mil billones de operaciones por segundo. Para lo que se desarrollaron nuevos algoritmos que superasen este problema de adaptabilidad.

Con los nuevos algoritmos, los científicos fueron capaces de simular el flujo del manto global, tal cómo se manifiesta en la tectónica de placas y el movimiento de las fallas individuales. Según Georg Stadler, los algoritmos de AMR redujeron el tamaño de las simulaciones en un factor de 5.000, lo que permite que encajen en un número menor de 10.000 procesadores, y se ejecute durante la noche en el superordenador Ranger de la National Science Foundation (NSF).

Una clave para el modelo fue la incorporación de datos en una multitud de escalas. Los límites entre las placas se componen de muchos cientos de miles de fallas individuales, que en su conjunto constituyen las zonas activas de la falla. "Las zonas de fallas individuales desempeñan un papel crítico en cómo funciona el planeta entero", explica Michael Gurnis, "y si no se pueden simular las zonas de falla, tampoco el movimiento de placas" y, a su vez, no se podría simular la dinámica de todo el planeta.

Se creó una malla con una resolución de aproximadamente un kilómetro, cerca de los bordes de placa. En esta simulación se incluyen los datos sismológicos, datos relativos a la temperatura de las rocas, densidad y viscosidad, la fortaleza o debilidad de las rocas, que afecta a la facilidad con que se deforman.

Los investigadores descubrieron que el movimiento anómalo rápido de las microplacas aparecen en las simulaciones globales. "En el Pacífico occidental," dice Gurnis, "tenemos algunos de los movimientos tectónicos más rápido que se hayan observado en cualquier lugar de la Tierra. "Por primera vez, encontramos que estos movimientos tectónicos a pequeña escala condicionan los modelos globales, abriendo una nueva frontera en la geofísica."

Uno de los resultados del modelo que sorprende, se refiere a la energía liberada a partir de las placas en las zonas sísmicas. "Se pensaba que la mayoría de energía asociada a la tectónica de placas se liberaba cuando las placas se plegaban, pero resulta que es menos importante de lo que se creía", señaló Gurnis. "En cambio, encontramos que gran parte de la disipación de energía se produce en el interior profundo de la tierra. En escalas más pequeñas nunca pudimos detectar esto."

Metamateriales: Estudian cambios en la estructura del espacio-tiempo 


En el momento del Big Bang, nuestro universo puede que no tuviese exactamente tres dimensiones de espacio y una de tiempo, de acuerdo con algunos teóricos. En el ejemplar del 6 de agosto de la revista Physical Review Letters, un equipo propone una forma de observar la transición propuesta a nuestro actual universo usando los conocidos como metamateriales, estructuras en las que la propagación de la luz puede controlarse con gran precisión. Los experimentos en tales estructuras, dicen, podrían comprobar las predicciones de que un “gran destello” de radiación acompañaría a cambios en la estructura del espacio-tiempo que pueden haber tenido lugar en los inicios del universo.

A lo largo de la última década, los teóricos han aprendido que elegir las propiedades microscópicas magnéticas y eléctricas de los materiales les permite manipular la luz de formas sorprendentes, potencialmente llevando a dispositivos como lentes perfectas y capas de invisibilidad. Los experimentadores han empezado a confirmar estas ideas usando metamateriales – grandes conjuntos de diminutos cables, anillos y otras estructuras que son pequeñas en comparación con la longitud de onda de la luz.

Los materiales hechos a medida podrían también usarse para explorar las inusuales geometrías del espacio-tiempo, dicen Igor Smolyaninov de la Universidad de Maryland en College Park, y Evgenii Narimanov de la Universidad de Purdue en West Lafayette, Indiana. Normalmente, para una onda de luz que atraviesa un material, conforme se acorta su longitud de onda, su frecuencia aumenta, y esto se aplica de la misma forma en todas direcciones. Pero Smolyaninov y Narimanov describen un metamaterial donde la relación entre frecuencia y variaciones espaciales de los campos electromagnéticos es altamente anisotrópica. Para algunas configuraciones de los campos, se podría incrementar la longitud de onda efectiva en una dirección específica, y aún así la frecuencia general disminuiría.

El equipo demuestra que esta relación, conocida como hiperbólica, entre las variaciones espacial y temporal de las ondas electromagnéticas, es exactamente lo que se tendría en un espacio-tiempo de dos dimensiones temporales y dos espaciales. Una propiedad de esta geometría es que, para una frecuencia dada, hay un número infinito de configuraciones de campo electromagnético, o modos, mientras que en el espacio-tiempo normal podría haber muchos modos, pero no infinitos.

Smolyaninov admite que el comportamiento creado no permitiría cosas extrañas como máquinas del tiempo – una posibilidad teórica con dos dimensiones temporales – debido a que sólo sucede en un rango limitado de frecuencias y se interrumpe con pérdidas de energía que no se permiten en la teoría. Pero manipular el material puede aún permitir a los experimentadores observar lo que sucede cuando la geometría del espacio-tiempo cambia drásticamente. Por ejemplo, si las muchas dimensiones extra predichas por la Teoría de Cuerdas de pronto se “enrollasen” en el universo, dejando sólo tres dimensiones espaciales, algunos teóricos predicen que se habría producido un “gran destello” de radiación, algo similar al Big Bang. El destello habría tenido lugar debido a que cualquier energía en la infinidad de modos del espacio-tiempo de más dimensiones se liberaría súbitamente.

Smolyaninov y Narimanov proponen construir una estructura que incluye láminas de finos cables de galio, el cual se hace más conductor cuando se fundo justo por encima de la temperatura ambiente. Calculan que la fusión cambiará el metamaterial de normal a hiperbólico, por lo que los experimentadores podría buscar el gran destello cuando se enfría. “Con los metamateriales, puedes modelar esta transición de forma experimental”, señala Smolyaninov.

Ulf Leonhardt, de la Universidad de St. Andrews en Escocia dice que los modelos de laboratorio pueden ser muy informativos para fenómenos donde la gente no tiene experiencias directas y por tanto hay una intuición limitada. “Si estos sistemas pueden crearse en el laboratorio, y si muestran este efecto, entonces puede zanjarse la controversia”. El sistema propuesto “suena interesante y práctico”, dice. “La clave está en los detalles”.

Entrevista al Físico Joaquín Sacanell, especialista en ciencia y tecnología de materiales

Radiografía de una celda de combustible: “Mediante el uso de nanotubos es posible optimizar la captura de oxígeno en celdas de combustible”.

(23/08/10 – Agencia CyTA-Instituto Leloir / Divulgación GIyANN-CNEA. Por Laura García)-. Joaquín Sacanell es especialista en materiales e investigador del Conicet. Se doctoró en física, en la Universidad de Buenos Aires y trabaja en el Centro Atómico Constituyentes de la Comisión Nacional de Energía Atómica (CNEA), en la provincia de Buenos Aires. Recientemente, visitó la ciudad de San Carlos de Bariloche para participar del “X Encuentro de Superficies y Materiales Nanoestructurados” organizado por la CNEA.

En esta nota, Sacanell realiza una “radiografía” de las celdas de combustible: cómo funcionan, cuáles son los desafíos actuales para su desarrollo, y de qué se trata la experimentación que su grupo realiza sobre materiales que capturan oxígeno de forma eficiente. Además, cuenta por qué se explora la opción del metano en esos dispositivos que hoy se investigan en todo el mundo por sus aplicaciones en el universo de los automotores y en pequeños dispositivos como los celulares.

-El campo de la “física experimental del estado sólido” tiene un nombre difícil, ¿qué investigan en concreto en su grupo?

- Nos interesa entender cuáles son las interacciones que hacen que un material cambie sus propiedades ante ciertos estímulos externos. Por ejemplo, observar qué ocurre cuando se le acerca un imán. Para estudiar esos efectos y sus posibles aplicaciones, sometemos los materiales a estímulos de manera controlada y medimos las propiedades que nos interesan. En particular, en nuestro grupo medimos la resistencia eléctrica, que sería básicamente cuánto le cuesta a la corriente eléctrica circular por un cable. Estudiamos cuáles son los parámetros que tienen influencia en la resistencia eléctrica, y cuáles son los estímulos externos que pueden hacer que ésta cambie. De ese modo, se pueden conseguir materiales en los que una mayor o menor resistencia eléctrica se obtenga con sólo cambiar un estímulo externo.

-¿Podría dar un ejemplo de ese tipo de material?

-Sí, pensemos por ejemplo en una lamparita conectada a una pila con cables fabricados con un determinado material. Si este material reduce su resistencia eléctrica al acercarle un imán, entonces por él pasará más corriente eléctrica. El resultado es que, en ese caso, la luz de la lamparita será más intensa utilizando un estímulo a distancia. Esos materiales existen y forman parte de nuestro campo de estudio. Otra de las líneas de trabajo que empezamos hace pocos años es el estudio de materiales con aplicaciones en energías limpias. Dentro de ese campo están las celdas de combustible, tema en el que trabajamos en estrecha colaboración con el doctor Diego Lamas del Centro de Investigaciones en Sólidos de CITEFA.

-¿Cómo funcionan las celdas de combustible?

-De modo parecido a una pila. La diferencia es que una pila, por ejemplo de una linterna, tiene dos contactos y toda la parte química está dentro de esa pila. Allí hay sustancias químicas que reaccionan y provocan un desequilibrio de cargas eléctricas capaces de producir una corriente eléctrica que se utiliza para prender la lamparita de la linterna. La celda de combustible tiene un principio de funcionamiento similar, pero los elementos que reaccionan están en el exterior de la celda. Por ejemplo, si se le acerca hidrógeno de un lado y oxígeno del otro lado, se produce una reacción química equivalente a la que ocurre en la pila y se puede generar una corriente eléctrica. Los autos a hidrógeno funcionarían con este principio de las celdas de combustible.

-¿Qué materiales se utilizan en las celdas de combustible?

-Las fórmulas químicas de los materiales utilizados en celdas de combustible suelen ser complejas, porque tienen combinados de lantano, estroncio, cobalto, entre otros. Es una fórmula química que combina metales y oxígeno. Son materiales de la familia de los “óxidos complejos”. La celda de combustible en sí suele tener un tamaño “macroscópico”, desde el de una batería de un reloj o una moneda al de una batería de auto o aún mayor. Pero si uno mira con microscopio los materiales que forman las celdas sobre las que nosotros trabajamos, se observa que son materiales cerámicos. Una celda prototípica como las que se ensayan en nuestro laboratorio, no se parece a una pila como las que conocemos, contenida en una estructura metálica, sino que es simplemente una pastilla cerámica. De un lado y del otro se le colocan los materiales que reaccionan con oxígeno e hidrógeno.

-¿En su grupo con qué materiales trabajan?

-Con los materiales que reaccionan con el oxígeno, es el electrodo conocido como “cátodo”. Lo que nos interesa es tener un material que optimice la captura del oxígeno. Si uno tiene un material con superficie plana, como una mesa, y se le acerca oxígeno, el oxígeno se va a ir depositando sobre esa superficie. Pero si se le hacen agujeritos muy chiquitos, el oxígeno tendrá más lugares donde quedar capturado.

-¿Eso sería un material poroso? ¿Cómo lo fabrican?

-Sí, nosotros hacemos películas muy porosas a partir de nanotubos, que son pequeños cilindros hechos con esa fórmula estrambótica de una mezcla de materiales como el lantano, el estroncio y el cobalto. Para fabricarlo, se debe generar una reacción química: el proceso incluye hacer una solución de agua, un sistema de filtrado y un tratamiento térmico en un horno. El resultado es un polvo negro que cuando se lo mira con un microscopio se observa que está formado por pequeños cilindros. Su diámetro es del orden de un micrómetro, o sea, es mil veces más chico que un milímetro. Las paredes de esos cilindros están formadas por nanopartículas. Luego depositamos esos tubos sobre una pastilla de cerámica y estudiamos las propiedades eléctricas de ese material en presencia de oxígeno. La idea es justamente obtener un material lo más poroso posible para garantizar el acceso de los gases a las celdas de combustible. Sabemos además que el hecho de que esté formado por nanopartículas también juega un rol fundamental en las propiedades.

-¿Cómo llegaron a esa fórmula química?

-Se conoce desde la década de 1940, y el nombre del material es “perovskita” de lantano, estroncio y cobalto, también se lo llama “cobaltita”. Se lo estudia desde hace tiempo porque tiene varias propiedades interesantes. Una de las propiedades interesantes que tiene es que es metálico, o sea que conduce bien la electricidad. Además, el oxígeno tiene una alta movilidad dentro de esa estructura, algo que también nos sirve porque queremos que el oxígeno entre, reaccione y vaya hacia el electrolito. Nosotros no inventamos ese material, se hace en laboratorios, ya que no existe en la naturaleza. Lo que hicimos nosotros fue fabricarlo en forma de nanotubos para aplicarlo en este material poroso que captura oxígeno.

-¿Cómo actúa el oxígeno en la celda de combustible?

-La reacción química ocurre con el oxígeno porque se necesita hacer el transporte de dos especies. La celda es una pastilla que por fuera tiene que funcionar como una pila. Pero hay que tener en cuenta que todos los materiales tienen cargas positivas y negativas que se cancelan para que la materia sea eléctricamente neutra. Si se le “extraen” electrones, que son los que provocan la corriente eléctrica, se tiene que compensar esa carga de alguna manera. Este material compensa la carga “moviendo” iones de oxígeno, o sea, átomos de oxígeno que están cargados. Entonces, por afuera se genera una corriente eléctrica que se utiliza para un fin determinado, por ejemplo encender un aparato, y por adentro de la celda de combustible, esa carga se compensa moviendo iones de oxígeno. Podría haber otro ión, algunas funcionan moviendo hidrógeno. También por ejemplo se utilizan pilas de litio, pero el proceso con litio es mucho más costoso como para ser utilizado en una celda de combustible, y aparte no tenemos gases que contengan litio.

-¿Y luego qué ocurre en la celda de combustible?

-El oxígeno se deposita en este material cerámico poroso. Con los electrones que vienen en el circuito externo a la celda, se “extraen” electrones del hidrógeno en un electrodo llamado “ánodo” y se los lleva al electrodo que está en contacto con el oxígeno, el “cátodo”. Esos electrones producen una reacción que se llama “reducción del oxígeno”, que hace que el oxígeno quede cargado, y después ese oxígeno viaja al ánodo, pero por adentro de la celda. De nuevo, se tiene carga compensada del otro lado, y se cierra el circuito. La corriente eléctrica sigue funcionando siempre y cuando le agregues oxígeno e hidrógeno a la celda.

-¿Y el hidrógeno qué rol juega en una celda de combustible?

-El hidrógeno provee los electrones que se necesitan para hacerlos pasar por el circuito: se los lleva hacia el otro lado de la celda, allí ocurre la reducción del oxígeno, luego el oxígeno reducido pasa hacia el lado del hidrógeno, y el único residuo es la combinación del hidrógeno que quedó de un lado y el oxígeno que vino del otro lado. El residuo es agua. El hidrógeno es lo que llamamos el “combustible” de la celda.

- En el mundo, ¿en qué punto se encuentra el desarrollo de las celdas de combustible?

-A nivel mundial, los prototipos de celdas de combustible están bastante desarrollados, aunque no a nivel comercial. Ya hay motores de autos que funcionan con hidrógeno. El problema más grave es que almacenar hidrógeno todavía es muy difícil y caro. Además es peligroso almacenar hidrógeno, porque es muy volátil. Es probable que una de las formas de obtener hidrógeno en el futuro de modo masivo sea utilizando energías renovables, como la solar o la eólica. Eso excede mi campo de investigación, pero hay ciertos desarrollos experimentales que consisten en obtener energía eléctrica a partir de la energía eólica. Y ese proceso luego es utilizado para separar el hidrógeno del agua, y luego utilizar ese hidrógeno en la celda de combustible, obtener agua y cerrar el ciclo.

-¿En qué estado está su trabajo de investigación sobre el material que captura oxígeno?

-Bastante avanzado, funciona mucho mejor que los materiales comerciales. El rendimiento es muy alto, pero no tenemos recursos ni infraestructura ni experiencia para hacer un desarrollo más allá de un prototipo. Sólo estudiamos las propiedades de los materiales, hacemos la ciencia básica previa a las aplicaciones. Dentro del proyecto en el que trabajamos con gente de CITEFA está planeado hacer prototipos de celdas de combustible como una forma de testear nuestros materiales. Sin embargo, como el hidrógeno es tan complicado, estamos trabajando con celdas que además podrían funcionar con metano. El metano se obtiene del gas natural. Es más fácil trabajar con ese gas, aunque produce efecto invernadero, utilizado en celdas produce mucho menos que el motor de combustión. Nuestra idea es utilizar celdas con metano en una primera etapa, como alternativa al hidrógeno que es mucho más complicado y más caro.

-¿Trabajan siempre con altas temperaturas?

-La temperatura es una variable que nos interesa, porque las celdas de combustible con las que trabajamos operan a altas temperaturas. Otras operan a cien grados y algunas a mayores temperaturas. Las que hacemos en nuestro laboratorio operan típicamente a mil grados, y lo que uno intenta es bajar esa temperatura porque es difícil que cualquier material resista esa temperatura. Parte de nuestra investigación es obtener materiales que operen a menores temperaturas, reducirla a 700 u 800 grados. Hay que pensar que las celdas de combustible de laboratorio pueden tener un tamaño muy localizado con lo cual no suele ser difícil calentarlas. Lo que es difícil es calentar celdas muy grandes para generar altas potencias, pero no es complicado obtener pequeños dispositivos donde el calentamiento esté localizado en una pequeña región.

-Por ejemplo, para un MP3 o un celular.

-Allí, las celdas que tienen más chances son las que funcionan a 100 grados, aunque es el mismo principio de funcionamiento, un campo totalmente distinto en cuanto a investigación y desarrollo.

-¿Y ustedes por qué trabajan con las de mayor temperatura?

-Porque funcionan con metano, las otras no. Y con oxígeno, todas. El oxígeno viene de un lado siempre, y del otro lado viene o hidrógeno o metano. Hay otras contras: las que funcionan a 100 grados necesitan usar mucho platino. Y eso es carísimo. Por eso uno busca alternativas donde no se use platino, y las que funcionan a mil grados no precisan platino. Reducir la temperatura es un gran desafío.

-Para terminar, aquí en Bariloche hace poco tiempo toda la ciudad estuvo siguiendo la llegada a la cima del Everest de unos andinistas locales, y uno de los desafíos era la poca densidad de oxígeno. El material que están estudiando en su laboratorio ¿podría tener alguna aplicación en una especie de tanque o aspiradora que capture grandes cantidades de oxígeno en las alturas?

-Es una idea interesante, pero no lo sé (risas).

-¿Cuáles son los siguientes pasos en su grupo de trabajo con respecto a estos materiales?

-Actualmente seguimos estudiando el efecto del tamaño de los distintos componentes, orientados a optimizar las propiedades mediante el uso de estructuras de tamaño nanométrico. El paso siguiente es probar los materiales en celdas prototípicas y tratar de encontrar nuevos materiales para investigar.

Fuente: http://www.agenciacyta.org.ar/2010/08/entrevista-al-fisico-joaquin-sacanell-especialista-en-ciencia-y-tecnologia-de-materiales/
La revolución silenciosa de la biotecnología


Bifes de chorizo de vaca clonada, “sopas biológicas” destinadas a reemplazar tejidos u otros órganos, bacterias que trabajan para la industria, o combustibles producidos a partir de celulosa. Esos y otros ejemplos aparecen a diario entre las noticias que difunden los medios, provocando cada vez menos sorpresa en un público, que parece haberse familiarizado con los avances de la biotecnología. El biotecnólogo argentino Alberto Díaz plantea este y otros temas en “La revolución silenciosa. Biotecnología y vida cotidiana”, un libro recién editado por ’Capital Intelectual’ que busca “echar luz en la confusión generalizada”.

(20/08/10 – Agencia CyTA-Instituto Leloir)-. El estudio del metabolismo de las bacterias de los intestinos de las termitas para desarrollar tecnologías de producción de energía a partir de biomasa, bifes de chorizo de vaca clonada, la selección de embriones para la fertilización in vitro, la clonación, las células madre y el crecimiento físico de Leonel Messi, son algunos de los tantos temas que aborda el científico Alberto Díaz en su libro “La Revolución Silenciosa. Biotecnología y vida cotidiana” (Editorial Capital Intelectual).

A través de esta publicación, Díaz que es químico y director del Centro de Biotecnología Industrial del Instituto Nacional de Tecnología Industrial (INTI), introduce al lector no especializado en el mundo de la biotecnología y su impacto en la vida cotidiana con un lenguaje ameno y accesible. Para ahuyentar ese aire solemne que suelen tener varios libros, Díaz afirma que su obra puede leerse de varias maneras: “No hay una lógica desde el primer capítulo. No tiene ni comienzo ni fin”.

“La idea original para escribir el libro fue que constantemente aparecen notas, artículos, en los medios gráficos y audiovisuales sobre novedades de las ciencias biológicas que en el corto o mediano tiempo se transforman en biotecnología, es decir, en productos, técnicas, y servicios, entre otras cosas, que pasan desapercibidos salvo para el especialista”, señaló a la Agencia CyTA el licenciado Díaz. Y agregó: “Pero esos resultados están y van afectar fuertemente nuestras vidas, no sólo a nivel personal sino también en los sectores productivos, en la empresas, y en otras esferas de la sociedad. Por esta razón, menciono artículos de los diarios, y luego también de revistas más especializadas, para demostrar los constantes avances a nivel industrial, ya que con cada ‘onda’ de nuevas técnicas, resultados, aparecen nuevas empresas que trasladan lo que sale de las universidades, de los institutos de investigación, a la sociedad, al mercado.”

El futuro que viene

La biotecnología es una tecnología que permite fabricar productos nuevos. “Está muy pegada a la ciencia porque es constante la influencia de esta sobre la biotecnología (y también de ésta sobre la ciencia): pero es un instrumento de producción”, enfatizó Díaz. Y continuó: “Se la define como la utilización de células o sus componentes para tener productos o servicios. Pero el gran salto, y por eso muchos hablan de biotecnologia moderna, comienza a fines de la década de 1970 cuando se comienza a manejar la información genética, y se la puede pasar de un organismo vivo a otro, por ejemplo, de una célula humana a una bacteria para así fabricar insulina; o de un hongo a una célula vegetal para generar plantas resistentes a herbicidas. El tema es que esa tecnología básica que hoy se realiza en centros de investigación hay que llevarla a la producción industrial. Esto significa tener capacidad de fabricar en esa escala, comercializarlos, registrar lo productos, cumplir con regulaciones y usar patentes, entre otras cosas.”

Con el avance de la biotecnología, no solo los medicamentos y los diagnósticos serán muy distintos a los actuales, sino que también es posible que “se logren regenerar algunos de nuestros tejidos y órganos. También tendremos nuevos materiales biodegradables, nuevos alimentos y la fusión cada vez más acelerada de la informática con la biología impactará decididamente en nuestras vidas de todos los días. Quizás en no mucho tiempo sea habitual que se secuencie el genoma de cada persona para saber si somos potenciales portadores de alguna enfermedad, entre otras innovaciones científico- tecnológicas”, subrayó Díaz.

Biotecnología y derechos humanos

Otro de los temas abordados por Díaz se refiere al buen o mal uso de la biotecnología. “Puede emplearse para controlar a las personas y aumentar la discriminación, pero también puede favorecer los derechos humanos y traer beneficios sociales si se ejerce con respeto a las personas”, subrayó Díaz quien en su libro destaca el trabajo de las Abuelas de Plaza de Mayo cuya demanda e intercambio con científicos desencadenó el desarrollo de una técnica para la identificación de los niños sustraídos de sus padres detenidos desaparecidos durante la dictadura militar.

Para eso era necesario crear un método que estableciera el parentesco utilizando los marcadores genéticos de los posibles abuelos y otros parientes colaterales. “La técnica, denominada ‘Reacción en Cadena de la Polimerasa’, que permite secuenciar el ADN mitocondrial (heredado por la madre) llevó a que se pudieran identificar hasta el día de hoy más de cien nietos en base a la existencia de un solo familiar”, indicó Díaz. Y agregó: “El accionar de las Abuelas es una de las grandes contribuciones que se han hecho a la ciencia y la tecnología en Argentina. Es un modelo de trabajo para tener en cuenta dado que fue la demanda social la que llevó a tener esa tecnología llevada a delante en cooperación internacional entre investigadores argentinos que estaban exilados, otros latinoamericanos también exilados e investigadores de Europa y Estados Unidos.”

Del laboratorio a la gente

Entre otras muchas figuras destacadas de la ciencia internacional y nacional Díaz menciona al doctor Enrique Belocopitow a quien describe como “un científico siempre preocupado por que se aplique y se use la ciencia como una base para el crecimiento de nuestro país.”
Belocopitow, que fue discípulo de Luis Federico Leloir, dejó de lado su trabajo con las enzimas y “dedicó sus últimos 25 años a difundir la ciencia a través de los medios de comunicación, a sacarla del ostracismo y ponerla al nivel de todos. Es algo parecido a lo que pretendió Galileo Galilei con su pequeño telescopio: llevar las estrellas a la mesa familiar. Así fue que ‘Belo’ trabajó y luchó hasta conseguir financiamiento para crear becas y cursos donde formó generaciones de periodistas científicos que hoy están escribiendo en muchos medios del país y del exterior”, señala Díaz en su libro en el que describe a Belocopitow como “un excelente profesor, de esos que ponen nerviosos a los estudiantes porque los hacen pensar; aprendíamos de él hasta en los exámenes.”Asimismo, destaca que Belocopitow –creador del Programa de Divulgacion Científica y de la Agencia de Noticias Científicas y Tecnológicas del Instituto Leloir – era un entusiasta y motivaba a los estudiantes con talento. “Así fue como a principios de la década de 1980, cuando yo estaba comenzando a dirigir un proyecto de biotecnología en la industria farmacéutica nacional, Belo me insistió para que me entrevistara con Jorge Sabato (físico argentino que propuso lo que hoy en día se conoce como el “Triángulo de Sábato” que consiste en un modelo de política científico-tecnológica que articula el sector científico, productivo y estatal) y comprobé que Sabato era, como Belo, un hombre excepcional. Era sencillo, brillante, porteño, enemigo de la ‘chantocracia’ nacional. Él me ayudó a entender ‘las fábricas de tecnología’, a estudiar con sus diálogos y sus escritos y con sus actitudes de vida. Con Sabato, aprendí también a valorar la tecnología, la innovación, y su relación con la ciencia, con la comercialización y con las personas, entre tantas otras cosas”, concluyó Díaz en su entrevista con la Agencia CyTA.

Fuente: http://www.agenciacyta.org.ar/2010/08/la-revolucion-silenciosa-de-la-biotecnologia/
De Theodor Adorno a Paul Desmond, dos miradas de un mismo paisaje 

Marcelo Jeremías 

"Ha llegado a ser evidente que nada referente al arte es evidente"... "ni siquiera su derecho a la existencia".

Así comienza escribiendo Theodor W. Adorno su Teoría estética en 1969 donde excluye la posibilidad de una teoría del arte anteponiendo en la palabra "estética" un punto de perspectiva previo intentando posiblemente así validar un lugar desde donde "manipular" el océano de la información social relacionado al arte. Y adoptó este enfoque pese a haber compuesto música atonal en su juventud lo que le habría dado la posibilidad de escribir simplemente como músico.

De todas maneras Adorno fue un ensayista original y un pensador que supo deshilvanar ideas en criterios que con el tiempo la industria de la cultura articuló en lo que se dio en llamar "cultura de masas" y en esto anticipó el malestar de la civilización ante la pérdida del misterio relacionando la aparente libertad del artista con la pérdida de libertad de la sociedad y ésta no parece ser una relación muy feliz ya que los problemas básicos de identidad o libertad en la sociedad no son cosas impuestas premeditadamente por los artistas para después "vender canciones de protesta o de consuelo", es que los artistas nunca moldearon las necesidades humanas ni mucho menos los límites sino que, en el mejor de los casos, hicieron ver a través de sus obras nuevos paradigmas siendo muchas veces una obra la consecuencia directa de la "necesidad" de comer, de afecto o de dinero en el mundo moderno y no una representación de ninguna idea filosófica, psicológica o metafísica del problema de la libertad. Sin embargo es posible que a mediados del siglo XX algunos personajes hayan visto en la expresión artística al crisol desde donde moldear la identidad de las masas y por lo tanto cargaron (de forma favorable o negativa) sobre quienes ellos consideraron que eran "artistas"
y aquí aparece en el juego la "industria de los medios" (de comunicación) y los "reyes ocultos" que son los propietarios de las cadenas (conglomerados) de difusión.

Aquí otra frase de Adorno extraída de su "teoría...":_"el arte, al irse transformando, empuja su propio concepto hacia lugares que antes no tenía".

Y en esta idea vemos que la secularización de la expresión humana trae (de modo paralelo a la solidificación de la sociedad de mercado) determinadas pautas que se potencian según el entorno tecnológico hacia una definición de identidad de nuevas "tribus" que comulgan crisis existenciales al hallarse habitando cárceles de cemento con barrotes invisibles (y esa es una de mis definiciones predilectas de lo que es una gran ciudad).

Luego dice :_"el arte se determina por su relación con aquello que no es arte". Aquí vemos la estructura dialéctica de su forma de narrar aunque esta frase tiene una validez relativa porque el proceso de identificación con los maestros de la música es tan importante para un músico en su formación como la cuestión de la originalidad de una obra en una segunda etapa.
De todos modos uno no entiende muy bien porqué razón Adorno quedó encasillado dentro de la categoría de pensadores marxistas ya que en definitiva en su pensamiento describe los distintos fenómenos relacionados con la comunicación de hacedores de expresión artística en el contexto de la sociedad de mercado (cultura de masas) cuyo último capítulo en crisis (que por algunos estudiosos es vista como sistémica) es lo que hoy llamamos "neoliberalismo", entonces este autor trabajó (aunque de modo crítico) para una formulación estética de la sociedad de mercado que en definitiva hoy rige buena parte del planeta.
En otra frase dice :_"el arte es la antítesis social de la sociedad y no se puede deducir inmediatamente de ella..." .
Este es un concepto evidentemente erróneo en el sentido de que hoy día la sociedad hace una lectura de lo que es arte a partir de (por dar un sólo ejemplo) lo que ve en el escenario y así un artista que vive su vocación en la escena está plenamente integrado a la sociedad innegablemente y del mismo modo cada expresión tiene su espacio "dentro" de su mundo aunque en su contenido una novela (por ejemplo) hable de "otras realidades".
El problema de fondo (para Adorno) en todo caso fue intentar realizar una teoría estética escindida de una "idea del hombre" y consecuentemente de una ideología del ser humano.
Es que no es viable una teoría estética sin una ideología del "yo" y aquí retornamos al viejo problema de las "clases sociales", asunto que en el contexto de la civilización de mercado se intentó superar irracionalmente y así hoy día vivimos las nefastas consecuencias de esta situación.
Adorno escribió :_"No hay arte que no contenga en sí, aquello contra lo cual choca..." (Aquí en un sentido nos vemos con un psicologísmo extremo típico de la generación en la que se "descubrió" el psicoanálisis como herramienta de la psicología en la pretensión de "ordenar" las clases sociales según la respuesta de las personas a ciertos impulsos y desconsiderando el problema de la dignidad humana como algo común e inherente a todas las personas, es decir que la técnica psicoanalítica se usó, en vez de para construir una sociedad mejor, para solidificar las insalvables injusticias y contradicciones que el capitalismo totalitario genera en sí mismo del mismo modo que en la industria farmacéutica se liberaron al mercado medicamentos que no necesariamente curan a la gente por simple cuestión de dinero). Y de aquí viene la famosa frase de Pichon Riviere (miembro fundador de la escuela psicoanalítica argentina y posteriormente de la escuela denominada psicología social) cuando dijo (refiriéndose a ciertos psicoanalistas cultores de la "ultraindividualidad"):_"aquellos cafiyos de la angustia ajena" exponiendo así la falta de consciencia social y la crisis moral consecuente de estos intelectuales. 
Adorno en su "Teoría ..." dice:_"toda obra de arte es un instante, toda obra de arte conseguida es una adquisición, un momento de detenerse en el proceso, al manifestarse éste al ojo que lo contempla. Si las obras de arte son respuestas a sus propias preguntas, también se convierten ellas por este hecho en preguntas..."
Y esta idea es atractiva y estimulante para un hacedor de expresión artística ya que encierra en sí algunas ideas tal vez "orientales" o antiguas pero de todas maneras positivas hacia el hecho de trabajar con sonidos, colores, palabras o gestos desde algún instante particular de la memoria como faro o punto de referencia.
Un autor que definió su teoría estética de modo mucho más sencillo (pese a ser graduado en lengua inglesa en la universidad) fue Paul Desmond y aquí dos frases de esta persona quien fue además compositor de una melodía que llega a nosotros desde el Real Book con el título de "Take five" :

_"He ganado varios premios al saxo más lento del mundo, así como un galardón especial al silencio en 1961".
_"Yo ya había pasado de moda antes de que nadie me conociera".




Dos imágenes de Paul Desmond con su saxo alto y dos frases más que esclarecen su oxigenada ideología:

_ Probé a practicar unas pocas semanas y acabé tocando demasiado rápido.

– Creo que de forma inconsciente quería sonar como un martini seco.
 





Fuente: http://jazzvocesyfronteras.blogspot.es/