miércoles, 20 de noviembre de 2013

La Teoría Cuántica

por ENRIQUE LICCARDI SAÑUDO

Es un conjunto de nuevas ideas que explican los procesos incomprensibles para la física de los objetos.

La Teoría Cuántica es uno de los pilares fundamentales de la Física actual. Recoge un conjunto de nuevas ideas introducidas en el primer tercio del siglo XX para dar explicación a muchos procesos incomprensibles por las concepciones físicas vigentes. Su aplicación se limita, a los niveles atómico, subatómico y nuclear, donde resulta imprescindible. Pero también lo es en otros ámbitos, como la electrónica, en la física de nuevos materiales, en la física de altas energías, en el diseño de instrumentación médica, en la criptografía y la computación cuánticas, y en la Cosmología teórica del Universo temprano. La Teoría Cuántica es una teoría netamente probabilista: describe la probabilidad de que un suceso dado acontezca en un momento determinado, sin especificar cuándo ocurrirá. A diferencia de lo que ocurre en la Física Clásica, en la Teoría Cuántica la probabilidad posee un valor objetivo esencial, y no se halla supeditada al estado de conocimiento del sujeto, sino que, en cierto modo, lo determina. 
Se trata de una teoría que reúne un formalismo matemático y conceptual. Las ideas que sustentan la Teoría Cuántica surgieron, como alternativa al tratar de explicar el comportamiento de sistemas en los que el aparato conceptual de la Física Clásica se mostraba insuficiente. Es decir, una serie de observaciones empíricas cuya explicación no era abordable a través de los métodos existentes, propició la aparición de las nuevas ideas. 

Hay que destacar el fuerte enfrentamiento que surgió entre las ideas de la Física Cuántica, y aquéllas válidas hasta entonces, digamos de la Física Clásica. Lo cual se agudiza aún más si se tiene en cuenta el notable éxito experimental que éstas habían mostrado a lo largo del siglo XIX, apoyándose básicamente en la mecánica de Newton y la teoría electromagnética de Maxwell (1865). Era tal el grado de satisfacción de la comunidad científica que algunos físicos, entre ellos uno de los más ilustres del siglo XIX, William Thompson (Lord Kelvin), llegó a afirmar:
"Hoy día la Física forma, esencialmente, un conjunto perfectamente armonioso, ¡un conjunto prácticamente acabado! ... Aun quedan “dos nubecillas” que oscurecen el esplendor de este conjunto. La primera es el resultado negativo del experimento de Michelson-Morley. La segunda, las profundas discrepancias entre la experiencia y la Ley de Rayleigh-Jeans."

La disipación de la primera de esas “dos nubecillas” condujo a la creación de la Teoría Especial de la Relatividad por Einstein (1905), es decir, al hundimiento de los conceptos absolutos de espacio y tiempo, propios de la mecánica de Newton, y a la introducción del “relativismo” en la descripción física de la realidad. La segunda “nubecilla” descargó la tormenta de las primeras ideas cuánticas, debidas al físico alemán Max Planck (1900).

El origen de la Teoría Cuántica

La Ley de Rayleigh-Jeans (1899). Un fenómeno físico denominado radiación del cuerpo negro, es decir, el proceso que describe la interacción entre la materia y la radiación, el modo en que la materia intercambia energía, emitiéndola o absorbiéndola, con una fuente de radiación. Pero además de la Ley de Rayleigh-Jeans había otra ley, la Ley de Wien (1893), que pretendía también explicar el mismo fenómeno.

La Ley de Wien daba una explicación experimental correcta si la frecuencia de la radiación es alta, pero fallaba para frecuencias bajas. Por su parte, la Ley de Rayleigh-Jeans daba una explicación experimental correcta si la frecuencia de la radiación es baja, pero fallaba para frecuencias altas.
La frecuencia es una de las características que definen la radiación, y en general cualquier fenómeno en el que intervengan ondas. Puede interpretarse la frecuencia como el número de oscilaciones por unidad de tiempo. Toda la gama de posibles frecuencias para una radiación en la Naturaleza se hallan contenidas en el espectro electromagnético, el cual, según el valor de la frecuencia elegida determina un tipo u otro de radiación.

En 1900, Max Planck puso la primera piedra del edificio de la Teoría Cuántica. Postuló una ley (la Ley de Planck) que explicaba de manera unificada la radiación del cuerpo negro, a través de todo el espectro de frecuencias.



La hipótesis de Planck

¿Qué aportaba la ley de Planck que no se hallase ya implícito en las leyes de Wien y de Rayleigh-Jeans? Un ingrediente tan importante como novedoso. Tanto que es el responsable de la primera gran crisis provocada por la Teoría Cuántica sobre el marco conceptual de la Física Clásica. Ésta suponía que el intercambio de energía entre la radiación y la materia ocurría a través de un proceso continuo, es decir, una radiación de frecuencia f podía ceder cualquier cantidad de energía al ser absorbida por la materia.

Lo que postuló Planck al introducir su ley es que la única manera de obtener una fórmula experimentalmente correcta exigía la novedosa y atrevida suposición de que dicho intercambio de energía debía suceder de una manera discontinua, es decir, a través de la emisión y absorción de cantidades discretas de energía, que hoy denominamos “quantums” de radiación. La cantidad de energía E propia de un quantum de radiación de frecuencia f se obtiene mediante la relación de Planck: E = h x f, siendo h la constante universal de Planck = 6’62 x 10 (expo-34) (unidades de “acción”).

Puede entenderse la relación de Planck diciendo que cualquier radiación de frecuencia f se comporta como una corriente de partículas, los quantums, cada una de ellas transportando una energía E = h x f, que pueden ser emitidas o absorbidas por la materia. La hipótesis de Planck otorga un carácter corpuscular, material, a un fenómeno tradicionalmente ondulatorio, como la radiación. Pero lo que será más importante, supone el paso de una concepción continuista de la Naturaleza a una discontinuista, que se pone especialmente de manifiesto en el estudio de la estructura de los átomos, en los que los electrones sólo pueden tener un conjunto discreto y discontinuo de valores de energía.

La hipótesis de Planck quedó confirmada experimentalmente, no sólo en el proceso de radiación del cuerpo negro, a raíz de cuya explicación surgió, sino también en las explicaciones del efecto fotoeléctrico, debida a Einstein (1905), y del efecto Compton, debida a Arthur Compton (1923).

Aplicación de la Teoría Cuántica

El marco de aplicación de la Teoría Cuántica se limita, a los niveles atómico, subatómico y nuclear, donde resulta totalmente imprescindible. Pero también lo es en otros ámbitos, como la electrónica (en el diseño de transistores, microprocesadores y todo tipo de componentes electrónicos), en la física de nuevos materiales, (semiconductores y superconductores), en la física de altas energías, en el diseño de instrumentación médica (láseres, tomógrafos, etc.), en la criptografía y la computación cuánticas, y en la Cosmología teórica del Universo temprano. De manera que la Teoría Cuántica se extiende con éxito a contextos muy diferentes, lo que refuerza su validez.

Pero, ¿por qué falla la teoría clásica en su intento de explicar los fenómenos del micromundo? ¿No se trata al fin y al cabo de una simple diferencia de escalas entre lo grande y lo pequeño, relativa al tamaño de los sistemas? La respuesta es negativa. Pensemos que no siempre resulta posible modelar un mismo sistema a diferentes escalas para estudiar sus propiedades.
Para ver que la variación de escalas es un proceso con ciertas limitaciones intrínsecas, supongamos que queremos realizar estudios hidrodinámicos relativos al movimiento de corrientes marinas. En determinadas condiciones, podríamos realizar un modelo a escala lo suficientemente completo, que no dejase fuera factores esenciales del fenómeno. A efectos prácticos una reducción de escala puede resultar lo suficientemente descriptiva.

Pero si reducimos la escala de manera reiterada pasaremos sucesivamente por situaciones que se corresponderán en menor medida con el caso real. Hasta llegar finalmente a la propia esencia de la materia sometida a estudio, la molécula de agua, que obviamente no admite un tratamiento hidrodinámico, y habremos de acudir a otro tipo de teoría, una teoría de tipo molecular. Es decir, en las sucesivas reducciones de escala se han ido perdiendo efectos y procesos generados por el aglutinamiento de las moléculas.

De manera similar, puede pensarse que una de las razones por las que la Física Clásica no es aplicable a los fenómenos atómicos, es que hemos reducido la escala hasta llegar a un ámbito de la realidad “demasiado esencial” y se hace necesario, al igual que en el ejemplo anterior, un cambio de teoría. Y de hecho, así sucede: la Teoría Cuántica estudia los aspectos últimos de la substancia, los constituyentes más esenciales de la materia (las denominadas “partículas elementales”) y la propia naturaleza de la radiación. 


continuará

domingo, 3 de noviembre de 2013

ARN polimerasa I

por Enrique Liccardi Sañudo. Un equipo del Consejo Superior de Investigaciones Científicas (CSIC) ha determinado la estructura atómica de la ARN polimerasa I (Pol I), un enorme complejo de 14 proteínas encargado de sintetizar el ARN ribosómico en las células eucariotas. El trabajo, publicado como artículo principal en el último número de Nature, abre el camino para la comprensión de la síntesis del ARN, el paso previo a la fabricación de proteínas.

La Pol I es una enzima que sintetiza el núcleo del ribosoma, la máquina molecular encargada de fabricar las proteínas dentro de la célula. Puesto que los ribosomas representan entre el 15% y el 20% del peso de la célula, la actividad de la Pol I alcanza el 60% de la síntesis del ARN celular al producir unos 2.000 ribosomas por minuto. Los defectos en la regulación de Pol I se asocian con alteraciones en la proliferación celular y, por tanto, con el desarrollo de tumores.

El trabajo, que ha contado con la participación de investigadores del European Molecular Biology Laboratory de Heidelberg (Alemania), ha requerido la cristalización y determinación estructural de la Pol I de la levadura de cerveza (Saccharomyces cerevisiae) mediante rayos X. Los científicos han resuelto, tras 10 años de investigaciones, su estructura en su estado latente o dormido, antes de empezar a transcribir, lo que les ha revelado características nunca observadas en otras enzimas



“La información estructural a alta resolución es esencial porque permite conocer detalles sobre la función proteica que no se pueden obtener de otro modo. Nuestros resultados arrojan luz sobre el funcionamiento de la Pol I y abren la puerta al control de su función y, por tanto, a la búsqueda de nuevos fármacos antitumorales”, asegura el investigador del CSIC Carlos Fernández Tornero, que trabaja en el Centro de Investigaciones Biológicas.

sábado, 2 de noviembre de 2013

Bosón de Higgs

Bosón de Higgs

por Enrique Liccardi Sañudo


El bosón de Higgs o partícula de Higgs es una partícula elemental propuesta en el Modelo estándar de física de partículas. Recibe su nombre en honor a Peter Higgs quien, junto con otros, propuso en 1964, el hoy llamado mecanismo de Higgs, para explicar el origen de la masa de las partículas elementales. El Bosón de Higgs constituye el cuanto del campo de Higgs, (la más pequeña excitación posible de este campo). Según el modelo propuesto, no posee espín, carga eléctrica o color, es muy inestable y se desintegra rápidamente, su vida media es del orden del zeptosegundo. En algunas variantes del Modelo estándar puede haber varios bosones de Higgs.[6] La existencia del bosón de Higgs y del campo de Higgs asociado serían el más simple de varios métodos del Modelo estándar de física de partículas que intentan explicar la razón de la existencia de masa en las partículas elementales. Esta teoría sugiere que un campo impregna todo el espacio, y que las partículas elementales que interactúan con él adquieren masa, mientras que las que no interactúan con él, no la tienen. En particular, dicho mecanismo justifica la enorme masa de los bosones vectoriales W y Z, como también la ausencia de masa de los fotones. Tanto las partículas W y Z, como el fotón son bosones sin masa propia, los primeros muestran una enorme masa porque interactúan fuertemente con el campo de Higgs, y el fotón no muestra ninguna masa porque no interactúa en absoluto con el campo de Higgs. El bosón de Higgs ha sido objeto de una larga búsqueda en física de partículas. El 4 de julio de 2012, el CERN anunció la observación de una nueva partícula «consistente con el bosón de Higgs», pero se necesitaría más tiempo y datos para confirmarlo.[1] El 14 de marzo de 2013 el CERN, con dos veces más datos de los que disponía en el anuncio del descubrimiento en julio de 2012, encontraron que la nueva partícula se ve cada vez más como el bosón de Higgs. La manera en que interactúa con otras partículas y sus propiedades cuánticas, junto con las interacciones medidas con otras partículas, indican fuertemente que es un bosón de Higgs. Todavía permanece la cuestión de si es el bosón de Higgs del Modelo estándar o quizás el más liviano de varios bosones predichos en algunas teorías que van más allá del Modelo estándar.[7] El 8 de octubre de 2013 le es concedido a Peter Higgs, junto a François Englert, el Premio Nobel de física "por el descubrimiento teórico de un mecanismo que contribuye a nuestro entendimiento del origen de la masa de las partículas subatómicas, y que, recientemente fue confirmado gracias al descubrimiento de la predicha partícula fundamental, por los experimentos ATLAS y CMS en el Colisionador de Hadrones del CERN".

EL ARGENTINOSAURUS

EL ARGENTINOSAURUS Reconstruyen digitalmente el movimiento de uno de los dinosaurios más gigantescos. Científicos británicos y argentinos demuestran que el 'Argentinosaurus' podía andar a pesar de su tamaño.

Expertos de la Universidad de Manchester y de Argentina han reconstruido digitalmente el movimiento de uno de los dinosaurios más grandes del mundo, el 'Argentinosaurus', demostrando que podía moverse. Algunos expertos consideraban que era tan grande que no podría ni andar. El modelo informático permitirá conocer más sobre el movimiento de los vertebrados en general (humanos incluidos), y podrá utilizarse con otros fósiles de dinosaurios.


Uno de los dinosaurios más grandes del mundo ha sido reconstruido digitalmente por expertos de la Universidad de Manchester permitiéndole dar los los pasos en 94 millones de años. Este equipo, en colaboración con científicos de Argentina, fue capaz de escanear mediante láser un esqueleto de 40 metros de largo del enorme dinosaurio Cretaceous Argentinosaurus. Luego, utilizando una técnica de modelización informática avanzada que involucra al equivalente de 30.000 ordenadores de sobremesa, recrearon sus movimientos para caminar y correr y probaron su capacidad de locomoción por primera vez. El estudio, publicado en PLOS ONE, refuta opiniones de que el animal tenía un tamaño exagerado y no podía caminar. Bill Sellers, investigador principal del proyecto, y adscrito a la Facultad de Ciencias Biológicas de la Universidad, señala en la nota de prensa. "Si quieres descubrir cómo caminaban los dinosaurios, el mejor enfoque es la simulación por ordenador. Esta es la única forma de reunir toda la información que tenemos sobre este dinosaurio". Lee Margetts, que también trabajó en el proyecto, añade: "Hemos utilizado el equivalente a 30 mil computadoras de sobremesa para permitir a este dinosaurio dar sus primeros pasos en más de 94 millones de años. El nuevo estudio demuestra claramente que el dinosaurio era más que capaz de pasear a través de lo que hoy es la Patagonia (América del Sur)". El Cretaceous Argentinosaurus toma su nombre del país en el que se encontró, Argentina. Era tan grande que lleva el nombre de un país entero. Phil Manning, de la Universidad de Manchester, señala: "Es frustrante que hubiera tan pocos fósiles del dinosaurios original, lo que dificulta cualquier reconstrucción. La digitalización es ciencia, no sólo animación", subraya. Sellers utiliza su propio software (Gaitsym) para investigar la locomoción tanto de animales vivientes como extintos. "Lo importante aquí es que estos animales no son como ningún otro de hoy en día, por lo que no podemos simplemente copiar un animal moderno", explica. "Nuestro sistema de aprendizaje automático funciona sólo a partir de la información que tenemos sobre el dinosaurio y predice los mejores posibles patrones de movimiento." El dinosaurio pesaba 80 toneladas y la simulación muestra que habría llegado a poco más de 2 metros por segundo, 8 kilómetros por hora de velocidad.

domingo, 12 de mayo de 2013

La Luna y la Tierra comparten el mismo agua


Los investigadores deducen que la colisión de nuestro planeta con un meteorito,
que provocó la escisión del satélite, no llego a secar este
Hasta ahora se pensaba que la colisión con un meteorito que escindió varios pedazos de la Tierra, entre ellos la Luna, dejó secos al planeta y su satélite, y que el agua volvió a la Tierra a bordo de meteoritos y a la Luna en cometas. Pero ahora se ha comprobado que la composición del agua de ambos objetos es la misma, por lo que sería más lógico pensar que nunca se quedaron secos del todo. Los científicos se preguntan cómo el agua pudo sobrevivir a una colisión semejante.

Hace 4.500 millones de años un objeto gigantesco chocó contra la Tierra y de los fragmentos desprendidos, nació la Luna. El impacto provocó tal calor que todo el hidrógeno se evaporó y se perdió en el espacio, dejando tanto a la Tierra como a su satélite secos. Más tarde, el agua volvió a la Tierra en meteoritos y a la Luna en cometas. Hasta hoy, esta era la creencia más aceptada. Pero, ahora, una investigación ha demostrado que el origen del agua encontrada de las rocas traídas por las misiones Apolo es el mismo que el del agua terrestre.
“La explicación más simple es que el hidrógeno ya estaba en la Tierra en el momento del gran impacto y que no hubo una pérdida significativa durante la formación de la Luna”, explica a SINC Alberto Saal, científico de la Universidad de Brown (EE UU) y autor del artículo que recoge hoy los resultados en Science Express.

Para determinar el origen, los investigadores analizaron la proporción de deuterio –un isótopo del hidrógeno– en la muestra. Las moléculas de agua formadas cerca del sol tienen, en general, menos deuterio que las formadas en los bordes exteriores del sistema solar.
Según los investigadores, la proporción de este isótopo en el agua lunar es la misma que en el 98 % de la terrestre. Además, ambas coinciden con la de las condritas carbonáceas, unos primitivos meteoritos formados cerca de Júpiter “que fueron el origen común de los componentes volátiles de la Tierra y la Luna –según Saal–, y probablemente de todo el sistema solar interno”.

Las empresas integran el cuidado de los ecosistemas en sus estrategias operativas La Luna nunca se quedó seca. El hidrógeno analizado se encuentra atrapado en cristales volcánicos y, gracias a esto, no se perdió en las erupciones lunares y los investigadores han podido hacerse una idea de cómo es el interior de la Luna.

Fue en 2011 cuando otra investigación realizada por el mismo equipo observó que estas muestras tenían tanta agua encerrada como las lavas del fondo del océano terrestre. “Entonces, las implicaciones fueron que el interior de ambos cuerpos celestes albergaba reservas con cantidades equivalentes de hidrógeno”, explica el cientifico.
“El punto principal de nuestro nuevo artículo es que el hidrógeno de la Luna no se originó en cometas como se pensaba, sino en meteoritos primitivos como los que lo trajeron a la Tierra”, señala Saal.

Estos resultados no son necesariamente incompatibles con la idea de que la Luna se formó a partir del gran impacto de un asteroide en los inicios de la vida de la Tierra, pero plantean la incógnita de cómo es posible que el agua sobreviviera a semejante colisión. “Necesitamos volver al inicio y descubrir más sobre lo que provocan los grandes impactos” concluye el investigador. 

lunes, 6 de mayo de 2013


Consiguen observar electrones
 sin trastocar sus átomos
Profesor ENRIQUE LUIS LICCARDI SAÑUDO


                                   Una nueva técnica basada en la mecánica cuántica evita dañar
                                           los elementos más frágiles durante las mediciones
Científicos del ICFO han conseguido por vez primera observar el giro de los electrones en los átomos sin modificar las propiedades de la nube de átomos durante el proceso. Esta es la primera vez que se aplica una medición cuántica no destructiva a un objeto material. El mismo método podría usarse para comprender el cerebro humano o el origen del universo.