viernes, 27 de febrero de 2015

EL COLOR DEL VESTIDO

Por qué confundimos el color del vestido
Por ENRIQUE LUIS LICCARDI SAÑUDO profesor en ETP
Algunos lo ven azul y negro, otros blanco y dorado.
La clave está en el cerebro
La luz entra al ojo a través del cristalino, una estructura de lentes naturales que permiten hacer foco. Entonces la retina, que está ubicada en la parte trasera del ojo, dispara conexiones neuronales en la corteza visual, el área del cerebro que procesa esas señales lumínicas y las convierte en una imagen.

Determinadas señales lumínicas se corresponden con determinados colores. Así se explica que, al ver un objeto, casi todas las personas lleguen a la conclusión de que el color es uno y no otro.

El problema es que el ojo no capta exclusivamente la luz que reflejan las cosas en las que se está fijando. Todo el entorno también está reflejando luz, y todo llega al ojo. Para evitar confusiones, el cerebro automáticamente pone en segundo plano los haces que llegan desde el fondo, y se concentra en aquellos que provienen de los objetos fijados por la vista.

¿Cómo se explica entonces el desacuerdo en torno a la imagen del vestido blanco-doraro o azul-negro que desde que fuera compartido originalmente por el usuario Swiked en Tumblr ha iniciado una verdadera revolución en las redes? "He estudiado diferencias individuales en la percepción de los colores por más de 30 años, y ésta es una de las mayores diferencias que he visto", dijo el neurocientífico Neitz, de la Universidad de Washington, consultado por Wired.

La razón es que esa imagen en particular -no el vestido en sí mismo-, por la combinación de luces y sombras, se encuentra en una especie de frontera de percepción. Esto quizás se deba a que en el fondo hay una luz muy intensa, lo que dificulta el trabajo del cerebro para discriminar el color del objeto en el que se están concentrando los ojos.

Los editores de fotografía de Wired analizaron la foto con Photoshop y los valores cromáticos indicaban que el color del vestido, según se ve en la imagen difundida, es azul y naranja oscuro.

"Lo que está pasando aquí es que, cuando nuestro sistema visual mira a esta cosa, intenta rebajar el sesgo cromático producido por la luz del sol", explicó el neurocientífico Bevil Conway, especialista en el estudio del color y la visión.

Así, el cerebro de algunos atribuye el azul a la luz del fondo, entonces lo rebaja del vestido. Esas personas lo terminan viendo blanco y dorado. Pero otros atribuyen el anaranjado o dorado al entorno, lo rebajan del vestido, y acaban viéndolo azul y negro.

De todos modos, independientemente de cómo se ve en la foto, la marca que lo confecciona, Roman Originals, confirmó que el color original es azul y negro.
Fuente: INFOBAE

martes, 10 de febrero de 2015

EL CIBERBULLYING

EL CIBERBULLYING 
Temas y Herramientas para orientarte en la solución de problemáticas
Por ENRIQUE LUIS LICCARDI SAÑUDO profesor en ETP


El ciberbullying o ciberacoso, consiste en humillaciones y amenazas de menores a menores en el entorno de las TIC. El gran desconocimiento que los pequeños tienen de la seguridad de la información o de la privacidad son algunas de las causas que agravan esta situación. 
Pero esto se puede evitar dando el apoyo educativo y la contención necesarios.
Si sospechas que se esté produciendo un caso de ciberbullying entre tus alumnos,  como primer paso acércate a la víctima del acoso desde la comunicación y la empatía. Intenta transmitirle toda la confianza posible, evitando que se sienta culpable por lo que está sucediendo y trata de crear un clima amigable para que pueda explicar lo que siente.
Además, como la mejor forma de evitar este tipo de situaciones es siempre desde la prevención, te proponemos una selección de materiales para que puedas tratar este tema con tus estudiantes desde hoy mismo:
  1. ¿Te suena “X nada”?:Se trata de un cortometraje que nos narra un caso de ciberbuylling en una clase de Educación Secundaria. Además, cuenta con una ficha para trabajar después de ver la película.
  2. Aprende todo lo relacionado con el ciberbullying: Una página web en la que encontrarás diferente información sobre el tema, explicándonos los diferentes tipos de acoso por internet que existen en la actualidad.
  3. Un sitio web que no te puedes perder: “Prevención del ciberbullying” es una completísima página donde encontrar multitud de materiales relacionados con el tema, además de muchísima información para formarte desde las mejores fuentes. ¡Echa un vistazo!
  4. ¡Conoce el grooming para poder evitarlo!: El grooming es otro tipo de acoso virtual diferente al ciberbullying, en el que son adultos los que ejercen el acoso, y generalmente con connotaciones de carácter sexual.
  5. ¿Cómo actuar ante el ciberacoso?: Se trata de un breve vídeo sobre el ciberacoso que invita a analizar e imitar los pasos a dar cuando se es víctima de violencia digital. 
     FUENTE: Tiching.com

10 consejos para el Día de Internet Segura

 Día Internacional de Internet Segura

Internet ha cambiado nuestra forma de relacionarnos, de informarnos y, en definitiva, de entender la realidad. Hemos aprendido palabras, acortado distancias, creado herramientas, desarrollado habilidades, modificado conceptos e ideas. Todo ello ha sido un cambio de paradigma en nuestras vidas al que nos enfrentamos sin saber medir sus consecuencias. Madres y Padres expresan su temor a un medio del que desconocen su potencial pero tampoco se puede negar ó dar la espalda a una realidad que crece muy rápidamente.
Por ENRIQUE LUIS LICCARDI SAÑUDO profesor ETP


Consejos para navegar por la red de forma segura
Todo acto en Internet se basa en el principio de acción y reacción. Para ello si madres, padres y docentes guían a los jóvenes se pueden ahorrar muchos dolores de cabeza. Recuerden que ustedes tienen que familiarizarse con las actividades de los jóvenes para entenderlos y ayudarlos. No es buena consejera la persecución y la prohibición a la compu. Aquí los consejos básicos a aplicar.
  1. No dar datos personales, ni tuyos ni de ningún familiar o amigo. Compartir solo las fotos o vídeos que no te moleste que sean vistos por otras personas, y nunca etiquetar a nadie sin su permiso.
  2. Mantener tus contraseñas en secreto. Es importante utilizar una combinación segura y cambiarla de vez en cuando.
  3. Rechazar spam y ficheros inesperados. Además, pasar de ofertas y regalos misteriosos. No hacer caso de chollos y propuestas extrañas, primero habla y consúltalo con tu familia.
  4. Utilizar más de una dirección de e-mail. De esta forma, podrás tener una dirección personal y otra para registros en webs, concursos..
  5. Alguien desconocido no es un amigo/a. Por mucho tiempo que llevéis hablando, no te fíes de la gente que conoces por Internet, muchas veces no son quiénes dicen ser. Tampoco te cites por primera vez con alguien a solas, ve acompañado siempre por un adulto.
  6. No dar con facilidad tu e-mail. Tampoco facilitar direcciones de amistades o familia sin su permiso.
  7. En las redes sociales, acepta solo peticiones de amistad de gente que conozcas. Ya sabes que en la calle no debes hablar con extraños, ¿por qué iba a ser diferente en Internet?
  8. Evitar las páginas en que te pidan dinero y las que tengan contenido violento, obsceno o discriminatorio.
  9. Utiliza un buen antivirus y cortafuegos. Te evitará futuros disgustos.
  10. Si te molestan, pide ayuda. Si eres objeto de lenguaje grosero, envíos desagradables o cualquier tipo de acoso que te incomode; compártelo con un adulto. Confía en tu padre y tu madre y, si alguien te dice lo contrario, no te fíes.

jueves, 5 de febrero de 2015

EL AGUA - Sube el nivel del mar.

E L   A G U A
POR ENRIQUE LUIS LICCARDI SAÑUDO profesor ETP

El nivel del mar está subiendo más rápido de lo que se pensaba.Un nuevo cálculo de los cambios en el periodo 1900-1990 revela inconsistencias con relación al periodo actual. Científicos de la Universidad de Harvard (EE.UU.) han recalculado la subida del nivel del mar en el siglo XX, y han averiguado que la tasa de aumento entre 1900 y 1900 fue menor de lo pensado hasta ahora, y que por tanto las subidas en los últimos 10 años del siglo XX y los primeros del XXI están siendo mayores de lo calculado.



La aceleración del cambio del nivel del mar global desde finales del siglo XX hasta las dos últimas décadas ha sido significativamente más veloz de lo que los científicos pensaban, según un nuevo estudio de la Universidad de Harvard (Cambridge, Massachusetts, EE.UU.) 

El estudio, co-escrito por Carling Hay, una postdoc del Departamento de Ciencias Planetarias y de la Tierra, y Eric Morrow, doctorado recientemente, muestra que los cálculos del aumento del nivel del mar global entre 1900-1990 se habían sobreestimado en hasta un 30 por ciento. El informe, sin embargo, confirma las estimaciones del cambio del nivel del mar desde 1990, lo que sugiere que la tasa de cambio está aumentando más rápidamente de lo que se pensaba previamente. La investigación se publicó ayer en la revista Nature

"Lo que este estudio muestra es que la aceleración del nivel del mar durante el siglo pasado ha sido mayor que lo estimado por otros investigadores", señala Morrow en Harvard Gazette. "Es un problema más grande de lo que pensábamos al principio." 

"Los científicos creen que la mayoría de las capas de hielo y de los glaciares del mundo se están derritiendo en respuesta al aumento de las temperaturas", agrega Hay. "Eso hace que el nivel medio global del mar se eleve", recuerda. 

Las estimaciones anteriores habían situado el aumento del nivel del mar entre 1,5 y 1,8 milímetros al año en el siglo XX. Hay y Morrow, sin embargo, sugieren que a partir de 1901 hasta 1990, la cifra fue de cerca de 1,2 milímetros por año. Sin embargo, todos coinciden en que el nivel del mar ha aumentado cerca de 3 milímetros al año desde entonces. 

"Otra preocupación derivada de esto es que muchos esfuerzos para proyectar el cambio del nivel del mar en el futuro utilizan las estimaciones del período 1900-1990", explica Morrow. "Si hemos estado sobreestimando el cambio del nivel del mar durante ese período, significa que estos modelos no están calibrados adecuadamente, lo que pone en duda la exactitud de las proyecciones hacia el final del siglo XXI". 


miércoles, 28 de enero de 2015

Grafeno el superfluído para enfriar dispositivos electrónicos

Por ENRIQUE LUIS LICCARDI SAÑUDO


Un avance de la iniciativa europea Graphene Flagship permitirá crear aparatos que disipen muy poca energía.


Científicos italianos, del proyecto europeo Graphene Flagship, han observado que un material formado por grafeno y arseniuro de galio, a temperaturas ultra-bajas, se comporta como un superfluido, lo que abre la posibilidad de crear dispositivos electrónicos que disipen muy poca energía. Tal comportamiento tiene que ver con efectos cuánticos que se hacen visibles a nivel macroscópico.

Andrea Gamucci, trabajando en un sistema de mediciones eléctricas. Imagen: Andrea Freccioni. Fuente: Scuola Normale Superiore.

miércoles, 20 de noviembre de 2013

La Teoría Cuántica

por ENRIQUE LICCARDI SAÑUDO

Es un conjunto de nuevas ideas que explican los procesos incomprensibles para la física de los objetos.

La Teoría Cuántica es uno de los pilares fundamentales de la Física actual. Recoge un conjunto de nuevas ideas introducidas en el primer tercio del siglo XX para dar explicación a muchos procesos incomprensibles por las concepciones físicas vigentes. Su aplicación se limita, a los niveles atómico, subatómico y nuclear, donde resulta imprescindible. Pero también lo es en otros ámbitos, como la electrónica, en la física de nuevos materiales, en la física de altas energías, en el diseño de instrumentación médica, en la criptografía y la computación cuánticas, y en la Cosmología teórica del Universo temprano. La Teoría Cuántica es una teoría netamente probabilista: describe la probabilidad de que un suceso dado acontezca en un momento determinado, sin especificar cuándo ocurrirá. A diferencia de lo que ocurre en la Física Clásica, en la Teoría Cuántica la probabilidad posee un valor objetivo esencial, y no se halla supeditada al estado de conocimiento del sujeto, sino que, en cierto modo, lo determina. 
Se trata de una teoría que reúne un formalismo matemático y conceptual. Las ideas que sustentan la Teoría Cuántica surgieron, como alternativa al tratar de explicar el comportamiento de sistemas en los que el aparato conceptual de la Física Clásica se mostraba insuficiente. Es decir, una serie de observaciones empíricas cuya explicación no era abordable a través de los métodos existentes, propició la aparición de las nuevas ideas. 

Hay que destacar el fuerte enfrentamiento que surgió entre las ideas de la Física Cuántica, y aquéllas válidas hasta entonces, digamos de la Física Clásica. Lo cual se agudiza aún más si se tiene en cuenta el notable éxito experimental que éstas habían mostrado a lo largo del siglo XIX, apoyándose básicamente en la mecánica de Newton y la teoría electromagnética de Maxwell (1865). Era tal el grado de satisfacción de la comunidad científica que algunos físicos, entre ellos uno de los más ilustres del siglo XIX, William Thompson (Lord Kelvin), llegó a afirmar:
"Hoy día la Física forma, esencialmente, un conjunto perfectamente armonioso, ¡un conjunto prácticamente acabado! ... Aun quedan “dos nubecillas” que oscurecen el esplendor de este conjunto. La primera es el resultado negativo del experimento de Michelson-Morley. La segunda, las profundas discrepancias entre la experiencia y la Ley de Rayleigh-Jeans."

La disipación de la primera de esas “dos nubecillas” condujo a la creación de la Teoría Especial de la Relatividad por Einstein (1905), es decir, al hundimiento de los conceptos absolutos de espacio y tiempo, propios de la mecánica de Newton, y a la introducción del “relativismo” en la descripción física de la realidad. La segunda “nubecilla” descargó la tormenta de las primeras ideas cuánticas, debidas al físico alemán Max Planck (1900).

El origen de la Teoría Cuántica

La Ley de Rayleigh-Jeans (1899). Un fenómeno físico denominado radiación del cuerpo negro, es decir, el proceso que describe la interacción entre la materia y la radiación, el modo en que la materia intercambia energía, emitiéndola o absorbiéndola, con una fuente de radiación. Pero además de la Ley de Rayleigh-Jeans había otra ley, la Ley de Wien (1893), que pretendía también explicar el mismo fenómeno.

La Ley de Wien daba una explicación experimental correcta si la frecuencia de la radiación es alta, pero fallaba para frecuencias bajas. Por su parte, la Ley de Rayleigh-Jeans daba una explicación experimental correcta si la frecuencia de la radiación es baja, pero fallaba para frecuencias altas.
La frecuencia es una de las características que definen la radiación, y en general cualquier fenómeno en el que intervengan ondas. Puede interpretarse la frecuencia como el número de oscilaciones por unidad de tiempo. Toda la gama de posibles frecuencias para una radiación en la Naturaleza se hallan contenidas en el espectro electromagnético, el cual, según el valor de la frecuencia elegida determina un tipo u otro de radiación.

En 1900, Max Planck puso la primera piedra del edificio de la Teoría Cuántica. Postuló una ley (la Ley de Planck) que explicaba de manera unificada la radiación del cuerpo negro, a través de todo el espectro de frecuencias.



La hipótesis de Planck

¿Qué aportaba la ley de Planck que no se hallase ya implícito en las leyes de Wien y de Rayleigh-Jeans? Un ingrediente tan importante como novedoso. Tanto que es el responsable de la primera gran crisis provocada por la Teoría Cuántica sobre el marco conceptual de la Física Clásica. Ésta suponía que el intercambio de energía entre la radiación y la materia ocurría a través de un proceso continuo, es decir, una radiación de frecuencia f podía ceder cualquier cantidad de energía al ser absorbida por la materia.

Lo que postuló Planck al introducir su ley es que la única manera de obtener una fórmula experimentalmente correcta exigía la novedosa y atrevida suposición de que dicho intercambio de energía debía suceder de una manera discontinua, es decir, a través de la emisión y absorción de cantidades discretas de energía, que hoy denominamos “quantums” de radiación. La cantidad de energía E propia de un quantum de radiación de frecuencia f se obtiene mediante la relación de Planck: E = h x f, siendo h la constante universal de Planck = 6’62 x 10 (expo-34) (unidades de “acción”).

Puede entenderse la relación de Planck diciendo que cualquier radiación de frecuencia f se comporta como una corriente de partículas, los quantums, cada una de ellas transportando una energía E = h x f, que pueden ser emitidas o absorbidas por la materia. La hipótesis de Planck otorga un carácter corpuscular, material, a un fenómeno tradicionalmente ondulatorio, como la radiación. Pero lo que será más importante, supone el paso de una concepción continuista de la Naturaleza a una discontinuista, que se pone especialmente de manifiesto en el estudio de la estructura de los átomos, en los que los electrones sólo pueden tener un conjunto discreto y discontinuo de valores de energía.

La hipótesis de Planck quedó confirmada experimentalmente, no sólo en el proceso de radiación del cuerpo negro, a raíz de cuya explicación surgió, sino también en las explicaciones del efecto fotoeléctrico, debida a Einstein (1905), y del efecto Compton, debida a Arthur Compton (1923).

Aplicación de la Teoría Cuántica

El marco de aplicación de la Teoría Cuántica se limita, a los niveles atómico, subatómico y nuclear, donde resulta totalmente imprescindible. Pero también lo es en otros ámbitos, como la electrónica (en el diseño de transistores, microprocesadores y todo tipo de componentes electrónicos), en la física de nuevos materiales, (semiconductores y superconductores), en la física de altas energías, en el diseño de instrumentación médica (láseres, tomógrafos, etc.), en la criptografía y la computación cuánticas, y en la Cosmología teórica del Universo temprano. De manera que la Teoría Cuántica se extiende con éxito a contextos muy diferentes, lo que refuerza su validez.

Pero, ¿por qué falla la teoría clásica en su intento de explicar los fenómenos del micromundo? ¿No se trata al fin y al cabo de una simple diferencia de escalas entre lo grande y lo pequeño, relativa al tamaño de los sistemas? La respuesta es negativa. Pensemos que no siempre resulta posible modelar un mismo sistema a diferentes escalas para estudiar sus propiedades.
Para ver que la variación de escalas es un proceso con ciertas limitaciones intrínsecas, supongamos que queremos realizar estudios hidrodinámicos relativos al movimiento de corrientes marinas. En determinadas condiciones, podríamos realizar un modelo a escala lo suficientemente completo, que no dejase fuera factores esenciales del fenómeno. A efectos prácticos una reducción de escala puede resultar lo suficientemente descriptiva.

Pero si reducimos la escala de manera reiterada pasaremos sucesivamente por situaciones que se corresponderán en menor medida con el caso real. Hasta llegar finalmente a la propia esencia de la materia sometida a estudio, la molécula de agua, que obviamente no admite un tratamiento hidrodinámico, y habremos de acudir a otro tipo de teoría, una teoría de tipo molecular. Es decir, en las sucesivas reducciones de escala se han ido perdiendo efectos y procesos generados por el aglutinamiento de las moléculas.

De manera similar, puede pensarse que una de las razones por las que la Física Clásica no es aplicable a los fenómenos atómicos, es que hemos reducido la escala hasta llegar a un ámbito de la realidad “demasiado esencial” y se hace necesario, al igual que en el ejemplo anterior, un cambio de teoría. Y de hecho, así sucede: la Teoría Cuántica estudia los aspectos últimos de la substancia, los constituyentes más esenciales de la materia (las denominadas “partículas elementales”) y la propia naturaleza de la radiación. 


continuará

domingo, 3 de noviembre de 2013

ARN polimerasa I

por Enrique Liccardi Sañudo. Un equipo del Consejo Superior de Investigaciones Científicas (CSIC) ha determinado la estructura atómica de la ARN polimerasa I (Pol I), un enorme complejo de 14 proteínas encargado de sintetizar el ARN ribosómico en las células eucariotas. El trabajo, publicado como artículo principal en el último número de Nature, abre el camino para la comprensión de la síntesis del ARN, el paso previo a la fabricación de proteínas.

La Pol I es una enzima que sintetiza el núcleo del ribosoma, la máquina molecular encargada de fabricar las proteínas dentro de la célula. Puesto que los ribosomas representan entre el 15% y el 20% del peso de la célula, la actividad de la Pol I alcanza el 60% de la síntesis del ARN celular al producir unos 2.000 ribosomas por minuto. Los defectos en la regulación de Pol I se asocian con alteraciones en la proliferación celular y, por tanto, con el desarrollo de tumores.

El trabajo, que ha contado con la participación de investigadores del European Molecular Biology Laboratory de Heidelberg (Alemania), ha requerido la cristalización y determinación estructural de la Pol I de la levadura de cerveza (Saccharomyces cerevisiae) mediante rayos X. Los científicos han resuelto, tras 10 años de investigaciones, su estructura en su estado latente o dormido, antes de empezar a transcribir, lo que les ha revelado características nunca observadas en otras enzimas



“La información estructural a alta resolución es esencial porque permite conocer detalles sobre la función proteica que no se pueden obtener de otro modo. Nuestros resultados arrojan luz sobre el funcionamiento de la Pol I y abren la puerta al control de su función y, por tanto, a la búsqueda de nuevos fármacos antitumorales”, asegura el investigador del CSIC Carlos Fernández Tornero, que trabaja en el Centro de Investigaciones Biológicas.

sábado, 2 de noviembre de 2013

Bosón de Higgs

Bosón de Higgs

por Enrique Liccardi Sañudo


El bosón de Higgs o partícula de Higgs es una partícula elemental propuesta en el Modelo estándar de física de partículas. Recibe su nombre en honor a Peter Higgs quien, junto con otros, propuso en 1964, el hoy llamado mecanismo de Higgs, para explicar el origen de la masa de las partículas elementales. El Bosón de Higgs constituye el cuanto del campo de Higgs, (la más pequeña excitación posible de este campo). Según el modelo propuesto, no posee espín, carga eléctrica o color, es muy inestable y se desintegra rápidamente, su vida media es del orden del zeptosegundo. En algunas variantes del Modelo estándar puede haber varios bosones de Higgs.[6] La existencia del bosón de Higgs y del campo de Higgs asociado serían el más simple de varios métodos del Modelo estándar de física de partículas que intentan explicar la razón de la existencia de masa en las partículas elementales. Esta teoría sugiere que un campo impregna todo el espacio, y que las partículas elementales que interactúan con él adquieren masa, mientras que las que no interactúan con él, no la tienen. En particular, dicho mecanismo justifica la enorme masa de los bosones vectoriales W y Z, como también la ausencia de masa de los fotones. Tanto las partículas W y Z, como el fotón son bosones sin masa propia, los primeros muestran una enorme masa porque interactúan fuertemente con el campo de Higgs, y el fotón no muestra ninguna masa porque no interactúa en absoluto con el campo de Higgs. El bosón de Higgs ha sido objeto de una larga búsqueda en física de partículas. El 4 de julio de 2012, el CERN anunció la observación de una nueva partícula «consistente con el bosón de Higgs», pero se necesitaría más tiempo y datos para confirmarlo.[1] El 14 de marzo de 2013 el CERN, con dos veces más datos de los que disponía en el anuncio del descubrimiento en julio de 2012, encontraron que la nueva partícula se ve cada vez más como el bosón de Higgs. La manera en que interactúa con otras partículas y sus propiedades cuánticas, junto con las interacciones medidas con otras partículas, indican fuertemente que es un bosón de Higgs. Todavía permanece la cuestión de si es el bosón de Higgs del Modelo estándar o quizás el más liviano de varios bosones predichos en algunas teorías que van más allá del Modelo estándar.[7] El 8 de octubre de 2013 le es concedido a Peter Higgs, junto a François Englert, el Premio Nobel de física "por el descubrimiento teórico de un mecanismo que contribuye a nuestro entendimiento del origen de la masa de las partículas subatómicas, y que, recientemente fue confirmado gracias al descubrimiento de la predicha partícula fundamental, por los experimentos ATLAS y CMS en el Colisionador de Hadrones del CERN".

EL ARGENTINOSAURUS

EL ARGENTINOSAURUS Reconstruyen digitalmente el movimiento de uno de los dinosaurios más gigantescos. Científicos británicos y argentinos demuestran que el 'Argentinosaurus' podía andar a pesar de su tamaño.

Expertos de la Universidad de Manchester y de Argentina han reconstruido digitalmente el movimiento de uno de los dinosaurios más grandes del mundo, el 'Argentinosaurus', demostrando que podía moverse. Algunos expertos consideraban que era tan grande que no podría ni andar. El modelo informático permitirá conocer más sobre el movimiento de los vertebrados en general (humanos incluidos), y podrá utilizarse con otros fósiles de dinosaurios.


Uno de los dinosaurios más grandes del mundo ha sido reconstruido digitalmente por expertos de la Universidad de Manchester permitiéndole dar los los pasos en 94 millones de años. Este equipo, en colaboración con científicos de Argentina, fue capaz de escanear mediante láser un esqueleto de 40 metros de largo del enorme dinosaurio Cretaceous Argentinosaurus. Luego, utilizando una técnica de modelización informática avanzada que involucra al equivalente de 30.000 ordenadores de sobremesa, recrearon sus movimientos para caminar y correr y probaron su capacidad de locomoción por primera vez. El estudio, publicado en PLOS ONE, refuta opiniones de que el animal tenía un tamaño exagerado y no podía caminar. Bill Sellers, investigador principal del proyecto, y adscrito a la Facultad de Ciencias Biológicas de la Universidad, señala en la nota de prensa. "Si quieres descubrir cómo caminaban los dinosaurios, el mejor enfoque es la simulación por ordenador. Esta es la única forma de reunir toda la información que tenemos sobre este dinosaurio". Lee Margetts, que también trabajó en el proyecto, añade: "Hemos utilizado el equivalente a 30 mil computadoras de sobremesa para permitir a este dinosaurio dar sus primeros pasos en más de 94 millones de años. El nuevo estudio demuestra claramente que el dinosaurio era más que capaz de pasear a través de lo que hoy es la Patagonia (América del Sur)". El Cretaceous Argentinosaurus toma su nombre del país en el que se encontró, Argentina. Era tan grande que lleva el nombre de un país entero. Phil Manning, de la Universidad de Manchester, señala: "Es frustrante que hubiera tan pocos fósiles del dinosaurios original, lo que dificulta cualquier reconstrucción. La digitalización es ciencia, no sólo animación", subraya. Sellers utiliza su propio software (Gaitsym) para investigar la locomoción tanto de animales vivientes como extintos. "Lo importante aquí es que estos animales no son como ningún otro de hoy en día, por lo que no podemos simplemente copiar un animal moderno", explica. "Nuestro sistema de aprendizaje automático funciona sólo a partir de la información que tenemos sobre el dinosaurio y predice los mejores posibles patrones de movimiento." El dinosaurio pesaba 80 toneladas y la simulación muestra que habría llegado a poco más de 2 metros por segundo, 8 kilómetros por hora de velocidad.

domingo, 12 de mayo de 2013

La Luna y la Tierra comparten el mismo agua


Los investigadores deducen que la colisión de nuestro planeta con un meteorito,
que provocó la escisión del satélite, no llego a secar este
Hasta ahora se pensaba que la colisión con un meteorito que escindió varios pedazos de la Tierra, entre ellos la Luna, dejó secos al planeta y su satélite, y que el agua volvió a la Tierra a bordo de meteoritos y a la Luna en cometas. Pero ahora se ha comprobado que la composición del agua de ambos objetos es la misma, por lo que sería más lógico pensar que nunca se quedaron secos del todo. Los científicos se preguntan cómo el agua pudo sobrevivir a una colisión semejante.

Hace 4.500 millones de años un objeto gigantesco chocó contra la Tierra y de los fragmentos desprendidos, nació la Luna. El impacto provocó tal calor que todo el hidrógeno se evaporó y se perdió en el espacio, dejando tanto a la Tierra como a su satélite secos. Más tarde, el agua volvió a la Tierra en meteoritos y a la Luna en cometas. Hasta hoy, esta era la creencia más aceptada. Pero, ahora, una investigación ha demostrado que el origen del agua encontrada de las rocas traídas por las misiones Apolo es el mismo que el del agua terrestre.
“La explicación más simple es que el hidrógeno ya estaba en la Tierra en el momento del gran impacto y que no hubo una pérdida significativa durante la formación de la Luna”, explica a SINC Alberto Saal, científico de la Universidad de Brown (EE UU) y autor del artículo que recoge hoy los resultados en Science Express.

Para determinar el origen, los investigadores analizaron la proporción de deuterio –un isótopo del hidrógeno– en la muestra. Las moléculas de agua formadas cerca del sol tienen, en general, menos deuterio que las formadas en los bordes exteriores del sistema solar.
Según los investigadores, la proporción de este isótopo en el agua lunar es la misma que en el 98 % de la terrestre. Además, ambas coinciden con la de las condritas carbonáceas, unos primitivos meteoritos formados cerca de Júpiter “que fueron el origen común de los componentes volátiles de la Tierra y la Luna –según Saal–, y probablemente de todo el sistema solar interno”.

Las empresas integran el cuidado de los ecosistemas en sus estrategias operativas La Luna nunca se quedó seca. El hidrógeno analizado se encuentra atrapado en cristales volcánicos y, gracias a esto, no se perdió en las erupciones lunares y los investigadores han podido hacerse una idea de cómo es el interior de la Luna.

Fue en 2011 cuando otra investigación realizada por el mismo equipo observó que estas muestras tenían tanta agua encerrada como las lavas del fondo del océano terrestre. “Entonces, las implicaciones fueron que el interior de ambos cuerpos celestes albergaba reservas con cantidades equivalentes de hidrógeno”, explica el cientifico.
“El punto principal de nuestro nuevo artículo es que el hidrógeno de la Luna no se originó en cometas como se pensaba, sino en meteoritos primitivos como los que lo trajeron a la Tierra”, señala Saal.

Estos resultados no son necesariamente incompatibles con la idea de que la Luna se formó a partir del gran impacto de un asteroide en los inicios de la vida de la Tierra, pero plantean la incógnita de cómo es posible que el agua sobreviviera a semejante colisión. “Necesitamos volver al inicio y descubrir más sobre lo que provocan los grandes impactos” concluye el investigador. 

lunes, 6 de mayo de 2013


Consiguen observar electrones
 sin trastocar sus átomos
Profesor ENRIQUE LUIS LICCARDI SAÑUDO


                                   Una nueva técnica basada en la mecánica cuántica evita dañar
                                           los elementos más frágiles durante las mediciones
Científicos del ICFO han conseguido por vez primera observar el giro de los electrones en los átomos sin modificar las propiedades de la nube de átomos durante el proceso. Esta es la primera vez que se aplica una medición cuántica no destructiva a un objeto material. El mismo método podría usarse para comprender el cerebro humano o el origen del universo. 

martes, 24 de julio de 2012

EL  ASTEROIDE 2011 AG5 NO COLISIONARÁ
contra LA TIERRA en el año 2040
[NCYT] Aunque las observaciones efectuadas hasta la fecha indican que existe una leve posibilidad de que 2011 AG5 impacte contra la Tierra en 2040, los expertos creen que, en los próximos cuatro años, el análisis de las observaciones hechas desde la Tierra y desde el espacio demostrará que las probabilidades de que tal colisión no se produzca superan el 99 por ciento.

Con una extensión de unos 140 metros (460 pies), la roca espacial fue descubierta por el equipo de observación astronómica Catalina Sky Survey, dependiente de la Universidad de Arizona en Tucson y respaldado por la NASA. Varios observatorios vigilaron a 2011 AG5 durante nueve meses antes de que se alejase y se volviera demasiado tenue en el firmamento como para ser visto.
Hace varios años, se creyó que otro asteroide, llamado Apofis (Apophis), tenía preocupantes probabilidades de impactar contra la Tierra en 2036. Observaciones adicionales hechas desde 2005 hasta 2008 permitieron a los científicos de la NASA mejorar su conocimiento de la trayectoria del asteroide, lo que a su vez permitió verificar que las probabilidades de esa colisión eran muy inferiores a las estimaciones previas.



Asteroide 2011 AG5
ORBITA DEL 2011AG5

En cualquier momento que sea posible observar con suficiente capacidad escrutadora un asteroide y obtener nuevos datos fiables sobre su ubicación, se puede revisar cualquier cálculo previo de su trayectoria futura, y confirmar ésta o modificarla de acuerdo con la nueva realidad.
"Cuando existen sólo algunas observaciones, nuestro cálculo inicial de la órbita incluirá un rango mayor de incertidumbre. Con más datos, mejora el conocimiento de las posibles posiciones del asteroide y el rango se hace más estrecho. Esto suele eliminar de las previsiones el riesgo de un impacto", explica Don Yeomans, director en la oficina del Programa NEO (programa dedicado a vigilar objetos celestes que pasan cerca de la Tierra), de la NASA en el Laboratorio de Propulsión a Chorro en Pasadena, California.
Por ahora, las observaciones de 2011 AG5 son limitadas debido a su posición actual que hace inviable observarlo debidamente. En el otoño de 2013, mejorarán las condiciones y eso permitirá que los telescopios ubicados en tierra y en el espacio rastreen con mayor precisión y fiabilidad la trayectoria del asteroide.

El nivel de riesgo se hará aún más preciso en 2023, cuando el asteroide esté aproximadamente a 1,8 millones de kilómetros de la Tierra (1,1 millones de millas). Si a principios de febrero de 2023 el asteroide 2011 AG5 pasa por una región del espacio de 365 kilómetros de ancho (227 millas) descrita a veces como un "ojo de cerradura", la fuerza gravitacional de la Tierra podría influir en su trayectoria orbital lo suficiente como para que se produjese un impacto el 5 de febrero de 2040. Si el asteroide no entra en ese pasillo crítico del "ojo de la cerradura", no se producirá un impacto en 2040.
Por lo que sabe actualmente sobre la órbita de este asteroide, sólo hay una posibilidad muy remota de que ese astro atraviese el ojo de cerradura.
Aunque los científicos están convencidos de que la visita de 2011 AG5 a las inmediaciones de la Tierra no acarreará peligros posteriores, reconocen la leve posibilidad de que las probabilidades calculadas aumenten como resultado de las observaciones que se realizarán desde 2013 hasta 2016. Según el grupo de expertos, aunque las probabilidades aumenten, todavía hay mucho tiempo para planificar y realizar al menos una de las varias misiones viables para cambiar el rumbo del asteroide.

Se calcula que si 2011 AG5 cayera en la Tierra, causaría daños en una región de al menos 160 kilómetros (unas 100 millas) a la redonda.
Extrañas formas de vida descubiertas
entre Chile y Argentina
[NCYT] Las increíblemente secas laderas de los más altos volcanes en la región de Atacama, donde el equipo de Steve Schmidt y Ryan Lynch, de la Universidad de Colorado en Boulder, recolectaron las muestras de suelo, son lo menos parecido a un medio apto para la vida. Gran parte de la escasa nieve que cae sobre el terreno se sublima regresando a la atmósfera poco después de tocar el estéril suelo, que está tan agotado de nutrientes, que los niveles de nitrógeno, en las muestras obtenidas, estaban por debajo de los límites convencionales de detección. 

Por si fuera poco, la radiación ultravioleta en el entorno de gran altitud puede ser dos veces más intensa que en un desierto de baja altitud. Las temperaturas también son hostilmente cambiantes: Durante la permanencia de los investigadores en el lugar, la temperatura descendió a 10 grados centígrados bajo cero (14 grados Fahrenheit) una noche y superó los 56 grados centígrados (133 grados Fahrenheit) al día siguiente.

Es inexplicable cómo los organismos descubiertos pueden sobrevivir en esas circunstancias. Aunque Ryan, Schmidt y sus colegas buscaron genes propios de la fotosíntesis y examinaron las células utilizando técnicas fluorescentes en busca de clorofila, no pudieron encontrar evidencia de que los microorganismos sean fotosintéticos.

Formas de vida en terrenos volcánicos
Los investigadores creen que los microbios podrían generar lentamente su energía mediante reacciones químicas que extraigan energía y carbono de briznas de gases como el monóxido de carbono y el dimetilsulfuro, que circulan por esas desoladas zonas montañosas.
El proceso no tiene un gran rendimiento energético, pero podría ser suficiente ya que la energía se acumula con el paso del tiempo.

Mientras que el suelo normal tiene miles de especies microbianas en sólo un gramo, y los suelos de jardín aún más, la nueva investigación sugiere que muy pocas especies tienen su hogar en el suelo árido de las montañas de Atacama. Encontrar una comunidad dominada por menos de 20 especies es sorprendente para un microbiólogo del suelo, dice  Schmidt.

En las montañas como los volcanes Llullaillaco y Socompa, la alta radiación ultravioleta y las temperaturas extremas hacen el lugar inhóspito para casi cualquier microorganismo que quede expuesto al aire libre demasiado tiempo. Este entorno es tan dañino, que muchos de los microorganismos que, llevados por el viento, acaban aterrizando en estos páramos, perecen muy pronto.

El siguiente paso para los investigadores será realizar experimentos de laboratorio utilizando una incubadora que imite las fluctuaciones extremas de temperatura, para comprender mejor cómo puede un organismo vivir en un ambiente tan hostil. Estudiar los microbios y entender cómo pueden prosperar en un ambiente tan extremo, puede ayudar a conocer mejor las fronteras de la vida.
Existe la posibilidad de que algunos de los extremófilos del lugar sean capaces de utilizar procesos metabólicos de conversión energética desconocidos hasta ahora.
Schmidt también está trabajando con astrobiólogos en un intento de reconstruir el medio ambiente que pudo poseer Marte en el pasado. Los terrenos de esos volcanes de Atacama, con su atmósfera enrarecida y su elevada radiación, figuran entre los lugares de la Tierra que más se parecen al Planeta Rojo.

En la investigación, también han trabajado María Farías del Laboratorio de Investigaciones Microbiológicas de Lagunas Andinas, dependiente del CONICET, en Tucumán, Argentina; Christian Vitry del Museo de Arqueología de Alta Montaña en Salta, Argentina; Andrew King de la CSIRO (por las siglas de Commonwealth Scientific and Industrial Research Organisation) en Australia; y Preston Sowell de Geomega, una empresa de consultoría medioambiental con sede en Boulder, Colorado, Estados Unidos.


LOS INSECTOS VOLADORES GIGANTES

EXTERMINARON A LAS AVES


(NCYT) Los insectos llegaron a alcanzar sus mayores tamaños hace unos 300 millones de años, durante los periodos Carbonífero tardío y Pérmico temprano. Éste fue el reinado de insectos voladores que podían alcanzar una envergadura de alas de hasta 70 centímetros (28 pulgadas). La teoría más aceptada atribuye su gran tamaño a altas concentraciones de oxígeno en la atmósfera (más de un 30 por ciento, siendo la actual de un 21 por ciento), lo cual permitió que estos insectos gigantes obtuvieran oxígeno para que llegara a las partes internas de sus grandes cuerpos.

Los insectos no respiran como nosotros, y no usan la sangre para transportar oxígeno. Inhalan oxígeno y expelen dióxido de carbono a través de agujeros en sus cuerpos llamados espiráculos. Estos agujeros se conectan a un sistema de conductos interconectados, o tubos traqueales. En tanto que los humanos tenemos tráquea, los insectos poseen todo un sistema traqueal que transporta oxígeno a todas las áreas de sus cuerpos y elimina el dióxido de carbono. A medida que el insecto crece, los tubos traqueales se alargan para alcanzar el tejido central, y se tornan más anchos o más numerosos para afrontar la demanda adicional de oxígeno de un cuerpo más grande. Dado que una mayor abundancia de oxígeno permite tamaños corporales más grandes en los insectos sin que se ahoguen, se asumía que el descenso del porcentaje de oxígeno presente en el aire fue el factor exclusivo que forzó evolutivamente a los insectos a volverse más pequeños.

Sin embargo, un nuevo estudio revela para los insectos voladores la existencia de otro factor igual de importante o quizá incluso más, en la cadena de circunstancias que condujo a tales insectos a menguar hasta los tamaños hoy típicos en ellos.

  
El gráfico muestra el ALA FOSILIZADA de un insecto gigante
debajo a la izquierda se puede apreciar el ala del mismo insecto en la actualidad

El equipo de Matthew Clapham y Jered Karr, ambos de la Universidad de California en Santa Cruz, recopiló una gran cantidad de datos sobre longitud de las alas, obtenidos de registros de insectos fósiles. Luego, ellos analizaron el tamaño de los insectos en relación con los niveles de oxígeno para un periodo de cientos de millones de años de evolución de los insectos.
El largo y meticuloso análisis demostró que el tamaño máximo alcanzado por los insectos se corresponde muy bien con los niveles de oxígeno durante unos 200 millones de años. Luego, a finales del período Jurásico y principios del Cretácico, hace unos 150 millones de años, repentinamente subió el nivel de oxígeno y disminuyó el tamaño de los insectos. Y esto coincide muy llamativamente con la aparición de las aves.
Todo apunta a que al haber aves depredadoras capaces de volar, la necesidad de maniobrabilidad pasó a ser determinante en la evolución de los insectos voladores, favoreciendo a un menor tamaño corporal.

miércoles, 25 de abril de 2012

La Imágen de 2 átomos vibrando en una molécula

por Enrique Luis Liccardi Sañudo

Con estos experimentos, se ha demostrado que es viable controlar la trayectoria cuántica del electrón cuando regresa a la molécula, mediante ajustes en el proyector láser utilizado.
El próximo paso del equipo del físico Louis DiMauro, de la Universidad Estatal de Ohio, será ver si es factible guiar al electrón del modo idóneo para lograr controlar una reacción química a escala atómica.

Los investigadores eligieron estudiar unas moléculas muy simples: Nitrógeno molecular (N2), y oxígeno diatómico o molecular (O2). El N2 y el O2 son gases atmosféricos comunes, y los científicos ya conocen cada detalle de su estructura, por lo que estas dos moléculas muy básicas resultaban idóneas para aplicar en ellas la técnica mencionada.


En cada caso, los investigadores hicieron incidir sobre la molécula pulsos de luz láser con una duración de 50 femtosegundos (milbillonésimas de segundo). Para tener una idea clara de cuán breves fueron estos pulsos, basta considerar que un femtosegundo es a un segundo lo que un segundo es a unos 32 millones de años.



En la investigación también han trabajado Cosmin Blaga, Anthony DiChiara, Emily Sistrunk, Kaikai Zhang, Pierre Agostini y Terry A. Miller, de la Universidad Estatal de Ohio, así como Junliang Xu y C.D. Lin, de la Universidad Estatal de Kansas.

martes, 24 de abril de 2012

                              TRANSHUMANISMO

                                                            Por Enrique Liccardi Sañudo
Aunque muchos teóricos y partidarios del transhumanismo buscan aplicar la razón, la ciencia y la tecnología para reducir la pobreza, las enfermedades, las discapacidades y la malnutrición en todo el mundo, el transhumanismo se distingue en su enfoque particular en la aplicación de las tecnologías para la mejora de los cuerpos humanos de forma individual. Muchos transhumanistas valoran activamente el potencial de las tecnologías futuras y los sistemas sociales innovadores para mejorar la calidad de toda vida, a la vez que tratan de hacer efectiva la igualdad consagrada en los sistemas políticos y legales democráticos mediante la eliminación de las enfermedades congénitas.


Los filósofos transhumanistas argumentan que no solo existe el imperativo ético perfeccionista de tratar de progresar y mejorar la condición humana, también es posible y deseable para la humanidad el entrar en una fase de la existencia post humana, en la que los humanos controlen su propia evolución. En tal fase, la evolución natural sería reemplazada por el cambio deliberado.


Cabe señalar que el transhumanismo es una clase de filosofía que busca guiarnos hacia una condición posthumana. El transhumanismo comparte muchos elementos del humanismo, incluyendo un respeto por la razón y la ciencia, un compromiso con el progreso, y una valoración de la existencia humana (o transhumana) en esta vida. Este concepto filosófico conforma un movimiento intelectual que está a favor del empleo de las nuevas ciencias y tecnologías para mejorar las capacidades mentales y físicas con el objeto de corregir lo que considera aspectos indeseables e innecesarios de la condición humana, como el sufrimiento, la enfermedad, el envejecimiento o incluso en última instancia la mortalidad. Los pensadores transhumanistas estudian las posibilidades y consecuencias de desarrollar y usar la tecnología con estos propósitos, preocupándose por estudiar tanto los peligros como los beneficios de estas manipulaciones.


Para ello siguen perspectivas interdisciplinares para entender y evaluar las posibilidades de superar las limitaciones biológicas. Recurren a la prospectiva y a varios campos de la ética como la bioética, principalmente, pero no de forma exclusiva desde una perspectiva humanista y progresista. Al contrario de muchos críticos y activistas que dan un importante valor a la preservación de los sistemas naturales, los transhumanistas ven el concepto mismo de lo «natural» como una problemática en el mejor de los casos y un obstáculo al progreso en el peor. A este respecto, los partidarios del transhumanismo se refieren al término «bioconservadores» que tildaba al movimiento social del siglo XIX que se oponía al reemplazo de trabajadores manuales por máquinas.


Mientras que muchos transhumanistas adoptan una perspectiva abstracta y teórica sobre los beneficios de las tecnologías emergentes, otros han ofrecido propuestas específicas para modificar el cuerpo humano, algunas de ellas hereditarias. Los transhumanistas a menudo están preocupados con los métodos de mejora del sistema nervioso humano. Algunos proponen modificar el sistema nervioso periférico, mientras que el cerebro al ser considerado el denominador común de la humanidad se encuentra en el centro de las ambiciones transhumanistas.


Los transhumanistas apoyan la emergencia y convergencia de tecnologías como la nanotecnología, biotecnología, tecnología de la información, ciencia cognitiva, y tecnologías futuras hipotéticas, como la realidad virtual, inteligencia artificial, transferencia mental. Creen que los humanos pueden y deberían usar estas tecnologías para volverse más que humanos.


El ritmo de la evolución tecnológica se acelera progresivamente, y en los siguientes cincuenta años no sólo aparecerán avances radicales, sino que sobrevendrá una singularidad tecnológica, que puede cambiar la naturaleza fundamental de los seres humanos. Los transhumanistas que prevén este cambio masivo sostienen que es deseable. Sin embargo, también estudian los posibles peligros de un cambio tecnológico extremadamente rápido, y, proponen opciones para asegurar que la tecnología sea usada de forma responsable.


En un ámbito más práctico, los transhumanistas tienden a emplear las tecnologías y técnicas existentes que supuestamente mejoran el rendimiento cognitivo y físico, y a seguir estilos de vida diseñados para mejorar la salud y la longevidad. Dependiendo de su edad, algunos transhumanistas expresan su preocupación por no vivir lo suficiente como para disfrutar los beneficios de las tecnologías futuras.


Conclusión: A través de los años y del tiempo, la Ciencia simple en sí misma dio paso a la Ciencia reflexiva, esto fue un avance importante gracias a la influencia de la tecnología. Allí aparecieron, Copérnico y sus evidencias; las leyes de Kepler y el vacio absoluto de Galileo. También Descartes emulando a Euclides fundó la geometría analítica y sostuvo que las matemáticas eran la clave del universo. Luego apareció Darwin y su teoría de la Evolución, desarrollada con sus 22 años en el buque Beagle durante su paso por América del Sur hacia las Galápagos. Einstein y su relatividad, nos enseñó que ni tiempo ni espacio son absolutos. Watson y la estructura molecular del ADN. La biología demostró que 30.000 genes son usados por la naturaleza y el medio ambiente para “construir” un individuo. La Cibernética imitó la mente humana y fue más allá de lo natural. Precedentes del pensamiento transhumanista se hallan en expresiones mitológicas del deseo humano de adquirir nuevas capacidades. Bostrom las localiza en el humanismo renacentista y en la Ilustración. Giovanni Pico della Mirandola animó a los hombres a «esculpir su propia estatua». René Descartes consideró la mejora humana uno de los frutos de su enfoque de la ciencia, y el Marqués de Condorcet fue el primer pensador que habla del empleo de la medicina para extender la esperanza de vida. En el siglo XX, el genetista Haldane predecía el advenimiento de grandes beneficios por la aplicación de la genética y otras ciencias de la biología humana. El biólogo Huxley, amigo de Haldane, fue el primero en usar la palabra «transhumanismo», que definió en 1957 como «el hombre sigue siendo hombre, pero trascendiéndose a sí mismo, al cobrar conciencia de las nuevas posibilidades de y para la naturaleza humana». En 1966 se empezó a identificar a la gente que adoptaba tecnologías, estilos de vida y nuevos puntos de vista sobre la transición a la posthumanidad, como transhumanos.


Las Ciencias y las Nuevas Tecnologías [como la Bio y la Nano] ofrecen al hombre la medicina más reconfortante y más segura pues, aumenta la calidad y prolonga la vida. Quien, hoy en día no haya incorporado a su vida, la relatividad, la evolución, el ADN y la inteligencia artificial, le será difícil entender el tiempo que vivimos y más aún el que estamos construyendo.