martes, 20 de diciembre de 2011

Los ordenadores leerán el pensamiento dentro de cinco años, según IBM

La empresa publica sus cinco predicciones técnológicas para el próximo lustro

EL PAÍS - Barcelona - 19/12/2011

Vota
Resultado 4 votos
Comentarios - 2

IBM ha publicado sus cinco predicciones tecnológicas para los próximos cinco años. Los cinco augurios, algunos un tanto optimistas, son: los ciudadanos producirán su propio suministro eléctrico; ya no serán necesarias las contraseñas; los ordenadores leerán el pensamiento; la brecha digital dejará de existir y el correo indeseado se convertirá en información prioritaria. Se trata no solamente de evaluar la disponibilidad de una nueva tecnología. También la probabilidad de su adopción a gran escala. La compañía propone a los internautas que voten la predicción preferida. En el blog donde se publican, a la información textual se añaden vídeos explicativos de cada propuesta.

El primer augurio se basa en el hecho de que el movimiento del cuerpo humano, o de las ruedas de las bicicletas al pedalear, pueden producir energía aprovechable si se dispone del calzado preparado para ello o de bicicletas que puedan recoger la energía creada. También la circulación del agua por las tuberías domésticas puede aprovecharse.Y, a más gran escala, el movimiento de las mareas y las olas de los océanos serán una fuente alternativa de suministro.

También parece lógico que el avance en las tecnologías biométricas, como la lectura del iris, permitan su implantación para que el internauta puede ser reconocido por ellas al entrar en un sitio donde se solicita acreditación o para realizar un movimiento bancario. Ya no necesitará memorizar contraseñas complejas o seguir utilizando claves demasiado sencillas y fáciles de detectar.

Los ingenieros de IBM está convencidos de que los ordenadores podrán interpretar la actividad eléctrica del cerebro. La idea es usar estas sinapsis eléctricas para aplicaciones como realizar una llamada de teléfono o mejorar los procesos de rehabilitación. En el texto ya se sueña con una ciudad donde sus vecinos van equipados con sensores y programas que sepan interpretar esta información cerebral y construir mapas de la salud mental de una población.

El enunciado sobre el final de la brecha digital tiene un posterior matiz. En cinco años, el 80% de la población mundial tendrá acceso a un dispositivo móvil y a través de él, a Internet. Esta población podrá realizar intercambios comerciales, consultas médicas o comunicarse con otras personas gracias a este Internet móvil con un crecimiento exponencial. De todos modos, la brecha no desaparece.

La predicción, o el deseo, de que el correo basura se convierta en prioritario la basan en la aplicación de tecnologías que analicen el contexto y las necesidades del cliente y únicamente remitan información cuando ésta pueda ser útil al mismo en función de la circunstancia en que se halla. ¿Bastará ello para que los distribuidores de spam desistan?

En 2006, IBM predijo para el actual año que termina el desarrollo de la telemedicina, la geolocalización en los móviles, la traducción simultánea por reconocimiento de voz, el empuje de la nanotecnología y, ahí tuvo su mayor fracaso, la implantación de tecnologías 3D.

http://www.elpais.com/articulo/tecnologia/ordenadores/leeran/pensamiento/dentro/anos/IBM/elpeputec/20111219elpeputec_6/Tes

miércoles, 14 de diciembre de 2011

Científicos españoles reconstruyen en 3D parte del cerebro de la mosca

La investigación demuestra que el sistema nervioso, en organismos relativamente complejos, optimiza las conexiones entre neuronas

A.R. 7 DIC 2011 - 17:46 CET

Poco a poco, los neurocientíficos están descifrando cómo es y cómo funciona el cerebro y, aunque están lejos aún de dar todas las respuestas, lo cierto que saben mucho más ahora de este órgano complejísimo que hace apenas una década. Una investigación liderada por científicos españoles desvela ahora que en el sistema nervioso están optimizadas las conexiones entre neuronas, es decir, lo que se llama el cableado, en el cerebro organismos relativamente complejos, como la mosca del vinagre, o más precisamente, en una zona concreta de ese animal. Han hecho un mapa tridimensional detallado de esa zona cerebral, lo que ha permitido ubicar cada neurona y calcular el cable necesario en las conexiones. Como recuerda el CSIC, ya lo dijo Santiago Ramón y Cajal: el sistema nervioso está conectado mediante la mínima cantidad de cable posible, optimizando con ello el coste energético y ahorrando espacio.

Gonzalo G. de Polavieja, investigador del Instituto Cajal (del CSIC) y sus colegas de la misma institución, así como de la Universidad Dalhousie (Canadá) y del Instituto Médico Howard Hughes (EE UU) presentan su mapa tridimensional y sus análisis sobre esa zona del cerebro (del sistema visual) en la revista científica Current Biology, mereciendo su trabajo la portada del número de esta quincena.

Los investigadores recuerdan que se había demostrado ya la validez de este principio de economía del cableado en organismos simples, como el gusano Caenorhabditis elegans, pero no, hasta ahora, en el cerebro de organismos complejos, como la mosca del vinagre Drosophila melanogaster (uno de los animales modelo de laboratorio por excelencia). Ellos se han centrado en una región concreta del sistema visual utilizando técnicas de reconstrucción de series de imágenes obtenidas por microscopía electrónica para conocer las formas de las neuronas y la localización de las sinapsis (conexiones), así como el sistema completo de conectividad. Así han obtenido el mapa tridimensional de esa zona cerebral de la mosca.

"Hemos visto que cualquier otra forma de situar las neuronas supondría emplear más cantidad de cable", explica Polavieja. "El estudio demuestra lo observado por Cajal y supone, además, un éxito para la conectómica, una disciplina basada en la reconstrucción de circuitos neuronales en 3D".

Tras obtener la reconstrucción, el equipo ha elaborado un modelo matemático para experimentar moviendo las neuronas en el espacio y determinar su posición, explica el CSIC. "El modelo nos decía dónde había que poner cada neurona para que el cable de conexión fuese mínimo y vimos que las posiciones coincidían con las medidas experimentales en Drosophila".

http://sociedad.elpais.com/sociedad/2011/12/08/actualidad/1323359742_446739.html

lunes, 12 de diciembre de 2011

Una reconstrucción en 3D del cerebro de mosca "Drosophila" demuestra que el sistema nervioso ahorra en cable

NOTICIA : BIOLOGÍA

Una reconstrucción en 3D del cerebro de mosca "Drosophila" demuestra que el sistema nervioso ahorra en cable

09/12/2011

Santiago Ramón y Cajal observó que el sistema nervioso está conectado mediante la mínima cantidad de cable posible, optimizando con ello el coste energético y ahorrando espacio. Ahora, 100 años después, una reconstrucción en 3D de una parte del cerebro de la mosca Drosophila melanoganster ha demostrado que este principio de economía de cableado determina la estructura de los circuitos neuronales. El trabajo, liderado por científicos del Consejo Superior de Investigaciones Científicas (CSIC), aparece en el último número de la revista Current Biology.

Mediante técnicas de reconstrucción tridimensional a partir de imágenes de microscopía electrónica en 2D, los investigadores han elaborado un mapa detallado de parte del sistema visual de esta mosca modelo. “Hemos visto que cualquier otra forma de situar las neuronas supondría emplear más cantidad de cable. El estudio demuestra lo observado por Cajal y supone además un éxito para la conectómica, una disciplina basada en la reconstrucción de circuitos neuronales en 3D”, explica el coordinador del estudio, el científico del Instituto Cajal (CSIC) Gonzalo García de Polavieja.

Tras obtener la reconstrucción, el equipo elaboró un modelo matemático para mover las neuronas en el espacio y determinar su posición. “El modelo nos decía dónde había que poner cada neurona para que el cable de conexión fuese mínimo y vimos que las posiciones coincidían con las medidas experimentales en Drosophila”, destaca.

El estudio, en colaboración con científicos del Janelia Farm Research Campus del Howard Hughes Medical Institute (Canadá), abre la vía para elaborar mapas morfológicos detallados del cerebro y profundizar en el estudio de enfermedades. “Seguiremos avanzando hasta tener circuitos más grandes y detectar posibles anomalías en sistemas que no usen el mínimo cable posible”, agrega el investigador.

Fuente: Consejo Superior de Investigaciones Científicas

http://noticias.universia.es/en-portada/noticia/2011/12/09/896192/reconstruccion-3d-cerebro-mosca-drosophila-demuestra-sistema-nervioso-ahorra-cable.html

miércoles, 23 de noviembre de 2011

Artificial Metaplasticity Neural Network

Mejora en la detección precoz del cáncer de mama

Un estudio realizado en la Universidad Politécnica de Madrid consigue una importante mejora en la clasificación de datos de cáncer de mama.

21.11.11

Investigadores del Grupo de Automatización en Señal y Comunicaciones de la Universidad Politécnica de Madrid (GASC/UPM) aplican un nuevo método de aprendizaje para redes neuronales artificiales inspirado en la metaplasticidad sináptica de las neuronas biológicas, que ha permitido clasificar los patrones de cáncer de mama de la base de datos Wisconsin (WBCD), referencia internacional en mamografías, con una exactitud del 99.63%.

El cáncer es una de las principales causas de mortalidad en todo el mundo y la investigación en su diagnóstico y tratamiento se ha convertido en un tema de vital importancia para la comunidad científica.

La prevención sigue siendo un reto, y la mejor manera de aumentar la supervivencia de los pacientes es a través de la detección temprana. Si las células cancerosas son detectadas antes de su diseminación a otros órganos, la tasa de supervivencia es superior al 97%.

Por esta razón, el uso y perfeccionamiento de clasificadores automáticos que den soporte al diagnóstico médico se ha incrementado notablemente en los últimos tiempos. Estos sistemas de clasificación tratan de minimizar los posibles errores producidos por los especialistas, aumentar el número de diagnosis que pueden realizar en un tiempo dado, y su porcentaje de éxito. La mayoría de estos sistemas están basados en técnicas de inteligencia artificial combinadas con procesado de señal, principalmente: redes neuronales artificiales, análisis wavelet, análisis de imágenes mediante modelos Bayesianos, máquinas de vector soporte, lógica difusa y modelos fractales entre otras potentes técnicas matemáticas.

Es concretamente una red neuronal artificial (AMMLP), entrenada con un nuevo método (Metaplasticidad Artificial) propuesto por el profesor Diego Andina y aplicado a datos de cáncer por el investigador Alexis Marcano-Cedeño, ambos pertenecientes al Grupo de Automatización en Señal y Comunicaciones de la Universidad Politécnica de Madrid (GASC/UPM), la que ha conseguido los mejores resultados hasta el momento.

Metaplasticidad

El concepto de la Metaplasticidad biológica fue definido en 1996 por Abraham W.C. El prefijo “meta” procede del griego y significa “más allá” o “por enciBase de datosma” mientras que la palabra “plasticidad” está relacionada con la capacidad que tienen las neuronas de modificar el valor de la fuerza de las uniones sinápticas. Abraham definió la metaplasticidad como la inducción de los cambios sinápticos en función de la actividad sináptica previa, es decir, que la metaplasticidad depende en buena medida del historial de activación de las sinapsis, y formuló la hipótesis de que la metaplasticidad juega un importante papel en la estabilidad (homeóstasis), eficiencia del aprendizaje y mecanismo de memoria biológica.

Esta base de datos es una de las más conocidas y utilizada para probar algoritmos de clasificación de patrones de cáncer de mama. La WBCD consta de 699 muestras. Cada registro de la base de datos tiene nueve atributos. Se asignan valores enteros de 1 a 10 a las evaluaciones, siendo 1 el más cercano benigno y 10 el más cercano a maligno. Cada muestra se asocia también con una etiqueta de clase, que puede ser “benigno” o “maligno”. Este conjunto de datos contiene 16 entradas con valores de atributos desaparecidos que en este estudio se excluyeron del análisis. La base de datos contiene 444 (65,0%) muestras benignas y 239 (35,0%) muestras malignas.

Comparación y Discusión

Los resultados obtenidos en este estudio se compararon con otros resultados, concretamente con los algoritmos actuales de mayor éxito, sobre la base de datos de Wisconsin.

El AMMLP obtuvo una exactitud en la clasificación de 99,63% en la mejor simulación y un 99,58% como promedio, mejorando los resultados del resto de clasificadores. Además el AMMLP, en comparación con otros algoritmos, exhibe un bajo costo computacional y es fácil de implementar. El éxito del sistema propuesto por los investigadores de la UPM refuerza algunas de las hipótesis de Abraham, y establece otras nuevas, lo que podría dar lugar a consecuencias relevantes no sólo en medicina, sino en la psicología y la cibernética.

Enlaces de interés

A. Marcano-Cedeño, J. Quintanilla-Dominguez, D. Andina. “WBCD Breast Cancer Database Classification Applying Artificial Metaplasticity Neural Network”. Expert Systems with Applications. Vol. 38(8) pp. 9573-9579. 2011

Wiickliffe C. Abraham. “Metaplasticity: Key Element in Memory and Learning?”. News in Physiological Sciences, Vol. 14, No. 2, 85, April 1999

http://www.upm.es/institucional/UPM/CanalUPM/NoticiasPortada/Contenido/1a29c065c55c3310VgnVCM10000009c7648aRCRD

miércoles, 26 de octubre de 2011

IBM planea desarrollar un cerebro humano artificial en 10 años

EN 10 AÑOS

IBM planea desarrollar un cerebro humano artificial en 10 años

Otro proyecto en el que está trabajando la compañía es la creación del superordenador más potente del mundo, que estará listo en dos años

Ciencia | 11/10/2011 - 08:24h

Madrid (Portaltic/EP) La compañía IBM está trabajando duro para tener listo en la próxima década su proyecto más ambicioso hasta el momento. La compañía espera tener listo para dentro de 10 años un cerebro humano artificial, que contará con un rendimiento equivalente al mismo número de neuronas que el cerebro humano, más de 100.000 millones.

Otro proyecto en el que está trabajando la compañía es la creación del superordenador más potente del mundo, que estará listo en dos años. La creación de un cerebro humano artificial es uno de los últimos objetivos de la compañía IBM.

El primer paso hacia este cerebro artificial se conocía el pasado mes de agosto, cuando IBM aseguró que estaba desarrollando un chip que imita el funcionamiento del cerebro humano.

La nueva generación de chips imitan las habilidades de percepción, acción y proceso cognitivo del cerebro humano, decidiendo de forma dinámica e independientemente cómo interactúa con los distintos sensores electrónicos de los dispositivos.

Pero ahora IBM asegura que un completo cerebro humano artificial estará listo para dentro de una década, tal y como recoge Talking Points Memo (TPM).

Para realizar este proyecto, IBM trabaja en colaboración con la Defense Advanced Research Projects Agency (DARPA). Ambos, ya han creado un ordenador que simula el mismo número de neuronas de un gato.

Para el funcionamiento de este cerebro artificial serán necesarios 20 vatios de electricidad. El vicepresidente y director de la investigación de IBM, John Kelly explicó durante una conferencia en Capitol Hill, Seattle (EE.UU.) que "los sistemas informáticos están cada vez más bioinspirados".

Además, Kelly también explicó el deseo de la compañía de crear un superordenador que funciona con menos de 85 KW de electricidad, es decir, menos de la electricidad necesaria para 'Watson', un sistema informático muy avanzado de preguntas y respuestas, presentado por IBM en 2010.

"IBM tiene una rica historia en cuanto a invención y adaptación de nuevas tecnologías", añadió Kelly.

Además aseguró que desde IBM mejoran de forma continua sus innovaciones. "Pensamos que esto es necesario para tener éxito a largo plazo", conluyó.

http://www.lavanguardia.com/ciencia/20111011/54229749794/ibm-planea-desarrollar-un-cerebro-humano-artificial-en-10-anos.html

domingo, 16 de octubre de 2011

The Human Brain Project (HBP)

Introduction


The brain, with its billions of interconnected neurons, is without any doubt the most complex organ in the body and it will be a long time before we understand all its mysteries. The Human Brain Project proposes a completely new approach. The project is integrating everything we know about the brain into computer models and using these models to simulate the actual working of the brain. Ultimately, it will attempt to simulate the complete human brain. The models built by the project will cover all the different levels of brain organisation – from individual neurons through to the complete cortex. The goal is to bring about a revolution in neuroscience and medicine and to derive new information technologies directly from the architecture of the brain.

The challenges facing the project are huge. Neuroscience alone produces more than 60'000 scientific papers every year. From this enormous mass of information, the project will have to select and harmonise the data it is going to use – ensuring that data produced with different methods is fully comparable.

The data feeding the project's simulation effort will come from the clinic and from neuroscience experiments. As we try to fit all the information together, we will discover many of the brain's fundamental design secrets: the geometry and electrical behaviour of different classes of neurons, the way they connect to form circuits, and the way new functions emerge as more and more neurons connect. It is these principles, translated into mathematics that will drive the project's models and simulations.

Today, simulating a single neuron requires the full power of a laptop computer. But the brain has billions of neurons and simulating all them simultaneously is a huge challenge. To get round this problem, the project will develop novel techniques of multi-level simulation in which only groups of neurons that are highly active are simulated in detail. But even in this way, simulating the complete human brain will require a computer a thousand times more powerful than the most powerful machine available today. This means that some of the key players in the Human Brain Project will be specialists in supercomputing. Their task: to work with industry to provide the project with the computing power it will need at each stage of its work.

The Human Brain Project will impact many different areas of society. Brain simulation will provide new insights into the basic causes of neurological diseases such as autism, depression, Parkinson's, and Alzheimer's. It will give us new ways of testing drugs and understanding the way they work. It will provide a test platform for new drugs that directly target the causes of disease and that have fewer side effects than current treatments. It will allow us to design prosthetic devices to help people with disabilities. The benefits are potentially huge. As world populations grow older, more than a third will be affected by some kind of brain disease. Brain simulation provides us with a powerful new strategy to tackle the problem.

The project also promises to become a source of new Information Technologies. Unlike the computers of today, the brain has the ability to repair itself, to take decisions, to learn, and to think creatively - all while consuming no more energy than an electric light bulb. The Human Brain Project will bring these capabilities to a new generation of neuromorphic computing devices, with circuitry directly derived from the circuitry of the brain. The new devices will help us to build a new generation of genuinely intelligent robots to help us at work and in our daily lives.

The Human Brain Project builds on the work of the Blue Brain Project. Led by Henry Markram of the Ecole Polytechnique Fédérale de Lausanne (EPFL), the Blue Brain Project has already taken an essential first towards simulation of the complete brain. Over the last six years, the project has developed a prototype facility with the tools, know-how and supercomputing technology necessary to build brain models, potentially of any species at any stage in its development. As a proof of concept, the project has successfully built the first ever, detailed model of the neocortical column, one of the brain's basic building blocks.

http://www.humanbrainproject.eu/introduction.html
http://www.humanbrainproject.eu/

martes, 11 de octubre de 2011

¿Qué pasará con el cerebro en 2018?

El Proyecto Cerebro Humano (The Human Brain Project, HBP) es una de las seis propuestas preseleccionadas por la Comisión Europea para participar en “FET Future and Emerging Technologies-Flagships”.

Esta iniciativa pondrá en marcha equipos de investigación multidisciplinares a gran escala, con el objetivo de conseguir en la próxima década objetivos científicos y tecnológicos muy ambiciosos que de otra forma sería prácticamente imposible de llevar a cabo.

Henry Markram, coordinador de “The Human Brain Project (HBP)”, e investigador de la École Polytechnique Fédérale de Lausanne (EPFL), en Suiza, explicó el alcance de este proyecto internacional, en un acto celebrado en la Universidad Politécnica de Madrid. Henry Markram también es responsable del proyecto Blue Brain, en el que España participa a través de la UPM y el Consejo Superior de Investigaciones Científicas mediante un acuerdo con el Ministerio de Ciencia e Innovación y que se denomina Cajal Blue Brain Project.

El proyecto HBP es pionero en la construcción de simulaciones detalladas del cerebro humano desde el punto de vista biológico. En base a ello, seremos capaces de “desarrollar la tecnología del siglo XXI”, explica Markram. El cerebro se lleva estudiando 200 años y ha generado más de 10 millones de artículos. “Es el momento de realizar un trabajo de investigación sobre el cerebro en un proceso integrador, en el que trabajen alineados expertos científicos de diversas disciplinas”, destaca Markram. Para el investigador, se debe integrar todo ese trabajo hacia un objetivo más complejo: alcanzar el conocimiento global del funcionamiento del cerebro.

https://www.upm.es/e-politecnica/?p=80

miércoles, 21 de septiembre de 2011

Redes - El futuro: la fusión del alma y la tecnología

"¿Que nos depara el futuro? Eduard Punset entrevista a Raymond Kurzweil, el "cibernostradamus" de hoy, calificado por Bill Gates como el mejor a la hora de predecir el futuro de la inteligencia artificial. Kurzweil revela los extraordinarios avances que conocerá la humanidad en los próximos 40 años."



domingo, 28 de agosto de 2011

"Enterrados" a 95 grados bajo cero

[...]

La práctica de la criogenia, nombre que se da a la congelación de los tejidos después de la muerte, está ganando centenares de adeptos en todo el mundo que están dispuestos a pagar hasta un total de 120.000 dólares por un nicho en un tanque de nitrógeno líquido.

Parte de este dinero se emplea en mantener el nivel de nitrógeno de los tanques, y otra parte está destinada a un fondo del que dispondrán los clientes una vez que vuelvan a la vida, si es que ésto llega a ser algún día posible.

En la actualidad, Alcor almacena 13 cuerpos en sus tanques, así como las cabezas de otras 23 personas que se acogieron a la oferta especial.

Parte del dinero que cuesta enterrarse a 95 grados bajo cero también se emplea para costear el complejo proceso de congelar los cuerpos.

En el momento en que un médico certifica la muerte del cliente, por lo general cuando se detienen el corazón y los pulmones, pero antes de que casi todas las células del organismo hayan muerto, los clientes de Alcor reciben una inyección de heparina, que impide la coagulación de la sangre.

A continuación, el equipo de expertos la empresa extrae la sangre del paciente inyectándole a presión una solución salina y después se enfría el cuerpo en un baño de hielo.

Poco después, se introduce un anticongelante a base de glicerol en las arterias para retardar la formación de cristales de hielo antes de sumergir el cuerpo, o la cabeza cuidadosamente seccionada, en los estanques de nitrógeno líquido.

Hug Hixon, bioquímico de la empresa Alcor dedicada a la criogenia, asegura que es perfectamente consciente de las dificultades que entraña revivir cadáveres que han sido congelados.

En primer lugar, porque también habrá que solucionar las causas que causaron la muerte. Otro problema es que a una temperatura inferior a los 95 grados centígrados bajo cero los órganos se resquebrajan.

"No es como un parabrisas que se hace añicos", explica Hug Hixon, "ya que se rompen en trozos de mayor tamaño.

Y si ésto no hace imposible la vuelta a la vida, el hecho de que la mayor parte de las células morirá a causa del frío viene a dar la puntilla", añade el bioquímico.

No obstante, para Hixon, someterse a la congelación después de morir es como "saltar sin paracaídas de un avión en llamas". Es la única oportunidad que existe para prolongar la vida. "Es como subir a un bote salvavidas. Y sin duda es mucho mejor que las demás alternativas".

http://www.elmundo.es/salud/297/04N0124.html

RANA que soporta CONGELACIÓN

Lithobates sylvaticus


Lithobates sylvaticus, la rana de bosque o rana de la madera, es un anfibio anuro de la familia Ranidae. Tiene un tamaño medio de 35 mm y puede alcanzar unos 7 cm de longitud; la hembra es más grande que el macho. Es de color marrón oscuro con matices verdosos y negros. Habita principalmente en Alaska y Canadá.

Descripción

La rana de bosque posee ciertos sistemas que le permiten sobrevivir en condiciones extremas (extremófilo) soportando muy bajas temperaturas; es una de las cuatro especies de ranas norteamericanas que son capaces de congelarse "en estado sólido" y sobrevivir.[cita requerida]

En primer lugar poseen una gran cantidad de nucleoproteínas (nucleótidos + proteínas) en su torrente sanguíneo; estos compuestos que potencian la formación de hielo, evitan sin embargo que éste se organice en forma de grandes cristales que dañarían a las células.

Por otro lado, la rana, cuya concentración de glucosa es similar a la nuestra sintetiza en el hígado grandes cantidades de ésta (que, a diferencia de nosotros, es capaz de tolerar) al inicio de la congelación. La glucosa se concentra en el interior de las células y hace las veces de anticongelante, evitando que se congelen los fluidos celulares. Sin embargo, la congelación del líquido exterior provoca que en el interior haya una mayor proporción de agua, provocando una salida de agua de las células que, si bien hace aumentar la proporción de glucosa en su interior (aumentando la acción anticongelante), podría provocar su muerte debido a la deshidratación, esto se evita al llegar a un equilibrio de concentraciones con el exterior, lo que interrumpe la salida de agua.

Con esto, los órganos y el cuerpo de la rana cuerpo pueden llegar a convertirse en un 65% de su agua completamente en hielo congelado y el resto de su agua estaría líquido gracias a su anticongelante natural. Cuando suben las temperaturas, se descongela primero el corazón, para que la circulación se reactive y evitar así daños en los demás órganos conforme se descongelan.[cita requerida]

[...]

http://es.wikipedia.org/wiki/Lithobates_sylvaticus

martes, 23 de agosto de 2011

"El cuerpo se conectará a Internet"

Paul Horn, ex director de IBM Research, creó el primer procesador de cobre o 'Deep Blue', el ordenador inteligente que batió a Kasparov al ajedrez en 1997

M. Á. M. - Madrid - 16/08/2011

Vota
Resultado 22 votos

A Paul Horn se le pierde la mirada al pensar en los avances tecnológicos de los 100 últimos años. Luego escoge un adjetivo para describirlos: inimaginables. Ni siquiera los mejores libros de ciencia-ficción, dice, fueron capaces de predecir lo que ha ocurrido. "Por un mismo dólar ahora compramos 1.000 millones de veces más poder de computación que hace un siglo. Prácticamente nada en la sociedad ha cambiado tanto".

A sus 64 años, Horn no solo ha vivido muchos de los grandes avances sino que además inventó alguno de ellos, como el primer procesador de cobre, el silicio rígido, que permitió fabricar chips un 35% más rápidos, o Deep Blue, el superordenador que batió a Kasparov al ajedrez en 1997. Lo hizo durante sus 11 años al frente de IBM Research, uno de los laboratorios de investigación más potentes del planeta, con 3.000 empleados y 6.000 millones de dólares de presupuesto anual. "Es difícil escoger un proyecto, pero estoy orgulloso de Blue Gene, el supercomputador con el que Estados Unidos recuperó en 2005 el liderazgo mundial", cuenta.

Pocas cosas podrían hacerse ya sin estos súper cerebros artificiales: investigación médica, proceso de datos financieros en segundos, diseño de productos... Speedo, por ejemplo, utilizó uno para analizar los movimientos de los nadadores en el agua y crear sus polémicos bañadores deslizantes.

Algo no ha cambiado: los procesadores siguen siendo cada vez más rápidos y pequeños. Horn cree que será así 10 años más. "Después es difícil adivinar qué pasará". Él inició el trabajo que desembocó en Watson, el superordenador que en febrero batió a dos personas en el concurso Jeopardy. Un buen ejemplo de cómo las máquinas se acercan a la inteligencia humana. "Lo próximo será que aprendan en tiempo real de la gente para parecerse cada vez más a nosotros", dice.

Nacido en Nueva York, de cuya universidad es responsable de investigación, Horn ha visto nacer la informática. En su laboratorio de IBM creó el primer procesador interconectado con filamentos de cobre. Se siguen usando, pero los haces de luz están reemplazando al cobre como método de transmisión electrónica. Curiosamente, es escéptico sobre los nuevos materiales, como el grafeno, que prometen jubilar el silicio. "Hoy podemos colocar 1.000 millones de transistores en un chip. Nadie sabe si lo conseguiremos con el grafeno".

De lo que no duda es de Internet, el avance de mayor impacto en nuestras vidas, dice. No le gusta hacer predicciones pero vaticina que el Internet de las cosas será fructífero en las próximas décadas. Y no solo porque cualquier objeto se conectará a la Red. También las personas. "En el futuro podremos implantarnos microchips y conectar el cuerpo a Internet. Las aplicaciones en salud y bioingeniería serán enormes. Y no importa el miedo a la privacidad. Ocurrirá", asegura.

En los últimos 100 años han cambiado demasiadas cosas. Otra: de la era del pecé y el modelo de distribución horizontal a la era donde imperan los móviles y el modelo vertical de Apple. "En la industria tecnológica una compañía fabricaba los procesadores, otra el software, otra los equipos... Luego vino Apple y decidió que lo haría todo. Nadie hubiera pensado que funcionaría".

Tampoco muchos hubieran dicho que el software libre fracasaría como lo ha hecho en la informática de consumo y empresarial. "Fue en parte por el éxito de Microsoft. Ahora tiene una segunda oportunidad con los móviles", dice en referencia a Android. Pese a ello, cree que Google aún no se ha ganado el respeto como empresa innovadora. "IBM, Apple o Microsoft tienen mucha historia. Google lo tiene que demostrar".

En plena era de la hiperconexión, quedan aún paradojas del progreso. Utilizamos mucho el teclado y el ratón. "Es cultural, nos hemos acostumbrado y es difícil cambiar". Los interfaces naturales, asegura Horn, los gestos, la voz y el tacto, irán ganando terreno para comunicarnos con las máquinas.

Predecir tendencias tecnológicas es fácil, dice. Lo complicado es saber cómo afectaran a la sociedad. Frente a la incertidumbre, una certeza: "Hemos evolucionado mucho gracias a la tecnología. Somos más altos, fuertes, inteligentes y vivimos más. En los próximos 100 años el ritmo será mayor".

http://www.elpais.com/articulo/Pantallas/cuerpo/conectara/Internet/elpepurtv/20110816elpepirtv_2/Tes

IBM crea un chip que funciona como el cerebro

La tecnología combina la informática con el proceso de comunicación de las neuronas.- Según sus desarrolladores hará operaciones con menos espacio y consumo energético

AGENCIAS - Madrid - 18/08/2011

Vota
Resultado 34 votos

IBM ha desarrollado un chip que imita el funcionamiento del cerebro humano. Esta tecnología, que combina la informática con el proceso de comunicación de las neuronas, podría ser útil para gestionar operaciones con menos espacio y consumo energético que la empleada por los ordenadores actuales.

La nueva generación de chips imitan las habilidades de percepción, acción y proceso cognitivo del cerebro, decidiendo de forma dinámica e independientemente cómo interactúa con los distintos sensores electrónicos.

Los primeros chips neurosinápticos de IBM recrean el fenómeno entre las neuronas y la sinapsis en sistemas biológicos, como el cerebro, "mediante avanzados logaritmos y circuitos de silicio", explica IBM. Los dos primeros prototipos ya se han fabricado y se encuentran actualmente en fase de pruebas.

Se espera que las computadoras cognitivas aprendan a través de experiencias, encontrando correlaciones e hipótesis, imitando la estructura sináptica del cerebro humano. Para ello, IBM explica que está combinando los principios de la nanociencia, la neurociencia y la supercomputación, como parte de una iniciativa desarrollada hace unos años.

El objetivo del proyecto es la creación de un sistema que no solo analice información compleja de múltiples modalidades sensoriales a la vez, sino que también se reprograme dinámicamente a medida que interactúa con su medio ambiente. Esto permitirá al mismo tiempo trabajar con un menor consumo de energía. El equipo de IBM explica que ya ha completado con éxito las fases 0 y 1.

"Las aplicaciones de la informática cada vez demandan funcionalidades que no son eficientes con la arquitectura tradicional", explica Dharmendra Modha, jefe del proyecto en el labratorio de IBM. "Estos chips suponen un paso importante en la evolución de los ordenadores, desde calculadoras hasta sistemas de aprendizaje, lo que indica el comienzo de una nueva generación de ordenadores y sus aplicaciones en los negocios, la ciencia y el Gobierno".

Los futuros chips serán capaces de ingerir la información de complejos entornos del mundo real a través de múltiples modalidades sensoriales, actuando de forma coordinada.

Por el momento el equipo cuenta con dos prototipos que funcionan con 256 neuronas cada uno, y mientras uno tiene 262.144 sinapsis programables, otro cuenta con 65.536 sinapsis de aprendizaje. Hasta ahora la compañía ha utilizado los chips para demostrar aplicaciones básicas como reconocimiento de patrones, navegación, visión artificial y memoria asociativa.

IBM ha adelantado servicios en los que esta nueva tecnología podría ser útil, como aplicaciones que supervisen el suministro de agua y realicen informes de seguimiento, e incluso sean capaces de prevenir tsunamis y terremotos.

http://www.elpais.com/articulo/tecnologia/IBM/crea/chip/funciona/cerebro/elpeputec/20110818elpeputec_5/Tes

Premio de inteligencia artificial en EE UU para un científico español

Ramón López de Mantaras recibe el galardón anual de la AAAI

EL PAÍS - Madrid - 16/08/2011

Vota
Resultado 16 votos

El científico Ramón López de Mántaras, investigador del CSIC en el Instituto de Investigación en Inteligencia Artificial (IIIA, Barcelona), ha recibido el Premio Robert S. Engelmore 2011 estadounidense, que concede la prestigiosa Asociación para el Avance de la Inteligencia Artificial (AAAI, en sus siglas en inglés). Es la primera vez que se concede este premio a un científico que investiga fuera de EE UU. López de Mántaras recibió el galardón, uno de los más importantes del mundo en esta disciplina, la semana pasada en San Francisco (EE UU) durante el congreso anual de la AAAI.

Entre los ocho anteriores premiados están Edward Feigenbaum (padre de los sistemas expertos), Jim Hendler (uno de los autores de la web semántica) y Bruce Buchanan (otro pionero en sistemas expertos). Ahora el científico español recibe la distinción por "sus contribuciones pioneras en varias áreas de la inteligencia artificial, especialmente el reconocimiento de patrones y el razonamiento basado en casos, con aplicaciones, por ejemplo, en diseño, diagnóstico y música [síntesis de música expresiva]". Además, la AAAI reconoce "su gran liderazgo internacional y sus servicios a la comunidad de la inteligencia artificial".

En el congreso de San Francisco, y en ocasión del galardón, López de Mántaras pronunció la conferencia Interpretando con casos: generación de música expresiva mediante razonamiento basado en casos.

"El razonamiento basado en casos es una técnica de inteligencia artificial con la que conseguimos que los ordenadores razonen por analogía, es decir, que resuelvan problemas reutilizando soluciones de problemas similares resueltos previamente", ha explicado López de Mántaras a EL PAÍS. La ventaja es que el ordenador no parte de cero cada vez; cada nuevo caso resuelto se guarda en la memoria del ordenador enriqueciendo su catálogo, es decir aprendiendo por experiencia. "Este aprendizaje de las máquinas por experiencia es un método muy potente que es muy utilizado por los seres humanos y, por consiguiente, está bien fundamentado cognitivamente, pero la gran dificultad está en conseguir que una máquina reconozca de forma completamente autónoma cuándo dos problemas son similares y es en este aspecto en el que hemos hecho contribuciones importantes", añade el científico.

En el IIIA, López de Mántaras (director del instituto, desde 2007), Enric plaza y Josep-Lluis Arcos, son líderes a nivel internacional en razonamiento basado en casos.

http://www.elpais.com/articulo/sociedad/Premio/inteligencia/artificial/EE/UU/cientifico/espanol/elpepusoc/20110816elpepusoc_10/Tes

Leslie Valiant, Premio Turing por su contribución a la ...

TECNOLOGÍA | 250.000 dólares

Leslie Valiant, Premio Turing por su contribución a la teoría de la computación

ELMUNDO.es | Madrid

Actualizado jueves 10/03/2011 13:51 horas

La Association for Computing Machinery (ACM) ha otorgado a Leslie G. Valiant el Premio Turing 2010.

Valiant, de la Universidad de Harvard, ha recibido este premio por sus "contribuciones transformadoras a la teoría de la computación". Entre estas contribuciones, la AMC destaca la teoría de aprendizaje PAC, la complejidad de la ennumeración y la computación algebraica y la teoría de la computación paralela y distribuida.

"Valiant hermanó el aprendizaje de las máquinas con la complejidad computacional, lo que llevó a avances en la inteligencia artificial, así como prácticas de computación como el procesamiento de lenguaje natural, el reconocimiento de caracteres y la visión por ordenador", explica la ACM en una nota de prensa.

"Durante los últimos 30 años, Leslie G. Valiant ha hecho contribuciones fundamentales a muchos aspectos de la computación científica teórica", explica la AMC. "Su trabajo ha abierto nuevas fronteras, introducido ingeniosos nuevos conceptos y presentado resultados de una gran originalidad, profundidad y belleza", continúa.

Su mayor contribución fue el artículo 'A theory of the learnable', que "puso los cimientos de la teoría del aprendizaje computacional". Con este artículo "introdujo un campo de trabajo general, así como modelos computacionales concretos para estudiar el proceso de aprendizaje, incluyendo el modelo PAC".

El año pasado, Charles P. Thacker, pionero del ordenador personal y la tableta, fue el ganador del Premio Turing, que, además, premia con 250.000 dólares a su receptor, gracias al apoyo financiero de Intel y Google.

http://www.elmundo.es/elmundo/2011/03/10/navegante/1299761471.html

Turritopsis nutricula, la medusa potencialmente inmortal

"Turritopsis nutricula

Turritopsis nutricula es una especie de hidrozoo hidroideo de la familia Oceanidae con un ciclo de vida en el que se revierte a pólipo después de llegar a su maduración sexual. Es el único caso conocido de un metazoo capaz de volver a un estado de inmadurez sexual, colonial, después de haber alcanzado la madurez sexual como etapa solitaria.[2] Es capaz de realizarlo a través de un proceso celular de transdiferenciación. Teóricamente, este ciclo puede repetirse indefinidamente, presentándose como biológicamente inmortal.

Es originaria de los mares del Caribe pero se ha extendido por todo el mundo.[3]"

http://es.wikipedia.org/wiki/Turritopsis_nutricula


CEREBRO BIOLÓGICO + CUERPO ROBÓTICO

DIVULGACIÓN | Eduardo Punset moderará las conferencias

Las claves de la tecno-humanidad, a debate en Madrid

* Un ciclo de conferencias analizará la fusión entre biología y tecnología
* Han sido organizadas por la Fundación Banco Santander

ELMUNDO.es | Madrid

Actualizado miércoles 02/03/2011 18:32 horas

La biología y la tecnología están cada vez más cerca y la velocidad de los avances tecnológicos condiciona el funcionamiento de la sociedad y sus costumbres. Estos son los temas que ponen sobre la mesa las cuatro sesiones de 'La tecno-humanidad', el Ciclo de Ciencia y Sociedad de la Fundación Banco Santander, que cumple 15 años y tendrá lugar en Madrid.

Eduardo Punset es el encargado de inaugurar el ciclo este miércoles con una conferencia llamada precisamente 'La tecno-humanidad'. Durante su charla, responderá en directo a las preguntas que le planteen preguntas a través de Twitter.

"En términos evolutivos, el éxito de la especie humana ha sido colosal, equiparable únicamente al de las cianobacterias que hace dos mil millones de años cambiaron la composición química de la atmósfera", opina Eduardo Punset. El presentador de 'Redes' también cree en el futuro la tecnología se fusionará con la biología modificando nuestra propia naturaleza y dando lugar a una diferencia cualitativa con el resto de los seres vivos.

Punset es el encargado de moderar el resto de sesiones del ciclo, como la de Kevin Warwick, quien se centrará en las claves de la robótica y el famoso proyecto 'Cyborg'. Otros temas clave que se tratarán durante este ciclo de conferencias serán la epigenética de la salud y la enfermedad, la energía de fusión y colisionador de partículas de la Organización Europea para la Investigación Nuclear (CERN).

Cerebros para robots

Kevin Warwick, uno de los mayores expertos del mundo en robótica e inteligencia artificial, dará una charla el próximo miércoles, donde explicará su proyecto estrella -'The Cyborg Experiment'- y analizará las distintas posibilidades de implantar electrodos en la creación de cerebros biológicos para robots y cómo éstos son capaces de potenciar y disminuir ciertas enfermedades neuronales.

Warwick y sus colegas argumentan que el proyecto 'Cyborg' permitirá diseñar nuevos dispositivos para resolver los problemas de pacientes con daños en el sistema nervioso, así como abrir el camino para hallazgos más ambiciosos, como una tecnología para la telepatía.

Propuestas de futuro

Por su parte, el 16 de marzo el biólogo español Manel Esteller hablará de la epigenética de la salud y la enfermedad, es decir, de todos aquellos efectos que no afectan a la secuencia del ADN y que no van incluidos en los códigos genéticos, como el caso del ambiente.

Además, el próximo día 23 el experto Steve Cowley planteará la fusión como energía limpia para el futuro, cuando los combustibles fósiles se agoten -lo que ocurrirá en apenas un siglo-. Cowley propone la energía de fusión, la energía de las estrellas, la misma que produce el Sol y que alimenta la vida que conocemos.

Finalmente, el 30 de marzo el físico del CERN Álvaro de Rújula, cerrará el ciclo sobre tecno-humanidad con una conferencia sobre el Gran Colisionador de partículas.

http://www.elmundo.es/elmundo/2011/03/02/ciencia/1299082371.html

Unos científicos crean el antiláser

Unos científicos crean el antiláser

En el experimento dos haces de luz interfieren de manera que se cancelan completamente y su energía se convierte en calor

ALICIA RIVERA - Madrid - 28/02/2011

Vota
Resultado 5 votos

Toda la actualidad científica en la sección de Ciencia de EL PAÍS

Unos científicos en EEUU han creado lo que ellos definen como el primer antiláser del mundo. "Es sorprendente que no se haya planteado ni estudiado seriamente hasta ahora la posibilidad del proceso de la emisión láser hacia atrás, invertido en el tiempo", dice Douglas Stone, físico de la Universidad de Yale. Él se lo planteó el verano pasado, como puro ejercicio teórico, demostrando que sería posible construir un antilaser y ahora unos colegas, liderados por Hui Cao, lo han hecho realidad con un dispositivo que absorbe casi perfectamente los haces de luz coherente y su energía se disipa en forma de calor. Los científicos creen que su descubrimiento, además del interés puramente físico, tiene interesantes aplicaciones potenciales, por ejemplo en futuros ordenadores ópticos y en radiología.

[...]

http://www.elpais.com/articulo/sociedad/cientificos/crean/antilaser/elpepusoccie/20110228elpepusoc_12/Tes

Visionarios de la ciencia

REPORTAJE

Visionarios de la ciencia

La UE financia los proyectos más punteros; 13 de ellos son españoles

MÓNICA SALOMONE - Madrid - 27/02/2011

Vota
Resultado 75 votos

¿Qué problemas querría ver resueltos la sociedad en las próximas décadas? La lista es quizá demasiado larga. Pero si incluyeran solo los problemas que podrían resolverse, un vistazo a los proyectos científicos seleccionados este año por el Consejo Europeo de Investigación (ERC por sus siglas en inglés) le ayudaría a hacerse una idea. Los llamados Avanced Grants del ERC son los proyectos con más financiación pública en Europa; el propio Consejo los define como "muy ambiciosos, pioneros, no convencionales" y orientados a obtener "una innovación radical, que trascienda el campo de una disciplina concreta".

Se evaluaron más de 2.000 solicitudes en todas las áreas de conocimiento antes de escoger las 266 que finalmente reciben financiación para los próximos cinco años. De ellas, 13 son españolas, lo que sitúa al país en séptima posición, por detrás de Reino Unido, Alemania, Francia, Suiza, Italia y Holanda. Son las mejores ideas que el menú de la ciencia actual ofrece en áreas muy diversas; aspiran desde a resolver la cuestión energética y preservar la biodiversidad, hasta a entender cómo afecta la contaminación al desarrollo del cerebro de los niños o a crear una Internet que refleje la riqueza cultural humana.

Pese a su variedad, todos estos proyectos se apoyan en la capacidad de controlar la materia -viva o inerte- a escala de lo muy pequeño; y en el hecho de que ahora es posible obtener, gestionar e interpretar cantidades enormes de datos sobre casi todo, ya sea los genes y sus funciones, el número de insectos que polinizan una planta, o las personas con que interaccionan al día en Internet.

- Propiedades a la carta. El proyecto de Ángel Rubio, de la Universidad del País Vasco combina esos tres elementos -lo nano, la avalancha de información disponible y los chips superpotentes-. Él persigue un viejo sueño de la humanidad: una máquina que proporcione la receta para construir materiales con propiedades a la carta: que conduzca la electricidad en ciertas condiciones, que cambie con la luz, que no se caliente... Un santo grial con las claves para hacer desde células fotovoltaicas más eficaces hasta microprocesadores más potentes y que no se calienten. ¿Ciencia ficción o cuestión de tiempo?

El grupo de Rubio trabaja en los pasos muy preliminares de algo así. Parten del conocimiento teórico de cómo reaccionan las moléculas a ciertos estímulos -la luz, por ejemplo-, y simulan en un ordenador el comportamiento de un material hecho de esas moléculas; luego predicen qué ocurriría al modificarlo. Así predijeron a mediados de los noventa que se podría fabricar nanotubos de nitruro de boro, estructuras que miden millonésimas de milímetro con múltiples aplicaciones en nanoelectrónica, dispositivos ópticos e incluso lubricantes.

"Podemos saber de antemano cómo se comportará un material prediciendo con una alta fiabilidad la respuesta de las moléculas a campos electromagnéticos externos [la luz visible, por ejemplo]", dice Rubio. Pero su trabajo es teórico; lo que financia con 1,9 millones de euros el ERC son los algoritmos matemáticos en que se basan las simulaciones. "Queremos desarrollar una teoría que permita diseñar nuevos materiales a escala nanométrica, materiales más eficaces, que consuman menos energía". Partirán de estructuras ya existentes, en concreto óxidos de titanio y de zinc, y los combinarán con moléculas biológicas implicadas en los procesos de generación de energía en los seres vivos (como la clorofila en la fotosíntesis). Las estudiarán y tratarán de mejorarlas. ¿Y si en 10 años las ciudades estuvieran tapizadas por paneles fotovoltaicos verde-clorofila?

- Matrix en la naturaleza. El proyecto de Jordi Bascompte, del Consejo Superior de Investigaciones Científicas (CSIC) en la Estación Biológica de Doñana, recuerda a la película Matrix. Solo que aquí es la naturaleza la que en última instancia debe ser traducida a ceros y unos; y los investigadores los que aspiran a lograrlo. Con un buen fin: simularla y predecir cómo le afectará una perturbación masiva como el cambio climático. El punto de partida de los científicos son las relaciones entre los seres vivos, y entre estos y el ambiente: un determinado ecosistema funciona porque hay insectos que se alimentan de plantas que a su vez dependen de esos insectos que las polinizan que a su vez son parasitados por otros insectos... Una complejísima red de interacciones que Bascompte quiere describir con algoritmos matemáticos.

El grupo ya ha usado ese abordaje para identificar las especies más importantes en cada ecosistema, los nodos en que concentrar los esfuerzos de conservación si se quiere proteger la red. El proyecto del ERC, financiado con 1,7 millones de euros, les permitirá estudiar cómo el colapso de la red afecta a su funcionamiento. ¿Cómo afectará el aumento de temperatura a la polinización, o al control biológico de las plagas, en una zona determinada?

También podrán, por primera vez, hacer experimentos. Montarán en Doñana sistemas cerrados con un número determinado de plantas e insectos, y medirán el servicio de polinización y de control biológico. "Manipularemos experimentalmente las dependencias entre especies y veremos cómo afecta la estructura de la red a su funcionamiento", explica Bascompte. Hasta ahora, los estudios de este tipo se habían centrado solo en especies aisladas.

Interpretando los datos -que alimentarán una de las escasísimas bases de datos existentes en el mundo con este tipo de información- el grupo de Bascompte tratará de extraer el esqueleto matrix de la naturaleza.

- Un problema del siglo XIX. El problema al que se enfrenta Javier Jiménez Sendín, de la Escuela Técnica Superior de Ingenieros Aeronáuticos de la Universidad Politécnica de Madrid, es un clásico: la turbulencia. Se trata de describir con ecuaciones el comportamiento de un fluido (aire, agua, un combustible...). El premio de lograrlo son, por ejemplo, motores más eficientes y que emiten menos contaminantes. Pero la turbulencia aparece en un sinfín de fenómenos: "Todos los flujos de la naturaleza [a escala macroscópica] son turbulentos", dice Sendín. Los físicos llevan tratando de entender la turbulencia desde mediados del siglo XIX y por fin ahora podrían tener las herramientas adecuadas: superordenadores. Las simulaciones con que trabaja el grupo de la UPM corren durante al menos un año en máquinas como el Marenostrum, en el Centro de Superordenador de Barcelona.

- Cinco siglos de bodas. El menos tecnológico, en apariencia, de los proyectos españoles financiados es el de Anna Cabré, de la Universidad Autònoma de Barcelona, llamado Cinco siglos de matrimonios. Pero solo apariencia. Sin tecnología -ordenadores- sería imposible analizar la información contenida en un registro continuo de los matrimonios celebrados en una diócesis catalana a lo largo de 450 años, una auténtica mina de oro para los investigadores. "No hay nada igual", dice Cabré. "En 1408 Benedicto XIII, el Papa Luna, visitó Barcelona y se encontró con que faltaba dinero para acabar de construir la catedral. Les otorgó entonces una tasa de matrimonios, con ocho categorías, desde los nobles hasta los pobres de solemnidad, que no pagaban nada. La tasa siguió aplicándose hasta bien entrado el siglo XIX". Entre 1451 y 1906, noventa parroquias enviaron los registros de sus matrimonios a la catedral de Barcelona, donde eran copiados por amanuenses. Estas copias sobrevivieron así a la quema de archivos de parroquias en Cataluña y "se han conservado milagrosamente", señala Cabré.

Así, ahora hay 244 gruesos libros con información sobre 700.000 uniones, que a menudo incluyen la procedencia de los contrayentes, oficio, edad... Los documentos son manuscritos y en gran parte en paleografía, así que hace falta expertos para descifrarla. El primer objetivo de Cabré es construir una base de datos que ponga la información a disposición de toda la comunidad científica. Ya esto presenta "un reto de enorme dificultad", explica la investigadora. Por eso colaborarán con el Centro de Visión por Computador, que desarrollará técnicas de análisis de textos para el vaciado de los libros.

Los demás proyectos españoles financiados por el ERC son de Jordi Sunyer, del Centro de Investigación en Epidemiología Ambiental (CREAL) y el Instituto Municipal de Investigación Médica; Jesús Santamaría, del Instituto de Nanociencia de Aragón; Luis Liz Marzán, de la Universidad de Vigo; Xavier Serra, Gosta Esping-Andersen, ambos de la Universidad Pompeu Fabra; Vivek Malhotra, del Centro de Regulación Genòmica; Manel Esteller, del Instituto de Investigación Biomédica de Bellvitge; Eugenio Oñate, del Centro Internacional de Métodos Numéricos en Ingeniería; y Andrés Rodríguez-Pose, Fundación IMDEA Ciencias Sociales.

http://www.elpais.com/articulo/sociedad/Visionarios/ciencia/elpepusoc/20110227elpepisoc_7/Tes

La máquina vence al cerebro

REPORTAJE: INTELIGENCIA ARTIFICIAL

La máquina vence al cerebro

El ordenador 'Watson' de IBM gana en un concurso a sus dos contrincantes - Los ingenieros subrayan que no ha sido modelado como la mente humana

D. ALANDETE / Y. MONGE - Washington - 18/02/2011

Vota
Resultado 9 votos

El ordenador Watson ha ganado a los dos concursantes de Jeopardy en la televisión estadounidenses. Durante tres días fue más rápido y certero que sus oponentes. Una velocidad de respuesta que le dio una enorme ventaja aunque cometiera algún error garrafal, como considerar Toronto una ciudad de EE UU. El ordenador de IBM ha ganado 77.147 dólares (57.000 euros) en el concurso. Pero en esta edición especial el primer puesto era recompensado con un millón de dólares (738.000 euros), que IBM destinará a beneficencia.

[...]

http://www.elpais.com/articulo/Pantallas/maquina/vence/cerebro/elpepurtv/20110218elpepirtv_3/Tes
http://www.elpais.com/

El hombre contra la máquina

El hombre contra la máquina

Un robot de IBM llamado 'Watson' compite con dos humanos en un programa de preguntas de una televisión estadounidense

YOLANDA MONGE - Washington - 15/02/2011
Vota
Resultado 8 votos

Por el momento, la máquina no ha podido con el hombre. En la noche del lunes, Watson compitió contra Ken Jennings y Brad Rutter, los dos mejores cerebros que han pasado por el legendario programa de preguntas de ABC Jeopardy. Watson, el robot de IBM, empató con el humano Rutter por 5.000 dólares. Jennings se quedó muy rezagado, con 2.000.

[...]

http://www.elpais.com/articulo/internacional/hombre/maquina/elpepuint/20110215elpepuint_17/Tes
http://www.elpais.com/

Un ordenador de IBM, favorito en un concurso de televisión

"Un ordenador de IBM, favorito en un concurso de televisión

En una prueba venció a dos contrincantes humanos en la respuesta de preguntas

EL PAÍS - Barcelona - 14/01/2011

Vota
Resultado 7 votos

IBM vuelve a repetir el desafío de enfrentar la máquina al hombre. Lo hizo en 1997 cuando Deep Blue derrotó al campeón de ajedrez Garry Kasparov. Ahora, IBM presentará su ordenador Watson a un concurso de preguntas de televisión. Esta semana la empresa ha realizado una prueba con concursantes reales, dos de los más notables vencedores en la historia del concurso, y Watson los batió. El concurso se celebrará a mediados de febrero. Watson es capaz de consultar una base de datos equivalente a 200 millones de páginas en tres segundos gracias a sus servidores equipados con Linux, 15 terabytes de memoria RAM, 2.880 procesadores que pueden realizar 80 billones de operaciones por segundo. Engadget ha publicado un vídeo de la prueba."

http://www.elpais.com/articulo/tecnologia/ordenador/IBM/favorito/concurso/television/elpeputec/20110114elpeputec_2/Tes
http://www.elpais.com/

Intel paga más de mil millones de euros por la tecnología de ...

"Intel paga más de mil millones de euros por la tecnología de Nvidia

El acuerdo demuestra la creciente implantación de los procesadores gráficos

REUTERS - San Francisco - 11/01/2011

Vota
Resultado 25 votos

Intel ha llegado a un acuerdo con el fabricante de chips Nvidia por el que pagará 1,5 mil millones de dólares (1,16 mil millones de euros) para usar su tecnología. Al conocerse el pacto, las acciones de Nvidia subieron un 4% por lo que supone de reconocimiento de su tecnología de procesamiento de gráficos por parte de Intel."

http://www.elpais.com/articulo/tecnologia/Intel/paga/mil/millones/euros/tecnologia/Nvidia/elpeputec/20110111elpeputec_1/Tes

Un intestino de encargo

"Un intestino de encargo

El primer órgano humano completo obtenido de células madre ya es un hecho - Supone un gran paso para investigar enfermedades intestinales y fabricar piezas para trasplante en laboratorio"

http://www.elpais.com/articulo/sociedad/intestino/encargo/elpepusoc/20101214elpepisoc_1/Tes

Los físicos crean un superfotón

Los físicos crean un superfotón

Un nuevo tipo de fuente de luz abre la vía al láser de rayos X, capaz de fabricar chips más potentes

A.R. - Madrid - 24/11/2010

Vota
Resultado 69 votos

Toda la actualidad científica en la sección de EL PAÍS

Unos físicos de la Universidad de Bonn han logrado hacer en su laboratorio algo que hace poco se consideraba imposible: un superfotón, una fuente de luz completamente nueva. Con este descubrimiento se abre potencialmente la vía a la fabricación de láseres ultravioleta y de rayos X, con una aplicación industrial interesante en la producción de chips más potentes que los actuales, con circuitos integrados mucho más complejos en el mismo soporte de silicio. Además, el logro en sí mismo de esta nueva forma de luz, basado en minuciosos experimentos, es interesante desde el punto de vista de la física fundamental. El superfotón es un nuevo estado de la materia, denominado condensado Bose-Einstein (BEC, en sus siglas inglesas), que hasta ahora se había logrado con diferentes átomos, pero nunca con las partículas de la luz, los fotones.

Un BEC es una concentración de átomos o partículas en un espacio tan compacto, a temperaturas ultrabajas, que éstos resultan indistinguibles, pierden su identidad, formando una especie de superátomo o superpartícula. Es un estado cuántico de alta densidad. La idea se remonta a Satyendra Nath Bose y Albert Einstein, en los años 1924-25, pero no se logró producir el primer condensado de este tipo hasta 1995. Seis años después recibieron el Premio Nobel de Física por ello Eric A. Cornell, Wolfgang Ketterle y Carl E. Wieman.

Sin embargo, aunque en principio sería posible, no se había logrado hasta ahora un BEC de fotones sencillamente porque las partículas de la luz, cuando se enfrían a la temperatura requerida, desaparecen. Hasta hace poco parecía imposible enfriar la luz y al mismo tiempo concentrarla, como haría falta para producir un superfotón de este tipo, explican los expertos de la Universidad de Bonn. Jan Klärs, Julian Schmitt y Frank Vewinger y Martin Weitz lo han logrado ahora y explican cómo en la revista Nature. Su truco hace que los fotones, que no tienen masa,se comporten como si fueran partículas con masa.

Este condensado Bose-Einstein fotónico tiene características similares a los láseres pero con una ventaja decisiva: "Hasta ahora no somos capaces de hacer láseres que generen luz de una longitud de onda muy pequeña, es decir, de luz ultravioleta o rayos X, mientras que con el condensado fotónico sería posible", explica Klärs. Aquí entra la potencial aplicación de diseñar nuevos chips, porque en la industria electrónica se usa el láser para grabar los circuitos en el soporte de material semiconductor, pero hacerlo con haces de luz de longitud de onda grande es como pintar con un rotulador de punta gruesa, mientras que un láser ultravioleta o rayos X sería como un rotulador de punta finísima. Así se podrían fabricar chips con más circuitos y mucho más complejos en la misma superficie de silicio, con lo que llegaría "una nueva generación de chips de alto rendimiento y, por tanto, ordenadores más potentes". Los investigadores alemanes apuntan también otras aplicaciones posibles de su superfotón, por ejemplo en la industria fotovoltaica.

En los experimentos, han montado dos espejos altamente reflectantes entre los cuales rebotan los haces de luz, con un pigmento disuelto en medio con cuyas moléculas chocan los fotones. "Durante el proceso, los fotones asumen la temperatura del fluido", apunta Weitz. Aumentan la cantidad de fotones entre los espejos excitando el pigmento con un láser y así logran concentrar las partículas de luz enfriadas harta el punto de que se condensan formando el Condensado Bose-Eintein fotónico o superfotón.

http://www.elpais.com/articulo/sociedad/fisicos/crean/superfoton/elpepusoc/20101124elpepusoc_7/Tes
http://www.elpais.com/

"La inmortalidad ha dejado de ser un sueño"

Ojeo la prensa escriba o no en los foros. No me cuesta nada copiar un par de enlaces de vez en cuando.

No me parece ninguna chorrada lo que escribo en estos foros. Ya se ha conseguido imitar el funcionamiento de neuronas mediante hardware y software. Conseguir la inmortalidad es cuestión de tiempo.


¿Quieres vivir 150 o 200 años?

Cuando tengas 60 años cambia tu corazón por un corazón artificial.

¿Quieres vivir para siempre?

El deterioro celular debido a la congelación seguramente se puede corregir mediante software.

"La fusión ha dejado de ser un sueño"

"ENTREVISTA: OSAMU MOTOJIMA - Director general del reactor internacional ITER

"La fusión ha dejado de ser un sueño""

http://www.elpais.com/articulo/futuro/fusion/ha/dejado/ser/sueno/elpepufut/20101110elpepifut_1/Tes
http://www.elpais.com/

Una prótesis electrónica tras la retina permite ver formas y ...

"Una prótesis electrónica tras la retina permite ver formas y objetos a tres ciegos

El primer ensayo clínico en Alemania de un implante con alimentación externa da resultados esperanzadores"

http://www.elpais.com/articulo/sociedad/protesis/electronica/retina/permite/ver/formas/objetos/ciegos/elpepusoccie/20101103elpepusoc_8/Tes
http://www.elpais.com/

"Obama encarga estudiar las

"Obama encarga estudiar las implicaciones bioéticas del hallazgo de Venter

Políticos, científicos y religiosos valoran la creación de la primera célula con cromosoma sintético

AGENCIAS - Madrid - 21/05/2010

Vota
Resultado 63 votos

El mundo de la ciencia, la política o la religión valora hoy el anuncio realizado ayer por Craig Venter, uno de los padres del genoma humano, cuyo equipo ha creado por primera vez una célula controlada por un genoma sintético. Es difícil predecir el alcance de esta nueva tecnología, pero, entre los proyectos de Venter, está diseñar un alga que fije el CO2 atmosférico y lo convierta en hidrocarburos, utilizando la energía de la luz solar. Otros proyectos buscan acelerar la producción de vacunas y mejorar la de ciertos ingredientes alimentarios, o diseñar microorganismos que limpien las aguas contaminadas. Mientras unos instan a analizar las implicaciones bioéticas del descubrimiento, otros ya alertan de sus riesgos -como la fabricación de armas químicas y bacteriológicas- o minimizan la importancia del hallazgo.

[...]"

http://www.elpais.com/articulo/sociedad/Obama/encarga/estudiar/implicaciones/bioeticas/hallazgo/Venter/elpepusoc/20100521elpepusoc_2/Tes

Proyecto Cajal Blue Brain

"Inauguración nueva sede CeDInt y CeSVima

[...]

Una de sus aplicaciones es el proyecto Cajal Blue Brain. La participación española, liderada por la Universidad Politécnica de Madrid (UPM) y el Consejo Superior de Investigaciones Científicas (CSIC), se integra en el proyecto internacional Blue Brain, primer intento exhaustivo de ingeniería inversa del cerebro de los mamíferos para conocer su funcionamiento y disfunciones. El proyecto ayudará a explorar soluciones a problemas de salud mental y enfermedades neurológicas intratables actualmente, como el Alzheimer, además de aportar nueva información sobre el funcionamiento del cerebro."

http://www.upm.es/institucional/UPM/CanalUPM/NoticiasPortada/Contenido/f451bf600a098210VgnVCM10000009c7648aRCRD
http://www.upm.es/

Artificial Simulator Of The Nervous System Created For ...

"Artificial Simulator Of The Nervous System Created For Research Into Diseases

ScienceDaily (May 18, 2009) — Researchers of the University of Granada have developed a simulator, so-called EDLUT (‘Event driven look up table based simulator’), which can reproduce any part of the body’s nervous system, such as the retina, the cerebellum, the hearing centres or the nervous centres.

[...]"

http://www.sciencedaily.com/releases/2009/05/090513091615.htm

Keep Up With Intel and Multicore, Go Parallel!

Keep Up With Intel and Multicore, Go Parallel!
February 3, 2009

Intel® Parallel Studio Intel® Parallel Studio, a suite of development tools for C/C++ developers using Microsoft® Visual Studio, is now available for beta download. Comprised of Intel Parallel Composer, Inspector and Amplifier, the full suite is the ultimate all-in-one parallelism toolkit that enables Windows developers to create, debug and optimize applications for multicore. To learn more and download Intel® Parallel Studio beta or the individual product betas, please visit the Intel Parallel Studio Website.

http://www.intel.com/pressroom/chipshots/chipshots.htm#020309a
http://www.intel.com/pressroom/index.htm?iid=gg_about+intel_pressroom
http://www.intel.com/

Nueva técnica para observar neuronas continuamente

Nueva técnica para observar neuronas continuamente

Los experimentos se han hecho en ratones en la Universidad de Stanford

EL PAÍS - Madrid - 19/01/2011

Vota
Resultado 5 votos

Toda la actualidad científica en la sección de EL PAÍS

Entrar en el cerebro vivo con un microscopio óptico normal es imposible, lo que impide visualizar el funcionamiento de las neuronas. Científicos de la Universidad de Stanford (EE UU) han puesto a punto ahora un nuevo método que no solo deja adentrarse en el cerebro para estudiar las neuronas sino que también permite observarlas siempre que se quiera durante meses.

Hasta ahora se había conseguido con microinstrumentos ópticos tomar instantáneas de células en el interior del cerebro, pero no seguir la evolución que conllevan el envejecimiento y las enfermedades.

La técnica de los científicos de Stanford se publica en la revista Nature Medicine, y en su artículo explican que muchas enfermedades se estudian sobre modelos animales, que son animales modificados para desarrollar patologías similares a las humanas. "Los investigadores podrán ahora estudiar los modelos de ratón en estas áreas profundas de una forma hasta ahora imposible", explica Mark Schnitzer, que dirigió los experimentos.

Primero se insertan en la región deseada, con anestesia, finos y pequeños tubos, del tamaño de un grano de arroz. Cuando se quieren visualizar las células, se inserta un microendoscopio en un tubo, que termina en cristal transparente. Los tubos permiten volver una y otra vez a la misma zona del cerebro y observar las neuronas con un detalle que ninguna otra técnica permite. El microendoscopio funciona con luz láser.

Debido a que la microscopía óptica sólo puede penetrar la capa más superficial de los tejidos, toda región cerebral a más profundidad de 700 micras resulta inalcanzable con técnicas tradicionales. Con el nuevo método se pueden tomar imágenes durante mucho tiempo sin causar daño, explica Juergen Jung, director de operaciones en el laboratorio de Schnitzer.

La nueva técnica se probó en un modelo de glioma, un tipo de cáncer cerebral muy agresivo. La gravedad de los gliomas depende de su localización. "Los tumores más agresivos son los que nacen en profundidad, no los superficiales", señala Lawrence Recht, catedrático de neurología. Poder vigilar su desarrollo puede ayudar a conocer la causa de que su situación influya en su velocidad de crecimiento.

http://www.elpais.com/articulo/sociedad/Nueva/tecnica/observar/neuronas/continuamente/elpepusoccie/20110119elpepusoc_9/Tes
http://www.elpais.com/

Nuevas técnicas para desvelar cómo funciona el cerebro

Nuevas técnicas para desvelar cómo funciona el cerebro

La reconstrucción del órgano está todavía lejana, 100 años después de Cajal

MALEN RUIZ DE ELVIRA - Madrid - 08/12/2010

Vota
Resultado 55 votos

Aunque mucho se ha avanzado desde que Cajal elaborara hace más de un siglo su hipótesis sobre cómo se conectan las neuronas, uno de los principales retos de la neurociencia sigue siendo conocer el diseño estructural de los microcircuitos cerebrales y cómo estos circuitos contribuyen al funcionamiento del cerebro. La tarea es tan grande y compleja que puede llevar al pesimismo. Sin embargo, el especialista español Javier de Felipe se muestra optimista en el ensayo que ha publicado en Science sobre qué se puede hacer en el estudio del cerebro humano y su optimismo se basa en las nuevas herramientas disponibles, incluidos los análisis estructurales y computacionales.

El objetivo es relacionar el conocimiento a tres escalas diferentes: con el conectoma, que representa las conexiones macroscópicas e intermedias del cerebro, y el sinaptoma, las conexiones microscópicas entre sinapsis (las zonas por las que se comunican las neuronas). Los diagramas de circuito del sistema nervioso son imposibles de completar sinapsis a sinapsis, reconoce De Felipe, pero los avances en la capacidad para relacionar los datos macroscópicos y microscópicos pueden llevar a establecer un modelo estadístico realista para describir la conectividad en el nivel del sinaptoma, en vez de intentar la reconstrucción completa del cerebro, algo que todavía está muy lejano.

La resonancia magnética nuclear, para estudios incluso en vivo, la microscopía óptica y la microscopía electrónica son, respectivamente, las herramientas de base para estudiar el cerebro en cada nivel de detalle, pero se están añadiendo continuamente otras. Entre ellas están los ratones arco iris, genéticamente modificados para expresar proteínas fluorescentes en conjuntos de células nerviosas, Además, se automatiza la reconstrucción en tres dimensiones de volúmenes grandes a partir de secciones ultrafinas cerebrales, con técnicas que se conocen por sus siglas (FIB-SEM), y que se acompañan de otras para marcar las neuronas individuales. En el estudio específico de tejidos humanos, procedentes de biopsias y autopsias, los avances técnicos son también muy importantes.

Las dificultades son tantas, a pesar de todo, que se han hecho necesarios grandes proyectos de investigación, como el Proyecto Conectoma Humano y el Blue Brain, en el que participa desde 2009 el Laboratorio de Circuitos Corticales (Universidad Politécnica de Madrid-CSIC) que dirige De Felipe. El objetivo final, según este experto, sería un modelo del cerebro, especialmente de la corteza, donde residen las funciones típicamente humanas y que representa el 85% del volumen total.

"¿Qué misteriosas fuerzas presiden la aparición de las expansiones, promueven su crecimiento y ramificación, provocan la emigración congruente de células y fibras, según direcciones prefijadas y como obedeciendo a sabio plan arquitectónico, y establecen, en fin, esos ósculos protoplásmicos, las articulaciones intercelulares, que parecen constituir el éxtasis final de una épica historia de amor?" Así se expresaba Cajal en Recuerdos de mi vida, publicado en 1917 y a esta historia de amor se refiere De Felipe, para el cual un final adecuado sería la construcción de una corteza en silicio -una corteza cerebral artificial en un ordenador- que considera ya posible.

Una pregunta sugerente es si llegaría a pensar esta corteza cerebral. De Felipe recuerda: "Para un materialista, los procesos mentales tendrían simplemente una explicación física y el problema cuerpo-mente lo enunciaría preguntándose: ¿Cómo lo físico puede engendrar un proceso mental o cómo lo mental puede ser explicado por un fenómeno físico? Para un dualista no existiría tal problema, porque la materia y el espíritu serían dos entidades absolutamente independientes, o, utilizando términos más modernos, los procesos mentales se manifestarían a través del cerebro, pero éste no sería la causa", y añade: "Quizá, una de las principales contribuciones de la neurociencia actual ha sido abordar el tema de los procesos mentales desde un punto de vista biológico, pero es llamativo el poco arraigo popular e influencia en la sociedad del conocimiento neurocientífico: debido a la poca cavilación sobre la relación entre el cerebro y nuestra humanidad es frecuente encontrarnos con la dificultad de aceptar la naturaleza neural de los procesos mentales, incluso dentro de la comunidad científica".

A eso se refiere el comentario que sobre el artículo en Science le ha mandado su colega Matthew Kirkcaldie, de la Universidad de Tasmania: "Me encantaría ver una corteza de silicio, pero tengo una creencia profunda e irracional en que hay algo en las neuronas que no podemos capturar con la morfología y la electrofisiología".

http://www.elpais.com/articulo/futuro/Nuevas/tecnicas/desvelar/funciona/cerebro/elpepufut/20101208elpepifut_2/Tes
http://www.elpais.com/

Del conectoma al sinaptoma: una historia de amor épica

Del conectoma al sinaptoma: una historia de amor épica

Javier de Felipe, director del área de Neurobiología del Proyecto Cajal Blue Brain (UPM-CSIC), publica en la revista Science el artículo “Del conectoma al sinaptoma: una historia de amor épica”.

26.11.10

En el artículo, el investigador aborda uno de los principales retos en la neurociencia: conocer el diseño estructural de los microcircuitos cerebrales y cómo estos circuitos contribuyen a la organización funcional del cerebro.

J. DeFelipe. Cajal Blue BrainEl término “conectoma” se propuso en su origen para hacer referencia a la matriz de conexiones altamente organizada del cerebro humano. Posteriormente, este término se adoptó para describir los mapas de circuitos neuronales en general. En este artículo, el término “conectoma” se propone para referirse al mapa de conexiones a nivel macroscópico e intermedio o con microscopía óptica y se introduce el término de “sinaptoma” para referirse al conjunto de interconexiones que establecen las neuronas a nivel sináptico o ultraestructural.

Para muchos científicos la obtención del sinaptoma supone una tarea tan difícil que parece poco probable que se pueda lograr en un futuro cercano, incluso, para los más pesimistas, tal vez resulte imposible. Sin embargo, el autor del artículo es optimista y propone que gracias a las nuevas herramientas de análisis estructurales y computacionales y mediante una estrategia adecuada es posible establecer un modelo estadístico real con el que se podría describir el diseño de los circuitos cerebrales a nivel ultraestructural, el “sinaptoma”. Consiguiendo, de esta manera, lograr ese gran reto de la neurociencia, ya que solamente combinando estudios a los tres niveles, macroscópico, intermedio y ultraestructural, se puede alcanzar el total conocimiento del plan estructural del cerebro en conjunto.

Referencia completa: Science 26 November 2010: 1198-1201.
DOI:10.1126/science.1193378

Biografía

Cajal Blue BrainEl profesor J. de Felipe, Licenciado en Biología por la Universidad Complutense de Madrid (1975) y Doctor en Biología por la misma universidad (1979), tiene una dilatada experiencia en el análisis de la organización intrínseca (microanatómica y neuroquímica) de la corteza cerebral, mediante la utilización de una variedad de técnicas, entre las que se incluyen técnicas inmunocitoquímicas para microscopía óptica y electrónica. Estos estudios comenzaron en el Instituto Cajal en el año 1980 con el análisis de la corteza cerebral de animales de experimentación. Desde 1991, en el laboratorio de De Felipe también se realiza el estudio neuroquímico y microanatómico de la corteza cerebral humana normal y de focos epilépticos corticales, para aportar datos sobre la organización normal de la corteza y estudiar las posibles alteraciones neuropatológicas. A partir de 2006 comenzó a centrarse en el estudio de la enfermedad de Alzheimer, y se continúan los estudios sobre la microestructura de la corteza cerebral normal. En 2009 se inicia una nueva etapa con la participación en el proyecto Blue Brain cuyo origen se remonta al año 2005, cuando L’École Polytechnique Fédérale de Lausanne (Suiza) y la compañía IBM anunciaron conjuntamente el ambicioso proyecto de crear un modelo funcional del cerebro utilizando el superordenador Blue Gene, de IBM. A finales de 2006, el proyecto Blue Brain había creado un modelo de la unidad funcional básica del cerebro, la columna neocortical. Sin embargo, las metas marcadas por el proyecto imponían su conversión en una iniciativa internacional. En este contexto surge en España el proyecto Cajal Blue Brain, cuyos objetivos se encuadran en dos ejes principales: La microorganización anatómica y funcional de la columna neocorticaly el desarrollo de tecnología biomédica (fundamentalmente informáticas). La contribución del laboratorio de DeFelipe consiste en participar en los estudios microanatómicos y funcionales de la columna neocortical y coordinar las tareas de investigación realizadas en otros laboratorios nacionales e internacionales. Esta coordinación es fundamental para establecer una base de datos homogeneizada que permite estandarizar y aprovechar al máximo los datos generados por cada grupo de investigación.

Más información: http://cajalbbp.cesvima.upm.es

Laboratorio de Circuitos Corticales, UPM-CSIC (Centro de Tecnología Biomédica, Campus de Montegancedo, UPM)

El Laboratorio de Circuitos Corticales (LCC), creado en 2008, está ubicado en el Centro de Tecnología Biomédica del Campus de Montegancedo de la UPM, está liderado el Prof. Javier de Felipe, Profesor de Investigación del Instituto Cajal del CSIC. El LCC es un laboratorio conjunto entre la UPM y el Instituto Cajal del CSIC que se creó como una Unidad Experimental de Neurociencia de la UPM compuesta por investigadores del campo de la Neurociencia procedentes del IC (CSIC) y por científicos del área de Ciencias de la Computación de la UPM. El IC (CSIC) es un centro con más de 100 años de historia en los cuales ha aportado numerosas contribuciones al estudio y comprensión de la estructura y función del sistema nervioso. El LCC fue creado con el espíritu de llevar a cabo estudios experimentales, con un importante componente tecnológico, del cerebro. La principal línea de investigación que se desarrolla en el LCC se centra en el análisis de la microorganización de la Corteza Cerebral Normal y Alteraciones de los Circuitos, mediante la utilización de múltiples técnicas novedosas entre las que cabe destacar las inyecciones intracelulares, técnicas inmunocitoquímicas e histoquímicas para microscopia electrónica y óptica, y métodos de reconstrucción 3D. El LCC es un laboratorio de relevancia internacional tal y como se refleja en sus múltiples colaboraciones con universidades y centros de investigación de líderes en el campo de la Neurobiología, como la Universidad de Columbia (USA), la Universidad de Heidelberg (Alemania), la Universidad de Cambridge (Reino Unido), entre otras.

http://www.upm.es/institucional/UPM/CanalUPM/NoticiasPortada/Contenido/620e90664868c210VgnVCM10000009c7648aRCRD
http://www.upm.es/

Video sobre proteínas

Protein Denaturation

http://www.onnetworks.com/videos/food-science/protein-denaturation

Video sobre el cerebro

Understanding: Brain MRI

http://videos.howstuffworks.com/tlc/29321-understanding-brain-mri-video.htm

Video en HowStuffWorks.

Video con gato

The Nervous System: Pain Receptors

http://videos.howstuffworks.com/hsw/23886-the-nervous-system-pain-receptors-video.htm

Video en HowStuffWorks.

ADVERTENCIA: Su muestra un experimento con un animal que puede herir la sensibilidad de algunas personas.

IR CORTANDO SISTEMA NERVIOSO DEL CADÁVER EN CAPAS FINAS

Aunque diferencias en el movimiento de un único electrón podrían en algunos casos cambiar apreciablemente y a corto plazo un pensamiento por otro, no necesitamos saber donde están los electrones ni como van a moverse para tener una copia artificial del sistema nervioso indistinguible del sistema nervioso original.

La idea para extraer la información es ir seccionando el sistema nervioso original en capas muy finas, y mediante métodos ópticos estimar el valor de las propiedades que permitan caracterizar suficientemente el comportamiento eléctrico de la membrana y de las sinapsis.

Yo creo que estas propiedades se pueden estimar estudiando como se refleja y transmite radiación electromagnética de diferentes frecuencias, con diferentes ángulos, usando métodos matemáticos relacionados con los de tomografía. Para recuperar la información perdida en los cortes, se puede estudiar el sistema nervioso completo al principio, y el sistema nervioso restante y cada capa por separado cada vez que hacemos un corte para obtener una capa. Con toda la información se puede obtener una imagen completa del sistema nerviosos usando la reconstrucción de la última capa para calcular la capa anterior, y así sucesivamente hasta poder calcular la primera capa.

Se trata principalmente de averiguar concentraciones de tipos de átomos en función de la posición. No se trata de detectar átomos individuales, ni moléculas individuales, ni neurotransmisores ni proteínas individuales. La corriente de cargas en promedio de los potenciales de acción no se ve afectada por la orientación de las moléculas.

Usando las localizaciones de la membrana y otras estructuras, las concentraciones de tipos de átomos en cada punto se pueden atribuir a concentraciones de neurotransmisores y otras proteínas que afectan a la transmisión de los potenciales de acción. A partir de esta información se puede calcular la concentración de iones en cada punto a lo largo del tiempo, y así calcular como se propagan los potenciales de acción, que a su vez modifican las concentraciones de los diferentes tipos de átomos -- memoria.

Creo que hay mucha información que se puede "inventar", lo cual seguramente provocaría que la copia del sistema nervioso una vez puesta en ejecución se sienta algo diferente. Por ejemplo como si se hubiera tomado un par de cafés o un par de cervezas, o con un leve malestar o euforia. Eso no importa en principio.

Tampoco creo que importe que se destruya el tejido al hacer las mediciones.

Aunque el tejido esté alterado por el efecto de la muerte, congelación o el método de conservación utilizado, no importa si se puede reconstruir por software una realización del tejido original.

Cryo-electron tomography

3-D Ultrastructure of O. tauri: Electron Cryotomography of an Entire Eukaryotic Cell

Henderson, Gregory P. and Gan, Lu and Jensen, Grant J. (2007) 3-D Ultrastructure of O. tauri: Electron Cryotomography of an Entire Eukaryotic Cell. PLoS ONE, 2 (8). e749. ISSN 1932-6203 http://resolver.caltech.edu/CaltechAUTHORS:HENplosone07

PDF
Available under License --See Usage Policy.
848Kb

Use this Persistent URL to link to this item: http://resolver.caltech.edu/CaltechAUTHORS:HENplosone07

Abstract

The hallmark of eukaryotic cells is their segregation of key biological functions into discrete, membrane-bound organelles. Creating accurate models of their ultrastructural complexity has been difficult in part because of the limited resolution of light microscopy and the artifact-prone nature of conventional electron microscopy. Here we explored the potential of the emerging technology electron cryotomography to produce three-dimensional images of an entire eukaryotic cell in a near-native state. Ostreococcus tauri was chosen as the specimen because as a unicellular picoplankton with just one copy of each organelle, it is the smallest known eukaryote and was therefore likely to yield the highest resolution images. Whole cells were imaged at various stages of the cell cycle, yielding 3-D reconstructions of complete chloroplasts, mitochondria, endoplasmic reticula, Golgi bodies, peroxisomes, microtubules, and putative ribosome distributions in-situ. Surprisingly, the nucleus was seen to open long before mitosis, and while one microtubule (or two in some predivisional cells) was consistently present, no mitotic spindle was ever observed, prompting speculation that a single microtubule might be sufficient to segregate multiple chromosomes.

[...]

http://resolver.caltech.edu/CaltechAUTHORS:HENplosone07
http://authors.library.caltech.edu/
http://library.caltech.edu/
http://www.caltech.edu/

Optical coherence tomography

May 16, 2008

New growth for optical coherence tomography

Optical coherence tomography is an emerging medical imaging technology with an ever growing list of applications. Marie Freebody speaks to James Fujimoto to find out more.

James Fujimoto is a professor at the Massachusetts Institute of Technology in the US and is one of the key players responsible for the invention and development of optical coherence tomography (OCT) in the early 1990s. Fujimoto also has an active commercial side and has co-founded two companies, one of which was acquired by Zeiss and led to the first OCT instrument for clinical ophthalmology. The second company is currently developing intravascular and endoscopic OCT.

Can you explain how OCT works?
OCT enables micron-scale, cross-sectional and three-dimensional (3D) imaging of biological tissues in situ and in real time. The technique measures the echo time delay and intensity of backscattered light using interferometry with broadband light sources or with frequency swept lasers. The approach is analogous to ultrasound, except that imaging is performed by measuring light rather than sound. The imaging depths are typically around 2 mm, which is shallow compared with ultrasound. However, OCT can provide much higher image resolutions of a few microns.

[...]

http://optics.org/cws/article/research/34127

NVIDIA CUDA Technology Dramatically Advances The Pace Of ...

NVIDIA CUDA Technology Dramatically Advances The Pace Of Scientific Research

Distributed Computing Applications use NVIDIA GPUs for Biomedical Research, Space Exploration and Searching for Extra Terrestrial Intelligence

For further information, contact:

Brian Burke
NVIDIA Corporation
(512) 401-4385
bburke@nvidia.com

FOR IMMEDIATE RELEASE:

SANTA CLARA, CA—December 17, 2008— Once thought of as a technology used only for computer games, NVIDIA® GeForce® graphics processing units (GPUs) with CUDA™ technology are now being used for the serious business of scientific computation. Berkeley’s Open Infrastructure for Network Computing (BOINC), one of the leading distributed computing platforms in the world, is using CUDA technology to tap the massively parallel processing power of NVIDIA GPUs with astounding results that could change the pace of scientific discovery through projects like GPUGRID and Einstein@home. The latest breakthrough came with the release of an optimized client that will allow SETI@home to analyze SETI (Search for Extraterrestrial Intelligence) data in about one-tenth of the time it previously took using CPUsi.

“NVIDIA CUDA technology opens up processing power for scientific research that was previously unavailable and impossible for researchers to afford,” said Dr. David Anderson, Research Scientist U.C. Berkeley Space Sciences Laboratory and founder of BOINC. “CUDA technology makes it easy for scientists and researchers to optimize BOINC projects for NVIDIA GPUs and they are already using it for applications in molecular dynamics, protein structure prediction, climate and weather modeling, medical imaging, and many other areas.”

BOINC is a unique approach to supercomputing in which multiple consumer computers are joined together over the Internet and their combined computing power is used to tackle very large computational tasks. BOINC provides the distributed computing grid layer for a wide variety of scientific projects that work to help cure diseases, study global warming, discover pulsars, and do many other types of scientific research on home PCs.

[...]

http://www.nvidia.com/object/io_1229516081227.html
http://www.nvidia.com/page/press_room.html
http://www.nvidia.com/