domingo, 28 de agosto de 2011

"Enterrados" a 95 grados bajo cero

[...]

La práctica de la criogenia, nombre que se da a la congelación de los tejidos después de la muerte, está ganando centenares de adeptos en todo el mundo que están dispuestos a pagar hasta un total de 120.000 dólares por un nicho en un tanque de nitrógeno líquido.

Parte de este dinero se emplea en mantener el nivel de nitrógeno de los tanques, y otra parte está destinada a un fondo del que dispondrán los clientes una vez que vuelvan a la vida, si es que ésto llega a ser algún día posible.

En la actualidad, Alcor almacena 13 cuerpos en sus tanques, así como las cabezas de otras 23 personas que se acogieron a la oferta especial.

Parte del dinero que cuesta enterrarse a 95 grados bajo cero también se emplea para costear el complejo proceso de congelar los cuerpos.

En el momento en que un médico certifica la muerte del cliente, por lo general cuando se detienen el corazón y los pulmones, pero antes de que casi todas las células del organismo hayan muerto, los clientes de Alcor reciben una inyección de heparina, que impide la coagulación de la sangre.

A continuación, el equipo de expertos la empresa extrae la sangre del paciente inyectándole a presión una solución salina y después se enfría el cuerpo en un baño de hielo.

Poco después, se introduce un anticongelante a base de glicerol en las arterias para retardar la formación de cristales de hielo antes de sumergir el cuerpo, o la cabeza cuidadosamente seccionada, en los estanques de nitrógeno líquido.

Hug Hixon, bioquímico de la empresa Alcor dedicada a la criogenia, asegura que es perfectamente consciente de las dificultades que entraña revivir cadáveres que han sido congelados.

En primer lugar, porque también habrá que solucionar las causas que causaron la muerte. Otro problema es que a una temperatura inferior a los 95 grados centígrados bajo cero los órganos se resquebrajan.

"No es como un parabrisas que se hace añicos", explica Hug Hixon, "ya que se rompen en trozos de mayor tamaño.

Y si ésto no hace imposible la vuelta a la vida, el hecho de que la mayor parte de las células morirá a causa del frío viene a dar la puntilla", añade el bioquímico.

No obstante, para Hixon, someterse a la congelación después de morir es como "saltar sin paracaídas de un avión en llamas". Es la única oportunidad que existe para prolongar la vida. "Es como subir a un bote salvavidas. Y sin duda es mucho mejor que las demás alternativas".

http://www.elmundo.es/salud/297/04N0124.html

RANA que soporta CONGELACIÓN

Lithobates sylvaticus


Lithobates sylvaticus, la rana de bosque o rana de la madera, es un anfibio anuro de la familia Ranidae. Tiene un tamaño medio de 35 mm y puede alcanzar unos 7 cm de longitud; la hembra es más grande que el macho. Es de color marrón oscuro con matices verdosos y negros. Habita principalmente en Alaska y Canadá.

Descripción

La rana de bosque posee ciertos sistemas que le permiten sobrevivir en condiciones extremas (extremófilo) soportando muy bajas temperaturas; es una de las cuatro especies de ranas norteamericanas que son capaces de congelarse "en estado sólido" y sobrevivir.[cita requerida]

En primer lugar poseen una gran cantidad de nucleoproteínas (nucleótidos + proteínas) en su torrente sanguíneo; estos compuestos que potencian la formación de hielo, evitan sin embargo que éste se organice en forma de grandes cristales que dañarían a las células.

Por otro lado, la rana, cuya concentración de glucosa es similar a la nuestra sintetiza en el hígado grandes cantidades de ésta (que, a diferencia de nosotros, es capaz de tolerar) al inicio de la congelación. La glucosa se concentra en el interior de las células y hace las veces de anticongelante, evitando que se congelen los fluidos celulares. Sin embargo, la congelación del líquido exterior provoca que en el interior haya una mayor proporción de agua, provocando una salida de agua de las células que, si bien hace aumentar la proporción de glucosa en su interior (aumentando la acción anticongelante), podría provocar su muerte debido a la deshidratación, esto se evita al llegar a un equilibrio de concentraciones con el exterior, lo que interrumpe la salida de agua.

Con esto, los órganos y el cuerpo de la rana cuerpo pueden llegar a convertirse en un 65% de su agua completamente en hielo congelado y el resto de su agua estaría líquido gracias a su anticongelante natural. Cuando suben las temperaturas, se descongela primero el corazón, para que la circulación se reactive y evitar así daños en los demás órganos conforme se descongelan.[cita requerida]

[...]

http://es.wikipedia.org/wiki/Lithobates_sylvaticus

martes, 23 de agosto de 2011

"El cuerpo se conectará a Internet"

Paul Horn, ex director de IBM Research, creó el primer procesador de cobre o 'Deep Blue', el ordenador inteligente que batió a Kasparov al ajedrez en 1997

M. Á. M. - Madrid - 16/08/2011

Vota
Resultado 22 votos

A Paul Horn se le pierde la mirada al pensar en los avances tecnológicos de los 100 últimos años. Luego escoge un adjetivo para describirlos: inimaginables. Ni siquiera los mejores libros de ciencia-ficción, dice, fueron capaces de predecir lo que ha ocurrido. "Por un mismo dólar ahora compramos 1.000 millones de veces más poder de computación que hace un siglo. Prácticamente nada en la sociedad ha cambiado tanto".

A sus 64 años, Horn no solo ha vivido muchos de los grandes avances sino que además inventó alguno de ellos, como el primer procesador de cobre, el silicio rígido, que permitió fabricar chips un 35% más rápidos, o Deep Blue, el superordenador que batió a Kasparov al ajedrez en 1997. Lo hizo durante sus 11 años al frente de IBM Research, uno de los laboratorios de investigación más potentes del planeta, con 3.000 empleados y 6.000 millones de dólares de presupuesto anual. "Es difícil escoger un proyecto, pero estoy orgulloso de Blue Gene, el supercomputador con el que Estados Unidos recuperó en 2005 el liderazgo mundial", cuenta.

Pocas cosas podrían hacerse ya sin estos súper cerebros artificiales: investigación médica, proceso de datos financieros en segundos, diseño de productos... Speedo, por ejemplo, utilizó uno para analizar los movimientos de los nadadores en el agua y crear sus polémicos bañadores deslizantes.

Algo no ha cambiado: los procesadores siguen siendo cada vez más rápidos y pequeños. Horn cree que será así 10 años más. "Después es difícil adivinar qué pasará". Él inició el trabajo que desembocó en Watson, el superordenador que en febrero batió a dos personas en el concurso Jeopardy. Un buen ejemplo de cómo las máquinas se acercan a la inteligencia humana. "Lo próximo será que aprendan en tiempo real de la gente para parecerse cada vez más a nosotros", dice.

Nacido en Nueva York, de cuya universidad es responsable de investigación, Horn ha visto nacer la informática. En su laboratorio de IBM creó el primer procesador interconectado con filamentos de cobre. Se siguen usando, pero los haces de luz están reemplazando al cobre como método de transmisión electrónica. Curiosamente, es escéptico sobre los nuevos materiales, como el grafeno, que prometen jubilar el silicio. "Hoy podemos colocar 1.000 millones de transistores en un chip. Nadie sabe si lo conseguiremos con el grafeno".

De lo que no duda es de Internet, el avance de mayor impacto en nuestras vidas, dice. No le gusta hacer predicciones pero vaticina que el Internet de las cosas será fructífero en las próximas décadas. Y no solo porque cualquier objeto se conectará a la Red. También las personas. "En el futuro podremos implantarnos microchips y conectar el cuerpo a Internet. Las aplicaciones en salud y bioingeniería serán enormes. Y no importa el miedo a la privacidad. Ocurrirá", asegura.

En los últimos 100 años han cambiado demasiadas cosas. Otra: de la era del pecé y el modelo de distribución horizontal a la era donde imperan los móviles y el modelo vertical de Apple. "En la industria tecnológica una compañía fabricaba los procesadores, otra el software, otra los equipos... Luego vino Apple y decidió que lo haría todo. Nadie hubiera pensado que funcionaría".

Tampoco muchos hubieran dicho que el software libre fracasaría como lo ha hecho en la informática de consumo y empresarial. "Fue en parte por el éxito de Microsoft. Ahora tiene una segunda oportunidad con los móviles", dice en referencia a Android. Pese a ello, cree que Google aún no se ha ganado el respeto como empresa innovadora. "IBM, Apple o Microsoft tienen mucha historia. Google lo tiene que demostrar".

En plena era de la hiperconexión, quedan aún paradojas del progreso. Utilizamos mucho el teclado y el ratón. "Es cultural, nos hemos acostumbrado y es difícil cambiar". Los interfaces naturales, asegura Horn, los gestos, la voz y el tacto, irán ganando terreno para comunicarnos con las máquinas.

Predecir tendencias tecnológicas es fácil, dice. Lo complicado es saber cómo afectaran a la sociedad. Frente a la incertidumbre, una certeza: "Hemos evolucionado mucho gracias a la tecnología. Somos más altos, fuertes, inteligentes y vivimos más. En los próximos 100 años el ritmo será mayor".

http://www.elpais.com/articulo/Pantallas/cuerpo/conectara/Internet/elpepurtv/20110816elpepirtv_2/Tes

IBM crea un chip que funciona como el cerebro

La tecnología combina la informática con el proceso de comunicación de las neuronas.- Según sus desarrolladores hará operaciones con menos espacio y consumo energético

AGENCIAS - Madrid - 18/08/2011

Vota
Resultado 34 votos

IBM ha desarrollado un chip que imita el funcionamiento del cerebro humano. Esta tecnología, que combina la informática con el proceso de comunicación de las neuronas, podría ser útil para gestionar operaciones con menos espacio y consumo energético que la empleada por los ordenadores actuales.

La nueva generación de chips imitan las habilidades de percepción, acción y proceso cognitivo del cerebro, decidiendo de forma dinámica e independientemente cómo interactúa con los distintos sensores electrónicos.

Los primeros chips neurosinápticos de IBM recrean el fenómeno entre las neuronas y la sinapsis en sistemas biológicos, como el cerebro, "mediante avanzados logaritmos y circuitos de silicio", explica IBM. Los dos primeros prototipos ya se han fabricado y se encuentran actualmente en fase de pruebas.

Se espera que las computadoras cognitivas aprendan a través de experiencias, encontrando correlaciones e hipótesis, imitando la estructura sináptica del cerebro humano. Para ello, IBM explica que está combinando los principios de la nanociencia, la neurociencia y la supercomputación, como parte de una iniciativa desarrollada hace unos años.

El objetivo del proyecto es la creación de un sistema que no solo analice información compleja de múltiples modalidades sensoriales a la vez, sino que también se reprograme dinámicamente a medida que interactúa con su medio ambiente. Esto permitirá al mismo tiempo trabajar con un menor consumo de energía. El equipo de IBM explica que ya ha completado con éxito las fases 0 y 1.

"Las aplicaciones de la informática cada vez demandan funcionalidades que no son eficientes con la arquitectura tradicional", explica Dharmendra Modha, jefe del proyecto en el labratorio de IBM. "Estos chips suponen un paso importante en la evolución de los ordenadores, desde calculadoras hasta sistemas de aprendizaje, lo que indica el comienzo de una nueva generación de ordenadores y sus aplicaciones en los negocios, la ciencia y el Gobierno".

Los futuros chips serán capaces de ingerir la información de complejos entornos del mundo real a través de múltiples modalidades sensoriales, actuando de forma coordinada.

Por el momento el equipo cuenta con dos prototipos que funcionan con 256 neuronas cada uno, y mientras uno tiene 262.144 sinapsis programables, otro cuenta con 65.536 sinapsis de aprendizaje. Hasta ahora la compañía ha utilizado los chips para demostrar aplicaciones básicas como reconocimiento de patrones, navegación, visión artificial y memoria asociativa.

IBM ha adelantado servicios en los que esta nueva tecnología podría ser útil, como aplicaciones que supervisen el suministro de agua y realicen informes de seguimiento, e incluso sean capaces de prevenir tsunamis y terremotos.

http://www.elpais.com/articulo/tecnologia/IBM/crea/chip/funciona/cerebro/elpeputec/20110818elpeputec_5/Tes

Premio de inteligencia artificial en EE UU para un científico español

Ramón López de Mantaras recibe el galardón anual de la AAAI

EL PAÍS - Madrid - 16/08/2011

Vota
Resultado 16 votos

El científico Ramón López de Mántaras, investigador del CSIC en el Instituto de Investigación en Inteligencia Artificial (IIIA, Barcelona), ha recibido el Premio Robert S. Engelmore 2011 estadounidense, que concede la prestigiosa Asociación para el Avance de la Inteligencia Artificial (AAAI, en sus siglas en inglés). Es la primera vez que se concede este premio a un científico que investiga fuera de EE UU. López de Mántaras recibió el galardón, uno de los más importantes del mundo en esta disciplina, la semana pasada en San Francisco (EE UU) durante el congreso anual de la AAAI.

Entre los ocho anteriores premiados están Edward Feigenbaum (padre de los sistemas expertos), Jim Hendler (uno de los autores de la web semántica) y Bruce Buchanan (otro pionero en sistemas expertos). Ahora el científico español recibe la distinción por "sus contribuciones pioneras en varias áreas de la inteligencia artificial, especialmente el reconocimiento de patrones y el razonamiento basado en casos, con aplicaciones, por ejemplo, en diseño, diagnóstico y música [síntesis de música expresiva]". Además, la AAAI reconoce "su gran liderazgo internacional y sus servicios a la comunidad de la inteligencia artificial".

En el congreso de San Francisco, y en ocasión del galardón, López de Mántaras pronunció la conferencia Interpretando con casos: generación de música expresiva mediante razonamiento basado en casos.

"El razonamiento basado en casos es una técnica de inteligencia artificial con la que conseguimos que los ordenadores razonen por analogía, es decir, que resuelvan problemas reutilizando soluciones de problemas similares resueltos previamente", ha explicado López de Mántaras a EL PAÍS. La ventaja es que el ordenador no parte de cero cada vez; cada nuevo caso resuelto se guarda en la memoria del ordenador enriqueciendo su catálogo, es decir aprendiendo por experiencia. "Este aprendizaje de las máquinas por experiencia es un método muy potente que es muy utilizado por los seres humanos y, por consiguiente, está bien fundamentado cognitivamente, pero la gran dificultad está en conseguir que una máquina reconozca de forma completamente autónoma cuándo dos problemas son similares y es en este aspecto en el que hemos hecho contribuciones importantes", añade el científico.

En el IIIA, López de Mántaras (director del instituto, desde 2007), Enric plaza y Josep-Lluis Arcos, son líderes a nivel internacional en razonamiento basado en casos.

http://www.elpais.com/articulo/sociedad/Premio/inteligencia/artificial/EE/UU/cientifico/espanol/elpepusoc/20110816elpepusoc_10/Tes

Leslie Valiant, Premio Turing por su contribución a la ...

TECNOLOGÍA | 250.000 dólares

Leslie Valiant, Premio Turing por su contribución a la teoría de la computación

ELMUNDO.es | Madrid

Actualizado jueves 10/03/2011 13:51 horas

La Association for Computing Machinery (ACM) ha otorgado a Leslie G. Valiant el Premio Turing 2010.

Valiant, de la Universidad de Harvard, ha recibido este premio por sus "contribuciones transformadoras a la teoría de la computación". Entre estas contribuciones, la AMC destaca la teoría de aprendizaje PAC, la complejidad de la ennumeración y la computación algebraica y la teoría de la computación paralela y distribuida.

"Valiant hermanó el aprendizaje de las máquinas con la complejidad computacional, lo que llevó a avances en la inteligencia artificial, así como prácticas de computación como el procesamiento de lenguaje natural, el reconocimiento de caracteres y la visión por ordenador", explica la ACM en una nota de prensa.

"Durante los últimos 30 años, Leslie G. Valiant ha hecho contribuciones fundamentales a muchos aspectos de la computación científica teórica", explica la AMC. "Su trabajo ha abierto nuevas fronteras, introducido ingeniosos nuevos conceptos y presentado resultados de una gran originalidad, profundidad y belleza", continúa.

Su mayor contribución fue el artículo 'A theory of the learnable', que "puso los cimientos de la teoría del aprendizaje computacional". Con este artículo "introdujo un campo de trabajo general, así como modelos computacionales concretos para estudiar el proceso de aprendizaje, incluyendo el modelo PAC".

El año pasado, Charles P. Thacker, pionero del ordenador personal y la tableta, fue el ganador del Premio Turing, que, además, premia con 250.000 dólares a su receptor, gracias al apoyo financiero de Intel y Google.

http://www.elmundo.es/elmundo/2011/03/10/navegante/1299761471.html

Turritopsis nutricula, la medusa potencialmente inmortal

"Turritopsis nutricula

Turritopsis nutricula es una especie de hidrozoo hidroideo de la familia Oceanidae con un ciclo de vida en el que se revierte a pólipo después de llegar a su maduración sexual. Es el único caso conocido de un metazoo capaz de volver a un estado de inmadurez sexual, colonial, después de haber alcanzado la madurez sexual como etapa solitaria.[2] Es capaz de realizarlo a través de un proceso celular de transdiferenciación. Teóricamente, este ciclo puede repetirse indefinidamente, presentándose como biológicamente inmortal.

Es originaria de los mares del Caribe pero se ha extendido por todo el mundo.[3]"

http://es.wikipedia.org/wiki/Turritopsis_nutricula


CEREBRO BIOLÓGICO + CUERPO ROBÓTICO

DIVULGACIÓN | Eduardo Punset moderará las conferencias

Las claves de la tecno-humanidad, a debate en Madrid

* Un ciclo de conferencias analizará la fusión entre biología y tecnología
* Han sido organizadas por la Fundación Banco Santander

ELMUNDO.es | Madrid

Actualizado miércoles 02/03/2011 18:32 horas

La biología y la tecnología están cada vez más cerca y la velocidad de los avances tecnológicos condiciona el funcionamiento de la sociedad y sus costumbres. Estos son los temas que ponen sobre la mesa las cuatro sesiones de 'La tecno-humanidad', el Ciclo de Ciencia y Sociedad de la Fundación Banco Santander, que cumple 15 años y tendrá lugar en Madrid.

Eduardo Punset es el encargado de inaugurar el ciclo este miércoles con una conferencia llamada precisamente 'La tecno-humanidad'. Durante su charla, responderá en directo a las preguntas que le planteen preguntas a través de Twitter.

"En términos evolutivos, el éxito de la especie humana ha sido colosal, equiparable únicamente al de las cianobacterias que hace dos mil millones de años cambiaron la composición química de la atmósfera", opina Eduardo Punset. El presentador de 'Redes' también cree en el futuro la tecnología se fusionará con la biología modificando nuestra propia naturaleza y dando lugar a una diferencia cualitativa con el resto de los seres vivos.

Punset es el encargado de moderar el resto de sesiones del ciclo, como la de Kevin Warwick, quien se centrará en las claves de la robótica y el famoso proyecto 'Cyborg'. Otros temas clave que se tratarán durante este ciclo de conferencias serán la epigenética de la salud y la enfermedad, la energía de fusión y colisionador de partículas de la Organización Europea para la Investigación Nuclear (CERN).

Cerebros para robots

Kevin Warwick, uno de los mayores expertos del mundo en robótica e inteligencia artificial, dará una charla el próximo miércoles, donde explicará su proyecto estrella -'The Cyborg Experiment'- y analizará las distintas posibilidades de implantar electrodos en la creación de cerebros biológicos para robots y cómo éstos son capaces de potenciar y disminuir ciertas enfermedades neuronales.

Warwick y sus colegas argumentan que el proyecto 'Cyborg' permitirá diseñar nuevos dispositivos para resolver los problemas de pacientes con daños en el sistema nervioso, así como abrir el camino para hallazgos más ambiciosos, como una tecnología para la telepatía.

Propuestas de futuro

Por su parte, el 16 de marzo el biólogo español Manel Esteller hablará de la epigenética de la salud y la enfermedad, es decir, de todos aquellos efectos que no afectan a la secuencia del ADN y que no van incluidos en los códigos genéticos, como el caso del ambiente.

Además, el próximo día 23 el experto Steve Cowley planteará la fusión como energía limpia para el futuro, cuando los combustibles fósiles se agoten -lo que ocurrirá en apenas un siglo-. Cowley propone la energía de fusión, la energía de las estrellas, la misma que produce el Sol y que alimenta la vida que conocemos.

Finalmente, el 30 de marzo el físico del CERN Álvaro de Rújula, cerrará el ciclo sobre tecno-humanidad con una conferencia sobre el Gran Colisionador de partículas.

http://www.elmundo.es/elmundo/2011/03/02/ciencia/1299082371.html

Unos científicos crean el antiláser

Unos científicos crean el antiláser

En el experimento dos haces de luz interfieren de manera que se cancelan completamente y su energía se convierte en calor

ALICIA RIVERA - Madrid - 28/02/2011

Vota
Resultado 5 votos

Toda la actualidad científica en la sección de Ciencia de EL PAÍS

Unos científicos en EEUU han creado lo que ellos definen como el primer antiláser del mundo. "Es sorprendente que no se haya planteado ni estudiado seriamente hasta ahora la posibilidad del proceso de la emisión láser hacia atrás, invertido en el tiempo", dice Douglas Stone, físico de la Universidad de Yale. Él se lo planteó el verano pasado, como puro ejercicio teórico, demostrando que sería posible construir un antilaser y ahora unos colegas, liderados por Hui Cao, lo han hecho realidad con un dispositivo que absorbe casi perfectamente los haces de luz coherente y su energía se disipa en forma de calor. Los científicos creen que su descubrimiento, además del interés puramente físico, tiene interesantes aplicaciones potenciales, por ejemplo en futuros ordenadores ópticos y en radiología.

[...]

http://www.elpais.com/articulo/sociedad/cientificos/crean/antilaser/elpepusoccie/20110228elpepusoc_12/Tes

Visionarios de la ciencia

REPORTAJE

Visionarios de la ciencia

La UE financia los proyectos más punteros; 13 de ellos son españoles

MÓNICA SALOMONE - Madrid - 27/02/2011

Vota
Resultado 75 votos

¿Qué problemas querría ver resueltos la sociedad en las próximas décadas? La lista es quizá demasiado larga. Pero si incluyeran solo los problemas que podrían resolverse, un vistazo a los proyectos científicos seleccionados este año por el Consejo Europeo de Investigación (ERC por sus siglas en inglés) le ayudaría a hacerse una idea. Los llamados Avanced Grants del ERC son los proyectos con más financiación pública en Europa; el propio Consejo los define como "muy ambiciosos, pioneros, no convencionales" y orientados a obtener "una innovación radical, que trascienda el campo de una disciplina concreta".

Se evaluaron más de 2.000 solicitudes en todas las áreas de conocimiento antes de escoger las 266 que finalmente reciben financiación para los próximos cinco años. De ellas, 13 son españolas, lo que sitúa al país en séptima posición, por detrás de Reino Unido, Alemania, Francia, Suiza, Italia y Holanda. Son las mejores ideas que el menú de la ciencia actual ofrece en áreas muy diversas; aspiran desde a resolver la cuestión energética y preservar la biodiversidad, hasta a entender cómo afecta la contaminación al desarrollo del cerebro de los niños o a crear una Internet que refleje la riqueza cultural humana.

Pese a su variedad, todos estos proyectos se apoyan en la capacidad de controlar la materia -viva o inerte- a escala de lo muy pequeño; y en el hecho de que ahora es posible obtener, gestionar e interpretar cantidades enormes de datos sobre casi todo, ya sea los genes y sus funciones, el número de insectos que polinizan una planta, o las personas con que interaccionan al día en Internet.

- Propiedades a la carta. El proyecto de Ángel Rubio, de la Universidad del País Vasco combina esos tres elementos -lo nano, la avalancha de información disponible y los chips superpotentes-. Él persigue un viejo sueño de la humanidad: una máquina que proporcione la receta para construir materiales con propiedades a la carta: que conduzca la electricidad en ciertas condiciones, que cambie con la luz, que no se caliente... Un santo grial con las claves para hacer desde células fotovoltaicas más eficaces hasta microprocesadores más potentes y que no se calienten. ¿Ciencia ficción o cuestión de tiempo?

El grupo de Rubio trabaja en los pasos muy preliminares de algo así. Parten del conocimiento teórico de cómo reaccionan las moléculas a ciertos estímulos -la luz, por ejemplo-, y simulan en un ordenador el comportamiento de un material hecho de esas moléculas; luego predicen qué ocurriría al modificarlo. Así predijeron a mediados de los noventa que se podría fabricar nanotubos de nitruro de boro, estructuras que miden millonésimas de milímetro con múltiples aplicaciones en nanoelectrónica, dispositivos ópticos e incluso lubricantes.

"Podemos saber de antemano cómo se comportará un material prediciendo con una alta fiabilidad la respuesta de las moléculas a campos electromagnéticos externos [la luz visible, por ejemplo]", dice Rubio. Pero su trabajo es teórico; lo que financia con 1,9 millones de euros el ERC son los algoritmos matemáticos en que se basan las simulaciones. "Queremos desarrollar una teoría que permita diseñar nuevos materiales a escala nanométrica, materiales más eficaces, que consuman menos energía". Partirán de estructuras ya existentes, en concreto óxidos de titanio y de zinc, y los combinarán con moléculas biológicas implicadas en los procesos de generación de energía en los seres vivos (como la clorofila en la fotosíntesis). Las estudiarán y tratarán de mejorarlas. ¿Y si en 10 años las ciudades estuvieran tapizadas por paneles fotovoltaicos verde-clorofila?

- Matrix en la naturaleza. El proyecto de Jordi Bascompte, del Consejo Superior de Investigaciones Científicas (CSIC) en la Estación Biológica de Doñana, recuerda a la película Matrix. Solo que aquí es la naturaleza la que en última instancia debe ser traducida a ceros y unos; y los investigadores los que aspiran a lograrlo. Con un buen fin: simularla y predecir cómo le afectará una perturbación masiva como el cambio climático. El punto de partida de los científicos son las relaciones entre los seres vivos, y entre estos y el ambiente: un determinado ecosistema funciona porque hay insectos que se alimentan de plantas que a su vez dependen de esos insectos que las polinizan que a su vez son parasitados por otros insectos... Una complejísima red de interacciones que Bascompte quiere describir con algoritmos matemáticos.

El grupo ya ha usado ese abordaje para identificar las especies más importantes en cada ecosistema, los nodos en que concentrar los esfuerzos de conservación si se quiere proteger la red. El proyecto del ERC, financiado con 1,7 millones de euros, les permitirá estudiar cómo el colapso de la red afecta a su funcionamiento. ¿Cómo afectará el aumento de temperatura a la polinización, o al control biológico de las plagas, en una zona determinada?

También podrán, por primera vez, hacer experimentos. Montarán en Doñana sistemas cerrados con un número determinado de plantas e insectos, y medirán el servicio de polinización y de control biológico. "Manipularemos experimentalmente las dependencias entre especies y veremos cómo afecta la estructura de la red a su funcionamiento", explica Bascompte. Hasta ahora, los estudios de este tipo se habían centrado solo en especies aisladas.

Interpretando los datos -que alimentarán una de las escasísimas bases de datos existentes en el mundo con este tipo de información- el grupo de Bascompte tratará de extraer el esqueleto matrix de la naturaleza.

- Un problema del siglo XIX. El problema al que se enfrenta Javier Jiménez Sendín, de la Escuela Técnica Superior de Ingenieros Aeronáuticos de la Universidad Politécnica de Madrid, es un clásico: la turbulencia. Se trata de describir con ecuaciones el comportamiento de un fluido (aire, agua, un combustible...). El premio de lograrlo son, por ejemplo, motores más eficientes y que emiten menos contaminantes. Pero la turbulencia aparece en un sinfín de fenómenos: "Todos los flujos de la naturaleza [a escala macroscópica] son turbulentos", dice Sendín. Los físicos llevan tratando de entender la turbulencia desde mediados del siglo XIX y por fin ahora podrían tener las herramientas adecuadas: superordenadores. Las simulaciones con que trabaja el grupo de la UPM corren durante al menos un año en máquinas como el Marenostrum, en el Centro de Superordenador de Barcelona.

- Cinco siglos de bodas. El menos tecnológico, en apariencia, de los proyectos españoles financiados es el de Anna Cabré, de la Universidad Autònoma de Barcelona, llamado Cinco siglos de matrimonios. Pero solo apariencia. Sin tecnología -ordenadores- sería imposible analizar la información contenida en un registro continuo de los matrimonios celebrados en una diócesis catalana a lo largo de 450 años, una auténtica mina de oro para los investigadores. "No hay nada igual", dice Cabré. "En 1408 Benedicto XIII, el Papa Luna, visitó Barcelona y se encontró con que faltaba dinero para acabar de construir la catedral. Les otorgó entonces una tasa de matrimonios, con ocho categorías, desde los nobles hasta los pobres de solemnidad, que no pagaban nada. La tasa siguió aplicándose hasta bien entrado el siglo XIX". Entre 1451 y 1906, noventa parroquias enviaron los registros de sus matrimonios a la catedral de Barcelona, donde eran copiados por amanuenses. Estas copias sobrevivieron así a la quema de archivos de parroquias en Cataluña y "se han conservado milagrosamente", señala Cabré.

Así, ahora hay 244 gruesos libros con información sobre 700.000 uniones, que a menudo incluyen la procedencia de los contrayentes, oficio, edad... Los documentos son manuscritos y en gran parte en paleografía, así que hace falta expertos para descifrarla. El primer objetivo de Cabré es construir una base de datos que ponga la información a disposición de toda la comunidad científica. Ya esto presenta "un reto de enorme dificultad", explica la investigadora. Por eso colaborarán con el Centro de Visión por Computador, que desarrollará técnicas de análisis de textos para el vaciado de los libros.

Los demás proyectos españoles financiados por el ERC son de Jordi Sunyer, del Centro de Investigación en Epidemiología Ambiental (CREAL) y el Instituto Municipal de Investigación Médica; Jesús Santamaría, del Instituto de Nanociencia de Aragón; Luis Liz Marzán, de la Universidad de Vigo; Xavier Serra, Gosta Esping-Andersen, ambos de la Universidad Pompeu Fabra; Vivek Malhotra, del Centro de Regulación Genòmica; Manel Esteller, del Instituto de Investigación Biomédica de Bellvitge; Eugenio Oñate, del Centro Internacional de Métodos Numéricos en Ingeniería; y Andrés Rodríguez-Pose, Fundación IMDEA Ciencias Sociales.

http://www.elpais.com/articulo/sociedad/Visionarios/ciencia/elpepusoc/20110227elpepisoc_7/Tes

La máquina vence al cerebro

REPORTAJE: INTELIGENCIA ARTIFICIAL

La máquina vence al cerebro

El ordenador 'Watson' de IBM gana en un concurso a sus dos contrincantes - Los ingenieros subrayan que no ha sido modelado como la mente humana

D. ALANDETE / Y. MONGE - Washington - 18/02/2011

Vota
Resultado 9 votos

El ordenador Watson ha ganado a los dos concursantes de Jeopardy en la televisión estadounidenses. Durante tres días fue más rápido y certero que sus oponentes. Una velocidad de respuesta que le dio una enorme ventaja aunque cometiera algún error garrafal, como considerar Toronto una ciudad de EE UU. El ordenador de IBM ha ganado 77.147 dólares (57.000 euros) en el concurso. Pero en esta edición especial el primer puesto era recompensado con un millón de dólares (738.000 euros), que IBM destinará a beneficencia.

[...]

http://www.elpais.com/articulo/Pantallas/maquina/vence/cerebro/elpepurtv/20110218elpepirtv_3/Tes
http://www.elpais.com/

El hombre contra la máquina

El hombre contra la máquina

Un robot de IBM llamado 'Watson' compite con dos humanos en un programa de preguntas de una televisión estadounidense

YOLANDA MONGE - Washington - 15/02/2011
Vota
Resultado 8 votos

Por el momento, la máquina no ha podido con el hombre. En la noche del lunes, Watson compitió contra Ken Jennings y Brad Rutter, los dos mejores cerebros que han pasado por el legendario programa de preguntas de ABC Jeopardy. Watson, el robot de IBM, empató con el humano Rutter por 5.000 dólares. Jennings se quedó muy rezagado, con 2.000.

[...]

http://www.elpais.com/articulo/internacional/hombre/maquina/elpepuint/20110215elpepuint_17/Tes
http://www.elpais.com/

Un ordenador de IBM, favorito en un concurso de televisión

"Un ordenador de IBM, favorito en un concurso de televisión

En una prueba venció a dos contrincantes humanos en la respuesta de preguntas

EL PAÍS - Barcelona - 14/01/2011

Vota
Resultado 7 votos

IBM vuelve a repetir el desafío de enfrentar la máquina al hombre. Lo hizo en 1997 cuando Deep Blue derrotó al campeón de ajedrez Garry Kasparov. Ahora, IBM presentará su ordenador Watson a un concurso de preguntas de televisión. Esta semana la empresa ha realizado una prueba con concursantes reales, dos de los más notables vencedores en la historia del concurso, y Watson los batió. El concurso se celebrará a mediados de febrero. Watson es capaz de consultar una base de datos equivalente a 200 millones de páginas en tres segundos gracias a sus servidores equipados con Linux, 15 terabytes de memoria RAM, 2.880 procesadores que pueden realizar 80 billones de operaciones por segundo. Engadget ha publicado un vídeo de la prueba."

http://www.elpais.com/articulo/tecnologia/ordenador/IBM/favorito/concurso/television/elpeputec/20110114elpeputec_2/Tes
http://www.elpais.com/

Intel paga más de mil millones de euros por la tecnología de ...

"Intel paga más de mil millones de euros por la tecnología de Nvidia

El acuerdo demuestra la creciente implantación de los procesadores gráficos

REUTERS - San Francisco - 11/01/2011

Vota
Resultado 25 votos

Intel ha llegado a un acuerdo con el fabricante de chips Nvidia por el que pagará 1,5 mil millones de dólares (1,16 mil millones de euros) para usar su tecnología. Al conocerse el pacto, las acciones de Nvidia subieron un 4% por lo que supone de reconocimiento de su tecnología de procesamiento de gráficos por parte de Intel."

http://www.elpais.com/articulo/tecnologia/Intel/paga/mil/millones/euros/tecnologia/Nvidia/elpeputec/20110111elpeputec_1/Tes

Un intestino de encargo

"Un intestino de encargo

El primer órgano humano completo obtenido de células madre ya es un hecho - Supone un gran paso para investigar enfermedades intestinales y fabricar piezas para trasplante en laboratorio"

http://www.elpais.com/articulo/sociedad/intestino/encargo/elpepusoc/20101214elpepisoc_1/Tes

Los físicos crean un superfotón

Los físicos crean un superfotón

Un nuevo tipo de fuente de luz abre la vía al láser de rayos X, capaz de fabricar chips más potentes

A.R. - Madrid - 24/11/2010

Vota
Resultado 69 votos

Toda la actualidad científica en la sección de EL PAÍS

Unos físicos de la Universidad de Bonn han logrado hacer en su laboratorio algo que hace poco se consideraba imposible: un superfotón, una fuente de luz completamente nueva. Con este descubrimiento se abre potencialmente la vía a la fabricación de láseres ultravioleta y de rayos X, con una aplicación industrial interesante en la producción de chips más potentes que los actuales, con circuitos integrados mucho más complejos en el mismo soporte de silicio. Además, el logro en sí mismo de esta nueva forma de luz, basado en minuciosos experimentos, es interesante desde el punto de vista de la física fundamental. El superfotón es un nuevo estado de la materia, denominado condensado Bose-Einstein (BEC, en sus siglas inglesas), que hasta ahora se había logrado con diferentes átomos, pero nunca con las partículas de la luz, los fotones.

Un BEC es una concentración de átomos o partículas en un espacio tan compacto, a temperaturas ultrabajas, que éstos resultan indistinguibles, pierden su identidad, formando una especie de superátomo o superpartícula. Es un estado cuántico de alta densidad. La idea se remonta a Satyendra Nath Bose y Albert Einstein, en los años 1924-25, pero no se logró producir el primer condensado de este tipo hasta 1995. Seis años después recibieron el Premio Nobel de Física por ello Eric A. Cornell, Wolfgang Ketterle y Carl E. Wieman.

Sin embargo, aunque en principio sería posible, no se había logrado hasta ahora un BEC de fotones sencillamente porque las partículas de la luz, cuando se enfrían a la temperatura requerida, desaparecen. Hasta hace poco parecía imposible enfriar la luz y al mismo tiempo concentrarla, como haría falta para producir un superfotón de este tipo, explican los expertos de la Universidad de Bonn. Jan Klärs, Julian Schmitt y Frank Vewinger y Martin Weitz lo han logrado ahora y explican cómo en la revista Nature. Su truco hace que los fotones, que no tienen masa,se comporten como si fueran partículas con masa.

Este condensado Bose-Einstein fotónico tiene características similares a los láseres pero con una ventaja decisiva: "Hasta ahora no somos capaces de hacer láseres que generen luz de una longitud de onda muy pequeña, es decir, de luz ultravioleta o rayos X, mientras que con el condensado fotónico sería posible", explica Klärs. Aquí entra la potencial aplicación de diseñar nuevos chips, porque en la industria electrónica se usa el láser para grabar los circuitos en el soporte de material semiconductor, pero hacerlo con haces de luz de longitud de onda grande es como pintar con un rotulador de punta gruesa, mientras que un láser ultravioleta o rayos X sería como un rotulador de punta finísima. Así se podrían fabricar chips con más circuitos y mucho más complejos en la misma superficie de silicio, con lo que llegaría "una nueva generación de chips de alto rendimiento y, por tanto, ordenadores más potentes". Los investigadores alemanes apuntan también otras aplicaciones posibles de su superfotón, por ejemplo en la industria fotovoltaica.

En los experimentos, han montado dos espejos altamente reflectantes entre los cuales rebotan los haces de luz, con un pigmento disuelto en medio con cuyas moléculas chocan los fotones. "Durante el proceso, los fotones asumen la temperatura del fluido", apunta Weitz. Aumentan la cantidad de fotones entre los espejos excitando el pigmento con un láser y así logran concentrar las partículas de luz enfriadas harta el punto de que se condensan formando el Condensado Bose-Eintein fotónico o superfotón.

http://www.elpais.com/articulo/sociedad/fisicos/crean/superfoton/elpepusoc/20101124elpepusoc_7/Tes
http://www.elpais.com/

"La inmortalidad ha dejado de ser un sueño"

Ojeo la prensa escriba o no en los foros. No me cuesta nada copiar un par de enlaces de vez en cuando.

No me parece ninguna chorrada lo que escribo en estos foros. Ya se ha conseguido imitar el funcionamiento de neuronas mediante hardware y software. Conseguir la inmortalidad es cuestión de tiempo.


¿Quieres vivir 150 o 200 años?

Cuando tengas 60 años cambia tu corazón por un corazón artificial.

¿Quieres vivir para siempre?

El deterioro celular debido a la congelación seguramente se puede corregir mediante software.

"La fusión ha dejado de ser un sueño"

"ENTREVISTA: OSAMU MOTOJIMA - Director general del reactor internacional ITER

"La fusión ha dejado de ser un sueño""

http://www.elpais.com/articulo/futuro/fusion/ha/dejado/ser/sueno/elpepufut/20101110elpepifut_1/Tes
http://www.elpais.com/

Una prótesis electrónica tras la retina permite ver formas y ...

"Una prótesis electrónica tras la retina permite ver formas y objetos a tres ciegos

El primer ensayo clínico en Alemania de un implante con alimentación externa da resultados esperanzadores"

http://www.elpais.com/articulo/sociedad/protesis/electronica/retina/permite/ver/formas/objetos/ciegos/elpepusoccie/20101103elpepusoc_8/Tes
http://www.elpais.com/

"Obama encarga estudiar las

"Obama encarga estudiar las implicaciones bioéticas del hallazgo de Venter

Políticos, científicos y religiosos valoran la creación de la primera célula con cromosoma sintético

AGENCIAS - Madrid - 21/05/2010

Vota
Resultado 63 votos

El mundo de la ciencia, la política o la religión valora hoy el anuncio realizado ayer por Craig Venter, uno de los padres del genoma humano, cuyo equipo ha creado por primera vez una célula controlada por un genoma sintético. Es difícil predecir el alcance de esta nueva tecnología, pero, entre los proyectos de Venter, está diseñar un alga que fije el CO2 atmosférico y lo convierta en hidrocarburos, utilizando la energía de la luz solar. Otros proyectos buscan acelerar la producción de vacunas y mejorar la de ciertos ingredientes alimentarios, o diseñar microorganismos que limpien las aguas contaminadas. Mientras unos instan a analizar las implicaciones bioéticas del descubrimiento, otros ya alertan de sus riesgos -como la fabricación de armas químicas y bacteriológicas- o minimizan la importancia del hallazgo.

[...]"

http://www.elpais.com/articulo/sociedad/Obama/encarga/estudiar/implicaciones/bioeticas/hallazgo/Venter/elpepusoc/20100521elpepusoc_2/Tes

Proyecto Cajal Blue Brain

"Inauguración nueva sede CeDInt y CeSVima

[...]

Una de sus aplicaciones es el proyecto Cajal Blue Brain. La participación española, liderada por la Universidad Politécnica de Madrid (UPM) y el Consejo Superior de Investigaciones Científicas (CSIC), se integra en el proyecto internacional Blue Brain, primer intento exhaustivo de ingeniería inversa del cerebro de los mamíferos para conocer su funcionamiento y disfunciones. El proyecto ayudará a explorar soluciones a problemas de salud mental y enfermedades neurológicas intratables actualmente, como el Alzheimer, además de aportar nueva información sobre el funcionamiento del cerebro."

http://www.upm.es/institucional/UPM/CanalUPM/NoticiasPortada/Contenido/f451bf600a098210VgnVCM10000009c7648aRCRD
http://www.upm.es/

Artificial Simulator Of The Nervous System Created For ...

"Artificial Simulator Of The Nervous System Created For Research Into Diseases

ScienceDaily (May 18, 2009) — Researchers of the University of Granada have developed a simulator, so-called EDLUT (‘Event driven look up table based simulator’), which can reproduce any part of the body’s nervous system, such as the retina, the cerebellum, the hearing centres or the nervous centres.

[...]"

http://www.sciencedaily.com/releases/2009/05/090513091615.htm

Keep Up With Intel and Multicore, Go Parallel!

Keep Up With Intel and Multicore, Go Parallel!
February 3, 2009

Intel® Parallel Studio Intel® Parallel Studio, a suite of development tools for C/C++ developers using Microsoft® Visual Studio, is now available for beta download. Comprised of Intel Parallel Composer, Inspector and Amplifier, the full suite is the ultimate all-in-one parallelism toolkit that enables Windows developers to create, debug and optimize applications for multicore. To learn more and download Intel® Parallel Studio beta or the individual product betas, please visit the Intel Parallel Studio Website.

http://www.intel.com/pressroom/chipshots/chipshots.htm#020309a
http://www.intel.com/pressroom/index.htm?iid=gg_about+intel_pressroom
http://www.intel.com/

Nueva técnica para observar neuronas continuamente

Nueva técnica para observar neuronas continuamente

Los experimentos se han hecho en ratones en la Universidad de Stanford

EL PAÍS - Madrid - 19/01/2011

Vota
Resultado 5 votos

Toda la actualidad científica en la sección de EL PAÍS

Entrar en el cerebro vivo con un microscopio óptico normal es imposible, lo que impide visualizar el funcionamiento de las neuronas. Científicos de la Universidad de Stanford (EE UU) han puesto a punto ahora un nuevo método que no solo deja adentrarse en el cerebro para estudiar las neuronas sino que también permite observarlas siempre que se quiera durante meses.

Hasta ahora se había conseguido con microinstrumentos ópticos tomar instantáneas de células en el interior del cerebro, pero no seguir la evolución que conllevan el envejecimiento y las enfermedades.

La técnica de los científicos de Stanford se publica en la revista Nature Medicine, y en su artículo explican que muchas enfermedades se estudian sobre modelos animales, que son animales modificados para desarrollar patologías similares a las humanas. "Los investigadores podrán ahora estudiar los modelos de ratón en estas áreas profundas de una forma hasta ahora imposible", explica Mark Schnitzer, que dirigió los experimentos.

Primero se insertan en la región deseada, con anestesia, finos y pequeños tubos, del tamaño de un grano de arroz. Cuando se quieren visualizar las células, se inserta un microendoscopio en un tubo, que termina en cristal transparente. Los tubos permiten volver una y otra vez a la misma zona del cerebro y observar las neuronas con un detalle que ninguna otra técnica permite. El microendoscopio funciona con luz láser.

Debido a que la microscopía óptica sólo puede penetrar la capa más superficial de los tejidos, toda región cerebral a más profundidad de 700 micras resulta inalcanzable con técnicas tradicionales. Con el nuevo método se pueden tomar imágenes durante mucho tiempo sin causar daño, explica Juergen Jung, director de operaciones en el laboratorio de Schnitzer.

La nueva técnica se probó en un modelo de glioma, un tipo de cáncer cerebral muy agresivo. La gravedad de los gliomas depende de su localización. "Los tumores más agresivos son los que nacen en profundidad, no los superficiales", señala Lawrence Recht, catedrático de neurología. Poder vigilar su desarrollo puede ayudar a conocer la causa de que su situación influya en su velocidad de crecimiento.

http://www.elpais.com/articulo/sociedad/Nueva/tecnica/observar/neuronas/continuamente/elpepusoccie/20110119elpepusoc_9/Tes
http://www.elpais.com/

Nuevas técnicas para desvelar cómo funciona el cerebro

Nuevas técnicas para desvelar cómo funciona el cerebro

La reconstrucción del órgano está todavía lejana, 100 años después de Cajal

MALEN RUIZ DE ELVIRA - Madrid - 08/12/2010

Vota
Resultado 55 votos

Aunque mucho se ha avanzado desde que Cajal elaborara hace más de un siglo su hipótesis sobre cómo se conectan las neuronas, uno de los principales retos de la neurociencia sigue siendo conocer el diseño estructural de los microcircuitos cerebrales y cómo estos circuitos contribuyen al funcionamiento del cerebro. La tarea es tan grande y compleja que puede llevar al pesimismo. Sin embargo, el especialista español Javier de Felipe se muestra optimista en el ensayo que ha publicado en Science sobre qué se puede hacer en el estudio del cerebro humano y su optimismo se basa en las nuevas herramientas disponibles, incluidos los análisis estructurales y computacionales.

El objetivo es relacionar el conocimiento a tres escalas diferentes: con el conectoma, que representa las conexiones macroscópicas e intermedias del cerebro, y el sinaptoma, las conexiones microscópicas entre sinapsis (las zonas por las que se comunican las neuronas). Los diagramas de circuito del sistema nervioso son imposibles de completar sinapsis a sinapsis, reconoce De Felipe, pero los avances en la capacidad para relacionar los datos macroscópicos y microscópicos pueden llevar a establecer un modelo estadístico realista para describir la conectividad en el nivel del sinaptoma, en vez de intentar la reconstrucción completa del cerebro, algo que todavía está muy lejano.

La resonancia magnética nuclear, para estudios incluso en vivo, la microscopía óptica y la microscopía electrónica son, respectivamente, las herramientas de base para estudiar el cerebro en cada nivel de detalle, pero se están añadiendo continuamente otras. Entre ellas están los ratones arco iris, genéticamente modificados para expresar proteínas fluorescentes en conjuntos de células nerviosas, Además, se automatiza la reconstrucción en tres dimensiones de volúmenes grandes a partir de secciones ultrafinas cerebrales, con técnicas que se conocen por sus siglas (FIB-SEM), y que se acompañan de otras para marcar las neuronas individuales. En el estudio específico de tejidos humanos, procedentes de biopsias y autopsias, los avances técnicos son también muy importantes.

Las dificultades son tantas, a pesar de todo, que se han hecho necesarios grandes proyectos de investigación, como el Proyecto Conectoma Humano y el Blue Brain, en el que participa desde 2009 el Laboratorio de Circuitos Corticales (Universidad Politécnica de Madrid-CSIC) que dirige De Felipe. El objetivo final, según este experto, sería un modelo del cerebro, especialmente de la corteza, donde residen las funciones típicamente humanas y que representa el 85% del volumen total.

"¿Qué misteriosas fuerzas presiden la aparición de las expansiones, promueven su crecimiento y ramificación, provocan la emigración congruente de células y fibras, según direcciones prefijadas y como obedeciendo a sabio plan arquitectónico, y establecen, en fin, esos ósculos protoplásmicos, las articulaciones intercelulares, que parecen constituir el éxtasis final de una épica historia de amor?" Así se expresaba Cajal en Recuerdos de mi vida, publicado en 1917 y a esta historia de amor se refiere De Felipe, para el cual un final adecuado sería la construcción de una corteza en silicio -una corteza cerebral artificial en un ordenador- que considera ya posible.

Una pregunta sugerente es si llegaría a pensar esta corteza cerebral. De Felipe recuerda: "Para un materialista, los procesos mentales tendrían simplemente una explicación física y el problema cuerpo-mente lo enunciaría preguntándose: ¿Cómo lo físico puede engendrar un proceso mental o cómo lo mental puede ser explicado por un fenómeno físico? Para un dualista no existiría tal problema, porque la materia y el espíritu serían dos entidades absolutamente independientes, o, utilizando términos más modernos, los procesos mentales se manifestarían a través del cerebro, pero éste no sería la causa", y añade: "Quizá, una de las principales contribuciones de la neurociencia actual ha sido abordar el tema de los procesos mentales desde un punto de vista biológico, pero es llamativo el poco arraigo popular e influencia en la sociedad del conocimiento neurocientífico: debido a la poca cavilación sobre la relación entre el cerebro y nuestra humanidad es frecuente encontrarnos con la dificultad de aceptar la naturaleza neural de los procesos mentales, incluso dentro de la comunidad científica".

A eso se refiere el comentario que sobre el artículo en Science le ha mandado su colega Matthew Kirkcaldie, de la Universidad de Tasmania: "Me encantaría ver una corteza de silicio, pero tengo una creencia profunda e irracional en que hay algo en las neuronas que no podemos capturar con la morfología y la electrofisiología".

http://www.elpais.com/articulo/futuro/Nuevas/tecnicas/desvelar/funciona/cerebro/elpepufut/20101208elpepifut_2/Tes
http://www.elpais.com/

Del conectoma al sinaptoma: una historia de amor épica

Del conectoma al sinaptoma: una historia de amor épica

Javier de Felipe, director del área de Neurobiología del Proyecto Cajal Blue Brain (UPM-CSIC), publica en la revista Science el artículo “Del conectoma al sinaptoma: una historia de amor épica”.

26.11.10

En el artículo, el investigador aborda uno de los principales retos en la neurociencia: conocer el diseño estructural de los microcircuitos cerebrales y cómo estos circuitos contribuyen a la organización funcional del cerebro.

J. DeFelipe. Cajal Blue BrainEl término “conectoma” se propuso en su origen para hacer referencia a la matriz de conexiones altamente organizada del cerebro humano. Posteriormente, este término se adoptó para describir los mapas de circuitos neuronales en general. En este artículo, el término “conectoma” se propone para referirse al mapa de conexiones a nivel macroscópico e intermedio o con microscopía óptica y se introduce el término de “sinaptoma” para referirse al conjunto de interconexiones que establecen las neuronas a nivel sináptico o ultraestructural.

Para muchos científicos la obtención del sinaptoma supone una tarea tan difícil que parece poco probable que se pueda lograr en un futuro cercano, incluso, para los más pesimistas, tal vez resulte imposible. Sin embargo, el autor del artículo es optimista y propone que gracias a las nuevas herramientas de análisis estructurales y computacionales y mediante una estrategia adecuada es posible establecer un modelo estadístico real con el que se podría describir el diseño de los circuitos cerebrales a nivel ultraestructural, el “sinaptoma”. Consiguiendo, de esta manera, lograr ese gran reto de la neurociencia, ya que solamente combinando estudios a los tres niveles, macroscópico, intermedio y ultraestructural, se puede alcanzar el total conocimiento del plan estructural del cerebro en conjunto.

Referencia completa: Science 26 November 2010: 1198-1201.
DOI:10.1126/science.1193378

Biografía

Cajal Blue BrainEl profesor J. de Felipe, Licenciado en Biología por la Universidad Complutense de Madrid (1975) y Doctor en Biología por la misma universidad (1979), tiene una dilatada experiencia en el análisis de la organización intrínseca (microanatómica y neuroquímica) de la corteza cerebral, mediante la utilización de una variedad de técnicas, entre las que se incluyen técnicas inmunocitoquímicas para microscopía óptica y electrónica. Estos estudios comenzaron en el Instituto Cajal en el año 1980 con el análisis de la corteza cerebral de animales de experimentación. Desde 1991, en el laboratorio de De Felipe también se realiza el estudio neuroquímico y microanatómico de la corteza cerebral humana normal y de focos epilépticos corticales, para aportar datos sobre la organización normal de la corteza y estudiar las posibles alteraciones neuropatológicas. A partir de 2006 comenzó a centrarse en el estudio de la enfermedad de Alzheimer, y se continúan los estudios sobre la microestructura de la corteza cerebral normal. En 2009 se inicia una nueva etapa con la participación en el proyecto Blue Brain cuyo origen se remonta al año 2005, cuando L’École Polytechnique Fédérale de Lausanne (Suiza) y la compañía IBM anunciaron conjuntamente el ambicioso proyecto de crear un modelo funcional del cerebro utilizando el superordenador Blue Gene, de IBM. A finales de 2006, el proyecto Blue Brain había creado un modelo de la unidad funcional básica del cerebro, la columna neocortical. Sin embargo, las metas marcadas por el proyecto imponían su conversión en una iniciativa internacional. En este contexto surge en España el proyecto Cajal Blue Brain, cuyos objetivos se encuadran en dos ejes principales: La microorganización anatómica y funcional de la columna neocorticaly el desarrollo de tecnología biomédica (fundamentalmente informáticas). La contribución del laboratorio de DeFelipe consiste en participar en los estudios microanatómicos y funcionales de la columna neocortical y coordinar las tareas de investigación realizadas en otros laboratorios nacionales e internacionales. Esta coordinación es fundamental para establecer una base de datos homogeneizada que permite estandarizar y aprovechar al máximo los datos generados por cada grupo de investigación.

Más información: http://cajalbbp.cesvima.upm.es

Laboratorio de Circuitos Corticales, UPM-CSIC (Centro de Tecnología Biomédica, Campus de Montegancedo, UPM)

El Laboratorio de Circuitos Corticales (LCC), creado en 2008, está ubicado en el Centro de Tecnología Biomédica del Campus de Montegancedo de la UPM, está liderado el Prof. Javier de Felipe, Profesor de Investigación del Instituto Cajal del CSIC. El LCC es un laboratorio conjunto entre la UPM y el Instituto Cajal del CSIC que se creó como una Unidad Experimental de Neurociencia de la UPM compuesta por investigadores del campo de la Neurociencia procedentes del IC (CSIC) y por científicos del área de Ciencias de la Computación de la UPM. El IC (CSIC) es un centro con más de 100 años de historia en los cuales ha aportado numerosas contribuciones al estudio y comprensión de la estructura y función del sistema nervioso. El LCC fue creado con el espíritu de llevar a cabo estudios experimentales, con un importante componente tecnológico, del cerebro. La principal línea de investigación que se desarrolla en el LCC se centra en el análisis de la microorganización de la Corteza Cerebral Normal y Alteraciones de los Circuitos, mediante la utilización de múltiples técnicas novedosas entre las que cabe destacar las inyecciones intracelulares, técnicas inmunocitoquímicas e histoquímicas para microscopia electrónica y óptica, y métodos de reconstrucción 3D. El LCC es un laboratorio de relevancia internacional tal y como se refleja en sus múltiples colaboraciones con universidades y centros de investigación de líderes en el campo de la Neurobiología, como la Universidad de Columbia (USA), la Universidad de Heidelberg (Alemania), la Universidad de Cambridge (Reino Unido), entre otras.

http://www.upm.es/institucional/UPM/CanalUPM/NoticiasPortada/Contenido/620e90664868c210VgnVCM10000009c7648aRCRD
http://www.upm.es/

Video sobre proteínas

Protein Denaturation

http://www.onnetworks.com/videos/food-science/protein-denaturation

Video sobre el cerebro

Understanding: Brain MRI

http://videos.howstuffworks.com/tlc/29321-understanding-brain-mri-video.htm

Video en HowStuffWorks.

Video con gato

The Nervous System: Pain Receptors

http://videos.howstuffworks.com/hsw/23886-the-nervous-system-pain-receptors-video.htm

Video en HowStuffWorks.

ADVERTENCIA: Su muestra un experimento con un animal que puede herir la sensibilidad de algunas personas.

IR CORTANDO SISTEMA NERVIOSO DEL CADÁVER EN CAPAS FINAS

Aunque diferencias en el movimiento de un único electrón podrían en algunos casos cambiar apreciablemente y a corto plazo un pensamiento por otro, no necesitamos saber donde están los electrones ni como van a moverse para tener una copia artificial del sistema nervioso indistinguible del sistema nervioso original.

La idea para extraer la información es ir seccionando el sistema nervioso original en capas muy finas, y mediante métodos ópticos estimar el valor de las propiedades que permitan caracterizar suficientemente el comportamiento eléctrico de la membrana y de las sinapsis.

Yo creo que estas propiedades se pueden estimar estudiando como se refleja y transmite radiación electromagnética de diferentes frecuencias, con diferentes ángulos, usando métodos matemáticos relacionados con los de tomografía. Para recuperar la información perdida en los cortes, se puede estudiar el sistema nervioso completo al principio, y el sistema nervioso restante y cada capa por separado cada vez que hacemos un corte para obtener una capa. Con toda la información se puede obtener una imagen completa del sistema nerviosos usando la reconstrucción de la última capa para calcular la capa anterior, y así sucesivamente hasta poder calcular la primera capa.

Se trata principalmente de averiguar concentraciones de tipos de átomos en función de la posición. No se trata de detectar átomos individuales, ni moléculas individuales, ni neurotransmisores ni proteínas individuales. La corriente de cargas en promedio de los potenciales de acción no se ve afectada por la orientación de las moléculas.

Usando las localizaciones de la membrana y otras estructuras, las concentraciones de tipos de átomos en cada punto se pueden atribuir a concentraciones de neurotransmisores y otras proteínas que afectan a la transmisión de los potenciales de acción. A partir de esta información se puede calcular la concentración de iones en cada punto a lo largo del tiempo, y así calcular como se propagan los potenciales de acción, que a su vez modifican las concentraciones de los diferentes tipos de átomos -- memoria.

Creo que hay mucha información que se puede "inventar", lo cual seguramente provocaría que la copia del sistema nervioso una vez puesta en ejecución se sienta algo diferente. Por ejemplo como si se hubiera tomado un par de cafés o un par de cervezas, o con un leve malestar o euforia. Eso no importa en principio.

Tampoco creo que importe que se destruya el tejido al hacer las mediciones.

Aunque el tejido esté alterado por el efecto de la muerte, congelación o el método de conservación utilizado, no importa si se puede reconstruir por software una realización del tejido original.

Cryo-electron tomography

3-D Ultrastructure of O. tauri: Electron Cryotomography of an Entire Eukaryotic Cell

Henderson, Gregory P. and Gan, Lu and Jensen, Grant J. (2007) 3-D Ultrastructure of O. tauri: Electron Cryotomography of an Entire Eukaryotic Cell. PLoS ONE, 2 (8). e749. ISSN 1932-6203 http://resolver.caltech.edu/CaltechAUTHORS:HENplosone07

PDF
Available under License --See Usage Policy.
848Kb

Use this Persistent URL to link to this item: http://resolver.caltech.edu/CaltechAUTHORS:HENplosone07

Abstract

The hallmark of eukaryotic cells is their segregation of key biological functions into discrete, membrane-bound organelles. Creating accurate models of their ultrastructural complexity has been difficult in part because of the limited resolution of light microscopy and the artifact-prone nature of conventional electron microscopy. Here we explored the potential of the emerging technology electron cryotomography to produce three-dimensional images of an entire eukaryotic cell in a near-native state. Ostreococcus tauri was chosen as the specimen because as a unicellular picoplankton with just one copy of each organelle, it is the smallest known eukaryote and was therefore likely to yield the highest resolution images. Whole cells were imaged at various stages of the cell cycle, yielding 3-D reconstructions of complete chloroplasts, mitochondria, endoplasmic reticula, Golgi bodies, peroxisomes, microtubules, and putative ribosome distributions in-situ. Surprisingly, the nucleus was seen to open long before mitosis, and while one microtubule (or two in some predivisional cells) was consistently present, no mitotic spindle was ever observed, prompting speculation that a single microtubule might be sufficient to segregate multiple chromosomes.

[...]

http://resolver.caltech.edu/CaltechAUTHORS:HENplosone07
http://authors.library.caltech.edu/
http://library.caltech.edu/
http://www.caltech.edu/

Optical coherence tomography

May 16, 2008

New growth for optical coherence tomography

Optical coherence tomography is an emerging medical imaging technology with an ever growing list of applications. Marie Freebody speaks to James Fujimoto to find out more.

James Fujimoto is a professor at the Massachusetts Institute of Technology in the US and is one of the key players responsible for the invention and development of optical coherence tomography (OCT) in the early 1990s. Fujimoto also has an active commercial side and has co-founded two companies, one of which was acquired by Zeiss and led to the first OCT instrument for clinical ophthalmology. The second company is currently developing intravascular and endoscopic OCT.

Can you explain how OCT works?
OCT enables micron-scale, cross-sectional and three-dimensional (3D) imaging of biological tissues in situ and in real time. The technique measures the echo time delay and intensity of backscattered light using interferometry with broadband light sources or with frequency swept lasers. The approach is analogous to ultrasound, except that imaging is performed by measuring light rather than sound. The imaging depths are typically around 2 mm, which is shallow compared with ultrasound. However, OCT can provide much higher image resolutions of a few microns.

[...]

http://optics.org/cws/article/research/34127

NVIDIA CUDA Technology Dramatically Advances The Pace Of ...

NVIDIA CUDA Technology Dramatically Advances The Pace Of Scientific Research

Distributed Computing Applications use NVIDIA GPUs for Biomedical Research, Space Exploration and Searching for Extra Terrestrial Intelligence

For further information, contact:

Brian Burke
NVIDIA Corporation
(512) 401-4385
bburke@nvidia.com

FOR IMMEDIATE RELEASE:

SANTA CLARA, CA—December 17, 2008— Once thought of as a technology used only for computer games, NVIDIA® GeForce® graphics processing units (GPUs) with CUDA™ technology are now being used for the serious business of scientific computation. Berkeley’s Open Infrastructure for Network Computing (BOINC), one of the leading distributed computing platforms in the world, is using CUDA technology to tap the massively parallel processing power of NVIDIA GPUs with astounding results that could change the pace of scientific discovery through projects like GPUGRID and Einstein@home. The latest breakthrough came with the release of an optimized client that will allow SETI@home to analyze SETI (Search for Extraterrestrial Intelligence) data in about one-tenth of the time it previously took using CPUsi.

“NVIDIA CUDA technology opens up processing power for scientific research that was previously unavailable and impossible for researchers to afford,” said Dr. David Anderson, Research Scientist U.C. Berkeley Space Sciences Laboratory and founder of BOINC. “CUDA technology makes it easy for scientists and researchers to optimize BOINC projects for NVIDIA GPUs and they are already using it for applications in molecular dynamics, protein structure prediction, climate and weather modeling, medical imaging, and many other areas.”

BOINC is a unique approach to supercomputing in which multiple consumer computers are joined together over the Internet and their combined computing power is used to tackle very large computational tasks. BOINC provides the distributed computing grid layer for a wide variety of scientific projects that work to help cure diseases, study global warming, discover pulsars, and do many other types of scientific research on home PCs.

[...]

http://www.nvidia.com/object/io_1229516081227.html
http://www.nvidia.com/page/press_room.html
http://www.nvidia.com/

Agrandar sistema nervioso


The Nervous System: Action Potentials

The Nervous System: Action Potentials

http://videos.howstuffworks.com/hsw/23884-the-nervous-system-action-potentials-video.htm

Video en HowStuffWorks.

ADVERTENCIA: Su muestra un experimento con un animal que puede herir la sensibilidad de algunas personas.

¿10 m/s?

"Las velocidades de conducción del potencial de acción varían, si bien 10 m/s es una velocidad típica. Debemos recordar que desde el inicio hasta el final la duración del potencial de acción es de unos 2 ms. A partir de este dato, podemos calcular la longitud de la membrana que está implicada en el potencial de acción en cualquier momento:

10 m/s x 2 x 10^-3 s = 2 x 10^-2 m.

Así pues, un potencial de acción que se desplaza a 10 m/s abarca 2 cm del axón."


Transcripción de fragmento del libro "NEUROCIENCIA. La exploración del cerebro", 3ª edición, de Mark F. Bear, Barry Connors y Michael Paradiso. Capítulo 4, página 94.

No queremos máquinas de tirar paquetes

Todos los cálculos se repiten periódicamente en todos los cubos.

Tiene que haber sincronismo entre procesos que mueven potenciales de acción. Cada cubo tras terminar los cálculos espera hasta el comienzo de la siguiente ranura de tiempo para volver a repetir los cálculos.

Cada bola puede acceder a parámetros de las bolas en su radio de acción para actualizar sus propios parámetros, entre los que se incluye la perturbación eléctrica.

Las bolas en el radio de acción de cada bola pueden estar en cubos diferentes, dando lugar a datos que se envían entre procesos.

CONCENTRAR TODA LA INFORMACIÓN ÚTIL EN UNA RED DE BOLAS

Para acelerar los cálculos es conveniente que el modelo esté basado en un mismo elemento repetido, por ejemplo bolas o puntos tapizando la membrana. Esto facilitaría la creación de hardware para mejorar la velocidad, lo cual es muy importante. El mismo modelo fundamental puede tener otros usos, por ejemplo calcular explosiones, el movimiento de fluidos, etc.

Toda la información útil para calcular el movimiento de las perturbaciones eléctricas de la membrana se puede concentrar en una lista de parámetros para cada bola tapizando la membrana. Esto requiere mucho trabajo de computación --integración espacial-- pero se haría antes de poner en funcionamiento la "copia" del sistema nervioso original.

Los parámetros de cada bola podrían incluir datos referidos a la geometría y al pasado, además de datos referidos a las concentraciones de sustancias en el interior, en la membrana y en el exterior de la neurona, principalmente en las inmediaciones de la bola.

REDES NEURONALES ARTIFICIALES

REDES NEURONALES ARTIFICIALES

Algoritmo de aprendizaje supervisado BACK PROPAGATION

Función de activación tipo sigmoide

// CÁLCULO DE LAS SALIDAS y[k][j] DE LAS NEURONAS DE LA RED EN FUNCIÓN DE LAS ENTRADAS y[0][j] A LA RED

// N - número de capas de neuronas de la red
// L[k] - número de neuronas de la capa k
// a[k][j] - suma ponderada por pesos de las entradas de la neurona j de la capa k
// w[k][i][j] - peso entre la neurona i de la capa (k-1) y la neurona j de la capa k
// y[k][j] - salida de la neurona j de la capa k

for(k = 1; k <= N; k++) { // recorre capas
for(j = 1; j <= L[k]; j++) { // recorre neuronas de la capa
a[k][j] = 0;
for(i = 1; i <= L[k-1]; i++) { // recorre entradas de la neurona
a[k][j] = a[k][j] + w[k][i][j]*y[k-1][i];
}
y[k][j] = 1.0/(1.0+exp(-a[k][j]));
}
}

// SOLO DURANTE ENTRENAMIENTO: CÁLCULO DE DELTA PARA CADA NEURONA DESDE LA CAPA DE SALIDA (k=N) HASTA LA CAPA k=1 EN FUNCIÓN DE LAS SALIDAS DESEADAS

// delta[k][j] - delta de la neurona j de la capa k
// d[j] - salida deseada (a aprender) para la neurona j de la capa de salida (k=N)

// Para la última capa
for(j = 1; j <= L[N]; j++) { // recorre neuronas de la última capa (k=N)
delta[N][j] = 2*(y[N][j]-d[j]);
}

// Para el resto de capas, desde k=(N-1) hasta k=1
for(k = N-1; k >= 1; k--) { // recorre capas
for(j = 1; j <= L[k]; j++) { // recorre neuronas de la capa
delta[k][j] = 0;
for(i = 1; i <= L[k+1]; i++) { // recorre neuronas de la capa siguiente
delta[k][j] = delta[k][j] + delta[k+1][i]*y[k+1][i]*(1-y[k+1][i])*w[k+1][j][i];
}
}
}

// SOLO DURANTE ENTRENAMIENTO: ACTUALIZACIÓN DE PESOS

for(k = 1; k <= N; k++) { // recorre capas
for(j = 1; j <= L[k]; j++) { // recorre neuronas de la capa
for(i = 1; i <= L[k-1]; i++) { // recorre pesos de la neurona
w[k][i][j] = w[k][i][j]-eta*delta[k][j]*y[k][j]*(1-y[k][j])*y[k-1][i];
}
}
}

En fichero pdf

Basado en
http://insn.die.upm.es/docs/capitulo22-RedesNeuronales.pdf

Si tratamos de buscar semejanzas con el sistema nervioso, cada peso en el sistema nervioso sería algo parecido a las características de la sinapsis y las neuritas presináptica y postsináptica.

La repetición para maximizar la "satisfacción" es lo que provoca el aprendizaje en el sistema nervioso. El mayor o menor tránsito de potenciales de acción cambia las propiedades eléctricas de las sinapsis y las neuronas.

La "satisfacción" sería la medida del error, pero el ajuste de pesos en el sistema nervioso viene dado por el mayor o menor tránsito de potenciales de acción.

¿Es eso?

Obviamente el algoritmo de las neuronas artificiales no nos sirve. Buscamos la equivalencia para poder "resucitar" muertos.

NOTA: He actualizado el algoritmo para que esté en formato C/C++.

Concentraciones de sustancias

Menos de 16 millones de sustancias diferentes.

Se pueden agrupar por tramos de neurita y en valores por defecto.

+ Concentraciones de sustancias de los canales: sodio, cloro, potasio, calcio, ...

+ Concentraciones de sustancias de los neurotransmisores: ácido gamma-aminobutírico, glutamato, glicina, acetilcolina, dopamina, adrenalina, histamina, noradrenalina, serotonina, colecistocinina, dinorfina, encefalinas, N-acetilaspartilglutamato, neuropéptido Y, somatostatina, sustancia P, ...

+ Concentraciones de sustancias de los receptores de los neurotransmisores.

+ Concentraciones de sustancias de las hormonas.

Solo estamos interesados en aquellas sustancias que afectan a la transmisión de los potenciales de acción.

Si una neurona estimula la secreción de una sustancia que afecta a la transmisión de potenciales de acción distribuyéndose a través del sistema cardiovascular, en el sistema nervioso artificial genera datos que afectan a todos los procesos que mueven potenciales de acción. Estos datos deben permitir calcular el efecto provocado por la sustancia en cada neurona.

Memoria a corto plazo y a largo plazo

Hay neurotransmisores que mejoran la transmisión de las perturbaciones eléctricas, y otros que la dificultan.

La llegada de potenciales de acción a las sinapsis provoca la liberación de neurotransmisores que afectan temporalmente a la transmisión de las perturbaciones eléctricas a través de las sinapsis, provocando memoria a corto plazo.

Cuando se activa muchas veces una sinapsis, transcurrido cierto tiempo aumenta la cantidad de vesículas (y gránulos) con neurotransmisores en la terminal axónica, que a su vez aumenta de tamaño, provocando memoria a largo plazo.

Cuando no se activa una sinapsis durante mucho tiempo, desaparecen vesículas o no se reponen y disminuye el tamaño de la terminal axónica.

También hay crecimiento desordenado que crea nuevas sinapsis.

¿Es eso?

La relación entre las cantidades de los diferentes tipos de neurotransmisores en cada neurona al crear más vesículas, que según creo está relacionada con la información genética, se podría obtener a partir de las concentraciones de los diferentes tipos de neurotransmisores presentes en los datos iniciales de la imagen del sistema nervioso.

Cada bola o punto tendría

Cada bola o punto tendría una lista de apuntadores a las bolas o puntos en su radio de acción.

Estas listas se calculan una vez al comienzo del programa o antes, y cuando hay crecimiento y aparece nueva membrana.

Las bolas o puntos en el radio de acción de cada bola o punto pueden encontrarse en membranas diferentes a través de una sinapsis.

La distinción entre sinapsis químicas y eléctricas viene implícita en el modelo por la distancia de separación y el tipo de sustancias presentes.

Modelo para la membrana eléctrica de las neuronas

Imaginemos una red de bolas que se repelen hasta cierta distancia, a partir de la cual se atraen pero con un radio de acción muy limitado, y que además tienden a recuperar su posición inicial.

Estas bolas tapizarían la membrana, y aunque no habría que dibujarlas y no representarían la superficie de nada, servirían para mover los potenciales de acción con independencia de la forma de la membrana.

La expresión exacta de la fuerza ejercida por cada bola dependería de los valores de los parámetros de cada bola, que a su vez dependerían de las concentraciones de canales, receptores, neurotransmisores, ... en cada elemento diferencial de la membrana.

Radio neurita mínimo R = 0.5 [um]

Supongo el radio mínimo de la neurita

R = 0.5E-6 [m]

Volumen promedio de cada neurona

4/11*1E-14 [m^3]

La altura de la neurona más fina con volumen promedio resulta

h = 4.63E-3 [m]

h/R ~= 9260

Y su superficie

0.1455E-7 [m^2]

0.5 um / 100 = 5 nm
0.5 um / 10 = 50 nm
Longitud del voxel entre 5 nm y 50 nm.

La longitud total de la neurona más fina con volumen promedio nos sale unos 4.63 milímetros, unas 9260 veces mayor que su radio.

Los potenciales de acción quizá sea mejor incluirlos en los datos de los trozos de neurita. Así limitamos mejor los recursos usados por cada proceso. Esto es importante para garantizar el funcionamiento del sistema en todas las situaciones, independientemente de la cantidad de potenciales de acción.

No disponemos de

No disponemos de información de tomografía con la resolución suficiente como para recrear un sistema nervioso humano. Probablemente será más sencillo extraer la información de un cadáver bien conservado destruyéndolo en el proceso de extracción. Para este segundo método quizás la tecnología necesaria podría estar disponible en un plazo corto de tiempo.

Podemos investigar los parámetros de ingeniería necesarios que permitan crear un sistema nervioso artificial equivalente o lo más parecido posible al sistema nervioso humano.

Según el libro que tengo

+ (Número total de neuronas) = 10^11
+ La glia supera a las neuronas en 10 veces
+ (Superficie neurona típica) = 2.5E-7 [m^2]

Para dimensionar el sistema hay que estimar cuantos elementos habrá, con qué parámetros se caracterizará cada elemento, y la cantidad de operaciones por elemento y segundo. Con esos datos podremos hacernos una idea de la capacidad de cálculo y la cantidad de memoria que necesitaremos.

El sistema nervioso, como decía en algún mensaje anterior, estará dividido en cubos. Cuanto más pequeños sean los cubos menos capacidad de cálculo y memoria serán necesarios para cada proceso, pero habrá más procesos.

La capacidad de cálculo de cada CPU está limitada por la tecnología actual, pero podemos dividir el sistema nervioso en cubos lo suficientemente pequeños como para que cada CPU pueda ejecutar al menos un proceso. Por tanto el sistema es realizable con la tecnología actual, aunque el número de CPUs necesarias con la tecnología actual será muy grande, mucho más de 100000. ¿Cómo de grande?

Usaré la hipótesis de que el sistema nervioso (glia+neuronas) tiene un volumen de unos 4 litros.

¿Cuántos elementos habrá aproximadamente? ¿Cuánta memoria será necesaria? ¿Cuantas operaciones por segundo?

Los elementos serán principalmente trozos de neurita y potenciales de acción.

NEURONA PROMEDIO CILÍNDRICA

+ (Superficie) = 2.5E-7 [m^2]
+ (Volumen) = 4/11*1E-14 ~= 3.636E-15 [m^3]
+ (Radio) = 29.1E-9 [m] (calculado)
+ (Altura) = 1.3677 [m] (calculado)

Si tenemos en cuenta que el tamaño del soma de una neurona típica es unos 20 um, y el de las vesículas sinápticas 50 nm, resulta que 29.1 nm para el radio promedio de las neuritas es un número extremadamente pequeño. Por otra parte la altura de la neurona cilíndrica promedio parece demasiado grande.

29.1 nm / 100 = 0.291 nm ~= 0.3 nm
29.1 nm / 10 = 2.91 nm ~= 3 nm
Longitud del voxel entre 0.3 nm y 3 nm.

La arista de un cubo conteniendo un átomo de cobre puede medir unos 0.23 nm. El radio promedio de las neuritas me sale demasiado pequeño.

¿En qué me estoy equivocando?

Termorreceptores del sistema nervioso

+ Termorreceptores
+ Temperatura
+ Diferencia de potencial eléctrico
+ Electrocución
+ Quemadura
+ Ley de Planck
+ Cantidad de movimiento de los fotones
+ Respuesta en frecuencia de los termorreceptores
+ Neuronas e iones

Los 'superordenadores' de IBM, entre los más eficientes ...

TECNOLOGÍA | Lista Green500

Los 'superordenadores' de IBM, entre los más eficientes energéticamente del mundo

Europa Press | Madrid
Actualizado miércoles 01/12/2010 17:25 horas

Los superordenadores de IBM son los más eficientes energéticamente del mundo según la última edición de Green500, el ranking de los superordenadores de mayor eficiencia energética publicado por Green500.org.

De los 25 primeros superordenadores más eficientes del mundo que se incluyen en el ranking, 15 están desarrollados con tecnología de IBM, según informó la compañía de 'software' en un comunicado.

Además, los sistemas de la compañía representan más la mitad de los primeros 100 clasificados. Esta lista incluye superordenadores de todo el mundo que se utilizan para aplicaciones tan diversas como la astronomía, la predicción del clima o la investigación farmacéutica.

Está previsto que el nuevo superordenador Blue Gene se utilice en 2012 en el Laboratorio Nacional Lawrence Livermore y el Laboratorio Nacional Argonne que han colaborado con IBM en el diseño del 'hardware' y 'software' del nuevo Blue Gene. Asimismo, las Universidades de Columbia y Edimburgo también han participado en el diseño del chip de Blue Gene.

http://www.elmundo.es/elmundo/2010/12/01/navegante/1291220737.html
http://www.elmundo.es/

Tianhe-1

"China desbanca a EE UU con el superordenador más rápido del mundo

La máquina, dedicada a aplicaciones civiles y militares, está hecha con chips estadounidenses"

http://www.elpais.com/articulo/sociedad/China/desbanca/EE/UU/superordenador/rapido/mundo/elpeputec/20101028elpepusoc_6/Tes

http://www.elpais.com/

IBM anuncia la llegada de ordenadores que simulan el ...

IBM anuncia la llegada de ordenadores que simulan el funcionamiento del cerebro humano

La computación cognitiva, financiada por el Gobierno de EE UU, contará con la colaboración de neurólogos y psicólogos

ELPAÍS.com - Madrid - 24/11/2008

[...]

http://www.elpais.com/articulo/internet/IBM/anuncia/llegada/ordenadores/simulan/funcionamiento/cerebro/humano/elpeputec/20081124elpepunet_2/Tes

IBM Seeks to Build the Computer of the Future Based on ...

Press room > Press releases >
IBM Seeks to Build the Computer of the Future Based on Insights from the Brain

IBM Awarded DARPA Funding for Cognitive Computing Collaboration

SAN JOSE, Calif. - 20 Nov 2008: In an unprecedented undertaking, IBM Research and five leading universities are partnering to create computing systems that are expected to simulate and emulate the brain’s abilities for sensation, perception, action, interaction and cognition while rivaling its low power consumption and compact size.

The digital data explosion shows no signs of slowing down -- according to analyst firm IDC, the amount of digital data is growing at a mind-boggling 60 percent each year, giving businesses access to incredible new streams of information. But without the ability to monitor, analyze and react to this information in real-time, the majority of its value may be lost. Until the data is captured and analyzed, decisions or actions may be delayed. Cognitive computing offers the promise of systems that can integrate and analyze vast amounts of data from many sources in the blink of an eye, allowing businesses or individuals to make rapid decisions in time to have a significant impact.

[VIDEO]

For example, bankers must make split-second decisions based on constantly changing data that flows at an ever-dizzying rate. And in the business of monitoring the world’s water supply, a network of sensors and actuators constantly records and reports metrics such as temperature, pressure, wave height, acoustics and ocean tide. In either case, making sense of all that input would be a Herculean task for one person, or even for 100. A cognitive computer, acting as a “global brain,” could quickly and accurately put together the disparate pieces of this complex puzzle and help people make good decisions rapidly.

By seeking inspiration from the structure, dynamics, function, and behavior of the brain, the IBM-led cognitive computing research team aims to break the conventional programmable machine paradigm. Ultimately, the team hopes to rival the brain’s low power consumption and small size by using nanoscale devices for synapses and neurons. This technology stands to bring about entirely new computing architectures and programming paradigms. The end goal: ubiquitously deployed
computers imbued with a new intelligence that can integrate information from a variety of sensors and sources, deal with ambiguity, respond in a context-dependent way, learn over time and carry out pattern recognition to solve difficult problems based on perception, action and cognition in complex, real-world environments.

IBM and its collaborators have been awarded $4.9 million in funding from the Defense Advanced Research Projects Agency (DARPA) for the first phase of DARPA’s Systems of Neuromorphic Adaptive Plastic Scalable Electronics (SyNAPSE) initiative. IBM’s proposal, “Cognitive Computing via Synaptronics and Supercomputing (C2S2),” outlines groundbreaking research over the next nine months in areas including synaptronics, material science, neuromorphic circuitry, supercomputing simulations and virtual environments. Initial research will focus on demonstrating nanoscale, low power synapse-like devices and on uncovering the functional microcircuits of the brain. The long-term mission of C2S2 is to demonstrate low-power, compact cognitive computers that approach mammalian-scale intelligence.

“Exploratory research is in the fabric of IBM’s DNA,” said Josephine Cheng, IBM Fellow and vice president of IBM’s Almaden Research Center in San Jose. “We believe that our cognitive computing initiative will help shape the future of computing in a significant way, bringing to bear new technologies that we haven’t even begun to imagine. The initiative underscores IBM’s capabilities in bold, exploratory research and interest in powerful collaborations to understand the way the world works.”

IBM has assembled a multi-dimensional, integrated world-class team of researchers and collaborators led by Dr. Dharmendra Modha, manager of IBM’s cognitive computing initiative, to take on the challenge including Stanford University (Professors Kwabena Boahen, H.-S. Philip Wong, Brian Wandell), University of Wisconsin-Madison (Professor Gulio Tononi), Cornell University (Professor Rajit Manohar), Columbia University Medical Center (Professor Stefano Fusi) and University of California- Merced (Professor Christopher Kello). IBM Researchers include Dr. Stuart Parkin, Dr. Chung Lam, Dr. Bulent Kurdi, Dr. J. Campbell Scott, Dr. Paul Maglio, Dr. Simone Raoux, Dr. Rajagopal Ananthanarayanan, Dr. Raghav Singh, and Dr. Bipin Rajendran.

Recently, the IBM cognitive computing team demonstrated the near-real-time simulation at a scale of a small mammal brain using cognitive computing algorithms with the power of IBM’s BlueGene supercomputer. With this simulation capability, the researchers are experimenting with various mathematical hypotheses of brain function and structure as they work toward discovering the brain’s core computational micro and macro circuits.

In the past, the field of artificial intelligence research has focused on individual aspects of engineering intelligent machines. Cognitive computing, on the cutting edge of this line of research, seeks to engineer holistic intelligent machines that neatly tie together all of the pieces. IBM’s cognitive computing initiative was born out its 2006 Almaden Institute, which annually brings together top minds to address fundamental challenges at the very edge of science and technology. IBM has a rich history in the area of artificial intelligence research going all the way back to 1956 when IBM performed the world’s first large-scale (512 neuron) cortical simulation.

For more information about IBM Research, please visit www.ibm.com/research or the IBM Research blog at: http://ibmresearchnews.blogspot.com/.

http://www-03.ibm.com/press/us/en/pressrelease/26123.wss

Solo estamos interesados en

Solo estamos interesados en simular las perturbaciones eléctricas que se propagan, pero ni siquiera nos interesan sus formas exactas, nos basta con poder cuantificar de alguna manera el efecto que provocan al pasar de una neurona a la siguiente. La información de la red neuronal que afecta a la propagación de las perturbaciones eléctricas seguramente se puede comprimir en parámetros por tramo de neurita. Sería algo parecido a los parámetros de tramos de línea de transmisión de CEM.

No es imprescindible poder almacenar la memoria a corto plazo que se encuentra en forma química antes de la formación de nuevas uniones sinápticas.

Todo el alma está en la información almacenada a largo plazo en la red neuronal natural.

La idea es dividir la información espacial obtenida de la imagen de tomografía del futuro en cubos grandes --los cubos pequeños a los que me refería en los mensajes anteriores los podemos llamar voxels o pixels 3D-- y asignar cada cubo grande a un proceso, usando tantas CPUs como sean necesarias.

Una vez cargados los datos cada cubo intercambia datos de potenciales de acción en movimiento con sus hasta 26 cubos contiguos, aunque principalmente lo hará con los 6 cubos de sus caras.

El software es el mismo en todos los procesos y se limita a simular el movimiento del equivalente a los potenciales de acción por los tramos de neuronas y por las uniones sinápticas, y a modificar los parámetros de cada tramo según la cantidad de potenciales de acción, donde se incluye el efecto de la satisfacción medida por las neuronas o glándulas neurosensibles segregadoras de dopamina (VTA).

La lógica de funcionamiento es más complicada, pero se puede hacer.