Para extraer la memoria de un cadáver bien conservado sería necesario un equipo de tomografía futuro con una resolución espacial de unos pocos nanómetros de arista de voxel. Las vesículas sinápticas tienen un diámetro aproximado de 50 nanómetros. Los equipos de tomografía convencionales actuales tienen un voxel de aproximadamente un milímetro cúbico. Este equipo de tomografía futuro deberá distinguir todos los tipos de sustancias que afectan a la transmisión de los potenciales de acción, incluidos los diferentes neurotransmisores. Cortar una capa de cerebro daña el cerebro que entra en contacto con el mecanismo de corte. ¿Entonces como podemos extraer la información? Si la profundidad de penetración del campo electromagnético del equipo en el cerebro es 2 mm, vamos cortando en capas de 1 mm de grosor, y escaneamos cada vez la capa entre 1 mm y 2 mm de profundidad, evitando escanear la capa en contacto con el exterior que estará dañada por el mecanismo de corte. |
lunes, 18 de abril de 2016
Optical coherence tomography (OCT)
sábado, 19 de marzo de 2016
martes, 26 de enero de 2016
Muere Marvin Minsky, el padre de la Inteligencia Artificial
.Premio Fronteras del Conocimiento 2014
.La odisea de las máquinas pensantes
EL MUNDO | Madrid
ACTUALIZADO 26/01/2016 11:54
La Inteligencia Artificial está de luto. Marvin Minsky, el matemático e informático considerado el 'padre' de este campo de investigación, ha muerto a los 88 años como consecuencia de una hemorragia cerebral. Minsky, que en la actualidad era profesor emérito del Media Lab del Massachussetts Institute of Technology (MIT) de Boston, fue un pensador pionero y para muchos el gran visionario de la teoría de la inteligencia artificial.
Su libro, La sociedad de la mente, se considera un texto de referencia para comprender el funcionamiento del cerebro y la posibilidad de desarrollar máquinas capaces de replicar los mecanismos neuronales. Su última obra, La máquina emocional: el sentido común, la inteligencia artificial y el futuro de la mente humana, se publicó en 2006.
Minsky (Nueva York, 1927) se licenció de Matemáticas por la Universidad de Harvard en 1946. Tras doctorarse en la Universidad de Princeton, donde solía decir que se inspiró en la "gente brillante" que le rodeaba, ingresó como profesor en el Instituto Tecnológico de Massachusetts (MIT).
Ahí conoció a su compañero John Mc Carthy (1927-2011) con el que fundó el Laboratorio de Inteligencia Artificial. Además, fue autor de contribuciones esenciales, teóricas y prácticas, en matemáticas, ciencia cognitiva, robótica y filosofía.
Minsky fue, desde los inicios del campo de la Inteligencia Artificial, el verdadero impulsor de la aspiración de dotar a los ordenadores de sentido común, es decir, del conocimiento que el ser humano adquiere mediante la experiencia. «Raramente apreciamos la maravilla que supone que una persona pueda pasar toda su vida sin cometer un error realmente grave, como meterse un tenedor en el ojo o salir por la ventana en lugar de por la puerta», escribía en La sociedad de la mente (Edic. Galápago).
Para Minksy, el secreto para lograr máquinas que superasen en inteligencia al ser humano era descifrar nuestro cerebro para tratar de imitar los procesos neuronales que generan esa inteligencia inherente que evita que salgamos por la ventana o que nos pinchemos el ojo con el tenedor.
Los grandes avances que ha tenido la Inteligencia Artificial, en tan solo las seis décadas que han pasado desde que se acuñó el término, han sido abrumadores en buena medida por el impulso que le dio Minsky. De hecho, han permitido el desarrollo de aplicaciones muy extendidas en la sociedad actual como los sistemas de diagnósticos médicos o los aviones no tripulados que conocemos como drones.
Minsky consideraba el cerebro como una máquina cuyo funcionamiento podría ser estudiado y replicado por ordenadores. Su papel crucial en el desarrollo de la Inteligencia Artificial se reflejó en el hecho de que Stanley Kubrick recurrió precisamente a él para poder recrear el omnipotente ordenador HAL 9000 que aparece en la mítica película de ciencia ficción 2001: una Odisea del Espacio, estrenada en 1968.
El investigador estadounidense, por aquel entonces, ya preveía que los ordenadores y sus programas irían más allá de los cálculos matemáticos para poder llegar a simular las funciones del cerebro humano; es decir, desarrollar lo que se conoce hoy como Inteligencia Artificial.
Hace sólo dos años, en 2014, Minsky visitó Madrid para recibir el Premio Fronteras del Conocimiento en la categoría de Tecnologías de la Información de la Fundación BBVA, y aseguró entonces que no le asustaba la velocidad a la que avanzan las investigaciones en inteligencia artificial y la capacidad cada vez mayor que tienen las máquinas de simular al cerebro humano. "Muchos han escrito en la ciencia ficción que las máquinas se hacen con el control de la civilización y siempre ocurre algo malo, pero me parece que la gente es muy imaginativa", aseguró.
Minsky estaba convencido de que, con el tiempo, se llegarían a crear máquinas al menos tan inteligentes como los humanos. Sin embargo, según manifestó al recibir su Premio Fronteras del Conocimiento, no era muy optimista respecto al plazo en el que podría lograrse: "Depende de cuánta gente trabaje en los problemas adecuados. Ahora mismo no hay ni recursos ni investigadores suficientes". Y fiel a su reputación de científico iconoclasta, añadió: "Los grandes avances en Inteligencia Artificial se dieron entre los 60 y los 80 del pasado siglo. En los últimos años no he visto nada que me sorprenda, porque ahora la financiación se enfoca más en aplicaciones de corto plazo que en ciencia básica".
Hasta el final de sus días, el padre de la Inteligencia Artificial siguió siendo fiel a su visión del cerebro humano como una «máquina de carne». «¿Qué somos las personas sino máquinas muy evolucionadas?», se preguntaba en Madrid, durante un debate con el cineasta Kike Maíllo organizado por la Fundación BBVA con motivo de la concesión de su Premio Fronteras.
«Nadie sabe realmente lo que va a suceder, pero hay que tener en cuenta que las emociones nos han traído hasta aquí», aseguraba Minsky en aquel debate. «Las emociones no son más que una forma concreta de resolver problemas muy deprisa... Somos afortunados, teniendo que dejar esa decisión a las generaciones futuras. Pero hoy por hoy solo hay una cosa cierta: todo el que diga que hay diferencias básicas entre la mente de los hombres y de las máquinas del futuro se equivoca», sentenció el sabio.
http://www.elmundo.es/ciencia/2016/01/26/56a73a7ae2704e4f5c8b45a9.html
.La odisea de las máquinas pensantes
EL MUNDO | Madrid
ACTUALIZADO 26/01/2016 11:54
La Inteligencia Artificial está de luto. Marvin Minsky, el matemático e informático considerado el 'padre' de este campo de investigación, ha muerto a los 88 años como consecuencia de una hemorragia cerebral. Minsky, que en la actualidad era profesor emérito del Media Lab del Massachussetts Institute of Technology (MIT) de Boston, fue un pensador pionero y para muchos el gran visionario de la teoría de la inteligencia artificial.
Su libro, La sociedad de la mente, se considera un texto de referencia para comprender el funcionamiento del cerebro y la posibilidad de desarrollar máquinas capaces de replicar los mecanismos neuronales. Su última obra, La máquina emocional: el sentido común, la inteligencia artificial y el futuro de la mente humana, se publicó en 2006.
Minsky (Nueva York, 1927) se licenció de Matemáticas por la Universidad de Harvard en 1946. Tras doctorarse en la Universidad de Princeton, donde solía decir que se inspiró en la "gente brillante" que le rodeaba, ingresó como profesor en el Instituto Tecnológico de Massachusetts (MIT).
Ahí conoció a su compañero John Mc Carthy (1927-2011) con el que fundó el Laboratorio de Inteligencia Artificial. Además, fue autor de contribuciones esenciales, teóricas y prácticas, en matemáticas, ciencia cognitiva, robótica y filosofía.
Minsky fue, desde los inicios del campo de la Inteligencia Artificial, el verdadero impulsor de la aspiración de dotar a los ordenadores de sentido común, es decir, del conocimiento que el ser humano adquiere mediante la experiencia. «Raramente apreciamos la maravilla que supone que una persona pueda pasar toda su vida sin cometer un error realmente grave, como meterse un tenedor en el ojo o salir por la ventana en lugar de por la puerta», escribía en La sociedad de la mente (Edic. Galápago).
Para Minksy, el secreto para lograr máquinas que superasen en inteligencia al ser humano era descifrar nuestro cerebro para tratar de imitar los procesos neuronales que generan esa inteligencia inherente que evita que salgamos por la ventana o que nos pinchemos el ojo con el tenedor.
Los grandes avances que ha tenido la Inteligencia Artificial, en tan solo las seis décadas que han pasado desde que se acuñó el término, han sido abrumadores en buena medida por el impulso que le dio Minsky. De hecho, han permitido el desarrollo de aplicaciones muy extendidas en la sociedad actual como los sistemas de diagnósticos médicos o los aviones no tripulados que conocemos como drones.
Minsky consideraba el cerebro como una máquina cuyo funcionamiento podría ser estudiado y replicado por ordenadores. Su papel crucial en el desarrollo de la Inteligencia Artificial se reflejó en el hecho de que Stanley Kubrick recurrió precisamente a él para poder recrear el omnipotente ordenador HAL 9000 que aparece en la mítica película de ciencia ficción 2001: una Odisea del Espacio, estrenada en 1968.
El investigador estadounidense, por aquel entonces, ya preveía que los ordenadores y sus programas irían más allá de los cálculos matemáticos para poder llegar a simular las funciones del cerebro humano; es decir, desarrollar lo que se conoce hoy como Inteligencia Artificial.
Hace sólo dos años, en 2014, Minsky visitó Madrid para recibir el Premio Fronteras del Conocimiento en la categoría de Tecnologías de la Información de la Fundación BBVA, y aseguró entonces que no le asustaba la velocidad a la que avanzan las investigaciones en inteligencia artificial y la capacidad cada vez mayor que tienen las máquinas de simular al cerebro humano. "Muchos han escrito en la ciencia ficción que las máquinas se hacen con el control de la civilización y siempre ocurre algo malo, pero me parece que la gente es muy imaginativa", aseguró.
Minsky estaba convencido de que, con el tiempo, se llegarían a crear máquinas al menos tan inteligentes como los humanos. Sin embargo, según manifestó al recibir su Premio Fronteras del Conocimiento, no era muy optimista respecto al plazo en el que podría lograrse: "Depende de cuánta gente trabaje en los problemas adecuados. Ahora mismo no hay ni recursos ni investigadores suficientes". Y fiel a su reputación de científico iconoclasta, añadió: "Los grandes avances en Inteligencia Artificial se dieron entre los 60 y los 80 del pasado siglo. En los últimos años no he visto nada que me sorprenda, porque ahora la financiación se enfoca más en aplicaciones de corto plazo que en ciencia básica".
Hasta el final de sus días, el padre de la Inteligencia Artificial siguió siendo fiel a su visión del cerebro humano como una «máquina de carne». «¿Qué somos las personas sino máquinas muy evolucionadas?», se preguntaba en Madrid, durante un debate con el cineasta Kike Maíllo organizado por la Fundación BBVA con motivo de la concesión de su Premio Fronteras.
«Nadie sabe realmente lo que va a suceder, pero hay que tener en cuenta que las emociones nos han traído hasta aquí», aseguraba Minsky en aquel debate. «Las emociones no son más que una forma concreta de resolver problemas muy deprisa... Somos afortunados, teniendo que dejar esa decisión a las generaciones futuras. Pero hoy por hoy solo hay una cosa cierta: todo el que diga que hay diferencias básicas entre la mente de los hombres y de las máquinas del futuro se equivoca», sentenció el sabio.
http://www.elmundo.es/ciencia/2016/01/26/56a73a7ae2704e4f5c8b45a9.html
jueves, 21 de enero de 2016
Un científico italiano asegura que ha trasplantado la cabeza a un mono
.Expertos españoles tachan el trasplante de cuerpo entero de 'delirio sin base científica'
MÒNICA BERNABÉ | Roma
ACTUALIZADO 21/01/2016 20:57
El neurocientífico italiano Sergio Canavero, director del Grupo de Neuromodulación Avanzado de Turín, ha hecho pública una imagen de un mono al que supuestamente se le ha trasplantado la cabeza, y un vídeo en que se ve una pequeña rata que consigue andar, a pesar de que en teoría también se le ha sometido una operación del mismo tipo.
Según el investigador, las imágenes corresponden a los últimos experimentos realizados con animales por él mismo, y los profesores Xiaoping Ren y C-Yoon Kim en los últimos meses en China y Corea del Sur. Canavero asegura que estas intervenciones son la última prueba de que sería posible hacer trasplantes de cabeza en humanos, de manera que pacientes que sufren tetraplejia, cáncer o distrofia muscular progresiva podrían sustituir su cuerpo enfermo por otro sano.
Las imágenes han sido publicadas en New Scientist, antes de que salieran en una revista científica que avale el trabajo de ambos investigadores, cosa que ha suscitado críticas entre otros científicos que consideran una grave falta que Canavero haya corrido a publicitar el supuesto resultado de sus experimentos sin un aval real.
"Los resultados se publicarán en los próximos meses en dos prestigiosas publicaciones académicas, Surgery y CNS Neuroscience & Therapeutics", explica el investigador italiano a EL MUNDO en una entrevista por skype, mientras muestra una carta de Surgery donde asegura que le confirman que publicarán su trabajo. "Llevo tres años diciendo que este tipo de trasplante es posible y todo el mundo me tomaba por loco. Ahora que estoy seguro de que es posible, lo he querido anunciar cuanto antes. Y quien no lo crea, ya lo verá publicado pronto en las revistas científicas", resuelve.
Canavero también afirma que disponen del vídeo de toda la evolución de las ratas a las que sometieron a la operación. Desde el momento que le cortan la cabeza, hasta que las unen al nuevo cuerpo, y empiezan a recuperar los primeros movimientos al cabo de tres o cuatro semanas. "Los experimentos con ratas ya los habíamos hecho en otras ocasiones, pero esta vez es la primera que mostramos el vídeo de todo el proceso", explica el investigador.
El director del Grupo de Neuromodulación Avanzado de Turín considera que lo más importante de todo es que "una médula espinal que ha sufrido un corte limpio se puede reconectar". Y añade: "Eso lo demostramos con el experimento de las ratas. Tras el trasplante de cabeza, estos animales recuperan la total movilidad. Esto es revolucionario". En su opinión, lo ocurrido con los roedores puede suceder también con los humanos. La técnica a utilizar es la misma: polietilenglicol (PEG), un polímero que Canavero usa como adhesivo.
En el caso del trasplante de cabeza a un mono, los profesores Canavero y Xiaoping se limitaron a realizar la intervención quirúrgica pero no esperaron a ver la evolución del animal. Lo sacrificaron a las 20 horas de la operación. "El objetivo era comprobar que es posible hacer un trasplante de este tipo sin que se produzca un daño cerebral. Se trataba de confirmar lo que ya hizo White", comenta Canavero, en referencia al doctor estadounidense Robert White que, en los años sesenta, ya trasplantó con éxito la cabeza de un mono al cuerpo de otro, pero tuvo un pequeño problema: no logró conectar la médula espinal. Eso hizo que el primate no pudiera mover el cuerpo, aunque sí que consiguió respirar de forma asistida.
En este caso, los dos investigadores consideraron "poco ético" mantener con vida al primate. "Tendríamos que haber esperado tres o cuatro semanas para que el PEG hiciera efecto y el mono empezara a recuperar una cierta movilidad", detalla el neurocientífico italiano, que asegura que ya no experimentarán más con animales. "A partir de ahora, las próximas intervenciones las haremos con humanos cerebralmente muertos".
El objetivo final, no obstante, es llegar a hacer un trasplante real de cabeza en una persona viva. De hecho, ya existe un candidato: el joven ruso Valery Sprirdonov, de 31 años, que sufre una distrofia muscular genética. Canavero ya ha puesto fecha para la intervención: diciembre de 2017, pero aún existen muchas incógnitas.
Inicialmente estaba previsto que la operación se llevara a cabo en China, con financiación del Gobierno. "Valery es ruso. No se le puede trasplantar el cuerpo de un chino y, por tanto, no podemos hacer la operación en China", explicaba este jueves el neurocientífico italiano, que ya ha iniciado negociaciones con Rusia y necesita casi 20 millones de dólares (unos 15 millones de euros) para llevar a cabo la intervención quirúrgica.
Arthur Caplan, especialista en bioética en la Escuela de Medicina de Nueva York, criticó en New Scientist que Canavero se plantee realizar un trasplante de cabeza, en vez de intentar hacer crecer la médula espinal. "Hay cientos de miles de personas que se podrían beneficiar de algo así. Es como decir me quiero ir a otra galaxia, cuando puedo establecer una colonia en Marte", declaró.
Canavero replicó que Caplan no tiene ni idea de lo que habla. "La médula se deteriora al cabo de un tiempo. La única manera de curar la tetraplejia es el trasplante de cuerpo", aseguró.
http://www.elmundo.es/salud/2016/01/21/56a12c0a268e3edf738b4580.html
MÒNICA BERNABÉ | Roma
ACTUALIZADO 21/01/2016 20:57
El neurocientífico italiano Sergio Canavero, director del Grupo de Neuromodulación Avanzado de Turín, ha hecho pública una imagen de un mono al que supuestamente se le ha trasplantado la cabeza, y un vídeo en que se ve una pequeña rata que consigue andar, a pesar de que en teoría también se le ha sometido una operación del mismo tipo.
Según el investigador, las imágenes corresponden a los últimos experimentos realizados con animales por él mismo, y los profesores Xiaoping Ren y C-Yoon Kim en los últimos meses en China y Corea del Sur. Canavero asegura que estas intervenciones son la última prueba de que sería posible hacer trasplantes de cabeza en humanos, de manera que pacientes que sufren tetraplejia, cáncer o distrofia muscular progresiva podrían sustituir su cuerpo enfermo por otro sano.
Las imágenes han sido publicadas en New Scientist, antes de que salieran en una revista científica que avale el trabajo de ambos investigadores, cosa que ha suscitado críticas entre otros científicos que consideran una grave falta que Canavero haya corrido a publicitar el supuesto resultado de sus experimentos sin un aval real.
"Los resultados se publicarán en los próximos meses en dos prestigiosas publicaciones académicas, Surgery y CNS Neuroscience & Therapeutics", explica el investigador italiano a EL MUNDO en una entrevista por skype, mientras muestra una carta de Surgery donde asegura que le confirman que publicarán su trabajo. "Llevo tres años diciendo que este tipo de trasplante es posible y todo el mundo me tomaba por loco. Ahora que estoy seguro de que es posible, lo he querido anunciar cuanto antes. Y quien no lo crea, ya lo verá publicado pronto en las revistas científicas", resuelve.
Canavero también afirma que disponen del vídeo de toda la evolución de las ratas a las que sometieron a la operación. Desde el momento que le cortan la cabeza, hasta que las unen al nuevo cuerpo, y empiezan a recuperar los primeros movimientos al cabo de tres o cuatro semanas. "Los experimentos con ratas ya los habíamos hecho en otras ocasiones, pero esta vez es la primera que mostramos el vídeo de todo el proceso", explica el investigador.
El director del Grupo de Neuromodulación Avanzado de Turín considera que lo más importante de todo es que "una médula espinal que ha sufrido un corte limpio se puede reconectar". Y añade: "Eso lo demostramos con el experimento de las ratas. Tras el trasplante de cabeza, estos animales recuperan la total movilidad. Esto es revolucionario". En su opinión, lo ocurrido con los roedores puede suceder también con los humanos. La técnica a utilizar es la misma: polietilenglicol (PEG), un polímero que Canavero usa como adhesivo.
En el caso del trasplante de cabeza a un mono, los profesores Canavero y Xiaoping se limitaron a realizar la intervención quirúrgica pero no esperaron a ver la evolución del animal. Lo sacrificaron a las 20 horas de la operación. "El objetivo era comprobar que es posible hacer un trasplante de este tipo sin que se produzca un daño cerebral. Se trataba de confirmar lo que ya hizo White", comenta Canavero, en referencia al doctor estadounidense Robert White que, en los años sesenta, ya trasplantó con éxito la cabeza de un mono al cuerpo de otro, pero tuvo un pequeño problema: no logró conectar la médula espinal. Eso hizo que el primate no pudiera mover el cuerpo, aunque sí que consiguió respirar de forma asistida.
En este caso, los dos investigadores consideraron "poco ético" mantener con vida al primate. "Tendríamos que haber esperado tres o cuatro semanas para que el PEG hiciera efecto y el mono empezara a recuperar una cierta movilidad", detalla el neurocientífico italiano, que asegura que ya no experimentarán más con animales. "A partir de ahora, las próximas intervenciones las haremos con humanos cerebralmente muertos".
El objetivo final, no obstante, es llegar a hacer un trasplante real de cabeza en una persona viva. De hecho, ya existe un candidato: el joven ruso Valery Sprirdonov, de 31 años, que sufre una distrofia muscular genética. Canavero ya ha puesto fecha para la intervención: diciembre de 2017, pero aún existen muchas incógnitas.
Inicialmente estaba previsto que la operación se llevara a cabo en China, con financiación del Gobierno. "Valery es ruso. No se le puede trasplantar el cuerpo de un chino y, por tanto, no podemos hacer la operación en China", explicaba este jueves el neurocientífico italiano, que ya ha iniciado negociaciones con Rusia y necesita casi 20 millones de dólares (unos 15 millones de euros) para llevar a cabo la intervención quirúrgica.
Arthur Caplan, especialista en bioética en la Escuela de Medicina de Nueva York, criticó en New Scientist que Canavero se plantee realizar un trasplante de cabeza, en vez de intentar hacer crecer la médula espinal. "Hay cientos de miles de personas que se podrían beneficiar de algo así. Es como decir me quiero ir a otra galaxia, cuando puedo establecer una colonia en Marte", declaró.
Canavero replicó que Caplan no tiene ni idea de lo que habla. "La médula se deteriora al cabo de un tiempo. La única manera de curar la tetraplejia es el trasplante de cuerpo", aseguró.
http://www.elmundo.es/salud/2016/01/21/56a12c0a268e3edf738b4580.html
domingo, 13 de diciembre de 2015
El ordenador cuántico de Google funciona
ÁNGEL JIMÉNEZ DE LUIS - Nueva York
ACTUALIZADO 10/12/2015 10:07
Tras realizar varias pruebas a lo largo de los dos últimos años, Google ha confirmado que los ordenadores cuánticos, máquinas que aprovechan las extrañas propiedades de la materia a escala subatómica, no sólo funcionan sino que pueden llegar a ser increíblemente rápidos, mucho más que los construidos con procesadores tradicionales.
El gigante de la red adquirió hace dos años junto a la NASA uno de los ordenadores cuánticos de la empresa D-Wave, la primera en fabricar este tipo de máquinas. Ayer, en un evento celebrado en el centro de desarrollo Ames de la NASA en California, Google mostró algunos de los resultados conseguidos con la segunda generación de procesadores de D-Wave y confirmó que para ciertas tareas, este tipo de procesadores podrían llegar a ser hasta 100 millones de veces más rápidos que el de un ordenador convencional.
La expresión "ciertas tareas" es la clave de este anuncio. Los ordenadores cuánticos no pueden utilizarse para aplicaciones tradicionales, sólo son útiles en problemas muy específicos para los que la naturaleza binaria de la informática general no resulta efectiva. Estas tareas, sin embargo, podrían tener importantes aplicaciones en la descodificación de mensajes cifrados o el desarrollo de sistemas de inteligencia artificial.
Hasta ahora, nadie había podido confirmar que las máquinas de D-Wave operaban realmente aprovechando las propiedades cuánticas de la materia y muchos expertos habían acusado a la empresa de exagerar las posibilidades de su producto.
El responsable de la división de computación cuántica de Google, Hartmut Neven, asegura que estos resultados, disponibles en el blog de Google Research, son "intrigantes y muy alentadores", aunque hay todavía mucho trabajo que hacer para convertir este tipo de máquinas en una tecnología práctica.
http://www.elmundo.es/tecnologia/2015/12/10/56693fccca4741497f8b45fc.html
ACTUALIZADO 10/12/2015 10:07
Tras realizar varias pruebas a lo largo de los dos últimos años, Google ha confirmado que los ordenadores cuánticos, máquinas que aprovechan las extrañas propiedades de la materia a escala subatómica, no sólo funcionan sino que pueden llegar a ser increíblemente rápidos, mucho más que los construidos con procesadores tradicionales.
El gigante de la red adquirió hace dos años junto a la NASA uno de los ordenadores cuánticos de la empresa D-Wave, la primera en fabricar este tipo de máquinas. Ayer, en un evento celebrado en el centro de desarrollo Ames de la NASA en California, Google mostró algunos de los resultados conseguidos con la segunda generación de procesadores de D-Wave y confirmó que para ciertas tareas, este tipo de procesadores podrían llegar a ser hasta 100 millones de veces más rápidos que el de un ordenador convencional.
La expresión "ciertas tareas" es la clave de este anuncio. Los ordenadores cuánticos no pueden utilizarse para aplicaciones tradicionales, sólo son útiles en problemas muy específicos para los que la naturaleza binaria de la informática general no resulta efectiva. Estas tareas, sin embargo, podrían tener importantes aplicaciones en la descodificación de mensajes cifrados o el desarrollo de sistemas de inteligencia artificial.
Hasta ahora, nadie había podido confirmar que las máquinas de D-Wave operaban realmente aprovechando las propiedades cuánticas de la materia y muchos expertos habían acusado a la empresa de exagerar las posibilidades de su producto.
El responsable de la división de computación cuántica de Google, Hartmut Neven, asegura que estos resultados, disponibles en el blog de Google Research, son "intrigantes y muy alentadores", aunque hay todavía mucho trabajo que hacer para convertir este tipo de máquinas en una tecnología práctica.
http://www.elmundo.es/tecnologia/2015/12/10/56693fccca4741497f8b45fc.html
sábado, 28 de noviembre de 2015
El atlas más fino del cerebro
Un equipo internacional reconstruye la mente de una mujer en 3D en una resolución casi celular
El ‘BigBrain’ abre una vía para entender las bases neurobiológicas de la cognición, el lenguaje y las emociones, investigar enfermedades y desarrollar fármacos
JAVIER SAMPEDRO | 20 JUN 2013 - 17:36 CET
El sueño de un neurocientífico es llegar a conocer el cerebro humano con la misma precisión que el sistema nervioso del gusano Caenorhabditis elegans, cuyas 100 neuronas exactas con todas sus conexiones sinápticas son desde hace años un libro abierto para la ciencia. Y hoy se acercan más que nunca a ese ideal con BigBrain, una reconstrucción digital del cerebro humano completo en 3D y ultra-alta resolución que deja muy atrás a cualquier iniciativa anterior de este estilo. BigBrain es la herramienta esencial que necesitan los laboratorios neurológicos de todo el mundo para elucidar la forma y la función de nuestro cerebro. Y estará disponible públicamente a coste cero.
Hasta ahora existen otros atlas del cerebro, pero solo llegan al nivel macroscópico, o visible. Su resolución solo llega al nivel de un milímetro cúbico, y en ese volumen de cerebro caben fácilmente unas 1.000 neuronas. El nuevo BigBrain baja el foco hasta un nivel “casi celular”, según los científicos que lo han creado. Eso quiere decir que llega a discriminar cada pequeño circuito de neuronas que está detrás de nuestra actividad mental, y que puede abarcar toda la información disponible sobre el cerebro, desde los genes y los receptores de neurotransmisores hasta la cognición y el comportamiento.
El cerebro de referencia se basa en el de una mujer fallecida a los 65 años, que ha sido fileteado en 7.400 secciones histológicas de solo 20 micras (el espesor de un cabello, y cerca de la dimensión de una célula). El BigBrain, según sus creadores, abre el camino para entender las bases neurobiológicas de la cognición, el lenguaje y las emociones, y también para investigar las enfermedades neurológicas y desarrollar fármacos contra ellas. El modelo se presenta en Science y estará disponible para usuarios registrados en http://bigbrain.cbrain.mcgill.ca.
El trabajo ha sido coordinado por Katrin Amunts, del Instituto de Neurociencia y Medicina de Jülich, en Alemania; y Alan Evans del Instituto Neurológico de la Universidad McGill en Montreal, Canadá. Ambos explicaron su investigación en una teleconferencia para la prensa junto al editor de Science, Peter Stern.
Tal vez la línea celular humana más utilizada por los laboratorios de todo el mundo durante el último medio siglo sea la línea HeLa; el cultivo proviene de un tumor de útero que le fue extirpado en 1951 a una paciente llamada Henrietta Lacks (de ahí el nombre de la línea) que, pese a haber muerto unos meses después de la operación, consiguió así una singular forma de inmortalidad.
No es extraño que los periodistas mostraran ayer un especial interés en la mujer de 65 años que ha visto inmortalizado su cerebro como un modelo digital que pervivirá durante siglos o milenios. Quién sabe si la neurociencia del futuro será capaz de reconstruir a partir de BigBrain los pensamientos y deseos más ocultos de esa mujer, los recovecos de sus emociones y las ambigüedades de su moralidad. Eso es desnudarse para la posteridad, ríanse ustedes de una autobiografía.
La insistencia de los medios, sin embargo, se topó con el compromiso insobornable de los científicos de preservar la intimidad de la mujer fallecida. Ni Amunts, ni Evans ni su colega Karl Zilles, ni por supuesto el editor de Science que había organizado la comparecencia, quisieron dar noticia sobre la vida que, de algún modo, han registrado para la posteridad. Amunts se limitó a decir que “carecía de un historial neurológico o psiquiátrico”, y que en ese sentido “es lo que llamaríamos un cerebro normal”. Este hecho, al menos, nos aparta del mito de Frankenstein por una vez.
“Los autores han ampliado los límites de la tecnología actual”, dijo Stern, que ve la investigación, en cierto modo, como la consecuencia natural del trabajo de los neuroanatomistas clásicos, con Cajal a la cabeza, que sentaron hace un siglo las bases de la descripción estructural del cerebro humano. La mayor parte de la gente, incluidos los estudiantes de medicina, tiende a ver la anatomía como un tostón fastidioso si bien ineludible para aprobar el curso.
Pero si la biología nos ha enseñado una lección es que la forma explica la función, que entender el funcionamiento de un sistema biológico empieza siempre por ver su estructura. Recuerden la genética: la mera, simple y desnuda forma de la doble hélice del ADN, donde las letras de una hilera se complementan con las de la otra, explica por sí sola que los seres vivos puedan sacar copias de sí mismos. También la forma de las proteínas, con sus hélices y sus hojas y sus caprichosos plegamientos, suele explicar lo que hace cada una de ellas, desde quemar el azúcar que comemos hasta activar las neuronas que nos hacen pensar.
Stern, como muchos otros científicos, está convencido de que esa ley no formulada de la biología tiene jurisdicción también sobre el cerebro, sobre los mecanismos de nuestra vida mental. Somos formas. “Este trabajo puede verse como una culminación de la anatomía”, dijo el editor de Science. “Sin un profundo conocimiento de la estructura del cerebro nunca entenderemos el resto de la neurobiología”.
Evans también proclamó: “La gran ciencia ha llegado al cerebro”. El eslogan es una referencia velada a los proyectos genoma y los aceleradores de partículas, que ya implican cifras de seis dígitos, programación a medio plazo y unos equipos científicos cuyas firmas rara vez caben en la página de la revista científica donde se publican. Pese a que hay cientos de laboratorios en el mundo investigando en neurobiología, el cerebro no contaba hasta ahora con una gran planificación de este tipo, como las que se usan para secuenciar el genoma humano o encontrar el bosón de Higgs. La gran ciencia ha llegado al cerebro.
Pese a la indudable profundidad de las cuestiones implicadas, los grandes logros del trabajo han sido de tipo técnico. “El proyecto ha sido un tour de force para ensamblar las imágenes de más de 7.400 secciones histológicas individuales”, explica Evans, “cada una con sus propias distorsiones, rasgaduras y desgarrones, en un todo coherente, un volumen en tres dimensiones. BigBrain permite por primera vez una exploración en 3D de la anatomía citoarquitectónica humana”. El prefijo cito significa célula, y en boca de Evans quiere enfatizar la gran resolución de su modelo, cercana al nivel celular: muy cerca del sueño del gusano Caenorhabditis elegans.
Los científicos tomaron el cerebro de la mujer muerta a los 65 años y lo encastraron en cera de parafina, un paso previo usual antes de una disección fina. Y esta fue finísima: las lonchas solo tenían 20 micras (milésimas de milímetro) de espesor. Ni siquiera un científico alemán tiene el pulso tan firme como para hacer eso, y los investigadores usaron una máquina especial para ese propósito, un microtomo gigantesco.
Las finísimas lonchas del cerebro de la mujer se montaron en portaobjetos y se trataron con sustancias que tiñen las estructuras celulares más importantes, muy a la Cajal o a la Golgi, si se mira bien. Lo que jamás podrían haber soñado esos grandes neurólogos del pasado es el prodigioso poder de computación, y la sofisticación de las matemáticas asociadas, al que tiene acceso la ciencia actual. Con todo, recolectar los datos llevó cerca de 1.000 horas, y los robots todavía no lo pueden hacer todo.
BigBrain, el gran mapa en 3D y resolución “casi celular” que ya forma parte del dominio público, es un gran paso hacia el entendimiento profundo del cerebro y la mente. Su objetivo no es otro que comprender los fundamentos neurobiológicos del aprendizaje y la adquisición de conocimiento, del lenguaje y las emociones, de la torpeza y de la creatividad humana. Es público y gratis, y de momento no sirve para espiar a nadie.
http://sociedad.elpais.com/sociedad/2013/06/20/actualidad/1371742600_459472.html
El ‘BigBrain’ abre una vía para entender las bases neurobiológicas de la cognición, el lenguaje y las emociones, investigar enfermedades y desarrollar fármacos
JAVIER SAMPEDRO | 20 JUN 2013 - 17:36 CET
![]() |
Procesamiento de las capas del cerebro. / AMUNTS, ZILLES, EVAN ET AL (SCIENCE) |
El sueño de un neurocientífico es llegar a conocer el cerebro humano con la misma precisión que el sistema nervioso del gusano Caenorhabditis elegans, cuyas 100 neuronas exactas con todas sus conexiones sinápticas son desde hace años un libro abierto para la ciencia. Y hoy se acercan más que nunca a ese ideal con BigBrain, una reconstrucción digital del cerebro humano completo en 3D y ultra-alta resolución que deja muy atrás a cualquier iniciativa anterior de este estilo. BigBrain es la herramienta esencial que necesitan los laboratorios neurológicos de todo el mundo para elucidar la forma y la función de nuestro cerebro. Y estará disponible públicamente a coste cero.
Hasta ahora existen otros atlas del cerebro, pero solo llegan al nivel macroscópico, o visible. Su resolución solo llega al nivel de un milímetro cúbico, y en ese volumen de cerebro caben fácilmente unas 1.000 neuronas. El nuevo BigBrain baja el foco hasta un nivel “casi celular”, según los científicos que lo han creado. Eso quiere decir que llega a discriminar cada pequeño circuito de neuronas que está detrás de nuestra actividad mental, y que puede abarcar toda la información disponible sobre el cerebro, desde los genes y los receptores de neurotransmisores hasta la cognición y el comportamiento.
El cerebro de referencia se basa en el de una mujer fallecida a los 65 años, que ha sido fileteado en 7.400 secciones histológicas de solo 20 micras (el espesor de un cabello, y cerca de la dimensión de una célula). El BigBrain, según sus creadores, abre el camino para entender las bases neurobiológicas de la cognición, el lenguaje y las emociones, y también para investigar las enfermedades neurológicas y desarrollar fármacos contra ellas. El modelo se presenta en Science y estará disponible para usuarios registrados en http://bigbrain.cbrain.mcgill.ca.
El trabajo ha sido coordinado por Katrin Amunts, del Instituto de Neurociencia y Medicina de Jülich, en Alemania; y Alan Evans del Instituto Neurológico de la Universidad McGill en Montreal, Canadá. Ambos explicaron su investigación en una teleconferencia para la prensa junto al editor de Science, Peter Stern.
Tal vez la línea celular humana más utilizada por los laboratorios de todo el mundo durante el último medio siglo sea la línea HeLa; el cultivo proviene de un tumor de útero que le fue extirpado en 1951 a una paciente llamada Henrietta Lacks (de ahí el nombre de la línea) que, pese a haber muerto unos meses después de la operación, consiguió así una singular forma de inmortalidad.
No es extraño que los periodistas mostraran ayer un especial interés en la mujer de 65 años que ha visto inmortalizado su cerebro como un modelo digital que pervivirá durante siglos o milenios. Quién sabe si la neurociencia del futuro será capaz de reconstruir a partir de BigBrain los pensamientos y deseos más ocultos de esa mujer, los recovecos de sus emociones y las ambigüedades de su moralidad. Eso es desnudarse para la posteridad, ríanse ustedes de una autobiografía.
La insistencia de los medios, sin embargo, se topó con el compromiso insobornable de los científicos de preservar la intimidad de la mujer fallecida. Ni Amunts, ni Evans ni su colega Karl Zilles, ni por supuesto el editor de Science que había organizado la comparecencia, quisieron dar noticia sobre la vida que, de algún modo, han registrado para la posteridad. Amunts se limitó a decir que “carecía de un historial neurológico o psiquiátrico”, y que en ese sentido “es lo que llamaríamos un cerebro normal”. Este hecho, al menos, nos aparta del mito de Frankenstein por una vez.
“Los autores han ampliado los límites de la tecnología actual”, dijo Stern, que ve la investigación, en cierto modo, como la consecuencia natural del trabajo de los neuroanatomistas clásicos, con Cajal a la cabeza, que sentaron hace un siglo las bases de la descripción estructural del cerebro humano. La mayor parte de la gente, incluidos los estudiantes de medicina, tiende a ver la anatomía como un tostón fastidioso si bien ineludible para aprobar el curso.
Pero si la biología nos ha enseñado una lección es que la forma explica la función, que entender el funcionamiento de un sistema biológico empieza siempre por ver su estructura. Recuerden la genética: la mera, simple y desnuda forma de la doble hélice del ADN, donde las letras de una hilera se complementan con las de la otra, explica por sí sola que los seres vivos puedan sacar copias de sí mismos. También la forma de las proteínas, con sus hélices y sus hojas y sus caprichosos plegamientos, suele explicar lo que hace cada una de ellas, desde quemar el azúcar que comemos hasta activar las neuronas que nos hacen pensar.
Stern, como muchos otros científicos, está convencido de que esa ley no formulada de la biología tiene jurisdicción también sobre el cerebro, sobre los mecanismos de nuestra vida mental. Somos formas. “Este trabajo puede verse como una culminación de la anatomía”, dijo el editor de Science. “Sin un profundo conocimiento de la estructura del cerebro nunca entenderemos el resto de la neurobiología”.
Evans también proclamó: “La gran ciencia ha llegado al cerebro”. El eslogan es una referencia velada a los proyectos genoma y los aceleradores de partículas, que ya implican cifras de seis dígitos, programación a medio plazo y unos equipos científicos cuyas firmas rara vez caben en la página de la revista científica donde se publican. Pese a que hay cientos de laboratorios en el mundo investigando en neurobiología, el cerebro no contaba hasta ahora con una gran planificación de este tipo, como las que se usan para secuenciar el genoma humano o encontrar el bosón de Higgs. La gran ciencia ha llegado al cerebro.
Pese a la indudable profundidad de las cuestiones implicadas, los grandes logros del trabajo han sido de tipo técnico. “El proyecto ha sido un tour de force para ensamblar las imágenes de más de 7.400 secciones histológicas individuales”, explica Evans, “cada una con sus propias distorsiones, rasgaduras y desgarrones, en un todo coherente, un volumen en tres dimensiones. BigBrain permite por primera vez una exploración en 3D de la anatomía citoarquitectónica humana”. El prefijo cito significa célula, y en boca de Evans quiere enfatizar la gran resolución de su modelo, cercana al nivel celular: muy cerca del sueño del gusano Caenorhabditis elegans.
Los científicos tomaron el cerebro de la mujer muerta a los 65 años y lo encastraron en cera de parafina, un paso previo usual antes de una disección fina. Y esta fue finísima: las lonchas solo tenían 20 micras (milésimas de milímetro) de espesor. Ni siquiera un científico alemán tiene el pulso tan firme como para hacer eso, y los investigadores usaron una máquina especial para ese propósito, un microtomo gigantesco.
Las finísimas lonchas del cerebro de la mujer se montaron en portaobjetos y se trataron con sustancias que tiñen las estructuras celulares más importantes, muy a la Cajal o a la Golgi, si se mira bien. Lo que jamás podrían haber soñado esos grandes neurólogos del pasado es el prodigioso poder de computación, y la sofisticación de las matemáticas asociadas, al que tiene acceso la ciencia actual. Con todo, recolectar los datos llevó cerca de 1.000 horas, y los robots todavía no lo pueden hacer todo.
BigBrain, el gran mapa en 3D y resolución “casi celular” que ya forma parte del dominio público, es un gran paso hacia el entendimiento profundo del cerebro y la mente. Su objetivo no es otro que comprender los fundamentos neurobiológicos del aprendizaje y la adquisición de conocimiento, del lenguaje y las emociones, de la torpeza y de la creatividad humana. Es público y gratis, y de momento no sirve para espiar a nadie.
http://sociedad.elpais.com/sociedad/2013/06/20/actualidad/1371742600_459472.html
sábado, 14 de noviembre de 2015
New growth for optical coherence tomography
08 May 2008
Optical coherence tomography is an emerging medical imaging technology with an ever growing list of applications. Marie Freebody speaks to James Fujimoto to find out more.
James Fujimoto is a professor at the Massachusetts Institute of Technology in the US and is one of the key players responsible for the invention and development of optical coherence tomography (OCT) in the early 1990s. Fujimoto also has an active commercial side and has co-founded two companies, one of which was acquired by Zeiss and led to the first OCT instrument for clinical ophthalmology. The second company is currently developing intravascular and endoscopic OCT.
Can you explain how OCT works?
OCT enables micron-scale, cross-sectional and three-dimensional (3D) imaging of biological tissues in situ and in real time. The technique measures the echo time delay and intensity of backscattered light using interferometry with broadband light sources or with frequency swept lasers. The approach is analogous to ultrasound, except that imaging is performed by measuring light rather than sound. The imaging depths are typically around 2 mm, which is shallow compared with ultrasound. However, OCT can provide much higher image resolutions of a few microns.
Two-dimensional (2D), cross-sectional OCT images of tissue are constructed by scanning the optical beam and performing axial measurements of light echoes at different transverse positions. The result is a 2D array, which represents the backscattering in a cross-sectional slice of the tissue. 3D imaging can also be performed by using a 2D scan pattern.
Why is it important to develop OCT?
OCT can function as a type of "optical biopsy", imaging tissue microstructure in situ and in real time without removing and processing tissue specimens. OCT can be used where excisional biopsy would be hazardous or impossible, such as imaging the retina, coronary arteries or nervous tissues. There is considerable interest in developing OCT to guide excisional biopsy, to reduce false negatives and improve imaging sensitivity. Since OCT can see beneath the surface of tissue, it can also be used to guide surgical interventional procedures. OCT also has the advantage that it can perform repeated imaging over a period of time and therefore monitor the progression of disease or response to therapy.
What are the main applications and when do you expect them to occur?
OCT has had the largest impact in ophthalmology where it can be used to create cross-sectional images of retinal pathology with higher resolution than any other non-invasive imaging technique. In addition, image information can be quantitatively analyzed to measure specific features, such as retinal thickness or nerve fibre layer thickness, which are indicators of diabetic retinopathy or glaucoma.
OCT is also being developed for intravascular imaging, where it shows promise for assessing unstable plaque in coronary arteries and guiding interventional procedures, such as stent placement.
Additional applications include guiding biopsy for cancer detection and guiding surgical procedures. OCT is also having a powerful impact in fundamental research in areas ranging from small animal imaging, which is important for pharmaceutical discovery and development, to non-destructive evaluation of materials.
What would you say is the most important recent advance?
One of the most powerful recent advances in OCT is the development of "Fourier domain" detection methods. Conventional OCT technology used scanning low coherence interferometers and measured echoes of light sequentially as a function of time. In contrast, Fourier domain detection measures the spectrum of the interference using a broadband light source and a high-speed spectrometer, or a swept laser light source and detectors. Information on the echo time delay of light is obtained by Fourier transforming the interference spectrum.
The new technique enables imaging to be performed between 50 and 500 times faster than previously possible. This is a powerful advance because the extremely high speeds enable 3D imaging to be performed in vivo. 3D-OCT provides comprehensive volumetric information on structure and promises to dramatically enhance visualization and diagnostic performance.
What are the key challenges left to overcome in this field?
Perhaps the most challenging issue is to translate the technology from the laboratory to the clinic. The clinical environment is completely different from the research environment in the university and requires a team of investigators who understand and work effectively in both environments. This type of research and development is extremely complex, but advances can have a significant impact on healthcare and represent an important contribution to society.
What do you think the next big breakthrough will be?
It is tempting to think about scientific advances in terms of breakthroughs, but I don't believe that this is necessarily the case. Most of the time advances are made by individual research groups performing dedicated work on a series of highly specific problems or applications. A series of evolutionary advances, taken together, can create a major, revolutionary advance.
• This article originally appeared in the May 2008 issue of Optics & Laser Europe magazine.
View pdf of article
http://optics.org/article/34127
Optical coherence tomography is an emerging medical imaging technology with an ever growing list of applications. Marie Freebody speaks to James Fujimoto to find out more.
James Fujimoto is a professor at the Massachusetts Institute of Technology in the US and is one of the key players responsible for the invention and development of optical coherence tomography (OCT) in the early 1990s. Fujimoto also has an active commercial side and has co-founded two companies, one of which was acquired by Zeiss and led to the first OCT instrument for clinical ophthalmology. The second company is currently developing intravascular and endoscopic OCT.
Can you explain how OCT works?
OCT enables micron-scale, cross-sectional and three-dimensional (3D) imaging of biological tissues in situ and in real time. The technique measures the echo time delay and intensity of backscattered light using interferometry with broadband light sources or with frequency swept lasers. The approach is analogous to ultrasound, except that imaging is performed by measuring light rather than sound. The imaging depths are typically around 2 mm, which is shallow compared with ultrasound. However, OCT can provide much higher image resolutions of a few microns.
Two-dimensional (2D), cross-sectional OCT images of tissue are constructed by scanning the optical beam and performing axial measurements of light echoes at different transverse positions. The result is a 2D array, which represents the backscattering in a cross-sectional slice of the tissue. 3D imaging can also be performed by using a 2D scan pattern.
Why is it important to develop OCT?
OCT can function as a type of "optical biopsy", imaging tissue microstructure in situ and in real time without removing and processing tissue specimens. OCT can be used where excisional biopsy would be hazardous or impossible, such as imaging the retina, coronary arteries or nervous tissues. There is considerable interest in developing OCT to guide excisional biopsy, to reduce false negatives and improve imaging sensitivity. Since OCT can see beneath the surface of tissue, it can also be used to guide surgical interventional procedures. OCT also has the advantage that it can perform repeated imaging over a period of time and therefore monitor the progression of disease or response to therapy.
What are the main applications and when do you expect them to occur?
OCT has had the largest impact in ophthalmology where it can be used to create cross-sectional images of retinal pathology with higher resolution than any other non-invasive imaging technique. In addition, image information can be quantitatively analyzed to measure specific features, such as retinal thickness or nerve fibre layer thickness, which are indicators of diabetic retinopathy or glaucoma.
OCT is also being developed for intravascular imaging, where it shows promise for assessing unstable plaque in coronary arteries and guiding interventional procedures, such as stent placement.
Additional applications include guiding biopsy for cancer detection and guiding surgical procedures. OCT is also having a powerful impact in fundamental research in areas ranging from small animal imaging, which is important for pharmaceutical discovery and development, to non-destructive evaluation of materials.
What would you say is the most important recent advance?
One of the most powerful recent advances in OCT is the development of "Fourier domain" detection methods. Conventional OCT technology used scanning low coherence interferometers and measured echoes of light sequentially as a function of time. In contrast, Fourier domain detection measures the spectrum of the interference using a broadband light source and a high-speed spectrometer, or a swept laser light source and detectors. Information on the echo time delay of light is obtained by Fourier transforming the interference spectrum.
The new technique enables imaging to be performed between 50 and 500 times faster than previously possible. This is a powerful advance because the extremely high speeds enable 3D imaging to be performed in vivo. 3D-OCT provides comprehensive volumetric information on structure and promises to dramatically enhance visualization and diagnostic performance.
What are the key challenges left to overcome in this field?
Perhaps the most challenging issue is to translate the technology from the laboratory to the clinic. The clinical environment is completely different from the research environment in the university and requires a team of investigators who understand and work effectively in both environments. This type of research and development is extremely complex, but advances can have a significant impact on healthcare and represent an important contribution to society.
What do you think the next big breakthrough will be?
It is tempting to think about scientific advances in terms of breakthroughs, but I don't believe that this is necessarily the case. Most of the time advances are made by individual research groups performing dedicated work on a series of highly specific problems or applications. A series of evolutionary advances, taken together, can create a major, revolutionary advance.
• This article originally appeared in the May 2008 issue of Optics & Laser Europe magazine.
View pdf of article
http://optics.org/article/34127
lunes, 10 de agosto de 2015
La búsqueda del cerebro virtual
* El Centro de Tecnología Biomédica juega un papel clave en el proyecto europeo Human Brain, que intenta simular la mente
PABLO YARNOZ / PAU SANCLEMENTE / ÁNGEL LUIS SUCASAS | 22 JUL 2015 - 18:13 CEST
La tarea es titánica. Tratar de simular el comportamiento completo del cerebro. Lograr un doble digital de la mente que pueda ser diseccionado virtualmente por científicos de todo el mundo. Es el Human Brain Project, la joya de la corona, no exenta de polémica, del Horizonte 2020, el programa de la Unión Europea con 76.880 millones de euros de presupuesto que fija esa fecha para abordar los grandes retos científicos desarrollados en el marco europeo entre 2014 y 2020.
En el Centro de Tecnología Biomédica (CTB) de la Universidad Politécnica de Madrid contribuye de manera esencial a esta búsqueda del cerebro virtual. “Somos 14 laboratorios en el centro. Y posiblemente la mitad o más están vinculados al Human Brain Project”, explica Francisco del Pozo, director del CTB. Las áreas son múltiples, desde el modelado matemático de las estructuras neuronales al análisis con microscopía electrónica de tejido cerebral de ratones para avanzar en el conocimiento de dichas estructuras. Y cada laboratorio integra y coordina su esfuerzo al conjunto de investigadores europeos para ir avanzando un paso más hacia ese cerebro virtual.
La tecnología juega un papel fundamental en esta meta. Ángel Merchant, investigador del CTB, se encarga de investigar, por microscopía electrónica, la estructura interna del cerebro. La idea es hacer lonchas de una muestra de tejido cerebral. Se cava una trinchera en dicha muestra y se toman fotografías sucesivas. Luego se procesan informáticamente para obtener una representación tridimensional. Para ello se usan ratones, que a la vista de la microscopía electrónica, según explica Merchant son "indistinguibles" en sus sinapsis (las conexiones entre neuronas) de un cerebro humano.
La reconstrucción digital que realizan neurólogos como Merchant es el mapamundi para que otros científicos exploren esta mente de unos y ceros. En la caverna de realidad virtual del centro, investigadores como José María Peña se calan un visor como los venideros Oculus o Morpheus para sumergirse por una representación 3D del dédalo neuronal. "Esto nos permite navegar por el cerebro y simular los efectos de drogas experimentales para ver in situ el efecto que tiene en los circuitos del cerebro", explica Peña.
¿Por qué tal esfuerzo? Del Pozo lo explica: “¿Qué beneficios podría tener este modelo? Pues tenemos que demostrarlos, pero la idea es que podríamos simular cualquier cosa, desde un fármaco a una patología, y ver sus efectos en el cerebro sin tener que recurrir a una intervención quirúrgica”. Fernando Maetzu, director del laboratorio de Ciencias Cognitivas del centro, también ve la meta, de lograrse, como un hito: "Si yo tengo un cerebro virtual, me ahorraría muchísimo dinero y muchísimos años de investigación".
http://elpais.com/elpais/2015/07/16/ciencia/1437041752_556220.html
PABLO YARNOZ / PAU SANCLEMENTE / ÁNGEL LUIS SUCASAS | 22 JUL 2015 - 18:13 CEST
La tarea es titánica. Tratar de simular el comportamiento completo del cerebro. Lograr un doble digital de la mente que pueda ser diseccionado virtualmente por científicos de todo el mundo. Es el Human Brain Project, la joya de la corona, no exenta de polémica, del Horizonte 2020, el programa de la Unión Europea con 76.880 millones de euros de presupuesto que fija esa fecha para abordar los grandes retos científicos desarrollados en el marco europeo entre 2014 y 2020.
En el Centro de Tecnología Biomédica (CTB) de la Universidad Politécnica de Madrid contribuye de manera esencial a esta búsqueda del cerebro virtual. “Somos 14 laboratorios en el centro. Y posiblemente la mitad o más están vinculados al Human Brain Project”, explica Francisco del Pozo, director del CTB. Las áreas son múltiples, desde el modelado matemático de las estructuras neuronales al análisis con microscopía electrónica de tejido cerebral de ratones para avanzar en el conocimiento de dichas estructuras. Y cada laboratorio integra y coordina su esfuerzo al conjunto de investigadores europeos para ir avanzando un paso más hacia ese cerebro virtual.
La tecnología juega un papel fundamental en esta meta. Ángel Merchant, investigador del CTB, se encarga de investigar, por microscopía electrónica, la estructura interna del cerebro. La idea es hacer lonchas de una muestra de tejido cerebral. Se cava una trinchera en dicha muestra y se toman fotografías sucesivas. Luego se procesan informáticamente para obtener una representación tridimensional. Para ello se usan ratones, que a la vista de la microscopía electrónica, según explica Merchant son "indistinguibles" en sus sinapsis (las conexiones entre neuronas) de un cerebro humano.
La reconstrucción digital que realizan neurólogos como Merchant es el mapamundi para que otros científicos exploren esta mente de unos y ceros. En la caverna de realidad virtual del centro, investigadores como José María Peña se calan un visor como los venideros Oculus o Morpheus para sumergirse por una representación 3D del dédalo neuronal. "Esto nos permite navegar por el cerebro y simular los efectos de drogas experimentales para ver in situ el efecto que tiene en los circuitos del cerebro", explica Peña.
¿Por qué tal esfuerzo? Del Pozo lo explica: “¿Qué beneficios podría tener este modelo? Pues tenemos que demostrarlos, pero la idea es que podríamos simular cualquier cosa, desde un fármaco a una patología, y ver sus efectos en el cerebro sin tener que recurrir a una intervención quirúrgica”. Fernando Maetzu, director del laboratorio de Ciencias Cognitivas del centro, también ve la meta, de lograrse, como un hito: "Si yo tengo un cerebro virtual, me ahorraría muchísimo dinero y muchísimos años de investigación".
http://elpais.com/elpais/2015/07/16/ciencia/1437041752_556220.html
Suscribirse a:
Entradas (Atom)