Alicia Rivera | 11 ENE 2012 - 08:59 CET
Archivado en:
Inteligencia artificial
Ciencia
Ramón López de Mántaras se dedica a la inteligencia artificial o, dicho de otro modo, a investigar para que algún día las máquinas tengan algo parecido al sentido común de las personas. "Sabemos hacer cosas extraordinarias con los ordenadores, ya sea diagnosticar muy bien una enfermedad concreta o ganar al mejor jugador de ajedrez del mundo. Lo difícil es hacer que una máquina tenga inteligencia generalista, como la nuestra, que tiene mucho que ver con la experiencia y el sentido común, con ese conocimiento que adquirimos los humanos porque tenemos vivencias y desarrollo mental; eso no lo sabemos imitar en las máquinas", explica.
Elige lubina, tomará vino, y se lanza entusiasmado a hablar de inteligencia artificial (IA), no de tecnicismos, sino de las ideas, los retos, lo que las máquinas hacen y lo que pueden llegar a hacer.
López de Mántaras, 59 años, estudió ingeniería electrónica porque, dice, se entusiasmó con la llegada del hombre a la Luna. Su carrera investigadora transcurrió en Francia y en EE UU antes de regresar a España, y dirige, desde 2007, el Instituto de Investigación de Inteligencia Artificial (IIIA, CSIC), en Barcelona. Le gusta Hal, el ordenador de la película 2001 una odisea en el espacio, y lo citó en su conferencia al recibir el premio Robert S. Engelmore de la Asociación Americana para el Avance de la IA, un acontecimiento que, para él, ha marcado 2011. Es la primera vez que se concede a un científico no estadounidense y lo cuenta con ilusión y naturalidad.
¿Se trata de copiar la inteligencia natural? "No, la idea de copiar el cerebro neurona a neurona no es el enfoque adecuado, además, ya lo tenemos: es nuestra inteligencia", explica. "El objetivo es que la máquina copie el comportamiento del cerebro, con la versatilidad de la inteligencia humana". La verdad, reconoce, es que no hay una definición universal de la inteligencia, pero eso no impide investigar y avanzar en IA. "Para nosotros es fácil analizar una escena visual, como lo que vemos en un restaurante como este, pero para una máquina es muy difícil dar sentido a lo que percibe, ya que es necesario tener conocimiento de sentido común. A menudo, lo obvio para nosotros es lo más difícil para una máquina".
Pero la IA es una realidad que mueve mucho dinero en el mundo. "Del IIIA han surgido empresas muy rentables", comenta López de Mántaras. "Una de ellas arrancó con programas de recomendación de canciones por internet, y ahora se dedica a la recomendación de productos financieros, con clientes muy importantes". Pero el instituto, dice, se resiente de los fuertes recortes presupuestarios. "Estamos perdiendo a gente joven muy preparada que se tiene que ir a otros países".
"Descafeinado, por favor, que yo voy siempre como una moto", dice al pedir el café. Su último comentario es inquietante: "En el futuro... creo que se irá acortando la distancia entre nuestra inteligencia natural y la inteligencia artificial porque, por un lado, vamos dotando a las máquinas de algunos aspectos de sentido común, y por otro, me temo, la humanidad está perdiendo el sentido común".
http://sociedad.elpais.com/sociedad/2012/01/11/actualidad/1326268765_964948.html
sábado, 3 de marzo de 2012
viernes, 24 de febrero de 2012
El proyecto Alzheimer 3π aportará el primer análisis global de la enfermedad
La Reina visita las instalaciones del CEI Montegancedo (UPM) donde se desarrollan los aspectos fundamentales de este proyecto que lideran investigadores de la UPM y el CSIC.
23.02.12
Un equipo multidisciplinar de investigadores, liderados por la Universidad Politécnica de Madrid (UPM) y el Consejo Superior de Investigaciones Científicas (CSIC), aportará el primer análisis global sobre el Alzheimer. El proyecto, denominado Alzheimer 3π, tiene como principal objetivo la creación de mapas microscópicos del cerebro completo de personas afectadas por la enfermedad.
Para buscar nuevas formas de abordar esta demencia, que en España afecta a unas 650.000 personas, los científicos elaborarán mapas que integrarán información detallada sobre los aspectos clínicos, genéticos, moleculares, funcionales y patológicos. Las conclusiones del trabajo servirán para realizar estudios transversales, simular y recrear modelos de la enfermedad para abordar posibles tratamientos.
Los científicos han detallado algunos de los aspectos fundamentales del proyecto a S.M. la Reina Doña Sofía, que ha recorrido las instalaciones del Campus de Excelencia Internacional de Montegancedo de la UPM, donde se llevan a cabo los aspectos fundamentales del Proyecto Alzheimer 3π. Su visita se enmarca en el convenio de colaboración firmado el pasado 20 de octubre entre la Fundación Reina Sofía, el CSIC, la UPM y la Asociación Nacional del Alzheimer (AFALcontigo) con el objetivo de impulsar la investigación en enfermedades neurodegenerativas, con especial aplicación a esta demencia. Doña Sofía estuvo acompañada por la ministra de Sanidad, Servicios Sociales e Igualdad, Ana Mato, el rector de la UPM, Javier Uceda, y el presidente del CSIC, Emilio Lora-Tamayo.
También han asistido la consejera de Educación y Empleo de la Comunidad de Madrid, Lucía Figar; la secretaria de Estado de Investigación, Desarrollo e Innovación, Carmen Vela; el presidente de la Fundación Reina Sofía, Arturo Coello; y la presidenta de AFALcontigo, Blanca Clavijo, entre otras autoridades.
“El primer paso es el desarrollo de herramientas computacionales para crear un banco de datos con información clínica, epidemiológica, funcional y de neuroimagen, por medio de sistemas de información integrados”, ha detallado el investigador del CSIC/UPM y director del proyecto Alzheimer 3π, Javier de Felipe.
Según De Felipe, que trabaja en el Laboratorio Cajal de Circuitos Corticales del Centro de Tecnología Biomédica (UPM) y en el Instituto Cajal (CSIC), el diseño de nuevos métodos y tecnologías para el desarrollo de un software específico que permita gestionar, consultar y navegar “de una forma interactiva y amigable este vademécum digital y la información multimodal integrada” es otro de los pasos del proyecto.
Despliegue tecnológico
Alzheimer 3π cuenta con la estructura y los recursos humanos y técnicos del Blue Brain Project (Ecole Polytechnique Fédérale de Lausanne, Suiza), denominado en España proyecto Cajal Blue Brain, cuyo fin es realizar ingeniería inversa del cerebro para conocer su funcionamiento y analizar cómo se altera ante diversas enfermedades. El Centro de Tecnología Biomédica, el Centro de Supercomputación y Visualización de Madrid y el Centro de Domótica Integral de la UPM, y el Instituto Cajal del CSIC acogen la mayor parte de las instalaciones donde se lleva a cabo el proyecto.
Entre los recursos tecnológicos que se emplearán en Alzheimer 3π, destaca la “Cueva de realidad virtual de cinco caras”, desarrollada por la UPM y T-Systems, que permitirá reproducir la evolución de la enfermedad mediante simulaciones 3D; “Magerit”, un supercomputador capaz de recrear el cerebro de manera virtual con una potencia pico de cálculo de 103,4 TeraFlops (103.400.000.000.000 operaciones por segundo); el Laboratorio Cajal de Circuitos Corticales, que cuenta con el Microscopio Cross Beam NEON 40 EsB de Zeiss, que realiza reconstrucciones seriadas del cerebro a nivel ultraestructural de forma automática; y el Laboratorio de Neurociencia Cognitiva y Computacional del Centro de Tecnología Biomédica de la UPM, que dispone de uno de los dos magnetoencefalógrafos que hay en España, y que mide de forma directa y no invasiva la actividad neuronal del cerebro.
http://www.upm.es/institucional/UPM/CanalUPM/NoticiasPortada/Contenido/70bde1eab79a5310VgnVCM10000009c7648aRCRD
23.02.12
Un equipo multidisciplinar de investigadores, liderados por la Universidad Politécnica de Madrid (UPM) y el Consejo Superior de Investigaciones Científicas (CSIC), aportará el primer análisis global sobre el Alzheimer. El proyecto, denominado Alzheimer 3π, tiene como principal objetivo la creación de mapas microscópicos del cerebro completo de personas afectadas por la enfermedad.
Para buscar nuevas formas de abordar esta demencia, que en España afecta a unas 650.000 personas, los científicos elaborarán mapas que integrarán información detallada sobre los aspectos clínicos, genéticos, moleculares, funcionales y patológicos. Las conclusiones del trabajo servirán para realizar estudios transversales, simular y recrear modelos de la enfermedad para abordar posibles tratamientos.
Los científicos han detallado algunos de los aspectos fundamentales del proyecto a S.M. la Reina Doña Sofía, que ha recorrido las instalaciones del Campus de Excelencia Internacional de Montegancedo de la UPM, donde se llevan a cabo los aspectos fundamentales del Proyecto Alzheimer 3π. Su visita se enmarca en el convenio de colaboración firmado el pasado 20 de octubre entre la Fundación Reina Sofía, el CSIC, la UPM y la Asociación Nacional del Alzheimer (AFALcontigo) con el objetivo de impulsar la investigación en enfermedades neurodegenerativas, con especial aplicación a esta demencia. Doña Sofía estuvo acompañada por la ministra de Sanidad, Servicios Sociales e Igualdad, Ana Mato, el rector de la UPM, Javier Uceda, y el presidente del CSIC, Emilio Lora-Tamayo.
También han asistido la consejera de Educación y Empleo de la Comunidad de Madrid, Lucía Figar; la secretaria de Estado de Investigación, Desarrollo e Innovación, Carmen Vela; el presidente de la Fundación Reina Sofía, Arturo Coello; y la presidenta de AFALcontigo, Blanca Clavijo, entre otras autoridades.
“El primer paso es el desarrollo de herramientas computacionales para crear un banco de datos con información clínica, epidemiológica, funcional y de neuroimagen, por medio de sistemas de información integrados”, ha detallado el investigador del CSIC/UPM y director del proyecto Alzheimer 3π, Javier de Felipe.
Según De Felipe, que trabaja en el Laboratorio Cajal de Circuitos Corticales del Centro de Tecnología Biomédica (UPM) y en el Instituto Cajal (CSIC), el diseño de nuevos métodos y tecnologías para el desarrollo de un software específico que permita gestionar, consultar y navegar “de una forma interactiva y amigable este vademécum digital y la información multimodal integrada” es otro de los pasos del proyecto.
Despliegue tecnológico
Alzheimer 3π cuenta con la estructura y los recursos humanos y técnicos del Blue Brain Project (Ecole Polytechnique Fédérale de Lausanne, Suiza), denominado en España proyecto Cajal Blue Brain, cuyo fin es realizar ingeniería inversa del cerebro para conocer su funcionamiento y analizar cómo se altera ante diversas enfermedades. El Centro de Tecnología Biomédica, el Centro de Supercomputación y Visualización de Madrid y el Centro de Domótica Integral de la UPM, y el Instituto Cajal del CSIC acogen la mayor parte de las instalaciones donde se lleva a cabo el proyecto.
Entre los recursos tecnológicos que se emplearán en Alzheimer 3π, destaca la “Cueva de realidad virtual de cinco caras”, desarrollada por la UPM y T-Systems, que permitirá reproducir la evolución de la enfermedad mediante simulaciones 3D; “Magerit”, un supercomputador capaz de recrear el cerebro de manera virtual con una potencia pico de cálculo de 103,4 TeraFlops (103.400.000.000.000 operaciones por segundo); el Laboratorio Cajal de Circuitos Corticales, que cuenta con el Microscopio Cross Beam NEON 40 EsB de Zeiss, que realiza reconstrucciones seriadas del cerebro a nivel ultraestructural de forma automática; y el Laboratorio de Neurociencia Cognitiva y Computacional del Centro de Tecnología Biomédica de la UPM, que dispone de uno de los dos magnetoencefalógrafos que hay en España, y que mide de forma directa y no invasiva la actividad neuronal del cerebro.
http://www.upm.es/institucional/UPM/CanalUPM/NoticiasPortada/Contenido/70bde1eab79a5310VgnVCM10000009c7648aRCRD
martes, 20 de diciembre de 2011
Los ordenadores leerán el pensamiento dentro de cinco años, según IBM
La empresa publica sus cinco predicciones técnológicas para el próximo lustro
EL PAÍS - Barcelona - 19/12/2011
Vota
Resultado 4 votos
Comentarios - 2
IBM ha publicado sus cinco predicciones tecnológicas para los próximos cinco años. Los cinco augurios, algunos un tanto optimistas, son: los ciudadanos producirán su propio suministro eléctrico; ya no serán necesarias las contraseñas; los ordenadores leerán el pensamiento; la brecha digital dejará de existir y el correo indeseado se convertirá en información prioritaria. Se trata no solamente de evaluar la disponibilidad de una nueva tecnología. También la probabilidad de su adopción a gran escala. La compañía propone a los internautas que voten la predicción preferida. En el blog donde se publican, a la información textual se añaden vídeos explicativos de cada propuesta.
El primer augurio se basa en el hecho de que el movimiento del cuerpo humano, o de las ruedas de las bicicletas al pedalear, pueden producir energía aprovechable si se dispone del calzado preparado para ello o de bicicletas que puedan recoger la energía creada. También la circulación del agua por las tuberías domésticas puede aprovecharse.Y, a más gran escala, el movimiento de las mareas y las olas de los océanos serán una fuente alternativa de suministro.
También parece lógico que el avance en las tecnologías biométricas, como la lectura del iris, permitan su implantación para que el internauta puede ser reconocido por ellas al entrar en un sitio donde se solicita acreditación o para realizar un movimiento bancario. Ya no necesitará memorizar contraseñas complejas o seguir utilizando claves demasiado sencillas y fáciles de detectar.
Los ingenieros de IBM está convencidos de que los ordenadores podrán interpretar la actividad eléctrica del cerebro. La idea es usar estas sinapsis eléctricas para aplicaciones como realizar una llamada de teléfono o mejorar los procesos de rehabilitación. En el texto ya se sueña con una ciudad donde sus vecinos van equipados con sensores y programas que sepan interpretar esta información cerebral y construir mapas de la salud mental de una población.
El enunciado sobre el final de la brecha digital tiene un posterior matiz. En cinco años, el 80% de la población mundial tendrá acceso a un dispositivo móvil y a través de él, a Internet. Esta población podrá realizar intercambios comerciales, consultas médicas o comunicarse con otras personas gracias a este Internet móvil con un crecimiento exponencial. De todos modos, la brecha no desaparece.
La predicción, o el deseo, de que el correo basura se convierta en prioritario la basan en la aplicación de tecnologías que analicen el contexto y las necesidades del cliente y únicamente remitan información cuando ésta pueda ser útil al mismo en función de la circunstancia en que se halla. ¿Bastará ello para que los distribuidores de spam desistan?
En 2006, IBM predijo para el actual año que termina el desarrollo de la telemedicina, la geolocalización en los móviles, la traducción simultánea por reconocimiento de voz, el empuje de la nanotecnología y, ahí tuvo su mayor fracaso, la implantación de tecnologías 3D.
http://www.elpais.com/articulo/tecnologia/ordenadores/leeran/pensamiento/dentro/anos/IBM/elpeputec/20111219elpeputec_6/Tes
EL PAÍS - Barcelona - 19/12/2011
Vota
Resultado 4 votos
Comentarios - 2
IBM ha publicado sus cinco predicciones tecnológicas para los próximos cinco años. Los cinco augurios, algunos un tanto optimistas, son: los ciudadanos producirán su propio suministro eléctrico; ya no serán necesarias las contraseñas; los ordenadores leerán el pensamiento; la brecha digital dejará de existir y el correo indeseado se convertirá en información prioritaria. Se trata no solamente de evaluar la disponibilidad de una nueva tecnología. También la probabilidad de su adopción a gran escala. La compañía propone a los internautas que voten la predicción preferida. En el blog donde se publican, a la información textual se añaden vídeos explicativos de cada propuesta.
El primer augurio se basa en el hecho de que el movimiento del cuerpo humano, o de las ruedas de las bicicletas al pedalear, pueden producir energía aprovechable si se dispone del calzado preparado para ello o de bicicletas que puedan recoger la energía creada. También la circulación del agua por las tuberías domésticas puede aprovecharse.Y, a más gran escala, el movimiento de las mareas y las olas de los océanos serán una fuente alternativa de suministro.
También parece lógico que el avance en las tecnologías biométricas, como la lectura del iris, permitan su implantación para que el internauta puede ser reconocido por ellas al entrar en un sitio donde se solicita acreditación o para realizar un movimiento bancario. Ya no necesitará memorizar contraseñas complejas o seguir utilizando claves demasiado sencillas y fáciles de detectar.
Los ingenieros de IBM está convencidos de que los ordenadores podrán interpretar la actividad eléctrica del cerebro. La idea es usar estas sinapsis eléctricas para aplicaciones como realizar una llamada de teléfono o mejorar los procesos de rehabilitación. En el texto ya se sueña con una ciudad donde sus vecinos van equipados con sensores y programas que sepan interpretar esta información cerebral y construir mapas de la salud mental de una población.
El enunciado sobre el final de la brecha digital tiene un posterior matiz. En cinco años, el 80% de la población mundial tendrá acceso a un dispositivo móvil y a través de él, a Internet. Esta población podrá realizar intercambios comerciales, consultas médicas o comunicarse con otras personas gracias a este Internet móvil con un crecimiento exponencial. De todos modos, la brecha no desaparece.
La predicción, o el deseo, de que el correo basura se convierta en prioritario la basan en la aplicación de tecnologías que analicen el contexto y las necesidades del cliente y únicamente remitan información cuando ésta pueda ser útil al mismo en función de la circunstancia en que se halla. ¿Bastará ello para que los distribuidores de spam desistan?
En 2006, IBM predijo para el actual año que termina el desarrollo de la telemedicina, la geolocalización en los móviles, la traducción simultánea por reconocimiento de voz, el empuje de la nanotecnología y, ahí tuvo su mayor fracaso, la implantación de tecnologías 3D.
http://www.elpais.com/articulo/tecnologia/ordenadores/leeran/pensamiento/dentro/anos/IBM/elpeputec/20111219elpeputec_6/Tes
miércoles, 14 de diciembre de 2011
Científicos españoles reconstruyen en 3D parte del cerebro de la mosca
La investigación demuestra que el sistema nervioso, en organismos relativamente complejos, optimiza las conexiones entre neuronas
A.R. 7 DIC 2011 - 17:46 CET
Poco a poco, los neurocientíficos están descifrando cómo es y cómo funciona el cerebro y, aunque están lejos aún de dar todas las respuestas, lo cierto que saben mucho más ahora de este órgano complejísimo que hace apenas una década. Una investigación liderada por científicos españoles desvela ahora que en el sistema nervioso están optimizadas las conexiones entre neuronas, es decir, lo que se llama el cableado, en el cerebro organismos relativamente complejos, como la mosca del vinagre, o más precisamente, en una zona concreta de ese animal. Han hecho un mapa tridimensional detallado de esa zona cerebral, lo que ha permitido ubicar cada neurona y calcular el cable necesario en las conexiones. Como recuerda el CSIC, ya lo dijo Santiago Ramón y Cajal: el sistema nervioso está conectado mediante la mínima cantidad de cable posible, optimizando con ello el coste energético y ahorrando espacio.
Gonzalo G. de Polavieja, investigador del Instituto Cajal (del CSIC) y sus colegas de la misma institución, así como de la Universidad Dalhousie (Canadá) y del Instituto Médico Howard Hughes (EE UU) presentan su mapa tridimensional y sus análisis sobre esa zona del cerebro (del sistema visual) en la revista científica Current Biology, mereciendo su trabajo la portada del número de esta quincena.
Los investigadores recuerdan que se había demostrado ya la validez de este principio de economía del cableado en organismos simples, como el gusano Caenorhabditis elegans, pero no, hasta ahora, en el cerebro de organismos complejos, como la mosca del vinagre Drosophila melanogaster (uno de los animales modelo de laboratorio por excelencia). Ellos se han centrado en una región concreta del sistema visual utilizando técnicas de reconstrucción de series de imágenes obtenidas por microscopía electrónica para conocer las formas de las neuronas y la localización de las sinapsis (conexiones), así como el sistema completo de conectividad. Así han obtenido el mapa tridimensional de esa zona cerebral de la mosca.
"Hemos visto que cualquier otra forma de situar las neuronas supondría emplear más cantidad de cable", explica Polavieja. "El estudio demuestra lo observado por Cajal y supone, además, un éxito para la conectómica, una disciplina basada en la reconstrucción de circuitos neuronales en 3D".
Tras obtener la reconstrucción, el equipo ha elaborado un modelo matemático para experimentar moviendo las neuronas en el espacio y determinar su posición, explica el CSIC. "El modelo nos decía dónde había que poner cada neurona para que el cable de conexión fuese mínimo y vimos que las posiciones coincidían con las medidas experimentales en Drosophila".
http://sociedad.elpais.com/sociedad/2011/12/08/actualidad/1323359742_446739.html
A.R. 7 DIC 2011 - 17:46 CET
Poco a poco, los neurocientíficos están descifrando cómo es y cómo funciona el cerebro y, aunque están lejos aún de dar todas las respuestas, lo cierto que saben mucho más ahora de este órgano complejísimo que hace apenas una década. Una investigación liderada por científicos españoles desvela ahora que en el sistema nervioso están optimizadas las conexiones entre neuronas, es decir, lo que se llama el cableado, en el cerebro organismos relativamente complejos, como la mosca del vinagre, o más precisamente, en una zona concreta de ese animal. Han hecho un mapa tridimensional detallado de esa zona cerebral, lo que ha permitido ubicar cada neurona y calcular el cable necesario en las conexiones. Como recuerda el CSIC, ya lo dijo Santiago Ramón y Cajal: el sistema nervioso está conectado mediante la mínima cantidad de cable posible, optimizando con ello el coste energético y ahorrando espacio.
Gonzalo G. de Polavieja, investigador del Instituto Cajal (del CSIC) y sus colegas de la misma institución, así como de la Universidad Dalhousie (Canadá) y del Instituto Médico Howard Hughes (EE UU) presentan su mapa tridimensional y sus análisis sobre esa zona del cerebro (del sistema visual) en la revista científica Current Biology, mereciendo su trabajo la portada del número de esta quincena.
Los investigadores recuerdan que se había demostrado ya la validez de este principio de economía del cableado en organismos simples, como el gusano Caenorhabditis elegans, pero no, hasta ahora, en el cerebro de organismos complejos, como la mosca del vinagre Drosophila melanogaster (uno de los animales modelo de laboratorio por excelencia). Ellos se han centrado en una región concreta del sistema visual utilizando técnicas de reconstrucción de series de imágenes obtenidas por microscopía electrónica para conocer las formas de las neuronas y la localización de las sinapsis (conexiones), así como el sistema completo de conectividad. Así han obtenido el mapa tridimensional de esa zona cerebral de la mosca.
"Hemos visto que cualquier otra forma de situar las neuronas supondría emplear más cantidad de cable", explica Polavieja. "El estudio demuestra lo observado por Cajal y supone, además, un éxito para la conectómica, una disciplina basada en la reconstrucción de circuitos neuronales en 3D".
Tras obtener la reconstrucción, el equipo ha elaborado un modelo matemático para experimentar moviendo las neuronas en el espacio y determinar su posición, explica el CSIC. "El modelo nos decía dónde había que poner cada neurona para que el cable de conexión fuese mínimo y vimos que las posiciones coincidían con las medidas experimentales en Drosophila".
http://sociedad.elpais.com/sociedad/2011/12/08/actualidad/1323359742_446739.html
lunes, 12 de diciembre de 2011
Una reconstrucción en 3D del cerebro de mosca "Drosophila" demuestra que el sistema nervioso ahorra en cable
NOTICIA : BIOLOGÍA
Una reconstrucción en 3D del cerebro de mosca "Drosophila" demuestra que el sistema nervioso ahorra en cable
09/12/2011
Santiago Ramón y Cajal observó que el sistema nervioso está conectado mediante la mínima cantidad de cable posible, optimizando con ello el coste energético y ahorrando espacio. Ahora, 100 años después, una reconstrucción en 3D de una parte del cerebro de la mosca Drosophila melanoganster ha demostrado que este principio de economía de cableado determina la estructura de los circuitos neuronales. El trabajo, liderado por científicos del Consejo Superior de Investigaciones Científicas (CSIC), aparece en el último número de la revista Current Biology.
Mediante técnicas de reconstrucción tridimensional a partir de imágenes de microscopía electrónica en 2D, los investigadores han elaborado un mapa detallado de parte del sistema visual de esta mosca modelo. “Hemos visto que cualquier otra forma de situar las neuronas supondría emplear más cantidad de cable. El estudio demuestra lo observado por Cajal y supone además un éxito para la conectómica, una disciplina basada en la reconstrucción de circuitos neuronales en 3D”, explica el coordinador del estudio, el científico del Instituto Cajal (CSIC) Gonzalo García de Polavieja.
Tras obtener la reconstrucción, el equipo elaboró un modelo matemático para mover las neuronas en el espacio y determinar su posición. “El modelo nos decía dónde había que poner cada neurona para que el cable de conexión fuese mínimo y vimos que las posiciones coincidían con las medidas experimentales en Drosophila”, destaca.
El estudio, en colaboración con científicos del Janelia Farm Research Campus del Howard Hughes Medical Institute (Canadá), abre la vía para elaborar mapas morfológicos detallados del cerebro y profundizar en el estudio de enfermedades. “Seguiremos avanzando hasta tener circuitos más grandes y detectar posibles anomalías en sistemas que no usen el mínimo cable posible”, agrega el investigador.
Fuente: Consejo Superior de Investigaciones Científicas
http://noticias.universia.es/en-portada/noticia/2011/12/09/896192/reconstruccion-3d-cerebro-mosca-drosophila-demuestra-sistema-nervioso-ahorra-cable.html
Una reconstrucción en 3D del cerebro de mosca "Drosophila" demuestra que el sistema nervioso ahorra en cable
09/12/2011
Santiago Ramón y Cajal observó que el sistema nervioso está conectado mediante la mínima cantidad de cable posible, optimizando con ello el coste energético y ahorrando espacio. Ahora, 100 años después, una reconstrucción en 3D de una parte del cerebro de la mosca Drosophila melanoganster ha demostrado que este principio de economía de cableado determina la estructura de los circuitos neuronales. El trabajo, liderado por científicos del Consejo Superior de Investigaciones Científicas (CSIC), aparece en el último número de la revista Current Biology.
Mediante técnicas de reconstrucción tridimensional a partir de imágenes de microscopía electrónica en 2D, los investigadores han elaborado un mapa detallado de parte del sistema visual de esta mosca modelo. “Hemos visto que cualquier otra forma de situar las neuronas supondría emplear más cantidad de cable. El estudio demuestra lo observado por Cajal y supone además un éxito para la conectómica, una disciplina basada en la reconstrucción de circuitos neuronales en 3D”, explica el coordinador del estudio, el científico del Instituto Cajal (CSIC) Gonzalo García de Polavieja.
Tras obtener la reconstrucción, el equipo elaboró un modelo matemático para mover las neuronas en el espacio y determinar su posición. “El modelo nos decía dónde había que poner cada neurona para que el cable de conexión fuese mínimo y vimos que las posiciones coincidían con las medidas experimentales en Drosophila”, destaca.
El estudio, en colaboración con científicos del Janelia Farm Research Campus del Howard Hughes Medical Institute (Canadá), abre la vía para elaborar mapas morfológicos detallados del cerebro y profundizar en el estudio de enfermedades. “Seguiremos avanzando hasta tener circuitos más grandes y detectar posibles anomalías en sistemas que no usen el mínimo cable posible”, agrega el investigador.
Fuente: Consejo Superior de Investigaciones Científicas
http://noticias.universia.es/en-portada/noticia/2011/12/09/896192/reconstruccion-3d-cerebro-mosca-drosophila-demuestra-sistema-nervioso-ahorra-cable.html
miércoles, 23 de noviembre de 2011
Artificial Metaplasticity Neural Network
Mejora en la detección precoz del cáncer de mama
Un estudio realizado en la Universidad Politécnica de Madrid consigue una importante mejora en la clasificación de datos de cáncer de mama.
21.11.11
Investigadores del Grupo de Automatización en Señal y Comunicaciones de la Universidad Politécnica de Madrid (GASC/UPM) aplican un nuevo método de aprendizaje para redes neuronales artificiales inspirado en la metaplasticidad sináptica de las neuronas biológicas, que ha permitido clasificar los patrones de cáncer de mama de la base de datos Wisconsin (WBCD), referencia internacional en mamografías, con una exactitud del 99.63%.
El cáncer es una de las principales causas de mortalidad en todo el mundo y la investigación en su diagnóstico y tratamiento se ha convertido en un tema de vital importancia para la comunidad científica.
La prevención sigue siendo un reto, y la mejor manera de aumentar la supervivencia de los pacientes es a través de la detección temprana. Si las células cancerosas son detectadas antes de su diseminación a otros órganos, la tasa de supervivencia es superior al 97%.
Por esta razón, el uso y perfeccionamiento de clasificadores automáticos que den soporte al diagnóstico médico se ha incrementado notablemente en los últimos tiempos. Estos sistemas de clasificación tratan de minimizar los posibles errores producidos por los especialistas, aumentar el número de diagnosis que pueden realizar en un tiempo dado, y su porcentaje de éxito. La mayoría de estos sistemas están basados en técnicas de inteligencia artificial combinadas con procesado de señal, principalmente: redes neuronales artificiales, análisis wavelet, análisis de imágenes mediante modelos Bayesianos, máquinas de vector soporte, lógica difusa y modelos fractales entre otras potentes técnicas matemáticas.
Es concretamente una red neuronal artificial (AMMLP), entrenada con un nuevo método (Metaplasticidad Artificial) propuesto por el profesor Diego Andina y aplicado a datos de cáncer por el investigador Alexis Marcano-Cedeño, ambos pertenecientes al Grupo de Automatización en Señal y Comunicaciones de la Universidad Politécnica de Madrid (GASC/UPM), la que ha conseguido los mejores resultados hasta el momento.
Metaplasticidad
El concepto de la Metaplasticidad biológica fue definido en 1996 por Abraham W.C. El prefijo “meta” procede del griego y significa “más allá” o “por enciBase de datosma” mientras que la palabra “plasticidad” está relacionada con la capacidad que tienen las neuronas de modificar el valor de la fuerza de las uniones sinápticas. Abraham definió la metaplasticidad como la inducción de los cambios sinápticos en función de la actividad sináptica previa, es decir, que la metaplasticidad depende en buena medida del historial de activación de las sinapsis, y formuló la hipótesis de que la metaplasticidad juega un importante papel en la estabilidad (homeóstasis), eficiencia del aprendizaje y mecanismo de memoria biológica.
Esta base de datos es una de las más conocidas y utilizada para probar algoritmos de clasificación de patrones de cáncer de mama. La WBCD consta de 699 muestras. Cada registro de la base de datos tiene nueve atributos. Se asignan valores enteros de 1 a 10 a las evaluaciones, siendo 1 el más cercano benigno y 10 el más cercano a maligno. Cada muestra se asocia también con una etiqueta de clase, que puede ser “benigno” o “maligno”. Este conjunto de datos contiene 16 entradas con valores de atributos desaparecidos que en este estudio se excluyeron del análisis. La base de datos contiene 444 (65,0%) muestras benignas y 239 (35,0%) muestras malignas.
Comparación y Discusión
Los resultados obtenidos en este estudio se compararon con otros resultados, concretamente con los algoritmos actuales de mayor éxito, sobre la base de datos de Wisconsin.
El AMMLP obtuvo una exactitud en la clasificación de 99,63% en la mejor simulación y un 99,58% como promedio, mejorando los resultados del resto de clasificadores. Además el AMMLP, en comparación con otros algoritmos, exhibe un bajo costo computacional y es fácil de implementar. El éxito del sistema propuesto por los investigadores de la UPM refuerza algunas de las hipótesis de Abraham, y establece otras nuevas, lo que podría dar lugar a consecuencias relevantes no sólo en medicina, sino en la psicología y la cibernética.
Enlaces de interés
A. Marcano-Cedeño, J. Quintanilla-Dominguez, D. Andina. “WBCD Breast Cancer Database Classification Applying Artificial Metaplasticity Neural Network”. Expert Systems with Applications. Vol. 38(8) pp. 9573-9579. 2011
Wiickliffe C. Abraham. “Metaplasticity: Key Element in Memory and Learning?”. News in Physiological Sciences, Vol. 14, No. 2, 85, April 1999
http://www.upm.es/institucional/UPM/CanalUPM/NoticiasPortada/Contenido/1a29c065c55c3310VgnVCM10000009c7648aRCRD
Un estudio realizado en la Universidad Politécnica de Madrid consigue una importante mejora en la clasificación de datos de cáncer de mama.
21.11.11
Investigadores del Grupo de Automatización en Señal y Comunicaciones de la Universidad Politécnica de Madrid (GASC/UPM) aplican un nuevo método de aprendizaje para redes neuronales artificiales inspirado en la metaplasticidad sináptica de las neuronas biológicas, que ha permitido clasificar los patrones de cáncer de mama de la base de datos Wisconsin (WBCD), referencia internacional en mamografías, con una exactitud del 99.63%.
El cáncer es una de las principales causas de mortalidad en todo el mundo y la investigación en su diagnóstico y tratamiento se ha convertido en un tema de vital importancia para la comunidad científica.
La prevención sigue siendo un reto, y la mejor manera de aumentar la supervivencia de los pacientes es a través de la detección temprana. Si las células cancerosas son detectadas antes de su diseminación a otros órganos, la tasa de supervivencia es superior al 97%.
Por esta razón, el uso y perfeccionamiento de clasificadores automáticos que den soporte al diagnóstico médico se ha incrementado notablemente en los últimos tiempos. Estos sistemas de clasificación tratan de minimizar los posibles errores producidos por los especialistas, aumentar el número de diagnosis que pueden realizar en un tiempo dado, y su porcentaje de éxito. La mayoría de estos sistemas están basados en técnicas de inteligencia artificial combinadas con procesado de señal, principalmente: redes neuronales artificiales, análisis wavelet, análisis de imágenes mediante modelos Bayesianos, máquinas de vector soporte, lógica difusa y modelos fractales entre otras potentes técnicas matemáticas.
Es concretamente una red neuronal artificial (AMMLP), entrenada con un nuevo método (Metaplasticidad Artificial) propuesto por el profesor Diego Andina y aplicado a datos de cáncer por el investigador Alexis Marcano-Cedeño, ambos pertenecientes al Grupo de Automatización en Señal y Comunicaciones de la Universidad Politécnica de Madrid (GASC/UPM), la que ha conseguido los mejores resultados hasta el momento.
Metaplasticidad
El concepto de la Metaplasticidad biológica fue definido en 1996 por Abraham W.C. El prefijo “meta” procede del griego y significa “más allá” o “por enciBase de datosma” mientras que la palabra “plasticidad” está relacionada con la capacidad que tienen las neuronas de modificar el valor de la fuerza de las uniones sinápticas. Abraham definió la metaplasticidad como la inducción de los cambios sinápticos en función de la actividad sináptica previa, es decir, que la metaplasticidad depende en buena medida del historial de activación de las sinapsis, y formuló la hipótesis de que la metaplasticidad juega un importante papel en la estabilidad (homeóstasis), eficiencia del aprendizaje y mecanismo de memoria biológica.
Esta base de datos es una de las más conocidas y utilizada para probar algoritmos de clasificación de patrones de cáncer de mama. La WBCD consta de 699 muestras. Cada registro de la base de datos tiene nueve atributos. Se asignan valores enteros de 1 a 10 a las evaluaciones, siendo 1 el más cercano benigno y 10 el más cercano a maligno. Cada muestra se asocia también con una etiqueta de clase, que puede ser “benigno” o “maligno”. Este conjunto de datos contiene 16 entradas con valores de atributos desaparecidos que en este estudio se excluyeron del análisis. La base de datos contiene 444 (65,0%) muestras benignas y 239 (35,0%) muestras malignas.
Comparación y Discusión
Los resultados obtenidos en este estudio se compararon con otros resultados, concretamente con los algoritmos actuales de mayor éxito, sobre la base de datos de Wisconsin.
El AMMLP obtuvo una exactitud en la clasificación de 99,63% en la mejor simulación y un 99,58% como promedio, mejorando los resultados del resto de clasificadores. Además el AMMLP, en comparación con otros algoritmos, exhibe un bajo costo computacional y es fácil de implementar. El éxito del sistema propuesto por los investigadores de la UPM refuerza algunas de las hipótesis de Abraham, y establece otras nuevas, lo que podría dar lugar a consecuencias relevantes no sólo en medicina, sino en la psicología y la cibernética.
Enlaces de interés
A. Marcano-Cedeño, J. Quintanilla-Dominguez, D. Andina. “WBCD Breast Cancer Database Classification Applying Artificial Metaplasticity Neural Network”. Expert Systems with Applications. Vol. 38(8) pp. 9573-9579. 2011
Wiickliffe C. Abraham. “Metaplasticity: Key Element in Memory and Learning?”. News in Physiological Sciences, Vol. 14, No. 2, 85, April 1999
http://www.upm.es/institucional/UPM/CanalUPM/NoticiasPortada/Contenido/1a29c065c55c3310VgnVCM10000009c7648aRCRD
miércoles, 26 de octubre de 2011
IBM planea desarrollar un cerebro humano artificial en 10 años
EN 10 AÑOS
IBM planea desarrollar un cerebro humano artificial en 10 años
Otro proyecto en el que está trabajando la compañía es la creación del superordenador más potente del mundo, que estará listo en dos años
Ciencia | 11/10/2011 - 08:24h
Madrid (Portaltic/EP) La compañía IBM está trabajando duro para tener listo en la próxima década su proyecto más ambicioso hasta el momento. La compañía espera tener listo para dentro de 10 años un cerebro humano artificial, que contará con un rendimiento equivalente al mismo número de neuronas que el cerebro humano, más de 100.000 millones.
Otro proyecto en el que está trabajando la compañía es la creación del superordenador más potente del mundo, que estará listo en dos años. La creación de un cerebro humano artificial es uno de los últimos objetivos de la compañía IBM.
El primer paso hacia este cerebro artificial se conocía el pasado mes de agosto, cuando IBM aseguró que estaba desarrollando un chip que imita el funcionamiento del cerebro humano.
La nueva generación de chips imitan las habilidades de percepción, acción y proceso cognitivo del cerebro humano, decidiendo de forma dinámica e independientemente cómo interactúa con los distintos sensores electrónicos de los dispositivos.
Pero ahora IBM asegura que un completo cerebro humano artificial estará listo para dentro de una década, tal y como recoge Talking Points Memo (TPM).
Para realizar este proyecto, IBM trabaja en colaboración con la Defense Advanced Research Projects Agency (DARPA). Ambos, ya han creado un ordenador que simula el mismo número de neuronas de un gato.
Para el funcionamiento de este cerebro artificial serán necesarios 20 vatios de electricidad. El vicepresidente y director de la investigación de IBM, John Kelly explicó durante una conferencia en Capitol Hill, Seattle (EE.UU.) que "los sistemas informáticos están cada vez más bioinspirados".
Además, Kelly también explicó el deseo de la compañía de crear un superordenador que funciona con menos de 85 KW de electricidad, es decir, menos de la electricidad necesaria para 'Watson', un sistema informático muy avanzado de preguntas y respuestas, presentado por IBM en 2010.
"IBM tiene una rica historia en cuanto a invención y adaptación de nuevas tecnologías", añadió Kelly.
Además aseguró que desde IBM mejoran de forma continua sus innovaciones. "Pensamos que esto es necesario para tener éxito a largo plazo", conluyó.
http://www.lavanguardia.com/ciencia/20111011/54229749794/ibm-planea-desarrollar-un-cerebro-humano-artificial-en-10-anos.html
IBM planea desarrollar un cerebro humano artificial en 10 años
Otro proyecto en el que está trabajando la compañía es la creación del superordenador más potente del mundo, que estará listo en dos años
Ciencia | 11/10/2011 - 08:24h
Madrid (Portaltic/EP) La compañía IBM está trabajando duro para tener listo en la próxima década su proyecto más ambicioso hasta el momento. La compañía espera tener listo para dentro de 10 años un cerebro humano artificial, que contará con un rendimiento equivalente al mismo número de neuronas que el cerebro humano, más de 100.000 millones.
Otro proyecto en el que está trabajando la compañía es la creación del superordenador más potente del mundo, que estará listo en dos años. La creación de un cerebro humano artificial es uno de los últimos objetivos de la compañía IBM.
El primer paso hacia este cerebro artificial se conocía el pasado mes de agosto, cuando IBM aseguró que estaba desarrollando un chip que imita el funcionamiento del cerebro humano.
La nueva generación de chips imitan las habilidades de percepción, acción y proceso cognitivo del cerebro humano, decidiendo de forma dinámica e independientemente cómo interactúa con los distintos sensores electrónicos de los dispositivos.
Pero ahora IBM asegura que un completo cerebro humano artificial estará listo para dentro de una década, tal y como recoge Talking Points Memo (TPM).
Para realizar este proyecto, IBM trabaja en colaboración con la Defense Advanced Research Projects Agency (DARPA). Ambos, ya han creado un ordenador que simula el mismo número de neuronas de un gato.
Para el funcionamiento de este cerebro artificial serán necesarios 20 vatios de electricidad. El vicepresidente y director de la investigación de IBM, John Kelly explicó durante una conferencia en Capitol Hill, Seattle (EE.UU.) que "los sistemas informáticos están cada vez más bioinspirados".
Además, Kelly también explicó el deseo de la compañía de crear un superordenador que funciona con menos de 85 KW de electricidad, es decir, menos de la electricidad necesaria para 'Watson', un sistema informático muy avanzado de preguntas y respuestas, presentado por IBM en 2010.
"IBM tiene una rica historia en cuanto a invención y adaptación de nuevas tecnologías", añadió Kelly.
Además aseguró que desde IBM mejoran de forma continua sus innovaciones. "Pensamos que esto es necesario para tener éxito a largo plazo", conluyó.
http://www.lavanguardia.com/ciencia/20111011/54229749794/ibm-planea-desarrollar-un-cerebro-humano-artificial-en-10-anos.html
domingo, 16 de octubre de 2011
The Human Brain Project (HBP)
Introduction
The brain, with its billions of interconnected neurons, is without any doubt the most complex organ in the body and it will be a long time before we understand all its mysteries. The Human Brain Project proposes a completely new approach. The project is integrating everything we know about the brain into computer models and using these models to simulate the actual working of the brain. Ultimately, it will attempt to simulate the complete human brain. The models built by the project will cover all the different levels of brain organisation – from individual neurons through to the complete cortex. The goal is to bring about a revolution in neuroscience and medicine and to derive new information technologies directly from the architecture of the brain.
The challenges facing the project are huge. Neuroscience alone produces more than 60'000 scientific papers every year. From this enormous mass of information, the project will have to select and harmonise the data it is going to use – ensuring that data produced with different methods is fully comparable.
The data feeding the project's simulation effort will come from the clinic and from neuroscience experiments. As we try to fit all the information together, we will discover many of the brain's fundamental design secrets: the geometry and electrical behaviour of different classes of neurons, the way they connect to form circuits, and the way new functions emerge as more and more neurons connect. It is these principles, translated into mathematics that will drive the project's models and simulations.
Today, simulating a single neuron requires the full power of a laptop computer. But the brain has billions of neurons and simulating all them simultaneously is a huge challenge. To get round this problem, the project will develop novel techniques of multi-level simulation in which only groups of neurons that are highly active are simulated in detail. But even in this way, simulating the complete human brain will require a computer a thousand times more powerful than the most powerful machine available today. This means that some of the key players in the Human Brain Project will be specialists in supercomputing. Their task: to work with industry to provide the project with the computing power it will need at each stage of its work.
The Human Brain Project will impact many different areas of society. Brain simulation will provide new insights into the basic causes of neurological diseases such as autism, depression, Parkinson's, and Alzheimer's. It will give us new ways of testing drugs and understanding the way they work. It will provide a test platform for new drugs that directly target the causes of disease and that have fewer side effects than current treatments. It will allow us to design prosthetic devices to help people with disabilities. The benefits are potentially huge. As world populations grow older, more than a third will be affected by some kind of brain disease. Brain simulation provides us with a powerful new strategy to tackle the problem.
The project also promises to become a source of new Information Technologies. Unlike the computers of today, the brain has the ability to repair itself, to take decisions, to learn, and to think creatively - all while consuming no more energy than an electric light bulb. The Human Brain Project will bring these capabilities to a new generation of neuromorphic computing devices, with circuitry directly derived from the circuitry of the brain. The new devices will help us to build a new generation of genuinely intelligent robots to help us at work and in our daily lives.
The Human Brain Project builds on the work of the Blue Brain Project. Led by Henry Markram of the Ecole Polytechnique Fédérale de Lausanne (EPFL), the Blue Brain Project has already taken an essential first towards simulation of the complete brain. Over the last six years, the project has developed a prototype facility with the tools, know-how and supercomputing technology necessary to build brain models, potentially of any species at any stage in its development. As a proof of concept, the project has successfully built the first ever, detailed model of the neocortical column, one of the brain's basic building blocks.
http://www.humanbrainproject.eu/introduction.html
http://www.humanbrainproject.eu/
The brain, with its billions of interconnected neurons, is without any doubt the most complex organ in the body and it will be a long time before we understand all its mysteries. The Human Brain Project proposes a completely new approach. The project is integrating everything we know about the brain into computer models and using these models to simulate the actual working of the brain. Ultimately, it will attempt to simulate the complete human brain. The models built by the project will cover all the different levels of brain organisation – from individual neurons through to the complete cortex. The goal is to bring about a revolution in neuroscience and medicine and to derive new information technologies directly from the architecture of the brain.
The challenges facing the project are huge. Neuroscience alone produces more than 60'000 scientific papers every year. From this enormous mass of information, the project will have to select and harmonise the data it is going to use – ensuring that data produced with different methods is fully comparable.
The data feeding the project's simulation effort will come from the clinic and from neuroscience experiments. As we try to fit all the information together, we will discover many of the brain's fundamental design secrets: the geometry and electrical behaviour of different classes of neurons, the way they connect to form circuits, and the way new functions emerge as more and more neurons connect. It is these principles, translated into mathematics that will drive the project's models and simulations.
Today, simulating a single neuron requires the full power of a laptop computer. But the brain has billions of neurons and simulating all them simultaneously is a huge challenge. To get round this problem, the project will develop novel techniques of multi-level simulation in which only groups of neurons that are highly active are simulated in detail. But even in this way, simulating the complete human brain will require a computer a thousand times more powerful than the most powerful machine available today. This means that some of the key players in the Human Brain Project will be specialists in supercomputing. Their task: to work with industry to provide the project with the computing power it will need at each stage of its work.
The Human Brain Project will impact many different areas of society. Brain simulation will provide new insights into the basic causes of neurological diseases such as autism, depression, Parkinson's, and Alzheimer's. It will give us new ways of testing drugs and understanding the way they work. It will provide a test platform for new drugs that directly target the causes of disease and that have fewer side effects than current treatments. It will allow us to design prosthetic devices to help people with disabilities. The benefits are potentially huge. As world populations grow older, more than a third will be affected by some kind of brain disease. Brain simulation provides us with a powerful new strategy to tackle the problem.
The project also promises to become a source of new Information Technologies. Unlike the computers of today, the brain has the ability to repair itself, to take decisions, to learn, and to think creatively - all while consuming no more energy than an electric light bulb. The Human Brain Project will bring these capabilities to a new generation of neuromorphic computing devices, with circuitry directly derived from the circuitry of the brain. The new devices will help us to build a new generation of genuinely intelligent robots to help us at work and in our daily lives.
The Human Brain Project builds on the work of the Blue Brain Project. Led by Henry Markram of the Ecole Polytechnique Fédérale de Lausanne (EPFL), the Blue Brain Project has already taken an essential first towards simulation of the complete brain. Over the last six years, the project has developed a prototype facility with the tools, know-how and supercomputing technology necessary to build brain models, potentially of any species at any stage in its development. As a proof of concept, the project has successfully built the first ever, detailed model of the neocortical column, one of the brain's basic building blocks.
http://www.humanbrainproject.eu/introduction.html
http://www.humanbrainproject.eu/
Suscribirse a:
Entradas (Atom)