domingo, 13 de diciembre de 2015

El ordenador cuántico de Google funciona

ÁNGEL JIMÉNEZ DE LUIS - Nueva York

ACTUALIZADO 10/12/2015 10:07

Tras realizar varias pruebas a lo largo de los dos últimos años, Google ha confirmado que los ordenadores cuánticos, máquinas que aprovechan las extrañas propiedades de la materia a escala subatómica, no sólo funcionan sino que pueden llegar a ser increíblemente rápidos, mucho más que los construidos con procesadores tradicionales.

El gigante de la red adquirió hace dos años junto a la NASA uno de los ordenadores cuánticos de la empresa D-Wave, la primera en fabricar este tipo de máquinas. Ayer, en un evento celebrado en el centro de desarrollo Ames de la NASA en California, Google mostró algunos de los resultados conseguidos con la segunda generación de procesadores de D-Wave y confirmó que para ciertas tareas, este tipo de procesadores podrían llegar a ser hasta 100 millones de veces más rápidos que el de un ordenador convencional.

La expresión "ciertas tareas" es la clave de este anuncio. Los ordenadores cuánticos no pueden utilizarse para aplicaciones tradicionales, sólo son útiles en problemas muy específicos para los que la naturaleza binaria de la informática general no resulta efectiva. Estas tareas, sin embargo, podrían tener importantes aplicaciones en la descodificación de mensajes cifrados o el desarrollo de sistemas de inteligencia artificial.

Hasta ahora, nadie había podido confirmar que las máquinas de D-Wave operaban realmente aprovechando las propiedades cuánticas de la materia y muchos expertos habían acusado a la empresa de exagerar las posibilidades de su producto.

El responsable de la división de computación cuántica de Google, Hartmut Neven, asegura que estos resultados, disponibles en el blog de Google Research, son "intrigantes y muy alentadores", aunque hay todavía mucho trabajo que hacer para convertir este tipo de máquinas en una tecnología práctica.


http://www.elmundo.es/tecnologia/2015/12/10/56693fccca4741497f8b45fc.html

sábado, 28 de noviembre de 2015

El atlas más fino del cerebro

Un equipo internacional reconstruye la mente de una mujer en 3D en una resolución casi celular

El ‘BigBrain’ abre una vía para entender las bases neurobiológicas de la cognición, el lenguaje y las emociones, investigar enfermedades y desarrollar fármacos

JAVIER SAMPEDRO | 20 JUN 2013 - 17:36 CET

Procesamiento de las capas del cerebro. / AMUNTS, ZILLES, EVAN ET AL (SCIENCE)

El sueño de un neurocientífico es llegar a conocer el cerebro humano con la misma precisión que el sistema nervioso del gusano Caenorhabditis elegans, cuyas 100 neuronas exactas con todas sus conexiones sinápticas son desde hace años un libro abierto para la ciencia. Y hoy se acercan más que nunca a ese ideal con BigBrain, una reconstrucción digital del cerebro humano completo en 3D y ultra-alta resolución que deja muy atrás a cualquier iniciativa anterior de este estilo. BigBrain es la herramienta esencial que necesitan los laboratorios neurológicos de todo el mundo para elucidar la forma y la función de nuestro cerebro. Y estará disponible públicamente a coste cero.

Hasta ahora existen otros atlas del cerebro, pero solo llegan al nivel macroscópico, o visible. Su resolución solo llega al nivel de un milímetro cúbico, y en ese volumen de cerebro caben fácilmente unas 1.000 neuronas. El nuevo BigBrain baja el foco hasta un nivel “casi celular”, según los científicos que lo han creado. Eso quiere decir que llega a discriminar cada pequeño circuito de neuronas que está detrás de nuestra actividad mental, y que puede abarcar toda la información disponible sobre el cerebro, desde los genes y los receptores de neurotransmisores hasta la cognición y el comportamiento.

El cerebro de referencia se basa en el de una mujer fallecida a los 65 años, que ha sido fileteado en 7.400 secciones histológicas de solo 20 micras (el espesor de un cabello, y cerca de la dimensión de una célula). El BigBrain, según sus creadores, abre el camino para entender las bases neurobiológicas de la cognición, el lenguaje y las emociones, y también para investigar las enfermedades neurológicas y desarrollar fármacos contra ellas. El modelo se presenta en Science y estará disponible para usuarios registrados en http://bigbrain.cbrain.mcgill.ca.

El trabajo ha sido coordinado por Katrin Amunts, del Instituto de Neurociencia y Medicina de Jülich, en Alemania; y Alan Evans del Instituto Neurológico de la Universidad McGill en Montreal, Canadá. Ambos explicaron su investigación en una teleconferencia para la prensa junto al editor de Science, Peter Stern.

Tal vez la línea celular humana más utilizada por los laboratorios de todo el mundo durante el último medio siglo sea la línea HeLa; el cultivo proviene de un tumor de útero que le fue extirpado en 1951 a una paciente llamada Henrietta Lacks (de ahí el nombre de la línea) que, pese a haber muerto unos meses después de la operación, consiguió así una singular forma de inmortalidad.

No es extraño que los periodistas mostraran ayer un especial interés en la mujer de 65 años que ha visto inmortalizado su cerebro como un modelo digital que pervivirá durante siglos o milenios. Quién sabe si la neurociencia del futuro será capaz de reconstruir a partir de BigBrain los pensamientos y deseos más ocultos de esa mujer, los recovecos de sus emociones y las ambigüedades de su moralidad. Eso es desnudarse para la posteridad, ríanse ustedes de una autobiografía.

La insistencia de los medios, sin embargo, se topó con el compromiso insobornable de los científicos de preservar la intimidad de la mujer fallecida. Ni Amunts, ni Evans ni su colega Karl Zilles, ni por supuesto el editor de Science que había organizado la comparecencia, quisieron dar noticia sobre la vida que, de algún modo, han registrado para la posteridad. Amunts se limitó a decir que “carecía de un historial neurológico o psiquiátrico”, y que en ese sentido “es lo que llamaríamos un cerebro normal”. Este hecho, al menos, nos aparta del mito de Frankenstein por una vez.

“Los autores han ampliado los límites de la tecnología actual”, dijo Stern, que ve la investigación, en cierto modo, como la consecuencia natural del trabajo de los neuroanatomistas clásicos, con Cajal a la cabeza, que sentaron hace un siglo las bases de la descripción estructural del cerebro humano. La mayor parte de la gente, incluidos los estudiantes de medicina, tiende a ver la anatomía como un tostón fastidioso si bien ineludible para aprobar el curso.

Pero si la biología nos ha enseñado una lección es que la forma explica la función, que entender el funcionamiento de un sistema biológico empieza siempre por ver su estructura. Recuerden la genética: la mera, simple y desnuda forma de la doble hélice del ADN, donde las letras de una hilera se complementan con las de la otra, explica por sí sola que los seres vivos puedan sacar copias de sí mismos. También la forma de las proteínas, con sus hélices y sus hojas y sus caprichosos plegamientos, suele explicar lo que hace cada una de ellas, desde quemar el azúcar que comemos hasta activar las neuronas que nos hacen pensar.

Stern, como muchos otros científicos, está convencido de que esa ley no formulada de la biología tiene jurisdicción también sobre el cerebro, sobre los mecanismos de nuestra vida mental. Somos formas. “Este trabajo puede verse como una culminación de la anatomía”, dijo el editor de Science. “Sin un profundo conocimiento de la estructura del cerebro nunca entenderemos el resto de la neurobiología”.

Evans también proclamó: “La gran ciencia ha llegado al cerebro”. El eslogan es una referencia velada a los proyectos genoma y los aceleradores de partículas, que ya implican cifras de seis dígitos, programación a medio plazo y unos equipos científicos cuyas firmas rara vez caben en la página de la revista científica donde se publican. Pese a que hay cientos de laboratorios en el mundo investigando en neurobiología, el cerebro no contaba hasta ahora con una gran planificación de este tipo, como las que se usan para secuenciar el genoma humano o encontrar el bosón de Higgs. La gran ciencia ha llegado al cerebro.

Pese a la indudable profundidad de las cuestiones implicadas, los grandes logros del trabajo han sido de tipo técnico. “El proyecto ha sido un tour de force para ensamblar las imágenes de más de 7.400 secciones histológicas individuales”, explica Evans, “cada una con sus propias distorsiones, rasgaduras y desgarrones, en un todo coherente, un volumen en tres dimensiones. BigBrain permite por primera vez una exploración en 3D de la anatomía citoarquitectónica humana”. El prefijo cito significa célula, y en boca de Evans quiere enfatizar la gran resolución de su modelo, cercana al nivel celular: muy cerca del sueño del gusano Caenorhabditis elegans.

Los científicos tomaron el cerebro de la mujer muerta a los 65 años y lo encastraron en cera de parafina, un paso previo usual antes de una disección fina. Y esta fue finísima: las lonchas solo tenían 20 micras (milésimas de milímetro) de espesor. Ni siquiera un científico alemán tiene el pulso tan firme como para hacer eso, y los investigadores usaron una máquina especial para ese propósito, un microtomo gigantesco.

Las finísimas lonchas del cerebro de la mujer se montaron en portaobjetos y se trataron con sustancias que tiñen las estructuras celulares más importantes, muy a la Cajal o a la Golgi, si se mira bien. Lo que jamás podrían haber soñado esos grandes neurólogos del pasado es el prodigioso poder de computación, y la sofisticación de las matemáticas asociadas, al que tiene acceso la ciencia actual. Con todo, recolectar los datos llevó cerca de 1.000 horas, y los robots todavía no lo pueden hacer todo.

BigBrain, el gran mapa en 3D y resolución “casi celular” que ya forma parte del dominio público, es un gran paso hacia el entendimiento profundo del cerebro y la mente. Su objetivo no es otro que comprender los fundamentos neurobiológicos del aprendizaje y la adquisición de conocimiento, del lenguaje y las emociones, de la torpeza y de la creatividad humana. Es público y gratis, y de momento no sirve para espiar a nadie.


http://sociedad.elpais.com/sociedad/2013/06/20/actualidad/1371742600_459472.html

sábado, 14 de noviembre de 2015

New growth for optical coherence tomography

08 May 2008

Optical coherence tomography is an emerging medical imaging technology with an ever growing list of applications. Marie Freebody speaks to James Fujimoto to find out more.

James Fujimoto is a professor at the Massachusetts Institute of Technology in the US and is one of the key players responsible for the invention and development of optical coherence tomography (OCT) in the early 1990s. Fujimoto also has an active commercial side and has co-founded two companies, one of which was acquired by Zeiss and led to the first OCT instrument for clinical ophthalmology. The second company is currently developing intravascular and endoscopic OCT.

Can you explain how OCT works?
OCT enables micron-scale, cross-sectional and three-dimensional (3D) imaging of biological tissues in situ and in real time. The technique measures the echo time delay and intensity of backscattered light using interferometry with broadband light sources or with frequency swept lasers. The approach is analogous to ultrasound, except that imaging is performed by measuring light rather than sound. The imaging depths are typically around 2 mm, which is shallow compared with ultrasound. However, OCT can provide much higher image resolutions of a few microns.

Two-dimensional (2D), cross-sectional OCT images of tissue are constructed by scanning the optical beam and performing axial measurements of light echoes at different transverse positions. The result is a 2D array, which represents the backscattering in a cross-sectional slice of the tissue. 3D imaging can also be performed by using a 2D scan pattern.

Why is it important to develop OCT?
OCT can function as a type of "optical biopsy", imaging tissue microstructure in situ and in real time without removing and processing tissue specimens. OCT can be used where excisional biopsy would be hazardous or impossible, such as imaging the retina, coronary arteries or nervous tissues. There is considerable interest in developing OCT to guide excisional biopsy, to reduce false negatives and improve imaging sensitivity. Since OCT can see beneath the surface of tissue, it can also be used to guide surgical interventional procedures. OCT also has the advantage that it can perform repeated imaging over a period of time and therefore monitor the progression of disease or response to therapy.

What are the main applications and when do you expect them to occur?
OCT has had the largest impact in ophthalmology where it can be used to create cross-sectional images of retinal pathology with higher resolution than any other non-invasive imaging technique. In addition, image information can be quantitatively analyzed to measure specific features, such as retinal thickness or nerve fibre layer thickness, which are indicators of diabetic retinopathy or glaucoma.

OCT is also being developed for intravascular imaging, where it shows promise for assessing unstable plaque in coronary arteries and guiding interventional procedures, such as stent placement.

Additional applications include guiding biopsy for cancer detection and guiding surgical procedures. OCT is also having a powerful impact in fundamental research in areas ranging from small animal imaging, which is important for pharmaceutical discovery and development, to non-destructive evaluation of materials.

What would you say is the most important recent advance?
One of the most powerful recent advances in OCT is the development of "Fourier domain" detection methods. Conventional OCT technology used scanning low coherence interferometers and measured echoes of light sequentially as a function of time. In contrast, Fourier domain detection measures the spectrum of the interference using a broadband light source and a high-speed spectrometer, or a swept laser light source and detectors. Information on the echo time delay of light is obtained by Fourier transforming the interference spectrum.

The new technique enables imaging to be performed between 50 and 500 times faster than previously possible. This is a powerful advance because the extremely high speeds enable 3D imaging to be performed in vivo. 3D-OCT provides comprehensive volumetric information on structure and promises to dramatically enhance visualization and diagnostic performance.

What are the key challenges left to overcome in this field?
Perhaps the most challenging issue is to translate the technology from the laboratory to the clinic. The clinical environment is completely different from the research environment in the university and requires a team of investigators who understand and work effectively in both environments. This type of research and development is extremely complex, but advances can have a significant impact on healthcare and represent an important contribution to society.

What do you think the next big breakthrough will be?
It is tempting to think about scientific advances in terms of breakthroughs, but I don't believe that this is necessarily the case. Most of the time advances are made by individual research groups performing dedicated work on a series of highly specific problems or applications. A series of evolutionary advances, taken together, can create a major, revolutionary advance.

• This article originally appeared in the May 2008 issue of Optics & Laser Europe magazine.

View pdf of article


http://optics.org/article/34127

lunes, 10 de agosto de 2015

La búsqueda del cerebro virtual

* El Centro de Tecnología Biomédica juega un papel clave en el proyecto europeo Human Brain, que intenta simular la mente

PABLO YARNOZ / PAU SANCLEMENTE / ÁNGEL LUIS SUCASAS | 22 JUL 2015 - 18:13 CEST

La tarea es titánica. Tratar de simular el comportamiento completo del cerebro. Lograr un doble digital de la mente que pueda ser diseccionado virtualmente por científicos de todo el mundo. Es el Human Brain Project, la joya de la corona, no exenta de polémica, del Horizonte 2020, el programa de la Unión Europea con 76.880 millones de euros de presupuesto que fija esa fecha para abordar los grandes retos científicos desarrollados en el marco europeo entre 2014 y 2020.

En el Centro de Tecnología Biomédica (CTB) de la Universidad Politécnica de Madrid contribuye de manera esencial a esta búsqueda del cerebro virtual. “Somos 14 laboratorios en el centro. Y posiblemente la mitad o más están vinculados al Human Brain Project”, explica Francisco del Pozo, director del CTB. Las áreas son múltiples, desde el modelado matemático de las estructuras neuronales al análisis con microscopía electrónica de tejido cerebral de ratones para avanzar en el conocimiento de dichas estructuras. Y cada laboratorio integra y coordina su esfuerzo al conjunto de investigadores europeos para ir avanzando un paso más hacia ese cerebro virtual.

La tecnología juega un papel fundamental en esta meta. Ángel Merchant, investigador del CTB, se encarga de investigar, por microscopía electrónica, la estructura interna del cerebro. La idea es hacer lonchas de una muestra de tejido cerebral. Se cava una trinchera en dicha muestra y se toman fotografías sucesivas. Luego se procesan informáticamente para obtener una representación tridimensional. Para ello se usan ratones, que a la vista de la microscopía electrónica, según explica Merchant son "indistinguibles" en sus sinapsis (las conexiones entre neuronas) de un cerebro humano.

La reconstrucción digital que realizan neurólogos como Merchant es el mapamundi para que otros científicos exploren esta mente de unos y ceros. En la caverna de realidad virtual del centro, investigadores como José María Peña se calan un visor como los venideros Oculus o Morpheus para sumergirse por una representación 3D del dédalo neuronal. "Esto nos permite navegar por el cerebro y simular los efectos de drogas experimentales para ver in situ el efecto que tiene en los circuitos del cerebro", explica Peña.

¿Por qué tal esfuerzo? Del Pozo lo explica: “¿Qué beneficios podría tener este modelo? Pues tenemos que demostrarlos, pero la idea es que podríamos simular cualquier cosa, desde un fármaco a una patología, y ver sus efectos en el cerebro sin tener que recurrir a una intervención quirúrgica”. Fernando Maetzu, director del laboratorio de Ciencias Cognitivas del centro, también ve la meta, de lograrse, como un hito: "Si yo tengo un cerebro virtual, me ahorraría muchísimo dinero y muchísimos años de investigación".


http://elpais.com/elpais/2015/07/16/ciencia/1437041752_556220.html

domingo, 5 de julio de 2015

La nueva era de la computación

* En el Centro de Investigación T. J. Watson de IBM en Nueva York cientos de ingenieros desarrollan un superordenador capaz de procesar ‘big data’ mediante un sistema cognitivo

* Su nombre es Watson, y aspira a facilitar decisiones de gran complejidad, desde comprar una empresa hasta acertar en un diagnóstico médico

* FOTOGALERÍA El centro que revoluciona la informática

VICENTE JIMÉNEZ | 5 JUL 2015 - 00:00 CEST

Imagen de una demostración del superordenador Watson, sus aplicaciones y potencial, en la sede central de Watson IBM en Nueva York.

Watson, necesitamos ayuda para la adquisición de un empresa.

Watson. Hola. ¿Cómo puedo ayudarles?

Brian Gaucher. Watson, muéstrame compañías de Estados Unidos con unos ingresos de entre 25 y 60 millones de dólares relacionadas con la analítica de datos.

W. Veamos qué puedo encontrar… [transcurren un par de segundos] 87 empresas.

B. G. De acuerdo. Es un buen comienzo. ¿Qué te parece, Andy?

Andy Aaron. Bien. Deberíamos utilizar un documento del grupo de estrategia de la división de IBM que comercializa Watson. Hay muchos conceptos clave en ella. Vamos a suministrárselos a Watson [los científicos introducen la información en el sistema].

B. G. Watson, por favor, considera esto como la estrategia cognitiva.

A. A. Watson, enséñame empresas dedicadas a la analítica de datos y a la estrategia cognitiva que sean las más parecidas a Wolfram Alpha y Kawasaki Robotics.

W. He encontrado tres empresas parecidas a las que me has especificado.

A. A. Fantástico. Comparemos estas empresas. Watson, enséñame una tabla de decisiones [la pantalla muestra una especie de hoja de Excel con las celdas vacías].

B. G. Watson, por favor, coloca a las empresas Wolfram Alpha, Kawasaki Robotics, Raytheon BBN Technologies, Decisive Analytics y Cognilytics en la tabla de decisiones.

W. De acuerdo [la pantalla muestra la nueva información en las celdas de la tabla de decisión].

B. G. Necesitamos algo más que eso: otros atributos. Watson, incluye los atributos “beneficios”, “empleados” y “estructura empresarial” en la tabla de decisiones.

W. De acuerdo.

B. G. Ahora tenemos la comparación entre ellas. Watson, dame una sugerencia sobre qué empresa deberíamos comprar.

W. Tengo una sugerencia…

En el laboratorio del Centro de Investigación T. J. Watson de IBM en Nueva York, en Yorktown, a una hora al norte de Manhattan y en medio de frondosos bosques, ocurren cosas asombrosas: hombres que charlan con una máquina para decidir la adquisición de una empresa; médicos que dialogan con una tableta en busca del diagnóstico de la extraña enfermedad que aqueja a un niño; ingenieros de una empresa petrolera que rastrean en la nube cómo reducir la incertidumbre de sus costosísimas prospecciones en el océano; cocineros que analizan en una interfaz la pertinencia de una nueva receta a partir de la composición molecular de sus ingredientes; científicos que escrutan los genes de una persona para aplicarle un determinado tratamiento contra el cáncer; asesores financieros que manejan algoritmos para predecir el funcionamientos del mercado y evitar burbujas financieras, o técnicos municipales que escarban en la información de miles de sensores repartidos por toda la ciudad para evitar futuras inundaciones.

Brian Gaucher y Andy Aaron son científicos del laboratorio de sistemas simbiótico-cognitivos de IBM. Watson es un supercomputador. Y El País Semanal ha sido testigo en Yorktown de una nueva relación entre la máquina y el hombre. Gaucher y Aaron debían simular la compra de una empresa. Su interlocutor era una pantalla de varios metros cuadrados que reproducía por escrito sus palabras y ofrecía los datos que le eran requeridos: un sistema cognitivo. Máquina y hombres se comunicaron con la palabra.

Gaucher, Aaron y cientos de científicos e ingenieros de IBM trabajan en el nuevo gran paso de la computación, lo que muchos consideran una nueva era del conocimiento. Son los sistemas cognitivos, ordenadores que aprenden. El fenómeno tiene un nombre de pila: Watson, en honor al fundador e histórico presidente de IBM, Thomas J. Watson.

Se trata del gran proyecto de la compañía para convertir la información masiva de nuestro mundo, el big data, en un nuevo recurso, como el gas o el petróleo, en una nueva fuente de energía con la que interactuar como nunca hasta ahora, en un camino que promete cambiar la vida de las personas. Watson es también, cómo no, un gran negocio con el que IBM confía en ingresar miles de millones de dólares.

Si las máquinas y la tecnología lograron que el hombre transformara el mundo más allá de lo que sus músculos le permitían, Watson es el primer paso para llevarle a un estadio que las dimensiones de su cerebro no le permiten alcanzar. Darío Gil, ingeniero español formado en el prestigioso Massachusetts Institute of Technology (MIT) de Boston que dirige el centro de investigación de sistemas simbiótico-cognitivos de IBM, lo expone así: “La revolución industrial nos dio fuerza donde terminaba el músculo. La revolución cognitiva nos amplía los conocimientos donde termina el cerebro. Expande nuestra capacidad mental. Es una tecnología con un tremendo potencial transformador. Tendremos superpoderes cognitivos”.

Gil advierte de que no se trata de sustituir al hombre, sino de complementarlo: “El trabajo con un sistema cognitivo es un diálogo, una relación simbiótica. ¿Qué aportamos los humanos? Los problemas, nuestros conocimientos, nuestro sentido común, nuestra intuición y nuestros valores en la toma de decisiones. El sistema cognitivo aporta su capacidad de análisis y de descubrimiento, su capacidad para encontrar conexiones en todo el conocimiento digital disponible. De esta manera es como Watson trabaja, por ejemplo, con algunos de los principales oncólogos del mundo”.

El científico español asegura que la compu­tación cognitiva nos permite mitigar nuestros prejuicios en la toma de decisiones. “Una cocinera, un abogado o un médico toman decisiones, cada uno con un lenguaje distinto, con sus presiones externas, en un entorno determinado… A veces son decisiones equivocadas. Los errores médicos son la tercera causa de muerte en EE UU. Watson ha leído 23 millones de artículos médicos. No tiene que sustituir al médico, pero puede colaborar con él. Inteligencia artificial, no; colaboración, sí”.

John E. Kelly, vicepresidente de investigación de IBM, afirma en su libro Smart Machines (Máquinas inteligentes): “Los cambios que se avecinan en las próximas dos décadas transformarán la forma en que vivimos y trabajamos de la misma manera en que la compu­tación transformó el paisaje humano en los últimos 50 años”. Lo que defienden Kelly y sus colaboradores es que la era de los sistemas cognitivos ha sucedido a la era de la tabulación (hasta los años cuarenta del pasado siglo), en la que ábacos mecánicos hacían básicamente cuentas, y a la de la computación (desde los años cuarenta hasta nuestros días), la de las máquinas programables. Mientras que los ordenadores tradicionales deben ser programados para determinadas tareas, los sistemas cognitivos aprenden de sus interacciones con los seres humanos a través de un lenguaje natural y por medio de algoritmos. Las dos primeras fases de la computación –la estática y la dinámica– han dado paso a una tercera: la autónoma.

“Hasta ahora, muchos ordenadores se han basado en el paradigma de cálculo. Hoy podemos construir una nueva clase de sistemas que pueden aprender, encontrar correlaciones, crear hipótesis a partir de esas correlaciones, y sugerir y medir acciones”, afirma Gil.

Stephen Baker, experto en computación y autor del superventas The Numerati, explica al respecto: “Lo diferente de Watson es el lenguaje. Comprende lo que escribimos. Watson descifra las relaciones estadísticas entre las palabras y hace un simulacro de comprensión. Se puede decir que aprende. El ordenador puede sugerirnos cosas y tiene una mente abierta a todas las posibilidades. Nosotros tenemos recursos muy limitados”.

Para Baker, Watson no pretende ser una réplica del cerebro humano, algo que no tendría sentido. “Ya tenemos 7.000 millones de cerebros humanos, y son maravillosos. Pero Watson, con sus algoritmos, se lo pregunta todo. Y al hacerlo encuentra cosas que nosotros no encontramos. Puede encontrar pepitas de oro de inteligencia, de conocimiento que no podíamos ni imaginar que existían”.

“Lo revolucionario de Watson es que no sabe nada”, añade el autor. “No tiene una respuesta a nuestras preguntas. Él hace una pesquisa con cada pregunta y, como nunca puede estar seguro de que ha comprendido esa pregunta, hace un estudio de probabilidades. Y regresa con respuestas y ofrece un porcentaje de fiabilidad en cada una. Watson diría que Obama es el presidente de Estados Unidos con un 98% de confianza”.

Gil destaca la coincidencia de tres elementos clave del momento actual: “Se está digitalizando una enorme cantidad de conocimiento; se han desarrollado nuevos algoritmos muy potentes capaces de aprender a través de ejemplos, y se sigue duplicando la potencia de los ordenadores cada 18 meses”.

Rick Lawrence, responsable de Watson Debater, una de las áreas de investigación del proyecto y compañero de Gil en Yorktown, comparte el análisis: “La inteligencia artificial fracasó porque intentó sustituir al hombre. Ahora es diferente, se trata de ayudarnos”. Pavan Murali, desarrollador de Chef Watson, el área del superordenador dedicada a la gastronomía, va más allá: “Queremos romper las barreras de la computación”.

Para lograr esa disrupción, los diseñadores de los sistemas cognitivos cuentan con un nuevo recurso. La realidad digital crece el 60% cada año. El almacenamiento de datos de forma masiva, el big data, está creando un universo nuevo. Es una realidad en avance continuo e imparable. La información que procede de los distintos tipos de sensores que se utilizan de forma masiva en el mundo debido a su bajo coste crecerá del 11% en 2005 al 42% en 2020. Vídeos, fotografías y audios se extienden en Internet. Setenta y dos horas de vídeo son descargadas de YouTube cada minuto. Solo en un año se publican 50.000 estudios sobre neurociencia. ¿Quién puede asimilar tanto contenido? Watson.

“Con los sistemas cognitivos se podrá conocer mejor qué hay tras las toneladas de datos que ya poseemos, qué vetas de oro de conocimiento, de realidades nuevas, se ocultan en ellos”, afirma Kelly en su libro. “A partir de ahí podremos manejar mejor situaciones complejas, hacer predicciones más ajustadas y, por tanto, anticiparnos mejor a los efectos inesperados de nuestras acciones”.

Pero ¿qué es Watson? Todo empezó en 2004. Charles Lickel, jefe de software de IBM Research, acudió a un restaurante con un grupo de ingenieros de la compañía. Allí vio cómo todo el mundo dejaba de comer para ver a Ken ­Jennings defender su título de campeón del programa Jeopardy! Lickel no podía creer lo que veía. En esos años, la compañía quería asumir grandes retos públicos, como en su día lo fue Deep Blue, el superordenador que derrotó a Gary Kaspárov jugando a ajedrez. Un buen desafío sería, sin duda, ganar Jeopardy!, un concurso de preguntas complejas que deben ser respondidas a gran velocidad.

La aventura no era sencilla. Se trataba de colocar a Watson junto a dos humanos, Ken Jennings y Brad Rutter, los mejores concursantes de la historia. Y utilizando un lenguaje natural. El cerebro artificial de aquel Watson le permitía analizar el equivalente a un millón de libros en poco más de un par de segundos. ­Watson ganó.

Jugar bien al ajedrez estaba bien, pero Watson podía ir más allá y actuar sobre las variadas necesidades del mundo. Incluido el mundo de los negocios. IBM introdujo millones de documentos en la memoria de Watson para abarcar un gran número de disciplinas. “Queríamos crear algo que pudiera utilizarse en cualquier industria, desde el transporte hasta los bancos, cualquier sitio en el que el tiempo es crítico y es necesario tener ventaja a la hora de tomar decisiones”, afirma John Kelly, vicepresidente de investigación de IBM.

IBM Research posee 3.000 científicos e ingenieros en 12 laboratorios de 10 países. La compañía creó una división nueva con el nombre de Watson, dando así al proyecto una dimensión inédita. Lo dotó con 1.000 millones de dólares de presupuesto (894 millones de euros) y una nueva sede en el Silicon Alley de Manhattan. El nuevo edificio de Astor Place es el escaparate ideal. La compañía elevó recientemente su previsión de ingresos en el negocio de análisis de datos a 20.000 millones para los próximos cinco años. Asimismo, planea abrir cinco nuevas oficinas bajo esta marca en Dublín, Londres, Melbourne, São Paulo y Singapur. Watson se utiliza ya en 25 países, entre los que se incluyen Australia, Reino Unido, Tailandia, Canadá y España.

En la era del big data, las empresas, grandes y pequeñas, buscan su hito, el vehículo que lleve al mundo de los negocios, o a cualquier otro ámbito, los más modernos análisis de datos y predicción. IBM cuenta con Watson Analytics, herramienta con la que la compañía de software está ingresando mucho dinero.

En octubre de 2014, IBM llegó a un acuerdo con la red social Twitter para analizar las toneladas de información que esta compañía alberga y son susceptibles de ser utilizadas comercialmente. La alianza está orientada en una primera fase a los departamentos de ventas, marketing y servicio al cliente, pero ambas firmas también desarrollarán servicios para la banca, productos de consumo y de transporte. Con este acuerdo, y con otro suscrito previamente con Apple, IBM trata de revitalizar sus ventas. El análisis de datos y la computación en la nube se han convertido en una necesidad vital para IBM, que en 2014 ingresó 16.000 millones por estos conceptos.

Twitter es solo uno de los clientes de IBM y de sus sistemas cognitivos. Repsol y La Caixa son otros dos. La compañía petrolera española busca sistemas que le permitan reducir la incertidumbre de las prospecciones que realizan en diversas partes del mundo. El banco pretende que Watson aprenda español, con un ambicioso proyecto que permita utilizar con la máquina una de las lenguas francas del mundo. IBM ha llegado a un acuerdo similar en Japón con Softbank Telecom.

Con Repsol, IBM ha trazado dos aplicaciones iniciales enfocadas a optimizar su estrategia para la perforación de pozos en los cinco continentes. Santiago Quesada, director de tecnología de producción y exploración del Centro de Tecnología de Móstoles, recuerda que la relación con IBM viene de lejos: “Queremos optimizar nuestras decisiones y reducir la incertidumbre que siempre tiene el subsuelo”.

Pero para que la relación entre las máquinas y los ingenieros funcione, Watson debe aprender: “Hemos ido aterrizando corpus de ciencia de nuestra industria a través de un equipo mixto IBM-Repsol en Nueva York y Madrid. Desarrollamos las primeras aplicaciones”. Quesada concluye: “Reduciremos el riesgo en la toma de decisiones, optimizaremos los campos, mejoraremos la seguridad y el respeto al medio ambiente. Esta tecnología tendrá efectos en la vida cotidiana. No sustituye a los ingenieros ni al comité de dirección. Pero será algo disruptivo, como el ordenador personal o el automóvil”.

Las líneas de aplicación de Watson son variadas. Las más interesantes tienen que ver con sus aplicaciones médicas. El New York Genome Center (NYGC) e IBM colaboran en el análisis de información genética en el camino hacia tratamientos personalizados de uno de los tumores cerebrales más mortales: el glioblastoma. El sistema, que se desplegará en la nube, combinará bases de datos integrales de literatura biomédica y la capacidad cognitiva de Watson para trazar nuevos tratamientos adaptados a las características de cada paciente.

En el caso del Cleveland Clinic Lerner College of Medicine, IBM desarrolla los proyectos Watson Paths y Watson EMR Assistant. Ambos tienen como objetivo ayudar a los médicos a un mejor diagnóstico y tratamiento de sus pacientes. Una colaboración similar es la que IBM desarrolla con el prestigioso centro de Nueva York Memorial Sloan-Kettering. Otro cliente de Watson es el Ayuntamiento de Río de Janeiro, acuciado por las recurrentes inundaciones. El municipio e IBM han creado modelos de tormentas y sus consecuencias a partir de datos geológicos y topográficos, lo que les permite reducir daños en las zonas afectadas.

En una conferencia reciente celebrada en Berlín, el ingeniero de IBM Darío Gil dio su visión del futuro: “En el futuro, la informática tendrá una capa cognitiva ambiental, siempre funcionando, siempre disponible. Tendremos acceso a esa capa cognitiva a través del lenguaje, de los gestos y del tacto. Y nos ayudará a mantener un diálogo entre nosotros y el sistema en muchos espacios físicos distintos”. Gil no los citó, pero se refería a las cogs, unidades de soft­ware en las que trabaja su equipo que permitirán construir entornos cognitivos interactivos. “Cada cog está diseñado para hacer una pequeña tarea concreta: uno puede estar comprobando los datos que mencionamos mientras hablamos, otro se dedica a realizar reconocimiento facial para entender nuestras expresiones, otro nos puede ayudar a razonar para entender una tabla de decisión”, explica. En su reciente conferencia en Berlín, Gil no pudo evitar referirse a los temores que suscitan máquinas capaces de aprender y cada vez más necesarias; máquinas, en definitiva, con más poder.

Para Gil, el debate suele dividirse entre los que abrazan los avances tecnológicos, como el utópico viaje hacia un paraíso en el que las máquinas harán todo el trabajo, y los distópicos, que temen poderes que no podremos controlar. “El ordenador es una herramienta. No podríamos construir casas ni coches sin herramientas. Watson no tiene consciencia de su existencia, no puede crear teorías ni elegir qué problemas debemos resolver en el mundo, todo eso nos sigue correspondiendo a nosotros”.

¿Debemos tener miedo de esto? Sin duda, es motivo de debate. El experto Steve Baker analiza la cuestión con prevención. “El avance de la máquina es inexorable. Las máquinas se van a meter más y más en nuestras vidas. Cada año se fabrican chips más pequeños, más poderosos, más baratos… Nos guste o no, vamos a estar rodeados por sensores, por ordenadores… Es inevitable… Tarde o temprano, tendremos máquinas en la cabeza”.

Para Baker, la cuestión que aquí se ventila es una elección: seguridad con menos libertad, o libertad sin seguridad. “Todos queremos seguridad física, un ambiente más limpio, ahorrar dinero y más oportunidades económicas. Las máquinas pueden ofrecernos estas cosas. Es muy difícil decir que prefiero la libertad sucia e insegura a un Estado de control y eficacia. Y eso supone más control. Son los ingenieros los que cada vez tienen más el control de la humanidad. Ahora se meten en la educación, en el medio ambiente, en las conversaciones, en todo… Control por parte de empresas y Gobiernos. En Europa se ha intentado frenar eso, pero al final hay que competir con EE UU y China”.

Baker recuerda que no solo Watson está en la carrera por la gestión del big data. Google es otro actor muy importante. Y concluye: “La competencia va a ser cuál nos da el mejor servicio en respuestas útiles. Google tiene ventaja sobre IBM porque tienes datos de los ciudadanos. Google y Facebook saben mucho más de lo que hace el mundo. Es una revolución”.


http://elpais.com/elpais/2015/07/02/eps/1435845247_202110.html

sábado, 6 de junio de 2015

El MIT desarrolla un robot capaz de esquivar obstáculos

Al saltar el objeto el avance logra un movimiento parecido al de cualquier atleta de los 110 metros vallas

Tecnología | 06/06/2015 - 09:00h | Última actualización: 06/06/2015 - 10:13h



Barcelona. (Redacción).- La historia de la robótica ha dado un paso más con la construcción de un nuevo artefacto que tiene una mayor autonomía. Un grupo de investigadores del MIT, el Instituto de Tecnología de Massachussets, ha desarrollado un sistema inteligente capaz de esquivar obstáculos.

El procedimiento que el robot sigue al saltar el objeto es parecido al de cualquier atleta de los 110 metros vallas. Cuando detecta un obstáculo cerca, estima la altura y la distancia y calcula la mejor posición para esquivarlo. Basándose en estos datos, el robot aplica una cantidad de fuerza concreta para poder aterrizar con seguridad.

El experimento se realizó primero en una cinta de correr y más tarde en una pista de un gimnasio. En ellas el robot es capaz de saltar obstáculos de casi medio metro, más de la mitad de su propia altura, y puede mantener una velocidad de 8 km/h.

El equipo demostró en septiembre que el robot guepardo era capaz de correr sin el uso de cámaras u otros sistemas de visión. Ahora han perfeccionado este sistema: el robot puede ver gracias al uso de LIDAR, un sistema que utiliza unos sensores que le permiten hacer un mapa del terreno. Esta técnica la han incorporado a la estructura del robot permitiéndole un control autónomo.

El profesor adjunto de ingeriría mecánica del MIT, Sangbae Kim, ha explicado que para crear LIDAR utilizaron un algoritmo para predecir la mejor posición para saltar el objeto de forma segura. Los investigadores diseñaron una formula con un prototipo de escena visual, en la que se representa el suelo como una línea recta y los obstáculos como desviaciones de esta línea.

El equipo del MIT presentará este proyecto en la DARPA Robotics Challenge de junio. Su próximo objetivo es que el robot pueda saltar sobre los obstáculos al correr en un terreno más suave, como un campo de hierba.


http://www.lavanguardia.com/tecnologia/20150606/54432653927/mit-desarrolla-robot-capaz-esquivar-obstaculos.html

martes, 20 de enero de 2015

“Cualquiera que diga que las máquinas ‘no pueden hacer tal cosa’ se va a arrepentir”

* Experto en inteligencia artificial, tecnología y economía, Paul Saffo se dedica a analizar el presente adelantándose al futuro

* No quiere que lo consideren gurú ni futurólogo, pero habla con soltura de lo que ocurrirá dentro de uno o dos decenios

ROSA JIMÉNEZ CANO | San Francisco | 19 ENE 2015 - 16:52 CET

[...]


http://tecnologia.elpais.com/tecnologia/2014/11/27/actualidad/1417088772_926620.html

domingo, 18 de enero de 2015

El reto de las máquinas pensantes

TECNOLOGÍA Debate internacional de expertos

El reto de las máquinas pensantes

El robot HAL en '2001: Una Odisea del espacio', de Kubrick, un icono de la inteligencia artificial. | EL MUNDO

EDGE.ORG | EL MUNDO > Madrid

Actualizado: 18/01/2015 02:22 horas

"¿Qué piensa usted sobre las máquinas que piensan?" Ésta es la pregunta que la revista digital Edge ha lanzado, como todos los años por estas fechas, a algunas de las mentes más brillantes del planeta. Hace poco más de un mes, a principios de diciembre, Stephen Hawking alertó sobre las consecuencias potencialmente apocalípticas de la inteligencia artificial, que en su opinión podría llegar a provocar "el fin de la especie humana". Pero, ¿realmente debemos temer el peligro de un futuro ejército de humanoides fuera de control? ¿O más bien deberíamos celebrar las extraordinarias oportunidades que podría brindarnos el desarrollo de máquinas pensantes, e incluso sintientes? Semejantes seres, además, nos plantearían nuevos dilemas éticos. ¿Formarían parte de nuestra "sociedad"? ¿Deberíamos concederles derechos civiles? ¿Sentiríamos empatía por ellos? Un año más, algunos de los pensadores y científicos más relevantes del mundo han aceptado el reto intelectual planteado por el editor de Edge, John Brockman. Ésta es tan sólo una selección de algunas de las respuestas más interesantes.

Nick Bostrom. Director del Instituto para el Futuro de la Humanidad de Oxford:

Creo que, en general, la gente se precipita al dar su opinión sobre este tema, que es extremadamente complicado. Hay una tendencia a adaptar cualquier idea nueva y compleja para que se amolde a un cliché que nos resulte familiar. Y por algún motivo extraño, muchas personas creen que es importante referirse a lo que ocurre en diversas películas y novelas de ciencia ficción cuando hablan del futuro de la inteligencia artificial. Mi opinión es que ahora mismo, a las máquinas se les da muy mal pensar (excepto en unas pocas y limitadas áreas). Sin embargo, algún día probablemente lo harán mejor que nosotros (al igual que las máquinas ya son mucho más fuertes y rápidas que cualquier criatura biológica). Pero ahora mismo hay poca información para saber cuánto tiempo tardará en surgir esta superinteligencia artificial. Lo mejor que podemos hacer ahora mismo, en mi opinión, es impulsar y financiar el pequeño pero pujante campo de investigación que se dedica a analizar el problema de controlar los riesgos futuros de la superinteligencia. Será muy importante contar con las mentes más brillantes, de tal manera que estemos preparados para afrontar este desafío a tiempo.

Daniel C. Dennett. Filósofo en el Centro de Estudios Cognitivos de la Universidad de Tufts

La Singularidad -el temido momento en el que la Inteligencia Artificial (IA) sobrepasa la inteligencia de sus creadores- tiene todas las características clásicas de una leyenda urbana: cierta credibilidad científica ("Bueno, en principio, ¡supongo que es posible!") combinada con un deliciosamente escalofriante clímax ("¡Nos dominarán los robots!"). Tras décadas de alarmismo sobre los riesgos de la IA, podríamos pensar que la Singularidad se vería a estas alturas como una broma o una parodia, pero ha demostrado ser un concepto extremadamente persuasivo. Si a esto le añadimos algunos conversos ilustres (Elon Musk, Stephen Hawking...), ¿cómo no tomárnoslo en serio? Yo creo, al contrario, que estas voces de alarma nos distraen de un problema mucho más apremiante. Tras adquirir, después de siglos de duro trabajo, una comprensión de la naturaleza que nos permite, por primera vez en la Historia, controlar muchos aspectos de nuestro destino, estamos a punto de abdicar este control y dejarlo en manos de entes artificiales que no pueden pensar, poniendo a nuestra civilización en modo auto-piloto de manera prematura. Internet no es un ser inteligente (salvo en algunos aspectos), pero nos hemos vuelto tan dependientes de la Red que si en algún momento colapsara, se desataría el pánico y podríamos destruir nuestra sociedad en pocos días. El peligro real, por lo tanto, no son máquinas más inteligentes que nosotros, que podrían usurpar nuestro papel como capitanes de nuestro destino. El peligro real es que cedamos nuestra autoridad a máquinas estúpidas, otorgándoles una responsabilidad que sobrepasa su competencia.

Frank Wilczek. Físico del Massachussetts Institute of Technology (MIT) y Premio Nobel

Francis Crick la denominó la "Hipótesis Asombrosa": la conciencia, también conocida como la mente, es una propiedad emergente de la materia. Conforme avanza la neurociencia molecular, y los ordenadores reproducen cada vez más los comportamientos que denominamos inteligentes en humanos, esa hipótesis parece cada vez más verosímil. Si es verdad, entonces toda inteligencia es una inteligencia producida por una máquina [ya sea un cerebro o un sistema operativo]. Lo que diferencia a la inteligencia natural de la artificial no es lo que es, sino únicamente cómo se fabrica. David Hume proclamó que "la razón es, y debería ser, la esclava de las pasiones" en 1738, mucho antes de que existiera cualquier cosa remotamente parecida a la moderna inteligencia artificial. Aquella impactante frase estaba concebida, por supuesto, para aplicarse a la razón y las pasiones humanas. Pero también es válida para la inteligencia artificial: el comportamiento está motivado por incentivos, no por una lógica abstracta. Por eso la inteligencia artificial que me parece más alarmante es su aplicación militar: soldados robóticos, drones de todo tipo y "sistemas". Los valores que nos gustaría instalar en esos entes tendrían que ver con la capacidad para detectar y combatir amenazas. Pero bastaría una leve anomalía para que esos valores positivos desataran comportamientos paranoicos y agresivos. Sin un control adecuado, esto podría desembocar en la creación de un ejército de paranoicos poderosos, listos y perversos.

John C. Mather. Astrofísico del Centro Goddard de la NASA y Premio Nobel

Las máquinas que piensan están evolucionando de la misma manera que, tal y como nos explicó Darwin, lo hacen las especies biológicas, mediante la competición, el combate, la cooperación, la supervivencia y la reproducción. Hasta ahora no hemos encontrado ninguna ley natural que impida el desarrollo de la inteligencia artificial, así que creo que será una realidad, y bastante pronto, teniendo en cuenta los trillones de dólares que se están invirtiendo por todo el mundo en este campo, y los trillones de dólares de beneficios potenciales para los ganadores de esta carrera. Los expertos dicen que no sabemos suficiente sobre la inteligencia como para fabricarla, y estoy de acuerdo; pero un conjunto de 46 cromosomas tampoco lo entiende, y sin embargo es capaz de dirigir su creación en nuestro organismo. Mi conclusión, por lo tanto, es que ya estamos impulsando la evolución de una inteligencia artificial poderosa, que estará al servicio de las fuerzas habituales: los negocios, el entretenimiento, la medicina, la seguridad internacional, la guerra, y la búsqueda de poder a todos los niveles: el crimen, el transporte, la minería, la industria, el comercio, el sexo, etc. No creo que a todos nos gusten los resultados. No sé si tendremos la inteligencia y la imaginación necesaria para mantener a raya al genio una vez que salga de la lámpara, porque no sólo tendremos que controlar a las máquinas, sino también a los humanos que puedan hacer un uso perverso de ellas. Pero como científico, me interesa mucho las potenciales aplicaciones de la inteligencia artificial para la investigación. Sus ventajas para la exploración espacial son obvias: sería mucho más fácil para estas máquinas pensantes colonizar Marte, e incluso establecer una civilización a escala galáctica. Pero quizás no sobrevivamos el encuentro con estas inteligencias alienígenas que fabriquemos nosotros mismos.

Stephen Pinker. Catedrático de Psicología en la Universidad de Harvard

Un procesador de información fabricado por el ser humano podría, en principio, superar o duplicar nuestras propias capacidades cerebrales. Sin embargo, no creo que esto suceda en la práctica, ya que probablemente nunca exista la motivación económica y tecnológica necesaria para lograrlo. Sin embargo, algunos tímidos avances hacia la creación de máquinas más inteligentes han desatado un renacimiento de esa ansiedad recurrente basada en la idea de que nuestro conocimiento nos llevará al apocalipsis. Mi opinión es que el miedo actual a la tiranía de los ordenadores descontrolados es una pérdida de energía emocional; el escenario se parece más al virus Y2K que al Proyecto Manhattan. Para empezar, tenemos mucho tiempo para planificar todo esto. Siguen faltando entre 15 y 25 años para que la inteligencia artificial alcance el nivel del cerebro humano.Es cierto que en el pasado, los «expertos» han descartado la posibilidad de que surjan ciertos avances tecnológicos que después emergieron en poco tiempo. Pero lo contrario también es cierto: los «expertos» también han anunciado (a veces con gran pánico) la inminente aparición de avances que después jamás se vieron, como los coches impulsados por energía nuclear, las ciudades submarinas, las colonias en Marte, los bebés de diseño y los almacenes de zombis que se mantendrían vivos para suministrar órganos de repuesto a personas enfermas. Me parece muy extraño pensar que los desarrolladores de robots no incorporarían medidas de seguridad para controlar posibles riesgos. Y no es verosímil creer que la inteligencia artificial descenderá sobre nosotros antes de que podamos instalar mecanismos de precaución. La realidad es que el progreso en el campo de la inteligencia artificial es mucho más lento de lo que nos hacen creer los agoreros y alarmistas. Tendremos tiempo más que suficiente para ir adoptando medidas de seguridad ante los avances graduales que se vayan logrando, y los humanos mantendremos siempre el control del destornillador. Una vez que dejamos a un lado las fantasías de la ciencia ficción, las ventajas de una inteligencia artificial avanzada son verdaderamente emocionantes, tanto por sus beneficios prácticos, como por sus posibilidades filosóficas y científicas.


http://www.elmundo.es/ciencia/2015/01/18/54babd4b22601dcf6a8b4573.html