domingo, 5 de julio de 2015

La nueva era de la computación

* En el Centro de Investigación T. J. Watson de IBM en Nueva York cientos de ingenieros desarrollan un superordenador capaz de procesar ‘big data’ mediante un sistema cognitivo

* Su nombre es Watson, y aspira a facilitar decisiones de gran complejidad, desde comprar una empresa hasta acertar en un diagnóstico médico

* FOTOGALERÍA El centro que revoluciona la informática

VICENTE JIMÉNEZ | 5 JUL 2015 - 00:00 CEST

Imagen de una demostración del superordenador Watson, sus aplicaciones y potencial, en la sede central de Watson IBM en Nueva York.

Watson, necesitamos ayuda para la adquisición de un empresa.

Watson. Hola. ¿Cómo puedo ayudarles?

Brian Gaucher. Watson, muéstrame compañías de Estados Unidos con unos ingresos de entre 25 y 60 millones de dólares relacionadas con la analítica de datos.

W. Veamos qué puedo encontrar… [transcurren un par de segundos] 87 empresas.

B. G. De acuerdo. Es un buen comienzo. ¿Qué te parece, Andy?

Andy Aaron. Bien. Deberíamos utilizar un documento del grupo de estrategia de la división de IBM que comercializa Watson. Hay muchos conceptos clave en ella. Vamos a suministrárselos a Watson [los científicos introducen la información en el sistema].

B. G. Watson, por favor, considera esto como la estrategia cognitiva.

A. A. Watson, enséñame empresas dedicadas a la analítica de datos y a la estrategia cognitiva que sean las más parecidas a Wolfram Alpha y Kawasaki Robotics.

W. He encontrado tres empresas parecidas a las que me has especificado.

A. A. Fantástico. Comparemos estas empresas. Watson, enséñame una tabla de decisiones [la pantalla muestra una especie de hoja de Excel con las celdas vacías].

B. G. Watson, por favor, coloca a las empresas Wolfram Alpha, Kawasaki Robotics, Raytheon BBN Technologies, Decisive Analytics y Cognilytics en la tabla de decisiones.

W. De acuerdo [la pantalla muestra la nueva información en las celdas de la tabla de decisión].

B. G. Necesitamos algo más que eso: otros atributos. Watson, incluye los atributos “beneficios”, “empleados” y “estructura empresarial” en la tabla de decisiones.

W. De acuerdo.

B. G. Ahora tenemos la comparación entre ellas. Watson, dame una sugerencia sobre qué empresa deberíamos comprar.

W. Tengo una sugerencia…

En el laboratorio del Centro de Investigación T. J. Watson de IBM en Nueva York, en Yorktown, a una hora al norte de Manhattan y en medio de frondosos bosques, ocurren cosas asombrosas: hombres que charlan con una máquina para decidir la adquisición de una empresa; médicos que dialogan con una tableta en busca del diagnóstico de la extraña enfermedad que aqueja a un niño; ingenieros de una empresa petrolera que rastrean en la nube cómo reducir la incertidumbre de sus costosísimas prospecciones en el océano; cocineros que analizan en una interfaz la pertinencia de una nueva receta a partir de la composición molecular de sus ingredientes; científicos que escrutan los genes de una persona para aplicarle un determinado tratamiento contra el cáncer; asesores financieros que manejan algoritmos para predecir el funcionamientos del mercado y evitar burbujas financieras, o técnicos municipales que escarban en la información de miles de sensores repartidos por toda la ciudad para evitar futuras inundaciones.

Brian Gaucher y Andy Aaron son científicos del laboratorio de sistemas simbiótico-cognitivos de IBM. Watson es un supercomputador. Y El País Semanal ha sido testigo en Yorktown de una nueva relación entre la máquina y el hombre. Gaucher y Aaron debían simular la compra de una empresa. Su interlocutor era una pantalla de varios metros cuadrados que reproducía por escrito sus palabras y ofrecía los datos que le eran requeridos: un sistema cognitivo. Máquina y hombres se comunicaron con la palabra.

Gaucher, Aaron y cientos de científicos e ingenieros de IBM trabajan en el nuevo gran paso de la computación, lo que muchos consideran una nueva era del conocimiento. Son los sistemas cognitivos, ordenadores que aprenden. El fenómeno tiene un nombre de pila: Watson, en honor al fundador e histórico presidente de IBM, Thomas J. Watson.

Se trata del gran proyecto de la compañía para convertir la información masiva de nuestro mundo, el big data, en un nuevo recurso, como el gas o el petróleo, en una nueva fuente de energía con la que interactuar como nunca hasta ahora, en un camino que promete cambiar la vida de las personas. Watson es también, cómo no, un gran negocio con el que IBM confía en ingresar miles de millones de dólares.

Si las máquinas y la tecnología lograron que el hombre transformara el mundo más allá de lo que sus músculos le permitían, Watson es el primer paso para llevarle a un estadio que las dimensiones de su cerebro no le permiten alcanzar. Darío Gil, ingeniero español formado en el prestigioso Massachusetts Institute of Technology (MIT) de Boston que dirige el centro de investigación de sistemas simbiótico-cognitivos de IBM, lo expone así: “La revolución industrial nos dio fuerza donde terminaba el músculo. La revolución cognitiva nos amplía los conocimientos donde termina el cerebro. Expande nuestra capacidad mental. Es una tecnología con un tremendo potencial transformador. Tendremos superpoderes cognitivos”.

Gil advierte de que no se trata de sustituir al hombre, sino de complementarlo: “El trabajo con un sistema cognitivo es un diálogo, una relación simbiótica. ¿Qué aportamos los humanos? Los problemas, nuestros conocimientos, nuestro sentido común, nuestra intuición y nuestros valores en la toma de decisiones. El sistema cognitivo aporta su capacidad de análisis y de descubrimiento, su capacidad para encontrar conexiones en todo el conocimiento digital disponible. De esta manera es como Watson trabaja, por ejemplo, con algunos de los principales oncólogos del mundo”.

El científico español asegura que la compu­tación cognitiva nos permite mitigar nuestros prejuicios en la toma de decisiones. “Una cocinera, un abogado o un médico toman decisiones, cada uno con un lenguaje distinto, con sus presiones externas, en un entorno determinado… A veces son decisiones equivocadas. Los errores médicos son la tercera causa de muerte en EE UU. Watson ha leído 23 millones de artículos médicos. No tiene que sustituir al médico, pero puede colaborar con él. Inteligencia artificial, no; colaboración, sí”.

John E. Kelly, vicepresidente de investigación de IBM, afirma en su libro Smart Machines (Máquinas inteligentes): “Los cambios que se avecinan en las próximas dos décadas transformarán la forma en que vivimos y trabajamos de la misma manera en que la compu­tación transformó el paisaje humano en los últimos 50 años”. Lo que defienden Kelly y sus colaboradores es que la era de los sistemas cognitivos ha sucedido a la era de la tabulación (hasta los años cuarenta del pasado siglo), en la que ábacos mecánicos hacían básicamente cuentas, y a la de la computación (desde los años cuarenta hasta nuestros días), la de las máquinas programables. Mientras que los ordenadores tradicionales deben ser programados para determinadas tareas, los sistemas cognitivos aprenden de sus interacciones con los seres humanos a través de un lenguaje natural y por medio de algoritmos. Las dos primeras fases de la computación –la estática y la dinámica– han dado paso a una tercera: la autónoma.

“Hasta ahora, muchos ordenadores se han basado en el paradigma de cálculo. Hoy podemos construir una nueva clase de sistemas que pueden aprender, encontrar correlaciones, crear hipótesis a partir de esas correlaciones, y sugerir y medir acciones”, afirma Gil.

Stephen Baker, experto en computación y autor del superventas The Numerati, explica al respecto: “Lo diferente de Watson es el lenguaje. Comprende lo que escribimos. Watson descifra las relaciones estadísticas entre las palabras y hace un simulacro de comprensión. Se puede decir que aprende. El ordenador puede sugerirnos cosas y tiene una mente abierta a todas las posibilidades. Nosotros tenemos recursos muy limitados”.

Para Baker, Watson no pretende ser una réplica del cerebro humano, algo que no tendría sentido. “Ya tenemos 7.000 millones de cerebros humanos, y son maravillosos. Pero Watson, con sus algoritmos, se lo pregunta todo. Y al hacerlo encuentra cosas que nosotros no encontramos. Puede encontrar pepitas de oro de inteligencia, de conocimiento que no podíamos ni imaginar que existían”.

“Lo revolucionario de Watson es que no sabe nada”, añade el autor. “No tiene una respuesta a nuestras preguntas. Él hace una pesquisa con cada pregunta y, como nunca puede estar seguro de que ha comprendido esa pregunta, hace un estudio de probabilidades. Y regresa con respuestas y ofrece un porcentaje de fiabilidad en cada una. Watson diría que Obama es el presidente de Estados Unidos con un 98% de confianza”.

Gil destaca la coincidencia de tres elementos clave del momento actual: “Se está digitalizando una enorme cantidad de conocimiento; se han desarrollado nuevos algoritmos muy potentes capaces de aprender a través de ejemplos, y se sigue duplicando la potencia de los ordenadores cada 18 meses”.

Rick Lawrence, responsable de Watson Debater, una de las áreas de investigación del proyecto y compañero de Gil en Yorktown, comparte el análisis: “La inteligencia artificial fracasó porque intentó sustituir al hombre. Ahora es diferente, se trata de ayudarnos”. Pavan Murali, desarrollador de Chef Watson, el área del superordenador dedicada a la gastronomía, va más allá: “Queremos romper las barreras de la computación”.

Para lograr esa disrupción, los diseñadores de los sistemas cognitivos cuentan con un nuevo recurso. La realidad digital crece el 60% cada año. El almacenamiento de datos de forma masiva, el big data, está creando un universo nuevo. Es una realidad en avance continuo e imparable. La información que procede de los distintos tipos de sensores que se utilizan de forma masiva en el mundo debido a su bajo coste crecerá del 11% en 2005 al 42% en 2020. Vídeos, fotografías y audios se extienden en Internet. Setenta y dos horas de vídeo son descargadas de YouTube cada minuto. Solo en un año se publican 50.000 estudios sobre neurociencia. ¿Quién puede asimilar tanto contenido? Watson.

“Con los sistemas cognitivos se podrá conocer mejor qué hay tras las toneladas de datos que ya poseemos, qué vetas de oro de conocimiento, de realidades nuevas, se ocultan en ellos”, afirma Kelly en su libro. “A partir de ahí podremos manejar mejor situaciones complejas, hacer predicciones más ajustadas y, por tanto, anticiparnos mejor a los efectos inesperados de nuestras acciones”.

Pero ¿qué es Watson? Todo empezó en 2004. Charles Lickel, jefe de software de IBM Research, acudió a un restaurante con un grupo de ingenieros de la compañía. Allí vio cómo todo el mundo dejaba de comer para ver a Ken ­Jennings defender su título de campeón del programa Jeopardy! Lickel no podía creer lo que veía. En esos años, la compañía quería asumir grandes retos públicos, como en su día lo fue Deep Blue, el superordenador que derrotó a Gary Kaspárov jugando a ajedrez. Un buen desafío sería, sin duda, ganar Jeopardy!, un concurso de preguntas complejas que deben ser respondidas a gran velocidad.

La aventura no era sencilla. Se trataba de colocar a Watson junto a dos humanos, Ken Jennings y Brad Rutter, los mejores concursantes de la historia. Y utilizando un lenguaje natural. El cerebro artificial de aquel Watson le permitía analizar el equivalente a un millón de libros en poco más de un par de segundos. ­Watson ganó.

Jugar bien al ajedrez estaba bien, pero Watson podía ir más allá y actuar sobre las variadas necesidades del mundo. Incluido el mundo de los negocios. IBM introdujo millones de documentos en la memoria de Watson para abarcar un gran número de disciplinas. “Queríamos crear algo que pudiera utilizarse en cualquier industria, desde el transporte hasta los bancos, cualquier sitio en el que el tiempo es crítico y es necesario tener ventaja a la hora de tomar decisiones”, afirma John Kelly, vicepresidente de investigación de IBM.

IBM Research posee 3.000 científicos e ingenieros en 12 laboratorios de 10 países. La compañía creó una división nueva con el nombre de Watson, dando así al proyecto una dimensión inédita. Lo dotó con 1.000 millones de dólares de presupuesto (894 millones de euros) y una nueva sede en el Silicon Alley de Manhattan. El nuevo edificio de Astor Place es el escaparate ideal. La compañía elevó recientemente su previsión de ingresos en el negocio de análisis de datos a 20.000 millones para los próximos cinco años. Asimismo, planea abrir cinco nuevas oficinas bajo esta marca en Dublín, Londres, Melbourne, São Paulo y Singapur. Watson se utiliza ya en 25 países, entre los que se incluyen Australia, Reino Unido, Tailandia, Canadá y España.

En la era del big data, las empresas, grandes y pequeñas, buscan su hito, el vehículo que lleve al mundo de los negocios, o a cualquier otro ámbito, los más modernos análisis de datos y predicción. IBM cuenta con Watson Analytics, herramienta con la que la compañía de software está ingresando mucho dinero.

En octubre de 2014, IBM llegó a un acuerdo con la red social Twitter para analizar las toneladas de información que esta compañía alberga y son susceptibles de ser utilizadas comercialmente. La alianza está orientada en una primera fase a los departamentos de ventas, marketing y servicio al cliente, pero ambas firmas también desarrollarán servicios para la banca, productos de consumo y de transporte. Con este acuerdo, y con otro suscrito previamente con Apple, IBM trata de revitalizar sus ventas. El análisis de datos y la computación en la nube se han convertido en una necesidad vital para IBM, que en 2014 ingresó 16.000 millones por estos conceptos.

Twitter es solo uno de los clientes de IBM y de sus sistemas cognitivos. Repsol y La Caixa son otros dos. La compañía petrolera española busca sistemas que le permitan reducir la incertidumbre de las prospecciones que realizan en diversas partes del mundo. El banco pretende que Watson aprenda español, con un ambicioso proyecto que permita utilizar con la máquina una de las lenguas francas del mundo. IBM ha llegado a un acuerdo similar en Japón con Softbank Telecom.

Con Repsol, IBM ha trazado dos aplicaciones iniciales enfocadas a optimizar su estrategia para la perforación de pozos en los cinco continentes. Santiago Quesada, director de tecnología de producción y exploración del Centro de Tecnología de Móstoles, recuerda que la relación con IBM viene de lejos: “Queremos optimizar nuestras decisiones y reducir la incertidumbre que siempre tiene el subsuelo”.

Pero para que la relación entre las máquinas y los ingenieros funcione, Watson debe aprender: “Hemos ido aterrizando corpus de ciencia de nuestra industria a través de un equipo mixto IBM-Repsol en Nueva York y Madrid. Desarrollamos las primeras aplicaciones”. Quesada concluye: “Reduciremos el riesgo en la toma de decisiones, optimizaremos los campos, mejoraremos la seguridad y el respeto al medio ambiente. Esta tecnología tendrá efectos en la vida cotidiana. No sustituye a los ingenieros ni al comité de dirección. Pero será algo disruptivo, como el ordenador personal o el automóvil”.

Las líneas de aplicación de Watson son variadas. Las más interesantes tienen que ver con sus aplicaciones médicas. El New York Genome Center (NYGC) e IBM colaboran en el análisis de información genética en el camino hacia tratamientos personalizados de uno de los tumores cerebrales más mortales: el glioblastoma. El sistema, que se desplegará en la nube, combinará bases de datos integrales de literatura biomédica y la capacidad cognitiva de Watson para trazar nuevos tratamientos adaptados a las características de cada paciente.

En el caso del Cleveland Clinic Lerner College of Medicine, IBM desarrolla los proyectos Watson Paths y Watson EMR Assistant. Ambos tienen como objetivo ayudar a los médicos a un mejor diagnóstico y tratamiento de sus pacientes. Una colaboración similar es la que IBM desarrolla con el prestigioso centro de Nueva York Memorial Sloan-Kettering. Otro cliente de Watson es el Ayuntamiento de Río de Janeiro, acuciado por las recurrentes inundaciones. El municipio e IBM han creado modelos de tormentas y sus consecuencias a partir de datos geológicos y topográficos, lo que les permite reducir daños en las zonas afectadas.

En una conferencia reciente celebrada en Berlín, el ingeniero de IBM Darío Gil dio su visión del futuro: “En el futuro, la informática tendrá una capa cognitiva ambiental, siempre funcionando, siempre disponible. Tendremos acceso a esa capa cognitiva a través del lenguaje, de los gestos y del tacto. Y nos ayudará a mantener un diálogo entre nosotros y el sistema en muchos espacios físicos distintos”. Gil no los citó, pero se refería a las cogs, unidades de soft­ware en las que trabaja su equipo que permitirán construir entornos cognitivos interactivos. “Cada cog está diseñado para hacer una pequeña tarea concreta: uno puede estar comprobando los datos que mencionamos mientras hablamos, otro se dedica a realizar reconocimiento facial para entender nuestras expresiones, otro nos puede ayudar a razonar para entender una tabla de decisión”, explica. En su reciente conferencia en Berlín, Gil no pudo evitar referirse a los temores que suscitan máquinas capaces de aprender y cada vez más necesarias; máquinas, en definitiva, con más poder.

Para Gil, el debate suele dividirse entre los que abrazan los avances tecnológicos, como el utópico viaje hacia un paraíso en el que las máquinas harán todo el trabajo, y los distópicos, que temen poderes que no podremos controlar. “El ordenador es una herramienta. No podríamos construir casas ni coches sin herramientas. Watson no tiene consciencia de su existencia, no puede crear teorías ni elegir qué problemas debemos resolver en el mundo, todo eso nos sigue correspondiendo a nosotros”.

¿Debemos tener miedo de esto? Sin duda, es motivo de debate. El experto Steve Baker analiza la cuestión con prevención. “El avance de la máquina es inexorable. Las máquinas se van a meter más y más en nuestras vidas. Cada año se fabrican chips más pequeños, más poderosos, más baratos… Nos guste o no, vamos a estar rodeados por sensores, por ordenadores… Es inevitable… Tarde o temprano, tendremos máquinas en la cabeza”.

Para Baker, la cuestión que aquí se ventila es una elección: seguridad con menos libertad, o libertad sin seguridad. “Todos queremos seguridad física, un ambiente más limpio, ahorrar dinero y más oportunidades económicas. Las máquinas pueden ofrecernos estas cosas. Es muy difícil decir que prefiero la libertad sucia e insegura a un Estado de control y eficacia. Y eso supone más control. Son los ingenieros los que cada vez tienen más el control de la humanidad. Ahora se meten en la educación, en el medio ambiente, en las conversaciones, en todo… Control por parte de empresas y Gobiernos. En Europa se ha intentado frenar eso, pero al final hay que competir con EE UU y China”.

Baker recuerda que no solo Watson está en la carrera por la gestión del big data. Google es otro actor muy importante. Y concluye: “La competencia va a ser cuál nos da el mejor servicio en respuestas útiles. Google tiene ventaja sobre IBM porque tienes datos de los ciudadanos. Google y Facebook saben mucho más de lo que hace el mundo. Es una revolución”.


http://elpais.com/elpais/2015/07/02/eps/1435845247_202110.html

sábado, 6 de junio de 2015

El MIT desarrolla un robot capaz de esquivar obstáculos

Al saltar el objeto el avance logra un movimiento parecido al de cualquier atleta de los 110 metros vallas

Tecnología | 06/06/2015 - 09:00h | Última actualización: 06/06/2015 - 10:13h



Barcelona. (Redacción).- La historia de la robótica ha dado un paso más con la construcción de un nuevo artefacto que tiene una mayor autonomía. Un grupo de investigadores del MIT, el Instituto de Tecnología de Massachussets, ha desarrollado un sistema inteligente capaz de esquivar obstáculos.

El procedimiento que el robot sigue al saltar el objeto es parecido al de cualquier atleta de los 110 metros vallas. Cuando detecta un obstáculo cerca, estima la altura y la distancia y calcula la mejor posición para esquivarlo. Basándose en estos datos, el robot aplica una cantidad de fuerza concreta para poder aterrizar con seguridad.

El experimento se realizó primero en una cinta de correr y más tarde en una pista de un gimnasio. En ellas el robot es capaz de saltar obstáculos de casi medio metro, más de la mitad de su propia altura, y puede mantener una velocidad de 8 km/h.

El equipo demostró en septiembre que el robot guepardo era capaz de correr sin el uso de cámaras u otros sistemas de visión. Ahora han perfeccionado este sistema: el robot puede ver gracias al uso de LIDAR, un sistema que utiliza unos sensores que le permiten hacer un mapa del terreno. Esta técnica la han incorporado a la estructura del robot permitiéndole un control autónomo.

El profesor adjunto de ingeriría mecánica del MIT, Sangbae Kim, ha explicado que para crear LIDAR utilizaron un algoritmo para predecir la mejor posición para saltar el objeto de forma segura. Los investigadores diseñaron una formula con un prototipo de escena visual, en la que se representa el suelo como una línea recta y los obstáculos como desviaciones de esta línea.

El equipo del MIT presentará este proyecto en la DARPA Robotics Challenge de junio. Su próximo objetivo es que el robot pueda saltar sobre los obstáculos al correr en un terreno más suave, como un campo de hierba.


http://www.lavanguardia.com/tecnologia/20150606/54432653927/mit-desarrolla-robot-capaz-esquivar-obstaculos.html

martes, 20 de enero de 2015

“Cualquiera que diga que las máquinas ‘no pueden hacer tal cosa’ se va a arrepentir”

* Experto en inteligencia artificial, tecnología y economía, Paul Saffo se dedica a analizar el presente adelantándose al futuro

* No quiere que lo consideren gurú ni futurólogo, pero habla con soltura de lo que ocurrirá dentro de uno o dos decenios

ROSA JIMÉNEZ CANO | San Francisco | 19 ENE 2015 - 16:52 CET

[...]


http://tecnologia.elpais.com/tecnologia/2014/11/27/actualidad/1417088772_926620.html

domingo, 18 de enero de 2015

El reto de las máquinas pensantes

TECNOLOGÍA Debate internacional de expertos

El reto de las máquinas pensantes

El robot HAL en '2001: Una Odisea del espacio', de Kubrick, un icono de la inteligencia artificial. | EL MUNDO

EDGE.ORG | EL MUNDO > Madrid

Actualizado: 18/01/2015 02:22 horas

"¿Qué piensa usted sobre las máquinas que piensan?" Ésta es la pregunta que la revista digital Edge ha lanzado, como todos los años por estas fechas, a algunas de las mentes más brillantes del planeta. Hace poco más de un mes, a principios de diciembre, Stephen Hawking alertó sobre las consecuencias potencialmente apocalípticas de la inteligencia artificial, que en su opinión podría llegar a provocar "el fin de la especie humana". Pero, ¿realmente debemos temer el peligro de un futuro ejército de humanoides fuera de control? ¿O más bien deberíamos celebrar las extraordinarias oportunidades que podría brindarnos el desarrollo de máquinas pensantes, e incluso sintientes? Semejantes seres, además, nos plantearían nuevos dilemas éticos. ¿Formarían parte de nuestra "sociedad"? ¿Deberíamos concederles derechos civiles? ¿Sentiríamos empatía por ellos? Un año más, algunos de los pensadores y científicos más relevantes del mundo han aceptado el reto intelectual planteado por el editor de Edge, John Brockman. Ésta es tan sólo una selección de algunas de las respuestas más interesantes.

Nick Bostrom. Director del Instituto para el Futuro de la Humanidad de Oxford:

Creo que, en general, la gente se precipita al dar su opinión sobre este tema, que es extremadamente complicado. Hay una tendencia a adaptar cualquier idea nueva y compleja para que se amolde a un cliché que nos resulte familiar. Y por algún motivo extraño, muchas personas creen que es importante referirse a lo que ocurre en diversas películas y novelas de ciencia ficción cuando hablan del futuro de la inteligencia artificial. Mi opinión es que ahora mismo, a las máquinas se les da muy mal pensar (excepto en unas pocas y limitadas áreas). Sin embargo, algún día probablemente lo harán mejor que nosotros (al igual que las máquinas ya son mucho más fuertes y rápidas que cualquier criatura biológica). Pero ahora mismo hay poca información para saber cuánto tiempo tardará en surgir esta superinteligencia artificial. Lo mejor que podemos hacer ahora mismo, en mi opinión, es impulsar y financiar el pequeño pero pujante campo de investigación que se dedica a analizar el problema de controlar los riesgos futuros de la superinteligencia. Será muy importante contar con las mentes más brillantes, de tal manera que estemos preparados para afrontar este desafío a tiempo.

Daniel C. Dennett. Filósofo en el Centro de Estudios Cognitivos de la Universidad de Tufts

La Singularidad -el temido momento en el que la Inteligencia Artificial (IA) sobrepasa la inteligencia de sus creadores- tiene todas las características clásicas de una leyenda urbana: cierta credibilidad científica ("Bueno, en principio, ¡supongo que es posible!") combinada con un deliciosamente escalofriante clímax ("¡Nos dominarán los robots!"). Tras décadas de alarmismo sobre los riesgos de la IA, podríamos pensar que la Singularidad se vería a estas alturas como una broma o una parodia, pero ha demostrado ser un concepto extremadamente persuasivo. Si a esto le añadimos algunos conversos ilustres (Elon Musk, Stephen Hawking...), ¿cómo no tomárnoslo en serio? Yo creo, al contrario, que estas voces de alarma nos distraen de un problema mucho más apremiante. Tras adquirir, después de siglos de duro trabajo, una comprensión de la naturaleza que nos permite, por primera vez en la Historia, controlar muchos aspectos de nuestro destino, estamos a punto de abdicar este control y dejarlo en manos de entes artificiales que no pueden pensar, poniendo a nuestra civilización en modo auto-piloto de manera prematura. Internet no es un ser inteligente (salvo en algunos aspectos), pero nos hemos vuelto tan dependientes de la Red que si en algún momento colapsara, se desataría el pánico y podríamos destruir nuestra sociedad en pocos días. El peligro real, por lo tanto, no son máquinas más inteligentes que nosotros, que podrían usurpar nuestro papel como capitanes de nuestro destino. El peligro real es que cedamos nuestra autoridad a máquinas estúpidas, otorgándoles una responsabilidad que sobrepasa su competencia.

Frank Wilczek. Físico del Massachussetts Institute of Technology (MIT) y Premio Nobel

Francis Crick la denominó la "Hipótesis Asombrosa": la conciencia, también conocida como la mente, es una propiedad emergente de la materia. Conforme avanza la neurociencia molecular, y los ordenadores reproducen cada vez más los comportamientos que denominamos inteligentes en humanos, esa hipótesis parece cada vez más verosímil. Si es verdad, entonces toda inteligencia es una inteligencia producida por una máquina [ya sea un cerebro o un sistema operativo]. Lo que diferencia a la inteligencia natural de la artificial no es lo que es, sino únicamente cómo se fabrica. David Hume proclamó que "la razón es, y debería ser, la esclava de las pasiones" en 1738, mucho antes de que existiera cualquier cosa remotamente parecida a la moderna inteligencia artificial. Aquella impactante frase estaba concebida, por supuesto, para aplicarse a la razón y las pasiones humanas. Pero también es válida para la inteligencia artificial: el comportamiento está motivado por incentivos, no por una lógica abstracta. Por eso la inteligencia artificial que me parece más alarmante es su aplicación militar: soldados robóticos, drones de todo tipo y "sistemas". Los valores que nos gustaría instalar en esos entes tendrían que ver con la capacidad para detectar y combatir amenazas. Pero bastaría una leve anomalía para que esos valores positivos desataran comportamientos paranoicos y agresivos. Sin un control adecuado, esto podría desembocar en la creación de un ejército de paranoicos poderosos, listos y perversos.

John C. Mather. Astrofísico del Centro Goddard de la NASA y Premio Nobel

Las máquinas que piensan están evolucionando de la misma manera que, tal y como nos explicó Darwin, lo hacen las especies biológicas, mediante la competición, el combate, la cooperación, la supervivencia y la reproducción. Hasta ahora no hemos encontrado ninguna ley natural que impida el desarrollo de la inteligencia artificial, así que creo que será una realidad, y bastante pronto, teniendo en cuenta los trillones de dólares que se están invirtiendo por todo el mundo en este campo, y los trillones de dólares de beneficios potenciales para los ganadores de esta carrera. Los expertos dicen que no sabemos suficiente sobre la inteligencia como para fabricarla, y estoy de acuerdo; pero un conjunto de 46 cromosomas tampoco lo entiende, y sin embargo es capaz de dirigir su creación en nuestro organismo. Mi conclusión, por lo tanto, es que ya estamos impulsando la evolución de una inteligencia artificial poderosa, que estará al servicio de las fuerzas habituales: los negocios, el entretenimiento, la medicina, la seguridad internacional, la guerra, y la búsqueda de poder a todos los niveles: el crimen, el transporte, la minería, la industria, el comercio, el sexo, etc. No creo que a todos nos gusten los resultados. No sé si tendremos la inteligencia y la imaginación necesaria para mantener a raya al genio una vez que salga de la lámpara, porque no sólo tendremos que controlar a las máquinas, sino también a los humanos que puedan hacer un uso perverso de ellas. Pero como científico, me interesa mucho las potenciales aplicaciones de la inteligencia artificial para la investigación. Sus ventajas para la exploración espacial son obvias: sería mucho más fácil para estas máquinas pensantes colonizar Marte, e incluso establecer una civilización a escala galáctica. Pero quizás no sobrevivamos el encuentro con estas inteligencias alienígenas que fabriquemos nosotros mismos.

Stephen Pinker. Catedrático de Psicología en la Universidad de Harvard

Un procesador de información fabricado por el ser humano podría, en principio, superar o duplicar nuestras propias capacidades cerebrales. Sin embargo, no creo que esto suceda en la práctica, ya que probablemente nunca exista la motivación económica y tecnológica necesaria para lograrlo. Sin embargo, algunos tímidos avances hacia la creación de máquinas más inteligentes han desatado un renacimiento de esa ansiedad recurrente basada en la idea de que nuestro conocimiento nos llevará al apocalipsis. Mi opinión es que el miedo actual a la tiranía de los ordenadores descontrolados es una pérdida de energía emocional; el escenario se parece más al virus Y2K que al Proyecto Manhattan. Para empezar, tenemos mucho tiempo para planificar todo esto. Siguen faltando entre 15 y 25 años para que la inteligencia artificial alcance el nivel del cerebro humano.Es cierto que en el pasado, los «expertos» han descartado la posibilidad de que surjan ciertos avances tecnológicos que después emergieron en poco tiempo. Pero lo contrario también es cierto: los «expertos» también han anunciado (a veces con gran pánico) la inminente aparición de avances que después jamás se vieron, como los coches impulsados por energía nuclear, las ciudades submarinas, las colonias en Marte, los bebés de diseño y los almacenes de zombis que se mantendrían vivos para suministrar órganos de repuesto a personas enfermas. Me parece muy extraño pensar que los desarrolladores de robots no incorporarían medidas de seguridad para controlar posibles riesgos. Y no es verosímil creer que la inteligencia artificial descenderá sobre nosotros antes de que podamos instalar mecanismos de precaución. La realidad es que el progreso en el campo de la inteligencia artificial es mucho más lento de lo que nos hacen creer los agoreros y alarmistas. Tendremos tiempo más que suficiente para ir adoptando medidas de seguridad ante los avances graduales que se vayan logrando, y los humanos mantendremos siempre el control del destornillador. Una vez que dejamos a un lado las fantasías de la ciencia ficción, las ventajas de una inteligencia artificial avanzada son verdaderamente emocionantes, tanto por sus beneficios prácticos, como por sus posibilidades filosóficas y científicas.


http://www.elmundo.es/ciencia/2015/01/18/54babd4b22601dcf6a8b4573.html

miércoles, 23 de julio de 2014

'En 2045 el hombre será inmortal'

TECNOLOGÍA Cursos de verano de la UIMP

'En 2045 el hombre será inmortal'

José Luis Cordeiro, profesor en la Singularity Universirty de Silicon Valley, afirma que el progreso tecnológico perimitirá acabar con el envejecimiento

JOSÉ ANDRÉS GÓMEZ > Santander
Actualizado: 22/07/2014 16:27 horas

"Y al día siguiente no murió nadie". Así comienza José Saramago Las intermitencias de la muerte, una novela en la que un 1 de enero de no se sabe bien qué año los humanos dejaron de morir, planteando un problema de tremenda magnitud para la sociedad y un desafío demográfico difícil de imaginar.

Pues bien, ese momento que un día vislumbró Saramago ya tiene fecha: "En 2045, el hombre será inmortal". Así lo afirma José Luis Cordeiro, profesor y asesor de la Singularity University, una institución académica americana creada en 2009 por la NASA y financiada por Google, que ha participado en el encuentro 'Inteligencia artificial y porvenir de la especie humana' de la Universidad Internacional Menéndez Pelayo (UIMP) de Santander. Ni el sida, ni el cáncer, ni el hambre. Nada. En poco más de 30 años, ninguna enfermedad podrá acabar con la especie humana porque, según asegura, "el envejecimiento es una enfermedad curable".

Para hacer semejantes afirmaciones, Cordeiro se basa en una corriente cada vez más extendida y de la que ya se hizo eco la revista Time: la llamada "singularidad tecnológica". Ésta apunta hacia el progreso tecnológico y la llegada de la inteligencia artificial como las herramientas que acabarán con la 'edad humana' y darán lugar a la 'edad posthumana'. Un hito hasta ahora inimaginable en un mundo en el que la brecha digital y las desigualdades sociales siguen siendo una evidencia en los distintos países que pueblan el planeta y en el que aún hoy existe un acceso desigual a la sanidad o la tecnología.

Cordeiro viene a confirmar lo que ya había dicho Ray Kurzweil, quien vaticinó en distintas ocasiones que en un momento en la historia de la humanidad las máquinas llegarán a tomar conciencia. Según el director de ingeniería de Google y fundador de la Singularity University, en 2029 tendremos artefactos del tamaño de un ordenador, capaces de sobrepasar el nivel de inteligencia de un ser humano; y en 2045, algún tipo de software será capaz de asumir la inteligencia combinada de todos los hombres y la complejidad de los procesos del pensamiento. En ese momento, un software podría llegar a sobrepasar la sofisticación del cerebro humano y a provocar "la muerte de la muerte".

"Entre el año 2029 y el 2045, vamos a tener computadoras con más transistores que neuronas tiene nuestro cerebro. Y ese será el inicio de la singularidad tecnológica, cuando la inteligencia artificial alcance a la inteligencia humana", afirma en esa línea el profesor Cordeiro.

Pero este investigador venezolano va aún más allá. Prevé que, en los próximos 10 años, por 10 dólares cualquier hombre podría llegar a acceder a la secuenciación de su genoma, conocer qué relación guardan enfermedades como el cáncer o el Alzheimer con sus genes y llegar a prevenirlas. Ello, garantiza, permitiría a los humanos en un futuro próximo "diseñar" a nuestros descendientes a nuestro gusto y evitar según qué trastornos.

Hace 50 años, el escritor británico de ciencia fricción Arthur C. Clarke formuló tres leyes relacionadas con el avance científico. La primera de ellas decía que si un científico afirma que algo es posible, seguramente esté en lo correcto; pero si dice que es imposible, probablemente esté equivocado. La segunda insistía en que la única forma de descubrir los límites de lo posible era aproximarse hacia lo imposible. Y la tercera, que toda tecnología lo suficientemente avanzada es indistinguible de la magia. Era ciencia ficción, pero en ellas se apoya la singularidad tecnológica para aventurarse a realizar semejantes previsiones futuras de una realidad distópica.

"Hace 30 años no había ordenadores personales. Hace 20 años comenzaban a aparecer los primeros móviles. Hace 10 años Google era una pequeña start-up y hoy es una de las compañías más ricas del mundo y paga mi salario. ¿Qué va a pasar en los próximos 10, 20, 30 años? Cosas mágicas", asegura este investigador.

La veracidad de sus afirmaciones, insiste, se encuentra en los avances de la ciencia y la tecnología. En los logros alcanzados por la Methuselah Foundation, una institución que ha conseguido extender la vida saludable de los ratones hasta los cinco años en la última década, "el equivalente a 1.000 años humanos"; o en la demostración de que células como las germinales, las cancerígenas o las bacterias "no envejecen". Ello demostraría que "la vida nació para vivir y no para morir".

Sea como fuere, lo que sí es una evidencia es que la tecnología cambia de forma exponencial y el progreso de la inteligencia y del conocimiento es aparentemente imparable. ¿Dónde están los límites ? O, más bien, ¿existen esos límites? Aparentemente, no.

"El cerebro es la estructura más compleja del universo y, además, el único órgano que aún no se ha creado artificialmente. Sin embargo, los científicos están empezando a estudiar el cerebro de forma sistemática y vamos a tener una explosión de la inteligencia artificial", explica el profesor de la Singularity University. La 'Iniciativa Brain', un proyecto de investigación estadounidense para tratar de trazar un mapa de toda la actividad cerebral, la última gran frontera de la ciencia; o el 'Human Brain Project', un programa internacional que intenta facilitar a los investigadores una herramienta que ayude a entender el cerebro humano, además de simular informáticamente su funcionamiento, hacen prever a este investigador que "en los próximos años los humanos se fusionarán con los robots". Éstos, como en 'El hombre bicentenario', llegarán incluso a tener sentimientos.

En 2007, los gobiernos de Corea y Japón ya mostraban su preocupación por un futuro lleno de robots y emprendían distintas medidas con el fin de tratar de regular su conducta. De hecho, el título de esta iniciativa legislativa era 'Borrador de guía para asegurar la sana conducta de la próxima generación de robots'. Ambos países consideraban insuficientes las leyes que ya formulase Isaac Asimov: un robot no puede hacer daño a un ser humano o, por inactividad, permitir que un ser humano sufra daño; un robot debe obedecer las órdenes de los seres humanos, excepto si estas órdenes entran en conflicto con la Primera Ley; un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o Segunda Ley.

Podría decirse que todo lo anterior es pura especulación. Tal vez un tremendo disparate. Pero José Luis Cordeiro y la Singularity University, una de las instituciones de mayor prestigio y especialización en la investigación y formación sobre nuevas tecnologías y su aplicación en los sectores más estratégicos y decisivos sobre el crecimiento económico y el bienestar social de la población, creen que no.

"En los próximos 30 años vamos a curar todas las enfermedades y ustedes son parte de la primera generación inmortal humana", insiste. Y es que, como dijo el filósofo y dibujante inglés William Blake, "todo lo que hoy vemos, fue un día imaginación; todo lo que hoy imaginamos, podrá ser realidad mañana". O como dijo Mafalda, "el futuro ya no es lo que era antes".


http://www.elmundo.es/ciencia/2014/07/22/53ce5a8cca4741f5328b457f.html