sábado, 6 de junio de 2015

El MIT desarrolla un robot capaz de esquivar obstáculos

Al saltar el objeto el avance logra un movimiento parecido al de cualquier atleta de los 110 metros vallas

Tecnología | 06/06/2015 - 09:00h | Última actualización: 06/06/2015 - 10:13h



Barcelona. (Redacción).- La historia de la robótica ha dado un paso más con la construcción de un nuevo artefacto que tiene una mayor autonomía. Un grupo de investigadores del MIT, el Instituto de Tecnología de Massachussets, ha desarrollado un sistema inteligente capaz de esquivar obstáculos.

El procedimiento que el robot sigue al saltar el objeto es parecido al de cualquier atleta de los 110 metros vallas. Cuando detecta un obstáculo cerca, estima la altura y la distancia y calcula la mejor posición para esquivarlo. Basándose en estos datos, el robot aplica una cantidad de fuerza concreta para poder aterrizar con seguridad.

El experimento se realizó primero en una cinta de correr y más tarde en una pista de un gimnasio. En ellas el robot es capaz de saltar obstáculos de casi medio metro, más de la mitad de su propia altura, y puede mantener una velocidad de 8 km/h.

El equipo demostró en septiembre que el robot guepardo era capaz de correr sin el uso de cámaras u otros sistemas de visión. Ahora han perfeccionado este sistema: el robot puede ver gracias al uso de LIDAR, un sistema que utiliza unos sensores que le permiten hacer un mapa del terreno. Esta técnica la han incorporado a la estructura del robot permitiéndole un control autónomo.

El profesor adjunto de ingeriría mecánica del MIT, Sangbae Kim, ha explicado que para crear LIDAR utilizaron un algoritmo para predecir la mejor posición para saltar el objeto de forma segura. Los investigadores diseñaron una formula con un prototipo de escena visual, en la que se representa el suelo como una línea recta y los obstáculos como desviaciones de esta línea.

El equipo del MIT presentará este proyecto en la DARPA Robotics Challenge de junio. Su próximo objetivo es que el robot pueda saltar sobre los obstáculos al correr en un terreno más suave, como un campo de hierba.


http://www.lavanguardia.com/tecnologia/20150606/54432653927/mit-desarrolla-robot-capaz-esquivar-obstaculos.html

martes, 20 de enero de 2015

“Cualquiera que diga que las máquinas ‘no pueden hacer tal cosa’ se va a arrepentir”

* Experto en inteligencia artificial, tecnología y economía, Paul Saffo se dedica a analizar el presente adelantándose al futuro

* No quiere que lo consideren gurú ni futurólogo, pero habla con soltura de lo que ocurrirá dentro de uno o dos decenios

ROSA JIMÉNEZ CANO | San Francisco | 19 ENE 2015 - 16:52 CET

[...]


http://tecnologia.elpais.com/tecnologia/2014/11/27/actualidad/1417088772_926620.html

domingo, 18 de enero de 2015

El reto de las máquinas pensantes

TECNOLOGÍA Debate internacional de expertos

El reto de las máquinas pensantes

El robot HAL en '2001: Una Odisea del espacio', de Kubrick, un icono de la inteligencia artificial. | EL MUNDO

EDGE.ORG | EL MUNDO > Madrid

Actualizado: 18/01/2015 02:22 horas

"¿Qué piensa usted sobre las máquinas que piensan?" Ésta es la pregunta que la revista digital Edge ha lanzado, como todos los años por estas fechas, a algunas de las mentes más brillantes del planeta. Hace poco más de un mes, a principios de diciembre, Stephen Hawking alertó sobre las consecuencias potencialmente apocalípticas de la inteligencia artificial, que en su opinión podría llegar a provocar "el fin de la especie humana". Pero, ¿realmente debemos temer el peligro de un futuro ejército de humanoides fuera de control? ¿O más bien deberíamos celebrar las extraordinarias oportunidades que podría brindarnos el desarrollo de máquinas pensantes, e incluso sintientes? Semejantes seres, además, nos plantearían nuevos dilemas éticos. ¿Formarían parte de nuestra "sociedad"? ¿Deberíamos concederles derechos civiles? ¿Sentiríamos empatía por ellos? Un año más, algunos de los pensadores y científicos más relevantes del mundo han aceptado el reto intelectual planteado por el editor de Edge, John Brockman. Ésta es tan sólo una selección de algunas de las respuestas más interesantes.

Nick Bostrom. Director del Instituto para el Futuro de la Humanidad de Oxford:

Creo que, en general, la gente se precipita al dar su opinión sobre este tema, que es extremadamente complicado. Hay una tendencia a adaptar cualquier idea nueva y compleja para que se amolde a un cliché que nos resulte familiar. Y por algún motivo extraño, muchas personas creen que es importante referirse a lo que ocurre en diversas películas y novelas de ciencia ficción cuando hablan del futuro de la inteligencia artificial. Mi opinión es que ahora mismo, a las máquinas se les da muy mal pensar (excepto en unas pocas y limitadas áreas). Sin embargo, algún día probablemente lo harán mejor que nosotros (al igual que las máquinas ya son mucho más fuertes y rápidas que cualquier criatura biológica). Pero ahora mismo hay poca información para saber cuánto tiempo tardará en surgir esta superinteligencia artificial. Lo mejor que podemos hacer ahora mismo, en mi opinión, es impulsar y financiar el pequeño pero pujante campo de investigación que se dedica a analizar el problema de controlar los riesgos futuros de la superinteligencia. Será muy importante contar con las mentes más brillantes, de tal manera que estemos preparados para afrontar este desafío a tiempo.

Daniel C. Dennett. Filósofo en el Centro de Estudios Cognitivos de la Universidad de Tufts

La Singularidad -el temido momento en el que la Inteligencia Artificial (IA) sobrepasa la inteligencia de sus creadores- tiene todas las características clásicas de una leyenda urbana: cierta credibilidad científica ("Bueno, en principio, ¡supongo que es posible!") combinada con un deliciosamente escalofriante clímax ("¡Nos dominarán los robots!"). Tras décadas de alarmismo sobre los riesgos de la IA, podríamos pensar que la Singularidad se vería a estas alturas como una broma o una parodia, pero ha demostrado ser un concepto extremadamente persuasivo. Si a esto le añadimos algunos conversos ilustres (Elon Musk, Stephen Hawking...), ¿cómo no tomárnoslo en serio? Yo creo, al contrario, que estas voces de alarma nos distraen de un problema mucho más apremiante. Tras adquirir, después de siglos de duro trabajo, una comprensión de la naturaleza que nos permite, por primera vez en la Historia, controlar muchos aspectos de nuestro destino, estamos a punto de abdicar este control y dejarlo en manos de entes artificiales que no pueden pensar, poniendo a nuestra civilización en modo auto-piloto de manera prematura. Internet no es un ser inteligente (salvo en algunos aspectos), pero nos hemos vuelto tan dependientes de la Red que si en algún momento colapsara, se desataría el pánico y podríamos destruir nuestra sociedad en pocos días. El peligro real, por lo tanto, no son máquinas más inteligentes que nosotros, que podrían usurpar nuestro papel como capitanes de nuestro destino. El peligro real es que cedamos nuestra autoridad a máquinas estúpidas, otorgándoles una responsabilidad que sobrepasa su competencia.

Frank Wilczek. Físico del Massachussetts Institute of Technology (MIT) y Premio Nobel

Francis Crick la denominó la "Hipótesis Asombrosa": la conciencia, también conocida como la mente, es una propiedad emergente de la materia. Conforme avanza la neurociencia molecular, y los ordenadores reproducen cada vez más los comportamientos que denominamos inteligentes en humanos, esa hipótesis parece cada vez más verosímil. Si es verdad, entonces toda inteligencia es una inteligencia producida por una máquina [ya sea un cerebro o un sistema operativo]. Lo que diferencia a la inteligencia natural de la artificial no es lo que es, sino únicamente cómo se fabrica. David Hume proclamó que "la razón es, y debería ser, la esclava de las pasiones" en 1738, mucho antes de que existiera cualquier cosa remotamente parecida a la moderna inteligencia artificial. Aquella impactante frase estaba concebida, por supuesto, para aplicarse a la razón y las pasiones humanas. Pero también es válida para la inteligencia artificial: el comportamiento está motivado por incentivos, no por una lógica abstracta. Por eso la inteligencia artificial que me parece más alarmante es su aplicación militar: soldados robóticos, drones de todo tipo y "sistemas". Los valores que nos gustaría instalar en esos entes tendrían que ver con la capacidad para detectar y combatir amenazas. Pero bastaría una leve anomalía para que esos valores positivos desataran comportamientos paranoicos y agresivos. Sin un control adecuado, esto podría desembocar en la creación de un ejército de paranoicos poderosos, listos y perversos.

John C. Mather. Astrofísico del Centro Goddard de la NASA y Premio Nobel

Las máquinas que piensan están evolucionando de la misma manera que, tal y como nos explicó Darwin, lo hacen las especies biológicas, mediante la competición, el combate, la cooperación, la supervivencia y la reproducción. Hasta ahora no hemos encontrado ninguna ley natural que impida el desarrollo de la inteligencia artificial, así que creo que será una realidad, y bastante pronto, teniendo en cuenta los trillones de dólares que se están invirtiendo por todo el mundo en este campo, y los trillones de dólares de beneficios potenciales para los ganadores de esta carrera. Los expertos dicen que no sabemos suficiente sobre la inteligencia como para fabricarla, y estoy de acuerdo; pero un conjunto de 46 cromosomas tampoco lo entiende, y sin embargo es capaz de dirigir su creación en nuestro organismo. Mi conclusión, por lo tanto, es que ya estamos impulsando la evolución de una inteligencia artificial poderosa, que estará al servicio de las fuerzas habituales: los negocios, el entretenimiento, la medicina, la seguridad internacional, la guerra, y la búsqueda de poder a todos los niveles: el crimen, el transporte, la minería, la industria, el comercio, el sexo, etc. No creo que a todos nos gusten los resultados. No sé si tendremos la inteligencia y la imaginación necesaria para mantener a raya al genio una vez que salga de la lámpara, porque no sólo tendremos que controlar a las máquinas, sino también a los humanos que puedan hacer un uso perverso de ellas. Pero como científico, me interesa mucho las potenciales aplicaciones de la inteligencia artificial para la investigación. Sus ventajas para la exploración espacial son obvias: sería mucho más fácil para estas máquinas pensantes colonizar Marte, e incluso establecer una civilización a escala galáctica. Pero quizás no sobrevivamos el encuentro con estas inteligencias alienígenas que fabriquemos nosotros mismos.

Stephen Pinker. Catedrático de Psicología en la Universidad de Harvard

Un procesador de información fabricado por el ser humano podría, en principio, superar o duplicar nuestras propias capacidades cerebrales. Sin embargo, no creo que esto suceda en la práctica, ya que probablemente nunca exista la motivación económica y tecnológica necesaria para lograrlo. Sin embargo, algunos tímidos avances hacia la creación de máquinas más inteligentes han desatado un renacimiento de esa ansiedad recurrente basada en la idea de que nuestro conocimiento nos llevará al apocalipsis. Mi opinión es que el miedo actual a la tiranía de los ordenadores descontrolados es una pérdida de energía emocional; el escenario se parece más al virus Y2K que al Proyecto Manhattan. Para empezar, tenemos mucho tiempo para planificar todo esto. Siguen faltando entre 15 y 25 años para que la inteligencia artificial alcance el nivel del cerebro humano.Es cierto que en el pasado, los «expertos» han descartado la posibilidad de que surjan ciertos avances tecnológicos que después emergieron en poco tiempo. Pero lo contrario también es cierto: los «expertos» también han anunciado (a veces con gran pánico) la inminente aparición de avances que después jamás se vieron, como los coches impulsados por energía nuclear, las ciudades submarinas, las colonias en Marte, los bebés de diseño y los almacenes de zombis que se mantendrían vivos para suministrar órganos de repuesto a personas enfermas. Me parece muy extraño pensar que los desarrolladores de robots no incorporarían medidas de seguridad para controlar posibles riesgos. Y no es verosímil creer que la inteligencia artificial descenderá sobre nosotros antes de que podamos instalar mecanismos de precaución. La realidad es que el progreso en el campo de la inteligencia artificial es mucho más lento de lo que nos hacen creer los agoreros y alarmistas. Tendremos tiempo más que suficiente para ir adoptando medidas de seguridad ante los avances graduales que se vayan logrando, y los humanos mantendremos siempre el control del destornillador. Una vez que dejamos a un lado las fantasías de la ciencia ficción, las ventajas de una inteligencia artificial avanzada son verdaderamente emocionantes, tanto por sus beneficios prácticos, como por sus posibilidades filosóficas y científicas.


http://www.elmundo.es/ciencia/2015/01/18/54babd4b22601dcf6a8b4573.html

miércoles, 23 de julio de 2014

'En 2045 el hombre será inmortal'

TECNOLOGÍA Cursos de verano de la UIMP

'En 2045 el hombre será inmortal'

José Luis Cordeiro, profesor en la Singularity Universirty de Silicon Valley, afirma que el progreso tecnológico perimitirá acabar con el envejecimiento

JOSÉ ANDRÉS GÓMEZ > Santander
Actualizado: 22/07/2014 16:27 horas

"Y al día siguiente no murió nadie". Así comienza José Saramago Las intermitencias de la muerte, una novela en la que un 1 de enero de no se sabe bien qué año los humanos dejaron de morir, planteando un problema de tremenda magnitud para la sociedad y un desafío demográfico difícil de imaginar.

Pues bien, ese momento que un día vislumbró Saramago ya tiene fecha: "En 2045, el hombre será inmortal". Así lo afirma José Luis Cordeiro, profesor y asesor de la Singularity University, una institución académica americana creada en 2009 por la NASA y financiada por Google, que ha participado en el encuentro 'Inteligencia artificial y porvenir de la especie humana' de la Universidad Internacional Menéndez Pelayo (UIMP) de Santander. Ni el sida, ni el cáncer, ni el hambre. Nada. En poco más de 30 años, ninguna enfermedad podrá acabar con la especie humana porque, según asegura, "el envejecimiento es una enfermedad curable".

Para hacer semejantes afirmaciones, Cordeiro se basa en una corriente cada vez más extendida y de la que ya se hizo eco la revista Time: la llamada "singularidad tecnológica". Ésta apunta hacia el progreso tecnológico y la llegada de la inteligencia artificial como las herramientas que acabarán con la 'edad humana' y darán lugar a la 'edad posthumana'. Un hito hasta ahora inimaginable en un mundo en el que la brecha digital y las desigualdades sociales siguen siendo una evidencia en los distintos países que pueblan el planeta y en el que aún hoy existe un acceso desigual a la sanidad o la tecnología.

Cordeiro viene a confirmar lo que ya había dicho Ray Kurzweil, quien vaticinó en distintas ocasiones que en un momento en la historia de la humanidad las máquinas llegarán a tomar conciencia. Según el director de ingeniería de Google y fundador de la Singularity University, en 2029 tendremos artefactos del tamaño de un ordenador, capaces de sobrepasar el nivel de inteligencia de un ser humano; y en 2045, algún tipo de software será capaz de asumir la inteligencia combinada de todos los hombres y la complejidad de los procesos del pensamiento. En ese momento, un software podría llegar a sobrepasar la sofisticación del cerebro humano y a provocar "la muerte de la muerte".

"Entre el año 2029 y el 2045, vamos a tener computadoras con más transistores que neuronas tiene nuestro cerebro. Y ese será el inicio de la singularidad tecnológica, cuando la inteligencia artificial alcance a la inteligencia humana", afirma en esa línea el profesor Cordeiro.

Pero este investigador venezolano va aún más allá. Prevé que, en los próximos 10 años, por 10 dólares cualquier hombre podría llegar a acceder a la secuenciación de su genoma, conocer qué relación guardan enfermedades como el cáncer o el Alzheimer con sus genes y llegar a prevenirlas. Ello, garantiza, permitiría a los humanos en un futuro próximo "diseñar" a nuestros descendientes a nuestro gusto y evitar según qué trastornos.

Hace 50 años, el escritor británico de ciencia fricción Arthur C. Clarke formuló tres leyes relacionadas con el avance científico. La primera de ellas decía que si un científico afirma que algo es posible, seguramente esté en lo correcto; pero si dice que es imposible, probablemente esté equivocado. La segunda insistía en que la única forma de descubrir los límites de lo posible era aproximarse hacia lo imposible. Y la tercera, que toda tecnología lo suficientemente avanzada es indistinguible de la magia. Era ciencia ficción, pero en ellas se apoya la singularidad tecnológica para aventurarse a realizar semejantes previsiones futuras de una realidad distópica.

"Hace 30 años no había ordenadores personales. Hace 20 años comenzaban a aparecer los primeros móviles. Hace 10 años Google era una pequeña start-up y hoy es una de las compañías más ricas del mundo y paga mi salario. ¿Qué va a pasar en los próximos 10, 20, 30 años? Cosas mágicas", asegura este investigador.

La veracidad de sus afirmaciones, insiste, se encuentra en los avances de la ciencia y la tecnología. En los logros alcanzados por la Methuselah Foundation, una institución que ha conseguido extender la vida saludable de los ratones hasta los cinco años en la última década, "el equivalente a 1.000 años humanos"; o en la demostración de que células como las germinales, las cancerígenas o las bacterias "no envejecen". Ello demostraría que "la vida nació para vivir y no para morir".

Sea como fuere, lo que sí es una evidencia es que la tecnología cambia de forma exponencial y el progreso de la inteligencia y del conocimiento es aparentemente imparable. ¿Dónde están los límites ? O, más bien, ¿existen esos límites? Aparentemente, no.

"El cerebro es la estructura más compleja del universo y, además, el único órgano que aún no se ha creado artificialmente. Sin embargo, los científicos están empezando a estudiar el cerebro de forma sistemática y vamos a tener una explosión de la inteligencia artificial", explica el profesor de la Singularity University. La 'Iniciativa Brain', un proyecto de investigación estadounidense para tratar de trazar un mapa de toda la actividad cerebral, la última gran frontera de la ciencia; o el 'Human Brain Project', un programa internacional que intenta facilitar a los investigadores una herramienta que ayude a entender el cerebro humano, además de simular informáticamente su funcionamiento, hacen prever a este investigador que "en los próximos años los humanos se fusionarán con los robots". Éstos, como en 'El hombre bicentenario', llegarán incluso a tener sentimientos.

En 2007, los gobiernos de Corea y Japón ya mostraban su preocupación por un futuro lleno de robots y emprendían distintas medidas con el fin de tratar de regular su conducta. De hecho, el título de esta iniciativa legislativa era 'Borrador de guía para asegurar la sana conducta de la próxima generación de robots'. Ambos países consideraban insuficientes las leyes que ya formulase Isaac Asimov: un robot no puede hacer daño a un ser humano o, por inactividad, permitir que un ser humano sufra daño; un robot debe obedecer las órdenes de los seres humanos, excepto si estas órdenes entran en conflicto con la Primera Ley; un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o Segunda Ley.

Podría decirse que todo lo anterior es pura especulación. Tal vez un tremendo disparate. Pero José Luis Cordeiro y la Singularity University, una de las instituciones de mayor prestigio y especialización en la investigación y formación sobre nuevas tecnologías y su aplicación en los sectores más estratégicos y decisivos sobre el crecimiento económico y el bienestar social de la población, creen que no.

"En los próximos 30 años vamos a curar todas las enfermedades y ustedes son parte de la primera generación inmortal humana", insiste. Y es que, como dijo el filósofo y dibujante inglés William Blake, "todo lo que hoy vemos, fue un día imaginación; todo lo que hoy imaginamos, podrá ser realidad mañana". O como dijo Mafalda, "el futuro ya no es lo que era antes".


http://www.elmundo.es/ciencia/2014/07/22/53ce5a8cca4741f5328b457f.html

sábado, 14 de junio de 2014

RESURRECCIÓN AUTÉNTICA

En el futuro estimando que sustancia hay en cada cubo lo suficientemente pequeño del sistema nervioso de un cadáver bien conservado, podremos saber que permitividad, permeabilidad y conductividad electromagnéticas tiene cada cubo del sistema nervioso. Con toda esa información y con otra información mediante superordenadores se podrá simular como cambian las propiedades electromagnéticas de cada cubo y se podrán simular los potenciales de acción eléctricos que se propagan por las neuronas del sistema nervioso como si estuviera vivo.

Velocidad típica de conducción del potencial de acción 10 m/s