robot-baxter-aprendizaje-tacto

El equipo de informática de Carnegie Mellon compara el aprendizaje del robot Baxter con el de un bebé

El aprendizaje del robot Baxter es lento, pero seguro. Este empieza con series de agarrar objetos, pero el robot es torpe e intenta cogerlos sin éxito. Puede tratarse de un proceso bastante insoportable y cansino para nosotros, los humanos; sin embargo el robot está aprendiendo mediante respuesta táctil y el proceso de ensayos y errores, o como el equipo de informática de Carnegie Mellon comenta detrás del proyecto, se podría decir que el robot está aprendiendo como un bebé, por sí mismo.

En un artículo titulado The Curious Robot: Learning Visual Representations via Physical Interactions”, el equipo demuestra cómo la Inteligencia Artificial puede ser entrenada para aprender acerca de objetos e “interactuar” con ellos. Los estudiantes de CMU expresan: “Por ejemplo, los bebés tocan objetos, los lanzan, se los ponen en la boca, los vuelven a lanzar, … así aprenden representaciones. Con el mismo objetivo, construimos uno de los primeros sistemas en una plataforma Baxter que toca, lanza, capta y observa objetos sobre una mesa“.

Actualmente, Baxter ya ha pasado por el proceso varias veces. El asistente de laboratorio Dhiraj Gandhi estableció varias demostraciones tras presentar la selección de objetos: un estuche de lapices, un Power Ranger y otros juguetes como autos, entre otros. La demo consiste en una combinación de objetos familiares y desconocidos para el robot. Cuando el robot reconoce un objeto, lo agarra con firmeza y lo deja caer en la caja apropiada. Si el objeto no le resulta familiar, el robot expresa confusión y descontento.

Dhiraj Gandhi se basa en un experimento de mediados de los 70 para explicar la importancia del tacto

Esta investigación marca un antes y un después en las formas más tradicionales de aprender. Y es que el robot de CMU aprende por sí mismo. Para explicar la importancia del tacto, Gandhi hace referencia a un experimento de mediados de los 70, en el que un investigador británico estudió el desarrollo de dos gatitos. Uno era capaz de interactuar con el mundo de forma normal y al otro se le permitió mirar – pero no tocar – los objetos. El resultado fue un pobre gatito incapaz de hacer cosas corrientes que hacen los gatos.

El sistema utiliza una cámara 3D similar a la Kinect. La información visual y táctil que Baxter reúne se envía a una red neuronal profunda, donde se hace referencia cruzada a imágenes en ImageNet. Los datos táctiles adicionales aumentan la precisión de identificación del robot en más del 10% sobre robots entrenados sólo con datos de imagen. “Esto es muy alentador”, escribe el equipo en el documento, “desde la correlación entre las tareas de robot y tareas de clasificación semántica se han asumido durante décadas, pero nunca se han demostrado“.

Pese a que la investigación está todavía en sus primeras etapas, promete. De cara al futuro, una combinación de aprendizaje de los sentidos de la vista y el tacto se podría utilizar para clasificar los robots como el tipo desarrollado por ZenRobotics, que se diseñan separar la basura del reciclaje. “Cuando hablamos de implementar [el sistema] en un entorno real, es un reto muy grande”, dice Gandhi. “Queremos resolver ese desafío, pero ahora mismo, estamos dando pasos infantiles hacia él”.

 

Lee ahora: El robot que te prepara 400 hamburguesas por hora cierra una ronda de inversión

Más sobre Robótica

SoftBank le “roba” la mejor empresa de robots del mundo a Google

Los nanobots habitarán nuestro cuerpo en 2030 ¿Estamos cerca de la singularidad tecnológica?

2 Comentarios

Dejar respuesta

Please enter your comment!
Please enter your name here