BERKELEY, California – El robot estaba colocado sobre un contenedor lleno de objetos al azar, desde una caja de avena instantánea hasta un tiburoncito de juguete. Este autómata de dos brazos no reconoció ninguno de los artículos, pero no importó. Metió el brazo en el montículo de objetos y comenzó a levantarlos, uno tras otro.
“El robot descifra la mejor manera de tomar cada objeto justo desde el centro del desorden”, afirmó Jeff Mahler, uno de los investigadores que desarrolla el robot en un laboratorio de la Universidad de California en Berkeley.
Para el ser humano común esta tarea es muy sencilla. Para un robot es un talento excepcional, algo que podría generar grandes cambios al interior de algunas de las mayores empresas a nivel mundial y que, más adelante, cambiará todavía más el mercado de la mano de obra humana.
En la actualidad, los robots tienen un papel muy importante dentro de gigantes de las ventas al menudeo como Amazon y empresas manufactureras como Foxconn, de electrónicos. No obstante, estas máquinas están programadas para realizar tareas muy específicas, como transportar un determinado tipo de contenedor por todo el almacén o colocar un chip específico en una tarjeta madre. No pueden buscar cosas en un montículo grande de objetos ni completar tareas de mayor complejidad. Dentro de los centros de distribución masiva de Amazon (donde clasificar cosas es una de las tareas principales) ejércitos de humanos siguen realizando gran parte de ese trabajo.
El robot de Berkeley era especialmente extraordinario porque agarraba cosas que jamás había visto. Mahler y el resto del equipo entrenaron a la máquina mostrándole cientos de objetos únicamente de manera digital y, al finalizar el entrenamiento, podía elegir objetos que no estaban representados en su selección digital.
“Estamos aprendiendo a partir de modelos simulados y luego los aplicamos al trabajo real”, comentó Ken Goldberg, profesor de Berkeley que supervisa el laboratorio de automatización de la universidad.
El robot estaba lejos de la perfección y podrían pasar años para verlo fuera de los laboratorios de investigación. Aunque estaba equipado con una ventosa y unas pinzas paralelas (una especie de mano con dos dedos), podía tomar de manera fiable solo algunos objetos, y no podía cambiar entre la ventosa y las pinzas de manera improvisada. Pero las técnicas que se utilizaron para su entrenamiento representan un importante cambio en la investigación robótica, que podría revolucionar no solo los almacenes de Amazon, sino industrias completas.
En lugar de tratar de programar ciertas conductas en su robot, una labor bastante engorrosa, Mahler y su equipo lo dotaron con una forma de aprender a realizar tareas por sí mismo. Investigadores de lugares como la Northeastern University, la Universidad Carnegie Mellon, Google y OpenAI (el laboratorio de inteligencia artificial fundado por el director general de Tesla, Elon Musk) están desarrollando técnicas similares, y creen que tal aprendizaje en una máquina permitirá a los robots dominar una gama mucho más amplia de tareas, incluyendo la manufactura.
“Esto podría extenderse a tareas de ensamblado y operaciones más complejas”, señaló Juan Aparicio, jefe de automatización de manufactura avanzada en el gigante de la industria alemana Siemens, que ayuda a financiar la investigación de Berkeley. “Ese es el camino a seguir”.
Físicamente, el robot de Berkeley no es novedoso; Mahler y su equipo utilizaron piezas existentes. Lo novedoso fue el software, que mostró que se puede dar un nuevo uso a lo que se conoce como redes neuronales. Construida a semejanza de las redes de las neuronas del cerebro humano, una red neuronal es un complejo algoritmo que puede aprender a realizar tareas mediante el análisis de grandes cantidades de información. Al buscar patrones en miles de fotografías de perros, por ejemplo, una red neuronal puede aprender a reconocer un perro.
En los últimos cinco años, estos algoritmos han cambiado de forma radical la manera en que las grandes compañías en internet ofrecen sus servicios en línea, acelerando así no solo el desarrollo de todos los aspectos que van desde el reconocimiento de la imagen y la voz hasta las búsquedas en internet, sino acelerando también el desarrollo de la robótica.
El equipo de Berkeley comenzó a explorar en internet modelos CAD, sigla que corresponde al diseño asistido por computadora, es decir, representaciones digitales de objetos físicos. Ingenieros, físicos y diseñadores crearon estas representaciones mediante experimentos o creaciones de productos nuevos y, con ellas, Mahler y su equipo generaron más modelos digitales con las que, con el tiempo, construyeron una base de datos de más de siete millones de artículos. Entonces, simularon las características físicas de cada uno de ellos y mostraron el punto exacto de donde el brazo robótico debía tomar el artículo.
Fue un arduo trabajo, aunque el proceso era automatizado, en su mayoría. Cuando el equipo alimentaba la red neuronal con estos modelos, el sistema aprendía a identificar un punto similar en casi cualquier objeto digital con cualquier forma. Cuando el equipo conectó esta red neuronal al robot con brazos, este pudo hacer lo mismo con los objetos físicos.
Al enfrentarse a un objeto de uso cotidiano con superficie cilíndrica o al menos un tanto plana (como una espátula, una engrapadora, un contenedor cilíndrico de cereal o incluso un tubo de pasta dental), podía levantarlo con un índice de éxito de más del 90 por ciento. Sin embargo, los porcentajes bajaron al enfrentarse a formas más complejas, como el tiburón de juguete.
Además, cuando el equipo creó montículos simulados de objetos al azar y los incluyó en la red neuronal, el sistema pudo aprender a levantar los artículos de los montículos físicos también. Investigadores de la Universidad Brown y de Northeastern están explorando investigaciones similares, y se espera que este tipo de trabajo pueda combinarse con otros métodos.
“Tomar un objeto es lo primero que deseas que haga un robot operador”, afirmó Stefanie Tellex, profesora de la Universidad Brown. “Ese es el inicio de una conducta mucho más sofisticada. Si no puedes levantar un objeto, perdiste”.
La investigación comprobó que el proceso de aprendizaje en el mundo digital se puede transferir al mundo físico. Puesto que la cámara del robot de Berkeley podía percibir la profundidad, capturó imágenes tridimensionales que no eran muy distintas de los modelos CAD que utiliza el equipo para capacitar a su red neuronal.
Otros investigadores están desarrollando maneras para que los robots aprendan de forma directa a partir de la experiencia física. Por ejemplo, en Google, utilizando una técnica algorítmica llamada aprendizaje por refuerzo, los robots se entrenan a sí mismos para abrir puertas mediante una práctica extrema de ensayo y error. Pero este tipo de entrenamiento físico lleva tiempo y es costoso, mientras que el entrenamiento digital es más eficaz.
Por este motivo, algunas organizaciones esperan poder capacitar robots con mundos virtuales más complejos, recreaciones digitales de nuestro entorno físico. Se cree que, si un sistema puede capacitarse a sí mismo para conducir en un juego de carreras como el Grand Theft Auto, puede hacerlo también en carreteras reales.
Lo anterior es primordialmente una teoría, pero en lugares como la Universidad de Berkeley y la Universidad del Noreste, los investigadores están demostrando que el aprendizaje digital puede dar el salto al mundo real.
“Es un reto”, dijo Rob Platt, profesor de Northeastern. “Pero es un reto que estamos tratando de superar”.
EDICIÓN
No comments:
Post a Comment