Un robot que aprende como un niño

2016-01-10 00:35:21

Un robot que aprende como un niño

«Darwin» es el nombre de un robot que se tambalea un poco, al mejor estilo de los niños más pequeños. Sin embargo, se trata de algo deliberado y no de una deficiencia técnica, por cuanto Darwin aprende a llevar a cabo una nueva tarea, de manera similar a como sucede en los procesos neurológicos del aprendizaje infantil.

Las características de los movimientos de Darwin.

Este «pequeño androide» vive (por decirlo de alguna manera) en el laboratorio de un profesor adjunto de la Universidad de California, en Berkeley.

Afirma el científico que, cuando lo vio por primera vez, estaba colgando de un trípode con un trozo de cuerda. Lo que sucedía, sin embargo, era que poco antes, el robot se había estado retorciendo al final de la cuerda, «intentando explorar» cual era la menor manera de mover las cuatro extremidades, para ponerse de pie sin volcarse.

En lo que respecta a los movimientos de Darwin, digamos que están controlados por varias redes de neuronas artificiales y algoritmos que imitan la forma de aprender de un cerebro real (biológico), mientras las conexiones entre las neuronas (dendritas) se fortalecen y se debilitan, con el transcurso del tiempo en respuesta a toda clase de estímulos.

En el caso específico de Darwin, se hace uso de unas redes neuronales bastante complejas, conocidas como «redes de aprendizaje profundo» que, dicho sea de paso, disponen de muchas capas de neuronas artificiales.

Con el fin de que este «atractivo androide» aprenda a ponerse de pie y, además, a reubicar su cuerpo (para situar un ejemplo de tantos), antes que nada ejecuta una seriede simulacionespara entrenar una red de aprendizaje profundo de alto nivel.

Lo anterior, para que realice la tarea, lo que es algo que los investigadores han comparado con lo que es un «proceso imaginario», según sus propias palabras.

Ello, brinda una guía general para Darwin, al tiempo que una segunda red de aprendizaje profundo es entrenada para llevar a cabo la tarea, mientras responda a la compleja dinámica de las articulaciones y a la complejidad del entorno real.

El robot requiere de una segunda red. Otras consideraciones adicionales

Se requiere de una segunda red, por cuanto, cuando la primera red intenta mover, por ejemplo, una pierna, la fricción que se presenta con el punto de contacto con el suelo, puede «despistarlo» completamente y caerse.

Los investigadores lograron que Darwin aprendiera a ponerse de pie, a mantenerse en estado de equilibrio y a realizar movimientos de agarre con las manos, cuando se incline la superficie sobre la que se encuentra el androide.

Darwin practica con simulaciones durante, aproximadamente, una hora, de tal manera que el modo operativo aprende cómo no perder el equilibrio, sobre la marcha.

El grupo de investigadores ya había demostrado, tiempo atrás, cómo el aprendizaje profundo puede habilitar a un robot, para la ejecución de una tarea específica como, por ejemplo, hacer que un bloque de juguete pase por un agujero, mediante un proceso de ensayo y error.

La importancia del nuevo enfoque, radica en que puede que no siempre sea posible que una máquina de estas goce de un período de prueba amplio.

Además, las simulaciones no tienen las complejidades del mundo real, condición ésta que, con los robots, puede generar un fracaso estruendoso.

De otro lado, tenemos que esta nueva tecnología podría ser de lo más útil para cualquier tipo de robots, que trabaje en toda clase de entornos reales, al tiempo que podríadesarrollar una locomoción más elegante y menos aparatosa y artificial, como sucede actualmente.

En la actualidad, las investigaciones están enfocadas al diseño de un algoritmo que tenga en consideración la dinámica de un proceso, como lo es el de caminar e, incluso, correr.

Sin embargo, lidiar con las complejas variaciones del mundo real, podría demorar un poco el desarrollo de un robot que pueda correr o hacer otros movimientos más complejos aún.