Un equip d'investigadors de la Universitat de Califòrnia, a Berkeley han trobat una manera d'aconseguir que un robot imiti una activitat que veu en una pantalla de vídeo només una sola vegada. En un document que han penjat al servidor de preimpressió arXiv, l'equip descriu l'enfocament que utilitzen i com funciona.
Els robots que aprenen a fer coses simplement observant com un ésser humà duu a terme una acció a la vegada, podrien aprendre moltes més accions noves molt més ràpidament del que ara és possible. Els científics han estat treballant dur per esbrinar com fer-ho.
Històricament, però, els robots han estat programats per dur a terme accions com recollir un objecte mitjançant un codi que estableix expressament què s'ha de fer i com fer-ho. Així és com la majoria dels robots fan coses, com muntar cotxes en un treball de fàbrica. Aquests robots encara han de passar un procés de formació mitjançant el qual es dirigeixen a través de procediments múltiples fins que puguin fer-los sense cometre errors. Més recentment, els robots han estat programats per aprendre purament a través de l'observació, com ho fan els humans i altres animals. Però aquest aprenentatge imitatiu sol requerir milers d'observacions. En aquest nou treball, els investigadors descriuen una tècnica que han desenvolupat, la qual permet que un robot realitzi una acció desitjada observant que un ésser humà ho fa només una sola vegada.
Per assolir aquesta gesta, els investigadors van combinar l'aprenentatge d'imitació amb un algoritme de meta-aprenentatge. El resultat és quelcom que anomenen meta-aprenentatge model-agnòstic (MAML). El meta-aprenentatge, expliquen els investigadors, és un procés mitjançant el qual un robot aprèn incorporant l'experiència prèvia. Si es mostra un robot de vídeo d'un home recollint una pera o un altre objecte similar, per exemple, i posar-la en una tassa, un bol o un altre objecte, pot aconseguir un "sentir" per a un objectiu. Si en cada cas s'ensenya a imitar el comportament d'una determinada manera, "s'aprèn" què fer quan s'observen altres comportaments similars. Així, quan veu un vídeo d'una persona recollint una pruna i posar-la en un recipient, reconeix el comportament i és capaç de traduir-lo a un comportament semblant propi, que pot dur a terme.
Font: UC Berkley
Cap comentari:
Publica un comentari a l'entrada
Aquest és un blog amb moderador dels comentaris. Per tant, no apareixen immediatament