Robotique

Les robots apprennent différents comportements de locomotion à l'aide de démonstrations humaines

Les robots apprennent différents comportements de locomotion à l'aide de démonstrations humaines


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Les robots sont une partie importante de notre avenir, et les chercheurs du monde entier ont travaillé dur pour permettre des styles de locomotion fluides dans les robots humanoïdes et à pattes.

Maintenant, une équipe de chercheurs de l'Université d'Édimbourg en Écosse a mis en place un cadre pour entraîner des robots humanoïdes à marcher comme nous, humains, en utilisant des démonstrations humaines.

Leur étude a été pré-publiée le arXiv, et combine l'apprentissage par imitation et les techniques d'apprentissage par renforcement profond. Leurs résultats ont également été publiés dans IEEE Xplore.

VOIR AUSSI: LE ROBOT HUMANOÏDE LE PLUS AVANCÉ D'IRAN RIVALENT L'ASIMO DE HONDA

Connaissances humaines utiles dans les systèmes robotiques

"La question clé que nous nous sommes fixé pour objectif d'étudier était de savoir comment incorporer (1) les connaissances humaines utiles dans la locomotion des robots et (2) les données de capture de mouvement humain pour l'imitation dans le paradigme d'apprentissage par renforcement profond pour faire progresser plus efficacement les capacités autonomes des robots à pattes", Chuanyu Yang, l'un des chercheurs participant à l'étude, a déclaré TechXplore.

«Nous avons proposé deux méthodes pour introduire les connaissances antérieures humaines dans un cadre DRL.

Le cadre de l'équipe fonctionne à partir d'une conception de récompense unique qui utilise des données de légende de mouvement d'humains marchant dans le cadre du processus d'entraînement. Il combine ensuite cela avec deux architectures neuronales hiérarchiques spécialisées: un réseau neuronal à fonction phasée (PFNN) et un réseau neuronal adaptatif en mode (MANN).

«La clé pour reproduire des styles de locomotion de type humain est d'introduire des données de marche humaine comme une démonstration d'expert que l'agent d'apprentissage doit imiter», a expliqué Yang. "La conception des récompenses est un aspect important de l'apprentissage par renforcement, car elle régit le comportement de l'agent."

Vous ne pouvez pas vous empêcher de penser aux similitudes de dresser un chien pour effectuer des tours et de le récompenser avec un os par la suite ...

La merveilleuse nouvelle concernant le cadre de l'équipe était qu'il permettait même aux robots humanoïdes d'opérer sur un sol irrégulier ou des poussées externes.

Les résultats de l'équipe suggèrent que les démonstrations d'experts, telles que la marche des humains, peuvent grandement améliorer les techniques d'apprentissage par renforcement profond pour entraîner des robots sur un certain nombre de styles de locomotion différents. En fin de compte, ces robots pourraient se déplacer aussi rapidement et facilement que les humains, tout en obtenant des comportements plus naturels et plus humains.

Pour le moment, toutes les recherches ont été menées à travers une simulation, les prochaines étapes consistent à essayer le cadre dans la vie réelle.

"Dans nos travaux futurs, nous prévoyons également d'étendre le cadre d'apprentissage pour imiter un ensemble plus diversifié et complexe de mouvements humains, tels que les habiletés motrices générales à travers la locomotion, la manipulation et la saisie", a déclaré Yang.


Voir la vidéo: CONFERENCE 2013 Enjeux et défis de la dématérialisation des procédures administratives (Novembre 2022).