Décodage du comportement animal pour former des robots avec Egopet avec Amir Bar

 Décodage du comportement animal pour former des robots avec Egopet avec Amir Bar


Aujourd’hui, nous sommes rejoints par Amir Bar, candidat au doctorat à l’Université de Tel Aviv et à l’UC Berkeley pour discuter de ses recherches sur l’apprentissage visuel, y compris son récent article, « Egopet: données d’egomotion et d’interaction du point de vue d’un animal.  » Amir partage ses projets de recherche axés sur la détection d’objets auto-supervisés et le raisonnement d’analogie pour les tâches générales de vision par ordinateur. Nous discutons également des limites actuelles des ensembles de données basés sur des légendes dans la formation des modèles, du «problème d’apprentissage» en robotique et de l’écart entre les capacités des animaux et des systèmes d’IA. Amir présente «Egopet», un ensemble de données et des tâches de référence qui permettent d’intégrer les données de mouvement et d’interaction du point de vue d’un animal dans les modèles d’apprentissage automatique pour la planification robotique et la proprioception. Nous explorons le processus de collecte des ensembles de données, les comparaisons avec les ensembles de données existants et les tâches de référence, les résultats sur les performances du modèle formées sur l’egopet et le potentiel de formation directe des politiques de robot qui imitent le comportement animal.



Source link

Related post