Apprentissage du renforcement inverse sans RL avec Gokul Swamy
Aujourd’hui, nous sommes rejoints par Gokul Swamy, un doctorat. Étudiant au Robotics Institute de l’Université Carnegie Mellon. Dans la dernière conversation de notre série ICML 2023, nous nous sommes assis avec Gokul pour discuter de ses articles acceptés lors de l’événement, conduisant avec «l’apprentissage par renforcement inverse sans apprentissage de renforcement». Dans cet article, Gokul explore les défis et les avantages de l’apprentissage par renforcement inverse, ainsi que le potentiel et les avantages qu’il détient pour diverses applications. Ensuite, nous explorons le document «complétant une politique avec un espace d’observation différent» qui applique des techniques d’inférence causales pour estimer avec précision l’équilibre de l’échantillonnage et prendre des décisions basées sur des caractéristiques observées limitées. Enfin, nous avons abordé «l’apprentissage des contraintes de sécurité partagées des démonstrations multi-tâches» qui se concentre sur les contraintes de sécurité d’apprentissage des démonstrations en utilisant l’approche d’apprentissage par renforcement inverse.
