Ayanna Howard: interaction humain-robot et éthique des systèmes critiques de sécurité | Mit

 Ayanna Howard: interaction humain-robot et éthique des systèmes critiques de sécurité | Mit


Ayanna Howard est robotique et professeure chez Georgia Tech, directrice du laboratoire des systèmes de l’automatisation humaine, avec des intérêts de recherche dans l’interaction par l’homme-robot, les robots d’assistance à la maison, les applications de jeux de thérapie et l’exploration robotique à distance des environnements extrêmes.

Cette conversation fait partie du podcast de l’intelligence artificielle. Si vous souhaitez obtenir plus d’informations sur ce podcast, allez à https://lexfridman.com/ai ou connectez-vous avec @lexfridman sur Gazouillement, Liendin, Facebook, Moyenou Youtube où vous pouvez regarder les versions vidéo de ces conversations. Si vous aimez le podcast, veuillez le noter 5 étoiles sur Podcasts Applesuivez Spotifyou le soutenir sur Patreon.

Cet épisode est présenté par Cash App. Téléchargez-le (App Store, Google Play), utilisez le code «lexpodcast».

Voici le contour de l’épisode. Sur certains joueurs de podcast, vous devriez pouvoir cliquer sur l’horodatage pour sauter à ce moment.

00:00 – Introduction
02:09 – Robot préféré
05:05 – Véhicules autonomes
08:43 – Autopilote de Tesla
20:03 – Responsabilité éthique des algorithmes critiques de la sécurité
28:11 – biais en robotique
38:20 – IA en politique et en droit
40:35 – Solutions au biais dans les algorithmes
47:44 – HAL 9000
49:57 – Souvenirs du travail à la NASA
51:53 – Spotmini et femme bionique
54:27 – avenir des robots dans l’espace
57:11 – interaction humain-robot
1:02:38 – confiance
1:09:26 – AI en éducation
1:15:06 – Andrew Yang, automatisation et perte d’emploi
1:17:17 – Amour, Ai, et le film elle
1:25:01 – Pourquoi tant de sociétés de robotique échouent-elles?
1:32:22 – Peur des robots
1:34:17 – Menaces existentielles de l’IA
1:35:57 – Matrice
1:37:37 – Passez du temps pour une journée avec un robot

https://www.youtube.com/watch?v=j21-7asucgm





Source link

Related post