# 431 – Roman Yampolskiy: Dangers de la superintelligente AI

 # 431 – Roman Yampolskiy: Dangers de la superintelligente AI


Roman Yampolskiy est chercheur en sécurité et auteur d’un nouveau livre intitulé AI: Insplicable, imprévisible, incontrôlable. Veuillez soutenir ce podcast en consultant nos sponsors:
Yahoo Finance: https://yahoofinance.com
Maîtrise: https://masterclass.com/lexpod Pour obtenir 15% de réduction
NetSuite: http://netsuite.com/lex Pour obtenir une visite de produit gratuite
Lmnt: https://drinklmnt.com/lex Pour obtenir un pack d’échantillons gratuit
Huit sommeil: https://eightsleep.com/lex Pour obtenir 350 $ de réduction

Transcription: https://lexfridman.com/roman-yampolskiy-transcript

Liens d’épisode:
Roman’s X: https://twitter.com/romanyam
Site Web de Roman: http://cecs.louisville.edu/ry
Roman’s Ai Livre: https://amzn.to/4afzupb

Informations sur le podcast:
Site Web de podcast: https://lexfridman.com/podcast
Podcasts Apple: https://apple.co/2lwqzir
Spotify: https://spoti.fi/2newcf8
RSS: https://lexfridman.com/feed/podcast/
Épisodes complets YouTube: https://youtube.com/lexfridman
Clips YouTube: https://youtube.com/lexclips

Support et connexion:
– Découvrez les sponsors ci-dessus, c’est la meilleure façon de soutenir ce podcast
– Support sur Patreon: https://www.patreon.com/lexfridman
– Twitter: https://twitter.com/lexfridman
– Instagram: https://www.instagram.com/lexfridman
– LinkedIn: https://www.linkedin.com/in/lexfridman
– Facebook: https://www.facebook.com/lexfridman
– Moyen: https://medium.com/@lexfridman

CONTOUR:
Voici les horodatages de l’épisode. Sur certains joueurs de podcast, vous devriez pouvoir cliquer sur l’horodatage pour sauter à ce moment.
(00:00) – Introduction
(09:12) – Risque existentiel d’AGI
(15:25) – Risque d’ikigai
(23:37) – Risque de souffrance
(27:12) – Chronologie à AGI
(31:44) – Test Agi Turing
(37:06) – Yann LeCun et Open Source AI
(49:58) – Contrôle de l’IA
(52:26) – Ingénierie sociale
(54:59) – Fearhongering
(1:04:49) – Ai Deception
(1:11:23) – Vérification
(1:18:22) – AI auto-améliorant
(1:30:34) – Utiliser le développement de l’IA
(1:36:51) – Sécurité de l’IA
(1:46:35) – AI actuel
(1:51:58) – Simulation
(1:59:16) – Aliens
(2:00:50) – l’esprit humain
(2:07:10) – Neuralink
(2:16:15) – Espoir pour l’avenir
(2:20:11) – Signification de la vie

https://www.youtube.com/watch?v=nnr6gpelj3e





Source link

Related post