# 83 – Nick Bostrom: simulation et superintelligence | Mit

 # 83 – Nick Bostrom: simulation et superintelligence | Mit


Nick Bostrom est philosophe à l’Université d’Oxford et directeur du Future of Humanity Institute. Il a travaillé sur des idées fascinantes et importantes sur les risques existentiels, l’hypothèse de simulation, l’éthique de l’amélioration humaine et les risques des systèmes d’IA superintelligents, y compris dans son livre Supentelligence. Je peux voir parler à Nick plusieurs fois sur ce podcast, plusieurs heures à chaque fois, mais nous devons commencer quelque part.

Soutenez ce podcast en vous inscrivant avec ces sponsors:
– Cash App – Utilisez le code «lexpodcast» et téléchargez:
– Cash App (App Store): https://apple.co/2spruhe
– application en espèces (Google Play): https://bit.ly/2mlvp5w

Liens d’épisode:
Site Web de Nick: https://nickbostrom.com/
Future of Humanity Institute:
https://twitter.com/fhioxford
https://www.fhi.ox.ac.uk/
Livres:
– Superintelligence: https://amzn.to/2jckx83
Wikipedia:
https://en.wikipedia.org/wiki/Simulation_hypothesis
https://en.wikipedia.org/wiki/Princicle_of_indifférence
https://en.wikipedia.org/wiki/Doomsday_argument
https://en.wikipedia.org/wiki/global_catastrophic_risk

Cette conversation fait partie du podcast de l’intelligence artificielle. Si vous souhaitez obtenir plus d’informations sur ce podcast, allez à https://lexfridman.com/ai ou connectez-vous avec @lexfridman sur Gazouillement, Liendin, Facebook, Moyenou Youtube où vous pouvez regarder les versions vidéo de ces conversations. Si vous aimez le podcast, veuillez le noter 5 étoiles sur Podcasts Applesuivez Spotifyou le soutenir sur Patreon.

Voici le contour de l’épisode. Sur certains joueurs de podcast, vous devriez pouvoir cliquer sur l’horodatage pour sauter à ce moment.

CONTOUR:
00:00 – Introduction
02:48 – Hypothèse de simulation et argument de simulation
12:17 – Civilisations matures technologiquement
15h30 – Cas 1: Si quelque chose tue toutes les civilisations possibles
19:08 – Cas 2: Si nous perdons tout intérêt à créer des simulations
22:03 – Conscience
26:27 – Mondes immersifs
28:50 – Machine d’expérience
41:10 – intelligence et conscience
48:58 – Les probabilités de pesage de l’argument de simulation
1:01:43 – Élaborer sur la conversation de Joe Rogan
1:05:53 – Argument apocalyptique et raisonnement anthropique
1:23:02 – Elon Musk
1:25:26 – Qu’y a-t-il en dehors de la simulation?
1:29:52 – Superintelligence
1:47:27 – Agi Utopie
1:52:41 – Signification de la vie

https://www.youtube.com/watch?v=rfkitgj-zeq





Source link

Related post