# 371 – Max Tegmark: le cas pour l’arrêt du développement de l’IA

 # 371 – Max Tegmark: le cas pour l’arrêt du développement de l’IA


Max Tegmark est physicien et chercheur de l’IA au MIT, co-fondateur de The Future of Life Institute, et auteur de Life 3.0: être humain à l’ère de l’intelligence artificielle. Veuillez soutenir ce podcast en consultant nos sponsors:
Notion: https://notion.com

Invitracker: https://insidetracker.com/lex pour obtenir 20% de réduction
En effet: https://indeed.com/lex Pour obtenir 75 $ de crédit

Liens d’épisode:

Twitter de Max: https://twitter.com/tegmark

Site Web de Max: https://space.mit.edu/home/tegmark

Pause expérimentes géantes AI (lettre ouverte): https://futureoflife.org/open-letter/pause-giant-ai-experiments

Future of Life Institute: https://futureoflife.org

Livres et ressources mentionnés:
1. Life 3.0 (livre): https://amzn.to/3ub9rxb

2. Méditations sur Moloch (essai): https://slatestarcodex.com/2014/07/30/meditations-on-moloch

3. Papier d’hiver nucléaire: https://nature.com/articles/s43016-022-00573-0

Informations sur le podcast:

Site Web de podcast: https://lexfridman.com/podcast

Podcasts Apple: https://apple.co/2lwqzir

Spotify: https://spoti.fi/2newcf8

RSS: https://lexfridman.com/feed/podcast/

Épisodes complets YouTube: https://youtube.com/lexfridman

Clips YouTube: https://youtube.com/lexclips

Support et connexion:

– Découvrez les sponsors ci-dessus, c’est la meilleure façon de soutenir ce podcast
– Support sur Patreon: https://www.patreon.com/lexfridman

– Twitter: https://twitter.com/lexfridman

– Instagram: https://www.instagram.com/lexfridman

– LinkedIn: https://www.linkedin.com/in/lexfridman

– Facebook: https://www.facebook.com/lexfridman

– Moyen: https://medium.com/@lexfridman

CONTOUR:

Voici les horodatages de l’épisode. Sur certains joueurs de podcast, vous devriez pouvoir cliquer sur l’horodatage pour sauter à ce moment.
(00:00) – Introduction
(07:34) – civilisations extraterrestres intelligentes
(19:58) – LIFE 3.0 et Superintelligent AI
(31:25) – Lettre ouverte aux expériences géantes en pause
(56:32) – maintenir le contrôle
(1:25:22) – Règlement
(1:36:12) – Automatisation de l’emploi
(1:45:27) – Elon Musk
(2:07:09) – open source
(2:13:39) – Comment l’IA peut tuer tous les humains
(2:24:10) – Conscience
(2:33:32) – hiver nucléaire
(2:44:00) – Questions pour AGI





Source link

Related post