L’étudiante du MIT abandonne parce qu’elle dit qu’Agi tuera tout le monde avant qu’elle ne puisse obtenir son diplôme
Nous nous sentons probablement un peu inquiets pour l’IA.
C’est horrible pour l’environnementest utilisé comme excuse pour pompiersinonde Internet avec désinformation et penteancrez le gouvernement surveillanceet semble être conduire les gens à la psychose.
Et donc, à un moment où de nombreux étudiants abandonnent Pour rejoindre les startups AIune ancienne étudiante du MIT dit qu’elle a appelé ça à quitter parce qu’elle a peur de quelque chose de plus catastrophique: qu’une intelligence générale artificielle (AGI) ou une IA surhumaine anéantira complètement la race humaine, Forbes rapports.
« Je craignais de ne pas être en vie pour obtenir mon diplôme à cause d’AGI », a déclaré Alice Blair, qui s’est inscrite à l’université en 2023, à la publication. « Je pense que dans une grande majorité des scénarios, en raison de la façon dont nous travaillons vers AGI, nous obtenons l’extinction humaine. »
Blair travaille maintenant comme écrivain technique au centre à but non lucratif pour la sécurité de l’IA et n’a pas l’intention de retourner au MIT. Elle s’est jointe, espérant rencontrer d’autres personnes intéressées à sécuriser l’IA, et a apparemment été déçue.
« Je prédis que mon avenir réside dans le monde réel », a-t-elle dit Forbes.
Nikola Jurković, un ancien de Harvard qui a servi au club de sécurité de l’IA de son école, est sympathique à l’idée.
« Si votre carrière est sur le point d’être automatisée d’ici la fin de la décennie, alors chaque année passée au collège est soustraite de votre courte carrière », a-t-il déclaré Forbes. « Je pense que personnellement, AGI est peut-être à quatre ans et que l’automatisation complète de l’économie est peut-être à cinq ou six ans. »
La construction d’un AGI, un système qui correspond ou dépasse l’intelligence humaine, est une grande partie de la fin de l’industrie de l’IA. Le PDG d’Openai Sam Altman appelé le récent lancement de son mal reçue Modèle d’IA Gpt-5 Un tremplin majeur vers AGI, allant même jusqu’à l’appeler «généralement intelligent».
De nombreux experts sont sceptiques, cependant, que nous sommes près de construire un modèle d’IA aussi puissant, et soulignent les signes récents qui améliorent la technologie frappent un mur.
« Il est extrêmement improbable que AGI vienne au cours des cinq prochaines années », a déclaré Gary Marcus, chercheur de l’IA et critique franc de l’industrie Forbes. « C’est juste un battage médiatique de prétendre le contraire lorsque tant de problèmes fondamentaux (comme les hallucinations et les erreurs de raisonnement) restent non résolus. »
Et bien qu’il existe des formes de préjudice très réelles que l’IA peut causer, l’extinction pure et simple est un peu farfelue, a déclaré Marcus.
En fait, l’industrie de l’IA désirs vous pour acheter dans Ai Doomsday Prophesying. Altman et d’autres PDG technologiques augmenter ces risques eux-mêmes. Cela donne l’impression que la technologie est beaucoup plus capable qu’elle ne l’est actuellement et permet à ces entreprises de contrôler le récit autour de la façon dont la technologie doit être réglementée.
Et si vous envisagez une apocalypse comme dans les films « The Matrix » – l’esclavage humain aux mains des intelligences de machines qui se sont rebellées contre leurs créateurs – vous ignorez peut-être les formes de préjudice très banales que cela cause déjà, comme l’automatisation de l’emploi et le désabonnement de l’environnement.
Plus sur l’IA: Sam Altman appelle son propre modèle d’IA « ennuyeux » après avoir été contraint de le ressusciter des morts
