Les meilleurs chercheurs de l’IA se réunissent pour discuter de ce qui vient après l’humanité

 Les meilleurs chercheurs de l’IA se réunissent pour discuter de ce qui vient après l’humanité


Un groupe des meilleurs esprits de l’IA s’est rassemblé au cours du week-end pour discuter de la «transition posthume» – un exercice qui pèse dans l’esprit pour imaginer un avenir dans lequel l’humanité remet volontiers le pouvoir, ou peut-être ce queue entièrement, à une sorte d’intelligence surhumaine.

Comme Câblé rapportsLe somptueux groupe a été organisé par l’entrepreneur génératif de l’IA Daniel Faggella. Les participants comprenaient « les fondateurs de l’IA de 100 millions de dollars à 5 milliards de dollars d’évaluations » et « la plupart des penseurs philosophiques importants sur AGI », Faggella enthousiaste dans un LinkedIn Post.

Il a organisé la Soirée dans un manoir de 30 millions de dollars à San Francisco parce que les « grands laboratoires, les gens qui savent qu’Agi est susceptible de mettre fin à l’humanité, n’en parle pas parce que les incitations ne le permettent pas », a déclaré Faggella Câblé.

Le symposium a permis aux participants et aux locuteurs de se cacher dans une vision largement fantastique d’un avenir où l’intelligence générale artificielle (AGI) était une donnée, plutôt qu’un rêve éloigné de la technologie qui n’est même pas proche d’exister.

Les sociétés d’IA, notamment Openai, ont longuement parlé de vouloir réaliser AGI, mais souvent sans définir clairement le terme.

Les risques de course vers une intelligence surhumaine sont restés vivement débattus, le milliardaire Elon Musk une fois argumentée Cette IA non réglementée pourrait être le « plus grand risque à laquelle nous sommes confrontés en tant que civilisation ». Openai Sam Altman a aussi averti des dangers face à l’humanité, y compris une augmentation des inégalités et un contrôle de la population par la surveillance de masse, en raison de la réalisation de l’AGI – qui se trouve également priorité numéro un de l’entreprise.

Mais pour l’instant, ce sont en grande partie des points sans objet soulevés par des personnes qui ont des milliards de dollars au plus profond des investisseurs rassurants que l’AGI est à quelques années. Compte tenu de l’état actuel des modèles de grande langue hallucinants échouer toujours aux tâches les plus élémentairesnous sommes apparemment encore loin d’un point où l’IA pourrait dépasser les capacités intellectuelles des humains.

La semaine dernière, les chercheurs d’Apple ont publié un accablé papier Cela a jeté de l’eau froide sur les capacités du « raisonnement » des LLM les plus récents et les plus puissants, faisant valoir qu’ils « sont confrontés à un effondrement complet de précision au-delà de certaines complexités ».

Cependant, pour les initiés et les croyants en technologie, AGI est surtout une question de moment, pas si. Les conférenciers de l’événement de ce week-end ont expliqué comment l’IA pouvait rechercher des valeurs universelles plus profondes que l’humanité n’a même pas été au courant, et que les machines devraient être enseignées à poursuivre « le bien » ou à risquer l’asserver une entité capable de souffrir.

Comme Câblé Selon des rapports, Faggella a invoqué des philosophes, dont Baruch Spinoza et Friedrich Nietzsche, appelant l’humanité à rechercher la valeur encore abouti à l’univers.

« Il s’agit d’un groupe de plaidoyer pour le ralentissement des progrès de l’IA, le cas échéant, pour nous assurer que nous allons dans la bonne direction », a-t-il déclaré à la publication.

Plus sur AGI: Le meilleur scientifique d’Openai voulait « construire un bunker avant de libérer AGI »



Source link

Related post