L’IA devrait-elle nous flatter, nous réparer ou simplement nous informer?

Il fait face à un trilemme. Devrait nous flatter, au risque de ravir délires qui peut girant d’emblée? Ou nous réparer, ce qui nous oblige à croire que l’IA peut être un thérapeute malgré le preuve au contraire? Ou devrait-il nous informer avec Des réponses froides et à point qui peuvent laisser les utilisateurs ennuyés et moins susceptibles de rester engagés?
Il est sûr de dire que la société n’a pas réussi à choisir une voie.
En avril, il renversé Une mise à jour du design après que les gens se sont plaints de Chatgpt se sont transformés en une aspiration, en les doublant de compliments glibs. Le GPT-5, sorti le 7 août, devait être un peu plus froid. Trop froid pour certains, il s’avère que moins d’une semaine plus tard, Altman promis Une mise à jour qui le rendrait «plus chaud» mais «pas aussi ennuyeux» que le dernier. Après le lancement, il a reçu un torrent de plaintes de personnes qui pleurent la perte de GPT-4O, avec laquelle certains ressentaient un rapport, ou même dans certains cas une relation. Les personnes souhaitant raviver cette relation devront payer un accès élargi à GPT-4O. (Lisez ma collègue Grace Huckins histoire sur qui sont ces gens et pourquoi ils se sont sentis si bouleversés.)
Si ce sont en effet les options de l’IA – pour flatter, réparer ou tout simplement nous dire froidement des trucs – le rythme de cette dernière mise à jour pourrait être dû à la croyance altman qui peut jongler avec les trois.
Il récemment dit Que les gens qui ne peuvent pas dire les faits de la fiction dans leurs conversations avec l’IA – et sont donc à risque d’être influencés par la flatterie dans l’illusion – représentent «un petit pourcentage» d’utilisateurs de Chatgpt. Il a dit le même Pour les personnes qui ont des relations amoureuses avec l’IA. Altman a mentionné que beaucoup de gens utilisent le chatppt «comme une sorte de thérapeute» et que «cela peut être vraiment bon!» Mais en fin de compte, Altman a déclaré qu’il envisageait que les utilisateurs puissent personnaliser les modèles de son entreprise pour s’adapter à leurs propres préférences.
Cette capacité à jongler avec les trois serait, bien sûr, le meilleur scénario de cas pour l’essentiel d’Openai. L’entreprise brûle de l’argent chaque jour sur ses modèles exigences énergétiques et son massif Investissements d’infrastructure pour les nouveaux centres de données. Pendant ce temps, les sceptiques inquiétude Que les progrès de l’IA pourraient bloquer. Altman lui-même a dit récemment Que les investisseurs sont «surexcrits» à propos de l’IA et ont suggéré que nous pouvons être dans une bulle. Affirmer que Chatgpt peut être ce que vous voulez qu’il soit peut-être sa façon d’assumer ces doutes.
En cours de route, l’entreprise peut emprunter le chemin bien tronqué de la Silicon Valley d’encourager les gens à se attacher malsantivement à ses produits. Alors que je commençais à me demander s’il y a beaucoup de preuves qui se passe, un nouveau journal a attiré mon attention.
Les chercheurs de la plate-forme d’IA étreignant le visage ont tenté de déterminer si certains modèles d’IA encouragent activement les gens à les voir comme des compagnons à travers les réponses qu’ils donnent.