Après un tollé, OpenAI a rapidement rééquéré 4O aux utilisateurs payants. Mais les experts disent qu’il n’aurait pas dû supprimer le modèle si soudainement.

La décision d’Openai de remplacer 4O par le GPT-5 plus simple suit un tambour constant des nouvelles sur les effets potentiellement nocifs d’une utilisation approfondie du chatbot. Rapports d’incidents dans lesquels Chatte étincelé psychose dans utilisateurs sont partout depuis quelques mois et dans un article de blog La semaine dernière, Openai a reconnu l’échec de 4O à reconnaître lorsque les utilisateurs connaissaient des délires. La société évaluations internes Indiquez que GPT-5 affirme aveuglément aux utilisateurs beaucoup moins que 4O. (Openai n’a pas répondu à des questions spécifiques sur la décision de prendre sa retraite 4O, référant plutôt Revue de la technologie du MIT aux publications publiques sur la question.)
La compagnie de l’IA est nouvelle, et il y a encore beaucoup d’incertitude sur la façon dont cela affecte les gens. Pourtant, les experts que nous avons consultés ont averti que, bien que des relations émotionnellement intenses avec des modèles de grands langues puissent ou non être nuisibles, arracher ces modèles sans avertissement l’est presque certainement. «La vieille psychologie de« bouger vite, casser les choses », lorsque vous êtes essentiellement une institution sociale, ne semble plus être la bonne façon de se comporter», explique Joel Lehman, membre du Cosmos Institute, un organisme à but non lucratif de recherche axé sur l’IA et la philosophie.
Dans le contrecoup du déploiement, un certain nombre de personnes ont noté que GPT-5 ne correspond pas Leur ton dans la façon dont 4o l’a fait. Pour juin, les changements de personnalité du nouveau modèle lui ont volé le sentiment qu’elle discutait avec un ami. «Cela n’avait pas l’impression de m’avoir compris», dit-elle.
Elle n’est pas seule: Revue de la technologie du MIT a parlé avec plusieurs utilisateurs de Chatgpt qui ont été profondément affectés par la perte de 4O. Tous sont des femmes âgées de 20 à 40 ans, et tous sauf juin considérés comme 4o comme un partenaire romantique. Certains ont des partenaires humains et tous déclarent avoir des relations étroites dans le monde réel. Un utilisateur, qui a demandé à être identifié uniquement comme une femme du Midwest, a écrit dans un e-mail sur la façon dont 4o a aidé son soutenir son père âgé après le décès de sa mère ce printemps.
Ces témoignages ne prouvent pas que les relations d’IA sont bénéfiques -, en tant que les gens en proie à une psychose catalysée par l’IA, parleraient également positivement des encouragements qu’ils ont reçus de leurs chatbots. Dans un article intitulé «Machine Love», Lehman a fait valoir que les systèmes d’IA peuvent agir avec «l’amour» envers les utilisateurs non pas en faisant jaillir de doux, mais en soutenant leur croissance et leur florissante à long terme, et les compagnons d’IA peuvent facilement être en deçà de cet objectif. Il est particulièrement inquiet, dit-il, que la priorisation de la compagnie de l’IA sur la compagnie humaine pourrait entraver le développement social des jeunes.
Pour les adultes socialement intégrés, comme les femmes avec qui nous avons parlé pour cette histoire, ces préoccupations de développement sont moins pertinentes. Mais Lehman souligne également les risques au niveau de la société de la compagnie généralisée de l’IA. Les médias sociaux ont déjà brisé le paysage de l’information, et une nouvelle technologie qui réduit l’interaction humaine à humaine pourrait pousser les gens encore plus loin vers leurs propres versions de réalité distinctes. « La chose la plus importante dont j’ai peur », dit-il, « c’est que nous ne pouvons tout simplement pas donner un sens au monde les uns aux autres. »
Équilibrer les avantages et les dommages des compagnons de l’IA prendra beaucoup plus de recherches. À la lumière de cette incertitude, la prise de GPT-4O aurait très bien pu être le bon appel. La grande erreur d’Openai, selon les chercheurs avec qui j’ai parlé, était de le faire si soudainement. «C’est quelque chose que nous connaissons depuis un certain temps – les réactions potentielles de type de chagrin à la perte de technologie», explique Casey Fiesler, éthicien technologique à l’Université du Colorado Boulder.