Les utilisateurs anthropes ont fondu après que l’entreprise institue de nouvelles limites de taux

Anthropic change ses limites d’utilisation – et sa base de fans pointe déjà le doigt.
Dans un Publier sur xle rival d’Openai a annoncé qu’il introduisait de nouvelles limites hebdomadaires aux abonnés payants après qu’il indique qu’une petite poignée d’utilisateurs a abusé de leurs privilèges et, essentiellement, l’a ruiné pour tout le monde.
« Claude Code a connu une demande sans précédent, en particulier dans le cadre de nos plans maximaux », » Anthropic expliquéfaisant référence à son niveau d’abonnement le plus élevé qui coûte 100 $ à 200 $ par mois, selon l’utilisation. « Nous continuerons à soutenir cette croissance pendant que nous travaillons à rendre le code Claude encore meilleur. Mais pour l’instant, nous devons apporter des modifications. »
Dans un tweet ultérieur, la société d’IA a déclaré diplomatiquement que certains des « plus grands fans » de Claude Code ont exécuté l’outil « en continu en arrière-plan, 24/7 ».
« Ces utilisations sont remarquables et nous voulons leur permettre », a poursuivi le tweet. « Mais quelques cas périphériques sont très coûteux à soutenir. Par exemple, un utilisateur a consommé des dizaines de milliers d’utilisation du modèle sur un plan de 200 $. »
Pour comprendre ce qui se passe ici, nous devons creuser un peu dans la structure de tarification d’Anthropic. Annoncé en avril, le niveau maximum de la société propose de soi-disant des «utilisateurs de puissance» ou ceux qui utilisent beaucoup ses modèles, la possibilité d’envoyer jusqu’à 900 messages Toutes les cinq heures, quand elle réinitialise.
Bien que son prix de 200 $ parallèle est parallèle GPT PRO d’Openaiqui offre un accès illimité à des modèles spécifiques, Anthropic Max n’est pas techniquement illimité. Il y a quelques semaines, il a institué une limite de taux de 900 messages toutes les cinq heures – ce qui est encore beaucoup, mais était instantanément rencontré Fury par les utilisateurs.
Dans un plus grand sens, les fracas illustre un problème imminent pour l’industrie de l’IA: comment cela va réellement gagner de l’argent, car la formation et la gestion de modèles d’IA sont extrêmement coûteux. Avec les utilisateurs habitués aux modèles freemium comme Chatgpt, beaucoup sont à un choc grossier, car des entreprises comme anthropic commencent à augmenter les prix pour couvrir leurs coûts.
Dans un déclaration TechCrunchun porte-parole anthropique a déclaré que les abonnés Max pourraient utiliser jusqu’à 480 heures de Sonnet 4, son dernier modèle de codage, par semaine – un chiffre plus du double du nombre total d’heures en une semaine, mais qui pourrait se répandre sur plusieurs travailleurs d’une équipe.
Le porte-parole a déclaré que « la plupart des utilisateurs ne remarqueront pas de différence » – mais ceux qui se comptent parmi cette petite minorité d’utilisateurs de puissance sérieux sont déjà irritées.
« Ma facture d’IA est déjà de 350 $ ce mois-ci, » Un redditor a fait remarquer sur r / artificiel. « Je pense que je vais regarder en arrière (cette époque) comme » le bon vieux temps « . »
« Merci d’avoir tout gâché, » un autre utilisateur sur le R / Claudeai Subdreddit a déploré.
« Félicitations dipsh ***, vous vous êtes dodos dans les limites de taux, » a écrit un autre utilisateur R / Claudeaifaisant référence au style de déni de service distribué (DDOS) qui barrage constamment les serveurs avec un trafic excessif.
À la fin de la journée, il pourrait semble impossible à imaginer L’utilisation de n’importe quel outil d’IA autant que ces utilisateurs puissants semblent faire – mais heureusement, ils auront jusqu’au 28 août, lorsque les nouvelles limites d’utilisation atteignent, pour terminer leurs projets avides de pouvoir.
Plus sur anthropic: Anthropic a laissé un agent d’IA courir une petite boutique et le résultat était involontairement hilarant