Les nouveaux modèles d’IA d’Anthropic pour les informations classifiés sont déjà utilisés par nous Gov

Environ cinq semaines avant que le président Donald Trump n’annonce la politique de l’IA de son administration, les grandes sociétés d’IA continuent de renforcer leurs liens avec le gouvernement – en particulier pour les clients de la sécurité nationale.
Jeudi, Anthropic a annoncé que Claude Gov, une famille de modèles « exclusivement pour les clients américains de la sécurité nationale », a-t-il déclaré dans le libérer. Claude Gov est destiné à tout, des opérations à l’intelligence et à l’analyse des menaces, et est conçu pour interpréter des documents classifiés et des contextes de défense. Il présente également une amélioration de la maîtrise du langage et du dialecte ainsi qu’une interprétation améliorée des données de cybersécurité.
Aussi: L’outil CODE CODE CLAUDE Anthropic est désormais inclus dans son plan Pro de 20 $ / mois
« Les modèles sont déjà déployés par des agences au plus haut niveau de sécurité nationale américaine, et l’accès à ces modèles est limité à ceux qui opèrent dans des environnements aussi classifiés », a déclaré la société.
Développé avec les commentaires des utilisateurs du gouvernement d’Anthropic, la société a déclaré que Claude Gov avait subi sa norme de test de sécurité (que la société applique à tous les modèles Claude). Dans le communiqué, Anthropic a réitéré son engagement envers une IA sûre et responsable, assurant que Claude Gov n’est pas différent.
L’annonce vient plusieurs mois après Openai a publié Chatgpt Gov En janvier de cette année, indiquant un changement public plus large dans les principaux laboratoires d’IA pour servir explicitement les cas d’utilisation du gouvernement avec des produits affinés. La Garde nationale utilise déjà Google AI pour améliorer sa réponse en cas de catastrophe.
(Divulgation: Ziff Davis, la société mère de ZDNET, a déposé une plainte en avril 2025 contre Openai, alléguant qu’elle a enfreint Ziff Davis Copyrights dans la formation et l’exploitation de ses systèmes d’IA.)
Avant l’administration Trump, les contrats militaires et d’autres contrats liés à la défense entre les entreprises de l’IA et le gouvernement américain n’étaient pas aussi médiatisés à l’origine jugée de ne pas s’engager dans la création d’armes. Google a Récemment par des révisions de lignes directrices similairesmalgré le maintien des allégations d’IA responsable.
Aussi: Anthropic cartographié la morale de Claude. Voici ce que les valeurs du chatbot (et non)
Les liens croissants entre le gouvernement et les sociétés d’IA se déroulent dans le contexte plus large du plan d’action imminent de l’IA de l’administration Trump, prévu pour le 19 juillet. Depuis que Trump a pris ses fonctions, les entreprises de l’IA Engagements de responsabilité ajustés de l’ère Bidenà l’origine avec le US AI Safety Institutecomme Trump en arrière Tout règlement que Biden a mis en place. Openai a été plaider pour moins de réglementation en échange de l’accès du gouvernement aux modèles. Aux côtés d’Anthropic, il a également cozé au gouvernement de nouvelles façons, notamment à travers partenariats scientifiques et le Initiative Stargate de 500 milliards de dollarstout pendant que l’administration Trump coupe le personnel et le financement pour l’IA et d’autres initiatives liées à la science au sein du gouvernement américain.
Obtenez les meilleures histoires du matin dans votre boîte de réception chaque jour avec notre Newsletter Tech Today.