Le Sénat supprime l’interdiction des réglementations de l’IA de l’État de la facture fiscale de Trump

Jusqu’à présent, le projet de loi fiscale de l’administration Trump – a également appelé son «grand et beau projet de loi», qui a été adopté au Sénat mardi – comprenait une règle qui empêcherait les États de faire respecter leur propre législation sur l’IA pendant cinq ans, et susciterait jusqu’à 500 millions de dollars de financement pour l’infrastructure de l’IA si les États ne se contentent pas.
Mardi, une journée dans un « Vote-O-Rama« Cela a commencé lundi dans le but d’adopter le projet de loi fiscale de Trump avant les vacances du 4 juillet, le Sénat voté 99 à un Pour éliminer le moratoire proposé sur la capacité des États à réguler l’IA. Le vote est intervenu quelques jours seulement après que les sénateurs aient modifié la proposition initiale d’une interdiction de 10 ans à l’application à cinq ans et ajouté des exemptions pour les lois des États ciblant les pratiques déloyales ou trompeuses et le matériel d’abus sexuel des enfants (CSAM).
Aussi: Openai veut échanger l’accès au gouvernement aux modèles d’IA pour moins de réglementations
La version initiale de la règle a également fait 42 milliards de dollars de financement Internet à large bande dépendant de la conformité des États à l’interdiction de 10 ans. La version modifiée ne détenait que 500 millions de dollars de financement de l’IA pour Ransom si les États se sont désobéis.
Le moratoire proposé
Si elle est adoptée, la règle aurait interdit aux États de faire respecter la législation sur l’IA pendant cinq ans et à mettre simultanément un financement de l’IA pour les États dans les limbes. Cela n’aurait pas seulement affecté la législation en cours; Les lois que les États avaient déjà adoptées resteraient intactes par écrit mais seraient effectivement rendues inutiles, de peur que les États ne souhaitent mettre leur financement en IA en jeu.
Dans la pratique, cela créerait un déséquilibre patchwork à travers le pays: certains États auraient une législation approfondie mais pas de financement pour faire progresser l’IA en toute sécurité, tandis que d’autres n’ont pas de réglementation mais beaucoup de financement pour suivre la course.
Aussi: Ce que «Openai for Government» signifie pour nous
« Les gouvernements des États et locaux devraient avoir le droit de protéger leurs résidents contre les technologies nuisibles et de tenir les sociétés responsables de rendre des comptes », a déclaré Jonathan Walter, conseiller politique principal au Center for Civil Rights and Technology de la Conférence de leadership.
De nombreux avocats se sont battus pour faire retirer l’interdiction du projet de loi fiscale et ont célébré les nouvelles mardi, notamment Adam Billen, vice-président de la politique publique chez Encodage, une organisation responsable de l’IA basée à Washington, DC.
« 40 AGS d’État, 14 gouverneurs. 260 législateurs d’État des 50 États, plusieurs lettres de coalition de 140+ org que nous avons ralliées, des milliers d’appels et de courriels de parents et de électeurs, et quelques champions clés du Congrès plus tard, et nous l’avons presque complètement tué », a-t-il déclaré dans un LinkedIn Post. « Même les principaux sponsors de la disposition ont voté pour le dépouiller à la fin. »
La politique fédérale de l’IA reste claire
L’administration devrait publier sa politique de l’IA le 22 juillet. Entre-temps, le pays pilote effectivement aveugle, ce qui a incité plusieurs États à introduire leurs propres factures d’IA. En vertu de l’administration Biden, qui a pris des mesures pour réglementer l’IA, les États étaient introduisant déjà une législation sur l’IA Au fur et à mesure que la technologie a évolué rapidement vers l’inconnu.
Walter a ajouté que l’imprécision de la langue de l’interdiction pourrait également bloquer la surveillance des États de l’automatisation non alimentée en AI, y compris « les algorithmes d’assurance, les systèmes de véhicules autonomes et les modèles qui déterminent combien les résidents paient pour leurs services publics ».
« Le principal problème ici est qu’il y a déjà de véritables dommages concrètes de l’IA, et que cette législation éloignerait) les états sans le remplacer par quoi que ce soit », a déclaré Chas Ballew, PDG du fournisseur d’agent d’agent de convoyeur et d’un ancien avocat réglementaire du Pentagone.
En empêchant les États d’appliquer la politique individuelle de l’IA lorsque la réglementation fédérale est encore un gros point d’interrogation, l’administration Trump aurait ouvert la porte aux sociétés d’IA pour accélérer sans aucun contrôle ou contrepoids – ce que Ballew a qualifié de « dangereux vide réglementaire » qui donnerait aux entreprises « une décennie libre de décennie pour déploier des systèmes d’IA potentiellement dangereux » sans surveillance « .
Jusqu’à présent, le deuxième mandat du président Trump ne suggère pas que la sécurité de l’IA est une priorité pour la réglementation fédérale. Depuis janvier, l’administration Trump a Initiatives de sécurité et partenariats de test remplacés mettre en place par l’administration Biden, réduit et renommé L’US AI Safety Institute le Centre des normes et de l’innovation pro-innovation pro-innovation, pro-science « pour les normes et l’innovation, et faire un financement pour la recherche sur l’IA.
« Même si le président Trump a respecté sa propre date limite pour une politique complète de l’IA, il est peu probable qu’elle réponde sérieusement aux dommages des systèmes d’IA défectueux et discriminatoires », a déclaré Walter. Systèmes d’IA utilisés pour Technicien HRIl a été démontré que l’embauche et les applications financières telles que la détermination des taux hypothécaires agissent avec un biais envers les groupes marginalisés et peuvent afficher le racisme.
Pourquoi les États veulent leur propre réglementation sur l’IA
Naturellement, les entreprises d’IA ont exprimé une préférence pour la réglementation fédérale au-dessus des lois des États individuelles, ce qui faciliterait le maintien de modèles et de produits conformes que d’essayer de respecter la législation sur la patchwork. Mais dans certains cas, les États peuvent avoir besoin de définir leur propre réglementation pour l’IA, même avec une fondation fédérale en place.
« Les différences entre les États concernant la réglementation de l’IA reflètent les différentes approches que les États ont aux questions sous-jacentes, comme le droit de l’emploi, les lois sur la protection des consommateurs, les lois sur la vie privée et les droits civils », souligne Ballew. « La réglementation de l’IA doit être intégrée à ces régimes juridiques existants. »
Il a ajouté qu’il est sage que les États aient « une diversité de régimes réglementaires », car il « promeut la responsabilité, car les responsables de l’État et les responsables locaux sont les plus proches des personnes touchées par ces lois ».
Propositions précédentes ont retenu les fonds Internet
Capitaux propres à large bande, accès et déploiement (perle) est un programme de 42 milliards de dollars géré par la National Telecommunications and Information Administration (NTIA) qui aide les États à créer des infrastructures pour étendre l’accès Internet haut débit. Avant d’être révisé, la règle du Sénat aurait fait tout cet argent, plus 500 millions de dollars de nouveaux financements, subordonnés aux États étayant leurs propres lois sur l’IA.
Obtenez les meilleures histoires du matin dans votre boîte de réception chaque jour avec notre Newsletter Tech Today.