Comment l’interdiction du Sénat sur la réglementation de l’IA d’État met en péril l’accès Internet

Le projet de loi fiscale de l’administration Trump – également appelé son « grand et beau projet de loi » – qui rassemble des éléments clés de l’agenda du président, comprend également une règle qui empêcherait les États d’appliquer leur propre législation sur l’IA pendant 10 ans, si elle était adoptée. Après une initiale hoquet budgétaireLes sénateurs républicains ont modifié avec succès la règle pour se conformer aux exigences budgétaires en ajoutant que les États essayant d’appliquer les réglementations de l’IA ne recevraient pas de financement fédéral à large bande.
Voici pourquoi cela compte.
Comment fonctionne le moratoire
Capitaux propres à large bande, accès et déploiement (perle) est un programme de 42 milliards de dollars géré par la National Telecommunications and Information Administration (NTIA) qui aide les États à créer des infrastructures pour étendre l’accès Internet haut débit. La règle du Sénat gagne tout cet argent, plus 500 millions de dollars de nouveaux financements, subordonnés aux États étayant leurs propres lois sur l’IA.
La question est double: si elle est adoptée, la règle interdirait à la constitution des États d’appliquer la législation sur l’IA et de mettre en danger le financement souvent critique pour l’accès à Internet.
Et cela n’aurait pas seulement un impact sur la législation en cours. Les lois que les États ont déjà adoptées resteraient intactes par écrit, mais seraient effectivement rendues inutiles, de peur que les États ne souhaitent mettre leur financement à large bande sur la ligne.
Aussi: Ce que «Openai for Government» signifie pour nous
« Des États comme New York, le Texas et l’Utah devraient tous choisir entre protéger leurs résidents contre une IA défectueuse et des milliards de fonds pour aider à étendre l’accès à large bande dans leur État », a déclaré Jonathan Walter, un conseiller principal en politique au centre de droits et de technologies civils de la Conférence de leadership.
Plus tôt ce mois-ci, le Sénat de l’État de New York adopté la loi sur l’augmentationun premier projet de loi qui obligerait les plus grandes sociétés d’IA à publier des évaluations de la sécurité, de la sécurité et des risques, divulguer les violations et autres incidents, et permettent au procureur général de l’État de provoquer des sanctions civiles contre les entreprises lorsqu’elles ne se conforment pas.
Walter a ajouté que l’imprécision de la langue de l’interdiction pourrait également bloquer la surveillance des États de l’automatisation non alimentée en AI, y compris « les algorithmes d’assurance, les systèmes de véhicules autonomes et les modèles qui déterminent combien les résidents paient pour leurs services publics ».
La politique fédérale de l’IA reste claire
L’administration devrait publier sa politique de l’IA le 22 juillet. Entre-temps, le pays pilote effectivement aveugle, ce qui a incité plusieurs États à introduire leurs propres factures d’IA. Même sous l’administration Biden, qui a pris des mesures pour réglementer l’IA, les États étaient introduisant déjà une législation sur l’IA Au fur et à mesure que la technologie a évolué rapidement vers l’inconnu.
« Le principal problème ici est qu’il y a déjà de véritables dommages concrètes de l’IA, et cette législation va retirer les freins des États sans le remplacer par quoi que ce soit », a déclaré Chas Ballew, PDG du fournisseur d’agent AI, convoyeur et ancien avocat réglementaire du Pentagone.
En empêchant les États de faire respecter la politique individuelle de l’IA lorsque la réglementation fédérale est encore un grand point d’interrogation, l’administration Trump ouvre la porte aux sociétés d’IA pour accélérer sans vérification ou équilibre – ce que Ballew a appelé un « vide réglementaire dangereux » qui donnerait aux entreprises « une décennie gratuite de décennie pour déployer des systèmes d’IA potentiellement nuisibles » qui seraient surpassés « .
Compte tenu de la rapidité avec laquelle l’IA générative a évolué depuis le lancement de Chatgpt en 2022, une décennie est des éons en termes technologiques.
De plus, le deuxième mandat du président Donald Trump, jusqu’à présent, ne suggère pas que la sécurité de l’IA est une priorité pour la réglementation fédérale. Depuis janvier, l’administration Trump a Initiatives de sécurité et partenariats de test remplacés mettre en place par l’administration Biden, réduit et renommé L’US AI Safety Institute le Centre des normes et de l’innovation pro-innovation pro-innovation, pro-science « pour les normes et l’innovation, et faire un financement pour la recherche sur l’IA.
« Même si le président Trump a respecté sa propre date limite pour une politique complète de l’IA, il est peu probable qu’elle réponde sérieusement aux dommages des systèmes d’IA défectueux et discriminatoires », a déclaré Walter. Systèmes d’IA utilisés pour Technicien HRIl a été démontré que l’embauche et les applications financières telles que la détermination des taux hypothécaires agissent avec un parti pris envers les groupes marginalisés et peuvent afficher le racisme.
Naturellement, les sociétés d’IA ont exprimé une préférence pour la réglementation fédérale sur les lois individuelles des États, ce qui faciliterait le maintien de modèles et de produits conformes que d’essayer de respecter la législation sur le patchwork. Mais dans certains cas, les États peuvent avoir besoin de définir leur propre réglementation pour l’IA, même avec une fondation fédérale en place.
« Les différences entre les États concernant la réglementation de l’IA reflètent les différentes approches que les États ont aux questions sous-jacentes, comme le droit de l’emploi, les lois sur la protection des consommateurs, les lois sur la vie privée et les droits civils », souligne Ballew. « La réglementation de l’IA doit être intégrée à ces régimes juridiques existants. »
Il a ajouté qu’il est sage que les États aient « une diversité de régimes réglementaires », car il « promeut la responsabilité, car les responsables de l’État et les responsables locaux sont les plus proches des personnes touchées par ces lois ».
Les principes du fédéralisme, comme le dixième amendement, réservant aux États « les pouvoirs non délégués aux États-Unis par la Constitution, ni interdits par les États », et l’idée des États comme des « laboratoires de démocratie » sont basées sur l’idée que l’auto-gouvernement est bonne, et que trop de gouvernance descendante est contre-productive.
Le projet de loi a adopté la Chambre des représentants avec le moratoire inclus, au mécontentement de certains représentants républicains qui préféreraient que leurs États aient leur mot à dire sur la façon dont ils protègent leurs droits, leurs emplois et leur vie privée face à une IA en expansion rapide. Il attend maintenant un vote au Sénat; Jeudi, le parlementaire du Sénat a demandé aux républicains de réécrire le moratoire Pour clarifier, cela n’aura pas d’impact sur les 42,25 $ existants en financement à large bande.
Accès Internet pour les états sur la ligne
Comment la perte de financement des perles a-t-elle un impact sur les États si le moratoire passe comme écrit?
« Cette interdiction des lois sur l’IA étatique et locale permettrait à la NTIA de dénogé le financement de perles de 42,45 milliards de dollars qui a déjà obligé les États », a expliqué Walter. « Lorsque la NTIA réoblige le financement, les nouvelles conditions de l’accord sur le moratoire de l’IA et de la maîtrise s’appliqueraient.
« Cela signifiera probablement que moins de personnes finiront par avoir accès à un haut débit abordable de haute qualité », a-t-il conclu.
ZDNET mettra à jour cette histoire alors que le débat du Sénat sur le langage du moratoire se poursuit.
Obtenez les meilleures histoires du matin dans votre boîte de réception chaque jour avec notre Newsletter Tech Today.