Les règles de l’UE AI retardent les déploiements technologiques, mais les sociétés civiles disent que la sécurité passe en premier

Les entreprises technologiques sont catégoriques que la réglementation de l’intelligence artificielle dans l’UE empêche ses citoyens d’accéder aux produits les plus récents et les plus grands. Cependant, un certain nombre de groupes de la société civile se sentent le contraire, en soutenant que les développeurs de l’IA doivent produire des produits qui soutiennent la sécurité et la vie privée de leurs clients.
Certains des lancements retardés des géants de la technologie dans l’UE
Il y a eu un certain nombre de cas où les lancements des produits d’IA dans l’UE ont été retardés ou annulés à la suite de réglementations. Par exemple, cette semaine, Meta’s Lalama 4 Series des modèles d’IA ont été publiés partout sauf l’Europe. Ses chatbots AI intégrés dans WhatsApp, Messenger et Instagram ne sont arrivés au bloc 18 mois après les États-Unis
De la même manière, Présentation de l’IA de Google n’apparaissent actuellement que dans huit États membres, étant arrivé neuf mois plus tard que dans les États-Unis, et ses deux Barde et Gémeaux Les modèles avaient retardé les versions européennes. Apple Intelligence n’a que de devenir disponible dans l’UE avec La sortie de iOS 18.4après «les incertitudes réglementaires provoquées par le Act des marchés numériques » Rendre sa libération dans la région.
«Si certaines entreprises ne peuvent garantir que leurs produits d’IA respectent la loi, les consommateurs ne manquent pas encore; ce sont des produits qui ne sont tout simplement pas sûrs pour être publiés sur le marché de l’UE», a déclaré Sébastien Pant, responsable adjoint des communications à l’organisation des consommateurs européens BEUC, a dit Euronews.
«Ce n’est pas que la législation se penche sur de nouvelles fonctionnalités déployées par les entreprises technologiques. Il s’agit plutôt de s’assurer que les nouvelles fonctionnalités, produits ou technologies sont conformes aux lois existantes avant d’arriver sur le marché de l’UE.»
VOIR: La loi sur l’IA de l’UE: les nouvelles règles de l’intelligence artificielle de l’Europe
Les réglementations de l’UE poussent les entreprises à créer plus d’outils soucieux de la confidentialité
La législation de l’UE n’a pas toujours exclu les citoyens de l’UE des produits de l’IA; Au lieu de cela, il a souvent obligé des entreprises technologiques à s’adapter et à fournir de meilleures solutions plus soucieuses de la confidentialité pour eux. Par exemple:
- X a accepté d’arrêter de manière permanente de traitement des données personnelles des publications publiques des utilisateurs de l’UE pour former son modèle d’IA Grok après avoir été traduit en justice par la Commission de protection des données.
- En profondeurle modèle d’IA chinois, a été interdit en Italie pour des préoccupations quant à la façon dont il a géré les données de ses citoyens.
- En juin dernier, Meta a retardé la formation de ses grands modèles de langue sur le contenu public partagé sur Facebook et Instagram après que les régulateurs de l’UE ont suggéré qu’il pourrait avoir besoin du consentement explicite des propriétaires de contenu, et il n’a toujours pas repris.
Kleanthi Sardeli, un avocat de la protection des données travaillant avec le groupe de plaidoyer Noyb, a déclaré à Euronews que les utilisateurs ne prévoient généralement pas que leurs publications publiques soient utilisées pour former des modèles d’IA, mais c’est précisément ce que de nombreuses entreprises technologiques font, souvent avec peu de considération pour la transparence. «Le droit à la protection des données est un droit humain fondamental et il doit être pris en compte lors de la conception et du déploiement des outils d’IA.»
Google, Meta affirme que les lois sur l’AI désavantagent les citoyens, mais leurs revenus sont également en jeu
Google et Meta ont critiqué ouvertement La réglementation européenne de l’IA, suggérant qu’elle annulra le potentiel d’innovation de la région.
L’année dernière, Google publié un rapport Cela a détaillé comment l’Europe est en retard sur d’autres superpuissances mondiales en ce qui concerne l’innovation de l’IA. Il a constaté que seulement 34% des entreprises de l’UE utilisaient des technologies de cloud computing en 2022, un catalyseur critique pour les développements de l’IA, qui est largement derrière l’objectif de la Commission européenne de 75% d’ici 2030. L’Europe n’a également déposé que 2% des brevets mondiaux d’IA en 2022, tandis que la Chine et les États-Unis, les deux principaux producteurs les plus importants, déposaient respectivement 61% et 21%.
Le rapport a blâmé une grande partie de la réglementation de l’UE pour les difficultés de la région à innover dans les technologies avancées. « Depuis 2019, l’UE a introduit plus de 100 lois qui ont un impact sur l’économie numérique et la société. Ce n’est pas seulement le nombre de réglementations qui est le défi – c’est la complexité », a déclaré Matt Britin, président de Google EMEA, dans une accompagne article de blog. «Le déménagement de l’approche réglementaire d’abord peut aider à débloquer l’opportunité de l’IA.»
Mais Google, Meta et les autres géants de la technologie doivent souffrir financièrement si les règles les empêchent de lancer des produits dans l’UE, car la région représente un énorme marché avec 448 millions de personnes. D’un autre côté, s’ils poursuivent les lancements mais enfreignent les règles, ils pourraient encourir de lourdes amendes pouvant atteindre 35 millions d’euros ou 7% du chiffre d’affaires mondial, dans le cas de la loi sur l’IA.
L’Europe est actuellement impliquée dans plusieurs batailles réglementaires avec les grandes entreprises technologiques aux États-Unis, dont beaucoup ont déjà entraîné des amendes substantielles. En février, Meta a déclaré que c’était prêt à intensifier ses préoccupations sur ce qu’il considérait comme une réglementation injuste directement au président américain.
Le président américain Donald Trump a qualifié les amendes de «forme de fiscalité» lors du Forum économique mondial en janvier. Dans un discours à février Paris AI Action SummitLe vice-président américain, Vance, a dénigré l’utilisation par l’Europe de la «réglementation excessive» et a déclaré que l’approche internationale devrait «favoriser la création de la technologie de l’IA plutôt que de l’étrangler».