Pourquoi le monde cherche à nous abandonner les modèles AI

En conséquence, certains décideurs politiques et chefs d’entreprise – en Europe, en particulier – reconsident leur dépendance à l’égard de la technologie américaine et se demandent s’ils peuvent rapidement tourner des alternatives locales et locales. Cela est particulièrement vrai pour l’IA.
L’un des exemples les plus clairs est dans les médias sociaux. Yasmin Curzi, un professeur de droit brésilien qui fait des recherches sur la politique de la technologie nationale, me l’a mis de cette façon: « Depuis la deuxième administration de Trump, nous ne pouvons pas compter sur (plateformes de médias sociaux américains) pour faire même le strict minimum. »
Les systèmes de modération du contenu des médias sociaux – qui utilisent déjà l’automatisation et expérimentent également le déploiement de modèles de langue importants pour signaler les publications problématiques – ne parviennent pas à détecter la violence sexiste dans des endroits aussi variés que l’Inde, l’Afrique du Sud et le Brésil. Si les plateformes commencent à s’appuyer encore plus sur les LLM pour la modération du contenu, ce problème va probablement empirer, explique Marlena Wisniak, un avocat des droits de l’homme qui se concentre sur la gouvernance de l’IA au Centre européen de droit à but non lucratif. «Les LLM sont mal modérés, et les LLMs mal modérés sont également utilisés pour modérer d’autres contenus», me dit-elle. «C’est tellement circulaire, et les erreurs continuent de répéter et d’amplifier.»
Une partie du problème est que les systèmes sont formés principalement sur les données du monde anglophone (et de l’anglais américain à cela), et en conséquence, ils fonctionnent moins bien avec les langues et le contexte locaux.
Même les modèles de langues multilingues, qui sont destinés à traiter plusieurs langues à la fois, fonctionnent toujours mal avec les langues non occidentales. Par exemple, un évaluation de la réponse de Chatgpt aux requêtes de soins de santé a révélé que les résultats étaient bien pires en chinois et en hindi, qui sont moins bien représentés dans les ensembles de données nord-américains, qu’en anglais et en espagnol.
Pour beaucoup à RightsCon, cela valide leurs appels à des approches plus axées sur la communauté de l’IA – à la fois dans et hors du contexte des médias sociaux. Ceux-ci pourraient inclure des modèles de petits langues, des chatbots et des ensembles de données conçus pour des utilisations particulières et spécifiques à des langues et des contextes culturels particuliers. Ces systèmes pourraient être formés pour reconnaître les usages et les insultes de l’argot, interpréter des mots ou des phrases écrits dans un mélange de langues et même d’alphabets, et d’identifier «langage récupéré» (insultes sur le temps que le groupe ciblé a décidé d’embrasser). Tous ces éléments ont tendance à être manqués ou à faire défaut par des modèles de langue et des systèmes automatisés formés principalement sur l’anglais anglo-américain. Le fondateur de la startup Shhor Aipar exemple, a hébergé un panel sur RightsCon et a parlé de sa nouvelle API de modération de contenu axée sur les langues vernaculaires indiennes.
De nombreuses solutions similaires sont en développement depuis des années – et nous en avons couvert un certain nombre, notamment un effort dirigé par des volontaires à Mozilla pour collecter des données de formation dans des langues autres que l’anglais, et Des startups prometteuses comme Lelapa Ai, qui construit l’IA pour les langues africaines. Plus tôt cette année, nous compris modèles de petits langues sur notre 2025 Liste des 10 meilleures technologies révolutionnaires.
Pourtant, ce moment est un peu différent. La deuxième administration Trump, qui façonne les actions et les politiques des entreprises technologiques américaines, est évidemment un facteur majeur. Mais il y en a d’autres en jeu.