L’IA générative et la vie privée sont les meilleures freemies – une nouvelle étude classe les meilleurs et les pires délinquants

La plupart des sociétés d’IA génératrices comptent sur les données des utilisateurs pour former leurs chatbots. Pour cela, ils peuvent se tourner vers des données publiques ou privées. Certains services sont moins invasifs et plus flexibles pour ramasser les données de leurs utilisateurs. D’autres, pas tellement. Un nouveau rapport du service de suppression de données Incogni examine le meilleur et le pire de l’IA lorsqu’il s’agit de respecter vos données personnelles et votre confidentialité.
Pour son rapport « Gen AI et LLM Data Confidential Ranking 2025« Incogni a examiné neuf services populaires génératifs d’IA et a appliqué 11 critères différents pour mesurer leurs pratiques de confidentialité des données. Les critères couvraient les questions suivantes:
- Quelles données sont utilisées pour former les modèles?
- Les conversations utilisateur peuvent-elles être utilisées pour former les modèles?
- Les invites peuvent-elles être partagées avec des fournisseurs de non-services ou d’autres entités raisonnables?
- Les informations personnelles des utilisateurs peuvent-elles être supprimées de l’ensemble de données de formation?
- À quel point est-il clair si des invites sont utilisées pour la formation?
- Est-il facile de trouver des informations sur la façon dont les modèles ont été formés?
- Existe-t-il une politique de confidentialité claire pour la collecte de données?
- Dans quelle mesure la politique de confidentialité est-elle lisible?
- Quelles sources sont utilisées pour collecter les données des utilisateurs?
- Les données sont-elles partagées avec des tiers?
- Quelles données les applications AI collectent-elles?
Les fournisseurs et les IA inclus dans la recherche étaient Le Chat de Mistral Ai, le chatppt d’Openai, le Grok de Xai, le Claude d’Anthropic, le PI de l’inflexion AI, le Deekseek, le Copilot Microsoft, Google Gemini et Meta AI. Chaque IA a bien réussi avec certaines questions et pas aussi bien avec d’autres.
Aussi: Vous voulez que l’IA travaille pour votre entreprise? Alors la confidentialité doit venir en premier
Comme exemple, Goer a gagné une bonne note pour la façon dont il transmet clairement que les invites sont utilisées pour la formation, mais n’ont pas si bien fait la lisibilité de sa politique de confidentialité. Comme autre exemple, les notes données à Chatgpt et Gemini pour la collecte de données d’application mobile ont différé un peu entre les versions iOS et Android.
À travers le groupe, cependant, Le Chat a remporté le premier prix en tant que service d’IA le plus convivial. Bien qu’il ait perdu quelques points pour la transparence, il s’en sortait toujours bien dans ce domaine. De plus, sa collecte de données est limitée et elle a obtenu des points élevés sur d’autres problèmes de confidentialité spécifiques à l’IA.
Chatte classé deuxième. Les chercheurs Incogni étaient légèrement préoccupés par la façon dont les modèles d’Openai sont formés et comment les données des utilisateurs interagissent avec le service. Mais Chatgpt présente clairement les politiques de confidentialité de l’entreprise, vous permet de comprendre ce qui se passe avec vos données et fournit des moyens clairs de limiter l’utilisation de vos données.
(Divulgation: Ziff Davis, la société mère de ZDNET, a déposé une plainte en avril 2025 contre Openai, alléguant qu’elle a enfreint Ziff Davis Copyrights dans la formation et l’exploitation de ses systèmes d’IA.)
Grok est arrivé en troisième place, suivi de Claude et Pi. Chacun avait des problèmes dans certains domaines, mais dans l’ensemble, dans l’ensemble, le respect de la confidentialité des utilisateurs.
« Le Chat de Mistral AI est la plate-forme la moins invasive, avec Chatgpt et Grok qui suivent de près », a déclaré Incogni dans son rapport. « Ces plates-formes se sont classées les plus élevées en ce qui concerne leur transparence sur la façon dont ils utilisent et collectent des données, et à quel point il est facile de se retirer des données personnelles utilisées pour former des modèles sous-jacents. Chatgpt s’est avéré être le plus transparent pour savoir si les invites seront utilisées pour la formation des modèles et avaient une politique de confidentialité claire. »
Quant à la moitié inférieure de la liste, Deepseek a pris la sixième place, suivie de Copilot, puis de Gémeaux. Cela a laissé Meta IA à la dernière place, a évalué le service IA du groupe le moins convivial.
Aussi: Comment Apple prévoit de former son IA sur vos données sans sacrifier votre vie privée
Copilot a marqué le pire des neuf services en fonction des critères spécifiques à l’IA, tels que les données utilisées pour former les modèles et si les conversations utilisateur peuvent être utilisées dans la formation. Meta Ai a remporté la pire note pour ses pratiques globales de collecte de données et de partage.
« Les plates-formes développées par les plus grandes entreprises technologiques se sont avérées être les plus invasives de confidentialité, Meta Ai (Meta) étant la pire, suivie de Gemini (Google) et Copilot (Microsoft) », a déclaré Incogni. « Gemini, Deepseek, Pi Ai et Meta Ai ne semblent pas permettre aux utilisateurs de se désinscrire de la mise en service pour former les modèles. »
Dans ses recherches, Incogni a constaté que les sociétés d’IA partagent des données avec différentes parties, notamment des prestataires de services, des forces de l’ordre, des sociétés membres du même groupe d’entreprises, des partenaires de recherche, des affiliés et des tiers.
« La politique de confidentialité de Microsoft implique que les invites d’utilisateurs peuvent être partagées avec » des tiers qui effectuent des services de publicité en ligne pour Microsoft ou qui utilisent les technologies publicitaires de Microsoft « », a déclaré Incogni dans le rapport. « Les politiques de confidentialité de Deepseek et Meta indiquent que les invites peuvent être partagées avec les entreprises au sein de son groupe d’entreprise. Les politiques de confidentialité de Meta et Anthropic peuvent raisonnablement être comprises pour indiquer que les invites sont partagées avec les collaborateurs de recherche. »
Avec certains services, vous pouvez empêcher votre invite d’être utilisée pour former les modèles. C’est le cas avec Chatgpt, Copilot, Mistral AI et Grok. Avec d’autres services, cependant, l’arrêt de ce type de collecte de données ne semble pas possible, selon leurs politiques de confidentialité et autres ressources. Il s’agit notamment des Gémeaux, Deepseek, Pi Ai et Meta Ai. Sur cette question, Anthropic a déclaré qu’il ne recueille jamais les invites utilisateur pour former ses modèles.
Aussi: Vos données ne sont probablement pas prêtes pour l’IA – voici comment les rendre dignes de confiance
Enfin, une politique de confidentialité transparente et lisible contribue grandement à vous aider à déterminer quelles données sont collectées et comment se retirer.
« Le fait d’avoir une section d’assistance facile à utiliser et simple qui permet aux utilisateurs de rechercher des réponses aux questions liées à la confidentialité s’est montrée pour améliorer considérablement la transparence et la clarté, tant qu’elle est tenue à jour », a déclaré Incogni. « De nombreuses plateformes ont des pratiques de traitement des données similaires, cependant, des entreprises comme Microsoft, Meta et Google souffrent d’une seule politique de confidentialité couvrant tous leurs produits et une longue politique de confidentialité ne signifie pas nécessairement qu’il est facile de trouver des réponses aux questions des utilisateurs. »
Obtenez les meilleures histoires du matin dans votre boîte de réception chaque jour avec notre Newsletter Tech Today.