Débiasing Vector Embeddings: La première étape vers une IA équitable

 Débiasing Vector Embeddings: La première étape vers une IA équitable


Auteur (s): Sanket Rajaram

Publié à l’origine sur Vers l’IA.

Imaginez construire un apprentissage automatique Un modèle qui fonctionne avec une excellente précision, seulement pour le découvrir favorise subtilement certains groupes sur d’autres.

Vous vérifiez vos données, nettoyez vos fonctionnalités, même réglez vos hyperparamètres – mais le biais demeure. C’est parce que le problème peut être plus profond – enterré juste à l’intérieur de vos intérêts.

Dans cet article, nous allons parcourir l’une des techniques les plus simples et les plus efficaces pour détecter et éliminer les biais au niveau du vecteur. Si vous êtes quelqu’un qui travaille avec des intégres – des incorporations de mots, des vecteurs de phrase, des représentations d’entités tabulaires – c’est votre invitation à entrer dans l’équité apprentissage automatique.

Photo de Steve Leisher sur unclash

Les intégres sont l’épine dorsale numérique de votre pipeline ML. Ils capturent la sémantique, la similitude et la structure. Mais ils capturent également quelque chose de plus dangereux: le parti pris.

Si vous utilisez des incorporations pré-étirées ou que vous vous entraînez sur les données historiques, les chances sont que vos vecteurs ont absorbé des modèles qui reflètent les stéréotypes:

«Doctor» pourrait se pencher plus près de «He» que «elle». «Leader» peut dériver vers «blanc» dans les corpus racialement asymétriques. Les termes de l’occupation peuvent refléter des rôles de genre dépassés.

Ces modèles ne sont pas seulement gênants – ils sont nocifs. Ils modifient silencieusement la vision du monde de votre modèle.

Même si nous avons écrit du code et tracé des vecteurs, il y a une science solide derrière. Voici la véritable méthodologie qui alimente le… Lisez le blog complet gratuitement sur Medium.

Publié via Vers l’IA



Source link

Related post