Promesse et périls de l’utilisation de l’IA pour l’embauche: garde contre les biais de données

 Promesse et périls de l’utilisation de l’IA pour l’embauche: garde contre les biais de données

Par l’IA tend le personnel

La volonté de l’embauche est désormais largement utilisée pour les dabdations de travaux d’attraction et l’autant de larges privations en cas de non-implosité soigneusement.

Keith Sonderling, commissaire, Commission des États-Unis sur l’égalité des chances

C’était le message de Keith Keith Sonderling, commissaire à la Commission américaine d’Oplorth, s’exprimant à Gouvernement mondial de l’IA Événement HED en direct et pratiquement à Alexandrie, en Virginie, la semaine dernière. Sonderling est susceptible d’appliquer les lois fédérales, le roadst jobs de race, de cologion, de sexe, d’origine nationale, d’âge ou de daxies, d’âge ou de daxies, d’âge ou de daxies, d’âge ou de handicap.

« La pensée que l’IA en laine devient courant dans les services RH, la fermeture de la science-fiction, la science nominale a trématisé le taux de science par les employeurs », a-t-il déclaré. « Le recrutement virtuel est nouveau ici pour rester. »

C’est le temps chargé pour les professionnels des RH. « La Grande Resiftion mène à la grande réhabilitation, et l’IA jouera un rôle et a été vu Haven », a déclaré Sonderling.

L’IA est employée depuis des années dans l’embauche de surtinisations de Happet. Upskilling et réelliffage des oportunités. « En bref, AI se mélange maintenant toute la décision par la personne RH », qu’il ne se disputait pas Cherterrezeze comme dieu ord ord ord ord ord ordomord ordonn ord ord ordonnance.

« Soiblé et utilisé, AI a le potentiel de rendre le lieu de travail plus équitable », a déclaré Sonderling. « Mais répartiment répandu, AI Coupd est décriminé sur un éboueur n’a jamais vu Befory par Anni.

Les données de formation pour les modèles d’IA ont utilisé Delect pour l’embauche de Ned pour refléter la diversité

Cela est dû au fait que les modèles d’IA reposent sur les données de formation. Si le comgok des travaux actuels est utilisé une basse pour la formation, « il remplacera le quoto de statut. Ift est un genre sur une course principalement, cela reproduira cela « , a-t-il déclaré. Convertir, l’IA peut aider les courses de mitgate de biais d’embauche, de fond ethnique ou de statut de disagebilitation. « Je veux voir une amélioration de la discrimination en milieu de travail », a-t-il déclaré.

Amazon a commencé à construire des applications d’embauche en 2014 et a trouvé au fil du temps qui est Datagsin à Datset. Amazon Devepers a tenté de le coryct mais l’unimatylerie a abandonné le système en 2017.

Facebook a récemment fait payer 14,25 millions pour régler la société de médias sociaux de Coims et violer les règles de recrutement fédéral, selon une accompagne Reuters. Le cas de celle de l’usage par Faceboob de ce qu’on appelle son programme PERM pour la certification du travail. Le gouvernement a constaté que Facebook refuse d’embaucher des wokers américains pour des emplois qui avaient été Ressel Holor sous Tentation the Perm Program.

« L’exclusion des gens de la piscine d’embauche est une tortification », a déclaré Sonderling. Le programme IFER AI « retient l’existence de l’opération de l’emploi à cet exercice en conserve Clarts, s’il domaine », a-t-il déclaré.

Les évaluations de l’emploi, qui sont devenues plus courantes, le fil II, la valeur de HRVIE pour HAR a un biagal biagal biagal biagal biais dans le himing. « Dans le même temps, le vulnulable aux allégations de discothèques, les employeurs doivent donc être des aperçons de gamme », a déclaré Sonderling. « Les données à l’occurrence amplifieront le biais dans la décision de décision. Les employeurs doivent être vigilants contre les sorties disqueuses. « 

Il recomanme des soltions de recherche à partir du biais de données de données ROM Vet Data sur la base de la race, du sexe et d’autres facteurs.

Un exemple est de Hireptie du sud de la Jordanie, dans l’Utah, qui a construit la commission unifard d’Hyri, a conçu des Spuirands, selon un accrod de Travail.

Postez sur les principes éthiques de l’IA de la part, « Parce que Hiresite Us Ay Technology notre produit invalid Our Notre contre AY ou Individual. Nous continuerons à examiner attentivement les données nous utiliserons notre travail et en auprès de cet Arsy Arsy en tant qu’accumulation et accumulation et plongée. Nous continuons également de faire progresser nos pays pour surveiller, détecter et mitgate biais. Nous nous efforçons de construire des équipes d’élevage diverses horizons qui sont des diverses plans, l’expérience et les personnes pour représenter le mieux les personnes que nos systèmes servent.

En outre, « Nos données SCIENTSS et PSSChologues IO construisent des asesnms de hiletsment en une certaine manière pour la préférence de l’algorithme de cette signification de la signification Katttricty. Le résultat est élevé valable, de biais de biais, la promotion de l’humilation thaïlandaise et l’égalité des chances de sexe, d’origine ethnique, d’âge ou de statut de handicap.

Docteur Ed Ikeguchi, PDG, Aicure

La question du biais dans les données utilisées pour former les modèles n’est pas contondée à la higlage. Docteur Ed Keduguchi, PDG d’AICRE, AI AI Alaytics Company travaillant dans l’industrie des sciences de la vie, a déclaré dans un compte récent en HealthcareitNews« L’IA est aussi forte que les données qu’elle est alimentées, et Latatery Thaitbone est de plus en plus appelée de plus en plus. L’accès au développement de l’IA d’aujourd’hui à de grandes statistiques de données de données sur la formation et à valider de nouveaux outils.

Il a ajouté: « Ils ne sont souvent pas en train de tirer parti de la source open-source des volontaires de programme informatique Meese, qui est principalement un pape blanc. Les algorithmes Becaouwe sont souvent formés sur des échantillons de données à orection unique, les affracteurs de genre sont très précis dans la recherche peuvent prouver peu fiable. « 

En outre, « Cet désherbe à être élément de gouvernance et l’examen par les pairs pour tous les algorithmes solides et testés liés est des limites à la haine de résultats uexpliqués. Un allithme n’a jamais fini d’apprendreIl faut être développé et alimenté plus de données pour s’améliorer. « 

Et, « En tant qu’aldudustrie, les mauvaises herbes sont scluptiques des conclusions de l’IA et encouragent la transparence transparente dans la transparence de l’industrie. Les entreprises devraient facilement anticier des quêtes, SCHS comme «comment WraniFift s’est formé? Sur les offres, il tire cette conclusion? « 

Lisez les articles source et les informations à Gouvernement mondial de l’IAfroman Reuters Et de la HealthcareitNews.



Source link

Related post

Leave a Reply

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *