AI May Not Steal Your Job, but It Could Stop You Getting Hired

Si vous craignez que les algorithmes de projection des candidats se trouvent entre vous et votre travail de rêve, en lisant Hilke Schellmann L'algorithme ne vous facilitera pas l'esprit. Le nouveau livre du journaliste d'investigation et professeur de journalisme NYU démystifie comment les services RH utilisent un logiciel d'automatisation qui non seulement propage les biais, mais échoue à ce qu'ils prétendent faire: trouver le meilleur candidat pour le travail.

Schellmann a fait passer pour un chasseur d'emplois potentiel pour tester certains de ces logiciels, qui vont des dépistage de curriculum vitae et des tests basés sur les jeux vidéo aux évaluations de la personnalité qui analysent les expressions faciales, les intonations vocales et le comportement des médias sociaux. Un outil l'a considérée comme un match élevé pour un emploi, même si elle en parlait un non-sens en allemand. Un algorithme d'évaluation de la personnalité lui a donné des notes élevées pour la «stabilité» en fonction de son utilisation sur Twitter et d'une faible note en fonction de son profil LinkedIn.

Il suffit de vous donner envie de supprimer votre compte LinkedIn et d'embrasser la propriété familiale, mais Schellmann a également des informations édifiantes. Dans une interview qui a été éditée pour la durée et la clarté, elle a suggéré comment la société pouvait freiner la technologie RH biaisée et a offert des conseils pratiques pour les demandeurs d'emploi sur la façon de battre les bots.

Caitlin Harrington: Vous avez rendu compte de l'utilisation de l'IA dans l'embauche pour The Wall Street Journal, Revue de la technologie du MITet Le gardien Au cours des dernières années. À quel moment avez-vous pensé, j'ai un livre ici?

Hilke Schellmann: L'une était quand je suis allé à l'une des premières conférences techniques RH en 2018 et que j'ai rencontré des outils d'IA entrant sur le marché. Il y avait comme 10 000 personnes, des centaines de vendeurs, beaucoup d'acheteurs et de grandes entreprises. J'ai réalisé que c'était un gigantesque marché, et il prenait le contrôle des RH.

Les sociétés de logiciels présentent souvent leurs produits comme un moyen de supprimer les biais humains de l'embauche. Mais bien sûr, l'IA peut absorber et reproduire le biais des données d'entraînement qu'il ingére. Vous avez découvert un screaseur de curriculum vitae qui a ajusté les scores d'un candidat lorsqu'il a détecté l'expression «afro-américaine» sur leur curriculum vitae.

Schellmann: Bien sûr, les entreprises diront que leurs outils n'ont pas de biais, mais comment ont-ils été testés? Quelqu'un a-t-il examiné ce qui ne travaille pas dans l'entreprise? Le manuel d'une entreprise a déclaré que leur IA d'embauche était formée sur les données des étudiants de 18 à 25 ans. Ils ont peut-être trouvé quelque chose de très spécifique aux jeunes de 18 à 25 ans qui ne s'applique pas aux autres travailleurs sur lesquels l'outil a été utilisé.

Il n'y a que tellement de dégâts qu'un gestionnaire d'embauche humain peut faire, et nous devrions évidemment essayer de l'empêcher. Mais un algorithme qui est utilisé pour marquer des centaines de milliers de travailleurs, s'il est défectueux, peut endommager tant de personnes que n'importe quel humain.

Maintenant, évidemment, les vendeurs ne veulent pas que les gens regardent les boîtes noires. Mais je pense que les employeurs hésitent également à regarder car ils ont alors un déni plausible. S'ils trouvent des problèmes, il pourrait y avoir 500 000 personnes qui ont postulé pour un emploi et pourraient avoir une réclamation. C'est pourquoi nous devons imposer plus de transparence et de tests.

D'accord, car ils pourraient violer le droit de l'emploi. Même lorsque les vendeurs effectuent des audits de biais, vous écrivez qu'ils n'incluent généralement pas la discrimination par le handicap. Y a-t-il une clarté autour de l'endroit où réside la responsabilité lorsque l'IA discrimine?

C'est une question ouverte car nous n'avons pas vu de litiges. De nombreux avocats disent que l'entreprise qui fait l'embauche est finalement responsable, car cette entreprise prend la décision d'embauche. Les vendeurs disent certainement toujours: «Nous ne prenons pas la décision. Les entreprises prennent la décision. L'IA ne rejetterait personne.