Les recruteurs font de plus en plus appel à l’intelligence artificielle pour trier et sélectionner les meilleurs profils à un poste. Sauf qu’un étudiant américain vient de mettre en lumière les erreurs liées à cette pratique.
L’intelligence artificielle pour sélectionner les candidats à un poste
Aujourd’hui, l’intelligence artificielle joue un rôle prépondérant dans le milieu du travail. Un expert a d’ailleurs livré ses conseils pour protéger son emploi contre l’IA afin de ne pas être remplacé. Et s’il y a des précautions à prendre quand on est salarié, il y en a également lorsque vous postulez à un emploi.
C’est ce qu’a appris à ses dépens un étudiant en médecine. De nombreuses entreprises font appel à l’IA pour filtrer et trier les CV qu’elles reçoivent. Leur job ? Sélectionnez les meilleurs candidats en se basant sur le contenu de leur CV grâce à des mots clés.
Chad Markey a donc envoyé diverses candidatures, mais a été surpris de voir que tous les CV qu’il avait envoyés avaient été refusés. Déçu, le futur psychiatre a alors mené son enquête.
Des CV rejetés à cause des décisions prises par l’IA
Crédit photo : Ole_CNX/ iStock
Chad Markey a découvert qu’une simple tournure de phrase, un mot clé mal placé ou mal utilisé pouvaient réduire les chances d’être retenu. Il cite par exemple la description d’un congé dans son CV. Il a ainsi remarqué qu’en remplaçant la mention d'origine « raisons personnelles » par la description médicale exacte, les chances d’être retenu par l’IA augmentaient de 66%.
Cela s’explique sans doute par l’algorithme de l’outil, programmé pour cibler certains mots plutôt que d’autres. De ce fait, l’étudiant regrette de constater que les chances des candidats ne reposent que sur un algorithme.
Devant ce témoignage accablant, Jason Reminick, le PDG de Thalamus qui possède Cortex, un outil de recrutement, a répondu. « Non seulement Cortex n'est pas un outil de prise de décision, mais il n'utilise pas l'IA pour trier, filtrer, exclure, noter ou classer les candidats », assure-t-il.
Pourtant, le discours est le même chez les directeurs de programmes hospitaliers. Ils expliquent avoir constaté des erreurs d’analyses de la part de l’IA lorsqu’ils rentrent les notes des étudiants. Résultat : de bons étudiants sont écartés car l’outil n’est pas capable d’interpréter des notes. Ainsi, les candidats se retrouvent piégés dans un entre-deux : celui d’utiliser l’IA pour optimiser leur CV et se donner les chances d’être retenus. De l’autre, le risque de se voir rejeter par erreur par cette même IA à cause de mots-clés non-acceptés. Dès lors, beaucoup demandent plus de transparence sur le processus.
