Le tri et le classement des candidatures sont des tâches chronophages pour les recruteurs. Depuis la pandémie, qui a accéléré le recours aux outils numériques, un nombre croissant d’entreprises choisissent d’automatiser le processus de sélection grâce à l’intelligence artificielle. Bien que ces systèmes ne prennent pas encore la décision finale d’embauche, ils permettent d’effectuer un premier tri parmi les centaines de dossiers reçus, en identifiant les candidats susceptibles de passer à l’étape suivante et de rencontrer un recruteur humain.
À première vue, on pourrait se réjouir de cette évolution, en pensant que les ordinateurs, plus objectifs et moins influencés par des préjugés que les humains, évalueraient les candidats uniquement sur leurs compétences, réduisant ainsi les risques de discrimination. Cependant, l’expérience a montré que ces systèmes sont loin d’être infaillibles. Un exemple marquant est celui d’Amazon, qui, en 2014, a développé un programme de recrutement basé sur l’intelligence artificielle. Après trois ans d’utilisation, l’entreprise a dû abandonner ce programme en raison d’un biais sexiste : l’algorithme avait appris à écarter systématiquement les candidatures féminines.
Le problème provenait du fait que l’algorithme s’était entraîné sur les données historiques des candidats embauchés par Amazon sur une décennie. Comme la majorité des candidatures reçues provenaient d’hommes, reflétant la sous-représentation des femmes dans le secteur technologique, l’algorithme avait développé une préférence pour les profils masculins. Par exemple, chaque fois qu’il repérait des termes associés au genre féminin, comme « capitaine de l’équipe féminine de football », il rétrogradait immédiatement la candidature concernée. De plus, le programme privilégiait certains termes dans les CV, tels que « exécuté » ou « décroché » (« J’ai exécuté cette tâche », « J’ai décroché cet emploi »). Un champ lexical confiant et empli d’assurance qui, s’est-il avéré, se retrouvait davantage dans les candidatures masculines.
Les préjugés peuvent également se cacher dans d’autres aspects, tels que le niveau d’éducation, le quartier de résidence, la date de naissance, ou le prénom. Par exemple, si une entreprise a historiquement embauché des personnes portant des prénoms comme Pierre, Paul ou Julie, tout en écartant celles portant des prénoms comme Aziz ou Jamila, l’algorithme pourrait identifier un schéma dans ces données et privilégier automatiquement des candidats avec des prénoms similaires, reproduisant ainsi des biais existants.
Bien que ces problèmes puissent être corrigés, cela nécessite une compréhension approfondie de la manière dont l’algorithme fonctionne et une capacité à expliquer ses décisions. C’est pourquoi certains employeurs font vérifier leurs systèmes par des experts indépendants.
En Suisse, les règles de droit du travail relatives à la protection et au respect de la personnalité du travailleur s’appliquent dès le stade de la candidature. Cependant, en ce qui concerne l’intelligence artificielle, le candidat, et parfois même le recruteur, peut ne pas être conscient d’une éventuelle discrimination. Actuellement, il n’existe aucune obligation de transparence concernant l’utilisation de l’IA, ni de devoir d’informer les candidats que leur dossier a été traité par un algorithme. Ces questions sont au cœur des réflexions en cours pour les futures législations, tant en Suisse qu’au niveau européen. La Suisse suit de près les développements législatifs européens. Bien que notre pays ne dispose pas encore de lois spécifiques sur l’IA dans le domaine du recrutement, il est probable que des régulations seront introduites à l’avenir pour garantir une utilisation plus transparente et équitable de ces technologies.