L’intelligence artificielle (IA) s’installe au sein d’un nombre croissant de secteurs d’activités et les RH n’échappent pas à cet engouement. Les pratiques de recrutement évoluent, modifiant la façon dont les entreprises identifient, sélectionnent et évaluent les candidats. De la rédaction des fiches de poste à la conduite d’entretiens virtuels, les algorithmes s’invitent à chaque étape du processus. Si cette révolution promet des gains de temps considérables — estimés entre 20 et 30 % selon les experts —, elle soulève également des questions éthiques, juridiques et humaines qui divisent les professionnels des ressources humaines.

 

Une efficacité opérationnelle renforcée grâce à l’IA

Les entreprises ayant adopté des solutions d’intelligence artificielle dans leurs processus RH vantent des bénéfices immédiats. C’est notamment le cas de la start-up française HR Engine, valorisée à 10 millions d’euros, qui affirme faire gagner « environ deux jours de travail » aux recruteurs. Leur technologie permet de traiter automatiquement 200 CV, d’en présélectionner 50 sur la base de compétences clés, puis de faire passer à ces candidats des entretiens virtuels via un avatar intelligent.

Le robot analyse les réponses, reformule, rebondit, et évalue les compétences « hard » des candidats avant de proposer une « short list » de trois profils à un recruteur humain. En théorie, cette automatisation permet de rationaliser le processus tout en offrant à plus de candidats la possibilité d’être entendus. Là où un recruteur humain n’aurait peut-être retenu que 10 % des candidatures, l’IA peut élargir le spectre, détectant des talents qui auraient autrement été écartés.

 

Les biais algorithmiques : un enjeu critique

Cependant, cette délégation algorithmique ne va pas sans controverse. Le principal reproche adressé à ces systèmes concerne le risque de biais intégrés dans les modèles d’IA. Comme le souligne Marie Content, avocate en droit social, si l’IA est entraînée sur des données passées où certains postes ont toujours été occupés par des hommes, elle pourrait reproduire cette discrimination de manière automatique.

HR Engine affirme contrer ce risque en structurant sa sélection uniquement autour des compétences recherchées, et non de l’historique des profils retenus. De plus, le système est encadré par des clauses interdisant la prise en compte de critères comme le genre, l’âge ou les croyances.

Pour Olivier Bonnefous, recruteur adepte de l’IA, l’humain est tout autant sujet aux biais que la machine, et l’automatisation pourrait même contribuer à une plus grande équité en standardisant l’évaluation. Une opinion partagée par de plus en plus d’acteurs, bien que la prudence reste de mise.

 

L’IA face aux « soft skills »

Un autre point de friction réside dans la capacité de l’intelligence artificielle à évaluer les compétences humaines, les fameuses « soft skills » : la motivation, l’adaptabilité, la communication non verbale, ou encore l’esprit d’équipe. Malik Rajan, fondateur de HR Engine, reconnaît les limites de sa solution sur ce terrain. L’IA se montre très efficace sur des critères techniques, mais peine encore à apprécier les nuances émotionnelles et comportementales.

Pour Alexandre Malarewicz, DRH d’Empowill, l’intelligence artificielle doit donc être perçue comme un outil complémentaire, permettant de gagner du temps sur des tâches chronophages comme le tri des candidatures, pour ensuite se concentrer davantage sur la dimension humaine de l’entretien.

 

Une adoption progressive mais surveillée

Face à ces enjeux, de nombreux acteurs choisissent une adoption progressive. BNP Paribas teste l’IA pour la rédaction d’annonces ou la synthèse d’entretiens, mais refuse de déléguer la sélection des CV à un algorithme, jugeant que cette tâche nécessite l’expertise humaine. Chez Forvis Mazars, l’IA est utilisée pour peaufiner des accroches LinkedIn ou rédiger des feedbacks adaptés, mais sans interférer dans le jugement des recruteurs.

La prudence s’explique aussi par le cadre réglementaire en cours d’élaboration. L’IA Act européen classe le recrutement parmi les usages « à haut risque ». Dès 2026, les solutions IA dans ce domaine devront respecter des normes strictes en matière de transparence, d’explicabilité des décisions et de protection des données, sous peine de ne pas pouvoir être commercialisées.

 

L’expérience candidat au cœur des préoccupations

Un autre défi réside dans l’expérience candidat. Si certains candidats trouvent l’IA « polie » et rassurante, d’autres expriment un sentiment de déshumanisation du processus. Une étude Ifop révèle que 71 % des personnes interrogées refuseraient que leur candidature soit évaluée uniquement par une IA. Le besoin d’interaction humaine, de feedback personnalisé et de transparence reste fort.

Comme le rappelle Alicia Leclerc, consultante en recrutement, « le candidat doit sentir qu’il est réellement pris en compte, qu’il peut poser des questions et comprendre comment ses données sont utilisées ».

L’intelligence artificielle s’impose progressivement comme un levier d’efficacité dans le recrutement, sans pour autant pouvoir remplacer le jugement et l’intuition humaine. Utilisée à bon escient, elle permet d’optimiser certaines tâches, de mieux valoriser les talents et de fluidifier les processus. Mais pour être réellement bénéfique, son usage doit rester encadré, éthique et humain. La collaboration entre recruteurs et IA, plus que la substitution, semble être la voie d’avenir du recrutement moderne.