Il y a 5 ans, on ne parlait que de machine-learning. Puis le Big Data a mobilisé les technophiles et la communauté scientifique, cédant ensuite le terrain au Deep Learning. Le nouveau buzzword aujourd’hui, c’est l’IA. Elle préoccupe, interroge, passionne et nourrit autant de fantasmes que de papiers de recherche, au point de s’inviter au cœur du vaste plan d’investissement du gouvernement Macron et de provoquer le twitto-clash du siècle entre Elon Musk et Mark Zuckerberg. On nous annonce l’ubérisation du tertiaire, l’éclatement du modèle bancaire, la disparition des métiers (comptables, traders, chauffeurs, vendeurs…). Que l’IA va sauver des vies et qu’elle va améliorer la vie dans certains domaines, selon Yann Lecun, chef de l’intelligence artificielle chez Facebook.  « Nous ferons des machines qui raisonnent, pensent et font les choses mieux que nous le pouvons » surenchérissait Sergey Brin, le cofondateur de Google aux déclarations de Ray Kurzweil, l’ingénieur en chef de Google : « Une IA dotée d’une conscience est un milliard de fois plus puissante que la réunion de tous les cerveaux et devrait écraser l’intelligence humaine dès 2045 ».

Mais ces machines, aussi intelligentes soient-elles, sont-elles capables de juger et d’évaluer les hommes ? Qu’en sera-t-il alors des recruteurs ? Vont-ils disparaître au profit de millions d’algorithmes ?

L’IA apporte de la valeur au recrutement…  

En tant qu’acteur engagé dans le monde des RH Tech, nous croyons dur comme fer aux bienfaits de l’IA, et à son utilité dans le cadre d’un processus de recrutement. L’IA permet de faciliter la tâche des recruteurs et également celle des candidats dans leur démarche de recherche d’emploi, qui peut être un véritable parcours d’obstacles.

Les exemples où l’IA apporte de la valeur sont nombreux : matching entre les offres et les compétences des candidats, chatbot permettant d’orienter les chercheurs d’emploi, prise de rdv automatisés…

Mais ne peut pas remplacer l’humain sur toutes les tâches  

L’usage de l’IA en termes de reconnaissance d’images est très large : lecture sur les lèvres, reconnaissance de certaines émotions (comme la joie, la peine, la colère…), identification de l’âge, du sexe et bien d’autres critères. Sur le marché de l’entretien vidéo, certains acteurs proposent une interprétation automatisée pour juger la performance et les émotions des candidats.

Cette interprétation repose généralement sur 3 composantes :

 

  1. L’analyse du contenu lexical: l’IA se traduit ici par la capacité de transcrire les paroles du candidat en texte (technologie appelée Speech-to-text). C’est ensuite le contenu du texte qui est analysé, notamment le nombre de mots utilisés et le nombre de mots par minute.
  2. L’analyse de la tonalité de la voix: appelée scientifiquement prosodie, cela consiste à analyser les variations dans le rythme de la voix et dans son intensité.
  3. L’analyse de micro-expressions faciales: en supposant que les vidéos soient de qualité suffisante, il est possible de dégager certaines expressions du visage telles que la peur, le dégoût ou la joie. Nous voyons pour notre part plusieurs limites à l’analyse des vidéos de candidats par une IA.

 

1ere limite : Les technologies sur lesquelles reposent l’analyse automatique ne sont pas fiables.

Ceux d’entre nous qui ont déjà essayé de dicter des sms à leur smartphone ou d’utiliser la fonctionnalité de sous-titrage automatique de Youtube ont pu le constater : l’efficacité du speech-to-text est encore limitée. Sur l’analyse des expressions faciales : n’oublions pas qu’un algorithme a besoin de 10 à 15 millions d’images pour parvenir à différencier un chat d’un chien, quand il faut seulement 3 images à un enfant de 3 ans. Si les émotions fortes comme la joie, la peur ou le dégoût peuvent être détectées – sachant qu’elles apparaissent en principe assez rarement lors d’un entretien d’embauche – qu’en est-il des émotions plus subtiles ? A ce sujet, Gwennaël Gâté, cofondateur d’Angus.ai, une startup spécialisée dans les traitements d’IA sur les images et le son, rappelle : «   Les vraies émotions sont fines : la satisfaction, le doute… Elles ne sont pas simples à détecter pour les humains, et encore moins pour les algorithmes, qui détectent les francs sourires, ou une surprise très marquée.» Sans oublier que les vidéos enregistrées par les candidats sont souvent de qualité moyenne, limitant encore davantage les capacités d’analyse.

Bref, les données extraites des vidéos sont incomplètes, voire parfois erronées.

2eme limite : L’IA ne tient pas compte du contexte

Si pendant son entretien vidéo, un candidat s’interrompt, baisse les yeux, hésite, cela peut être perçu par l’IA comme de la gêne, un mensonge etc. Alors que le candidat a peut-être été perturbé par un élément externe : une voiture qui klaxonne dans la rue, son enfant qui entre dans la pièce, un rayon de soleil qui perce à travers les rideaux et l’aveugle l’espace d’un instant… Si un recruteur sera capable de lier la réaction du candidat à un élément de contexte, l’IA en est incapable. Or les candidats ne passent pas leur entretien vidéo dans des environnements aseptisés, le risque de stimulus externe est élevé et entraîne donc un risque élevé de mauvaise interprétation par l’IA

3eme limite : les algorithmes ne sont pas neutres

Quels enseignements tirer des données extraites de la vidéo ? Un candidat qui utilise 140 mots/minute est-il plus dynamique qu’un autre qui ne dépasse pas les 100 mots/minutes ? Ou est-il simplement plus stressé ? A-t-il plus de choses à dire ? Sait-il écouter ? Un candidat qui parle plus fort qu’un autre a-t-il plus d’assurance ? Impossible pour l’IA d’apporter une réponse scientifique à ces questions.

Une approche commune consiste à comparer les données extraites des vidéos des candidats aux données extraite de vidéos réalisés par des “top performers” de l’entreprise. L’analyse croisée de ces données est censée prédire la probabilité de succès du candidat pour un poste donné. On imagine facilement les dérives d’une telle pratique. Loin d’être neutres, les algorithmes reproduisent les biais des recruteurs. Amazon l’a appris à ses dépends en devant se débarrasser de son “algorithme sexiste”.

4eme limite : qu’en pensent les candidats ?

Mais au-delà des interrogations sur la pertinence des conclusions tirées d’une analyse automatique des vidéos se pose une question purement éthique.

Alors qu’un candidat qui remplit un test de personnalité le fait volontairement, analyser sa personnalité à son insu via sa vidéo pose un vrai problème moral. Reste la possibilité (ou plutôt l’obligation ?) de le prévenir. Mais les candidats accepteront-ils que leur personnalisé soit évaluée en 3 mn par un algorithme ? Cela risque plutôt de décourager les candidats avant l’entretien, voire de nuire à l’image de l’entreprise, dans un contexte de guerre des talents et d’exigence des candidats élevée.

Conclusion : L’intelligence artificielle est un moyen extraordinaire d’augmenter les chances, les opportunités et de rationaliser les choix de recrutement. A condition d’avoir une approche humaine et consciente des limites technologiques.

Ebook-employer-branding

[Ebook] 14 conseils pour booster sa marque employeur et optimiser son expérience candidat

Télécharger