LE COIN DES CURIEUX

infos & life style

 

Amazon a récemment dévoilé les résultats de l’une de ses expériences en intelligence artificielle initiée en 2014. Il s’agissait d’une intelligence artificielle utilisée pour le recrutement des futurs collaborateurs d’Amazon. Pendant trois ans, elle a examiné le CV des candidats pour des profils techniques afin de leur attribuer une note comprise entre 1 et 5 et identifier les meilleurs profils, c’est-à-dire automatiser le recrutement de l’entreprise. En 2017, surprise : Amazon se rend compte que cette IA discrimine les femmes  !

Comment est-ce possible ? Cette intelligence artificielle est-elle vraiment sexiste ? Pour comprendre cette problématique, il convient de saisir le fonctionnement d’une IA. Une IA ne se programme pas vraiment, elle s’éduque, comme le ferait un enfant. L’IA observe son environnement et finit par “comprendre” comment les choses marchent dans un domaine précis. Elle reproduit alors ce qu’elle a compris pour coller au mieux à la réalité : c’est le Machine Learning. Mais pour cela, il lui faut de grandes quantités de données à partir desquelles l’IA va se construire au fur et à mesure. 

Dans le cas du recrutement chez Amazon, les données utilisées pour nourrir l’IA étaient tous les profils ayant candidaté depuis 10 ans chez Amazon. Il se trouve que la grande majorité de ces profils est masculine. L’IA a observé cet état de fait et a fini par en déduire que les candidatures masculines étaient à privilégier par rapport aux candidatures féminines. Bien entendu, une IA ne peut pas se reprogrammer sur commande. Amazon a bien tenté de modifier les critères de sélection, mais il était trop tard : le groupe a mis un terme au projet.

Nombreuses sont les personnes qui appréhendent que leur métier se fasse remplacer par l’IA. Même si l’IA peut être plus performante que l’homme sur certains aspects, cette tentative effectuée par Amazon tend plutôt à montrer que l’IA semble avoir tendance à se construire à l’image de l’homme. On en vient donc à douter du fait que l’intelligence artificielle puisse se montrer réellement impartiale et ne pas tomber dans les mêmes biais que les humains, comme certains en rêveraient. Est-ce pour autant que l’idée d’une IA en recrutement doit être abandonnée ?

L’IA n’est peut-être pas parfaite, mais elle peut être un atout décisif qui peut grandement faciliter le travail d’un recruteur. Créée par la start-up russe Stafory, une nouvelle intelligence artificielle prometteuse nommée Vera est capable de mener un processus de recrutement de A à Z. Tri des CV, prise de rendez-vous, entretien : Vera fait tout comme un recruteur, mais plus rapidement. En effet, elle est capable de faire passer plusieurs centaines d’entretiens simultanément.

L’humain a seulement à prendre la décision finale : il garde la main, du moins en apparence, tout en ayant très peu de travail. Le projet séduit en raison du gain de temps et d’argent qui en résulte, et donc de l’efficacité accrue du processus de recrutement. Adoptée par plusieurs grands groupes comme Pepsi, Auchan ou Castorama, Vera n’a toutefois pas séduit L’Oréal ou encore Ikea qui, après l’avoir testée, craignent de voir leur fonction RH remplacée par cette intelligence artificielle. Toutefois, nul ne sait encore si Vera est elle aussi influencée dans ses choix par le même type de biais que l’IA d’Amazon, par exemple.

Maintenant que des biais ont été constatés, la confiance des humains envers l’IA est affectée. En effet, une IA procède à sa façon et livre ses résultats en toute opacité, sans que l’on puisse savoir ce qui l’a guidée à prendre telle ou telle décision. Face à cette crise de confiance, IBM a mis au point une sous-couche logicielle capable de détecter les éventuels biais d’une IA et, au bout du compte, d’expliquer clairement à l’utilisateur pourquoi et comment l’IA est parvenu à son résultat, et sur quoi elle se base pour la prendre.

Cette solution dédiée aux entreprises utilisant une IA est une première qui montre la voie pour corriger les défauts de l’intelligence artificielle. Il semble que cela soit absolument nécessaire car selon une étude menée par IBM, seulement 35% des dirigeants d’entreprises font réellement confiance à l’IA au sein de leur entreprise. 

En résumé, il semble qu’il ne soit pas forcément pertinent de considérer l’IA comme un juge impartial car, construite à partir de données issues du monde humain, elle peut adopter des biais tout-à-fait semblables à ceux d’un être humain. Le défi est donc maintenant de réussir à diagnostiquer ces biais pour les corriger en temps réel, avant qu’ils ne prennent trop d’importance dans le fonctionnement de l’IA, et surtout d’en informer l’utilisateur pour qu’il puisse en avoir connaissance. 
L’IA ne semble donc pas apporter une réelle plus-value au recrutement à l’heure actuelle en raison de ses biais difficilement contrôlables et de ses résultats controversés. Les métiers du recrutement ont donc encore vraisemblablement de beaux jours devant eux.

Ajouter un commentaire

Loading