L'intégration de l'intelligence artificielle (IA) dans la gestion des ressources humaines des entreprises est désormais une réalité incontournable et l’occasion de simplifier, d’accélérer et d’optimiser les processus. Le dynamisme de l'IA dans le contexte du travail ne peut cependant pas être dissocié du cadre juridique croissant en la matière, qui a notamment pour objectif d'assurer l'information, l'éthique et la transparence dans le cadre des processus de gestion des ressources humaines qui utilisent l'IA. 

En 2023, le paquet législatif de l'Agenda du travail décent a introduit dans le Code du travail d'importants devoirs d'information concernant l'utilisation des algorithmes et autres systèmes d'IA dans le contexte du travail, afin de prévenir les risques de discrimination algorithmique et de garantir la transparence dans leur utilisation, en plus des réserves qui découlaient déjà de la législation sur les données à caractère personnel en ce qui concerne les décisions automatisées.

Concrètement, un devoir d'information concernant les systèmes d'IA a été prévu, à l'égard du travailleur, du comité d'entreprise et des délégués syndicaux, le cas échéant ; d'autre part, en ce qui concerne le droit à l'égalité en matière d'accès à l'emploi et au travail, l'Agenda pour le travail décent a renforcé la protection des demandeurs d'emploi et des travailleurs, en déterminant que les dispositions existantes en la matière s'appliquent également dans le cas de décisions prises sur la base de ces systèmes. 

Aux obligations découlant du cadre juridique national, il convient d'ajouter celles prévues par le règlement sur l'intelligence artificielle, d'autant plus qu'aux termes de ce règlement, la majorité des systèmes d'IA déjà utilisés par les entreprises dans le cadre des relations de travail sont classés comme présentant un risque élevé en ce qui concerne le risque de préjudice qu'ils présentent.

Sachant que, par exemple, dans le domaine du recrutement, l'IA est désormais largement utilisée, à savoir pour rédiger des descriptions de postes, interagir avec les candidats par le biais de chabots, filtrer les candidatures, préparer des scripts d'entretien, ou encore analyser et évaluer les réponses et le comportement des candidats, il convient d'assurer dès à présent le respect des règles juridiques susmentionnées.

Il en va de même pour la gestion de la performance, où l'IA a de multiples usages, tels que l'organisation du travail, la détermination des métriques et des objectifs, l'identification des opportunités de développement, l'élaboration des programmes de récompense, le développement des plans de succession ou l'identification des employés pouvant bénéficier d'une promotion.

Cependant, il est essentiel de garder à l'esprit que les outils d'IA en matière de travail sont gérés par des personnes et que, par conséquent, lorsque les algorithmes et les données d'entrée ne sont pas rigoureusement testés ou lorsqu'ils ne sont pas contrôlés tout au long de leur vie utile, il existe un risque de perpétuer inconsciemment des tendances biaisées et/ou discriminatoires, inhérentes à ceux qui ont formé l'outil, et qui ont un impact sur la gestion des ressources humaines.

Le cas paradigmatique de l'outil d'IA créé par le géant de la vente en ligne pour faciliter le recrutement et qui a généré des résultats discriminatoires en raison de la manière dont l'algorithme avait été programmé, ainsi que le licenciement de plus de 300 de ses travailleurs en raison d'un manque de productivité déterminé exclusivement par un système d'IA installé dans ses entrepôts, mettent en évidence quelques-uns des risques liés à l'utilisation non supervisée de ces outils. 

L'éthique et la transparence étant des sujets cruciaux pour l'IA dans la gestion des ressources humaines, votre entreprise est-elle prête à faire face à ces nouveaux défis ?