Ces dernières années, la diffusion de l'intelligence artificielle (« IA ») dans la société, l'économie et la vie quotidienne s'est avérée aussi transformatrice que la mécanisation, l'électrification ou l'informatisation - c'est pourquoi de nombreuses personnes estiment que nous vivons un nouveau moment sans précédent dans l'histoire.
Le monde des relations professionnelles n'a pas échappé à cette transformation. L'utilisation de l'IA dans la gestion des relations professionnelles - de la phase de recrutement à la rupture du contrat de travail - est désormais une réalité qui tend à s'intensifier.
Malgré les avantages retirés de l'utilisation des algorithmes et de l'IA dans la gestion des ressources humaines, à commencer par la simplification des procédures, devenues plus rapides et prétendument moins subjectives, l'utilisation de l'IA présente également de nombreuses difficultés pratiques pour les organisations, compte tenu des risques qu'elle comporte inévitablement, notamment en ce qui concerne l'opacité des systèmes.
Selon le règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 créant des règles harmonisées en matière d'intelligence artificielle, « les systèmes d'IA utilisés pour la prise de décisions affectant les conditions des relations professionnelles, ainsi que la promotion et la résiliation des relations professionnelles contractuelles, pour l'attribution de tâches fondée sur le comportement individuel, les traits de personnalité ou les caractéristiques personnelles et pour le suivi ou l'évaluation des personnes dans le cadre de relations professionnelles contractuelles » sont classés comme des systèmes d'IA à haut risque, ce qui met en évidence la prudence qui doit être observée lors de leur utilisation.
Dans le code du travail, l’utilisation des algorithmes et de l'IA a été réglementée par la loi n° 13/2023 du 3 avril, qui stipule que le droit à l'égalité des chances et de traitement en matière d'accès à l'emploi, de formation et de promotion professionnelles ou de carrière et de conditions de travail ne peut être remis en cause par une prise de décision fondée sur des algorithmes ou d'autres systèmes d'IA. Les obligations d'information des employeurs à l'égard des travailleurs et des structures représentatives ont également été renforcées, notamment en introduisant l'obligation d'informer (et de consulter les délégués syndicaux) sur les paramètres, critères, règles et instructions sur lesquels se fondent les algorithmes ou autres systèmes d'intelligence artificielle qui affectent la prise de décision en matière d'accès et de maintien dans l'emploi, ainsi que les conditions de travail.
En ce qui concerne la résiliation des contrats de travail, on assiste à un processus de sélection « algorithmique » des travailleurs à licencier à l’échelle mondiale.
La littérature spécialisée, notamment américaine, regorge d'exemples d'utilisation d'algorithmes dans les procédures de licenciement. À cet égard, on peut citer le cas du géant de la vente en ligne qui, grâce à l'utilisation d'un algorithme standardisé - ignorant les variables applicables à chaque travailleur - a mesuré le temps nécessaire aux travailleurs pour effectuer des tâches et a licencié ceux qui, selon l'algorithme, étaient plus lents que la moyenne, en ciblant souvent les travailleuses enceintes.
Au Portugal, une procédure de licenciement collectif qui s'est déroulée en 2021 au sein d'une compagnie aérienne utilisant des algorithmes a fait l'objet d'une couverture médiatique importante. Avec le soutien d'un cabinet de conseil, la compagnie aérienne a développé un algorithme pour sélectionner les travailleurs à licencier dans le cadre de ce processus, qui était basé sur une série de critères de sélection, dont l'absentéisme, l'ancienneté, les qualifications et le coût des travailleurs. À l'époque, les syndicats ont accusé la compagnie d'utiliser une méthode discrétionnaire, tandis que la compagnie a affirmé que l'algorithme utilisait des critères objectifs pour sélectionner les travailleurs, ce qui a conduit à un conflit sur la légalité des licenciements qui n'a été réglé que devant les tribunaux.
En définitive, la Cour d'appel de Lisbonne a considéré que « ces critères, en raison de leur conception ou du type de variables (inconnues) sur lesquelles ils se fondent, ne permettent pas au travailleur de savoir pourquoi il a reçu la classification à laquelle le défendeur fait référence et qui implique son inclusion dans le licenciement collectif » et que « (... ) les critères qu'il a choisis pour sélectionner les travailleurs à licencier ne sont pas concrétisés » car « (...) bien que le défendeur ait énuméré les critères et les facteurs de pondération à prendre en compte - il l'a fait en termes purement génériques et abstraits - ne permettant pas au réclamant de savoir avec précision et clarté comment il a atteint la 11e position (classification) qui a conduit à son licenciement ». En résumé, le tribunal a estimé que c'est le (manque de) transparence de l'algorithme appliqué par l'entreprise dans la procédure de licenciement collectif qui était en cause. En effet, l'article 360 du Code du travail dispose que l'employeur qui envisage de procéder à un licenciement collectif doit communiquer cette intention par écrit et que cette communication doit contenir certaines informations, telles que « les critères de sélection des travailleurs à licencier », qui, dans le cadre d'un licenciement collectif, ne sont pas déterminés et typés par la loi. Toutefois, les critères utilisés pour sélectionner les travailleurs inclus dans les procédures de licenciement collectif doivent permettre aux personnes concernées d'identifier clairement la raison qui a conduit à leur sélection, et doivent également être liés aux raisons de marché, structurelles ou technologiques qui ont conduit à un licenciement collectif.
L'utilisation d'algorithmes et de systèmes d'IA dans le processus de sélection des travailleurs à licencier dans le cadre d'un licenciement collectif doit garantir que non seulement les exigences du droit du travail susmentionnées pour les licenciements collectifs sont respectées, mais également les réglementations sur les données à caractère personnel relatives aux décisions individuelles automatisées.
À proprement parler, la concaténation des différentes sources de législation sur le sujet et l'étendue de l'intervention des systèmes d'IA dans le licenciement peut conduire à des solutions différentes sur la légalité du licenciement dans le cadre juridique national.
Compte tenu de ce qui précède, l'utilisation de systèmes d'IA dans les situations de licenciement, qui est une tendance inévitable, doit, en raison de ses implications techniques et juridiques, être dûment examinée afin de garantir que la légalité du licenciement n'est pas mise en péril.