Loading...

Règlement européen sur l'IA : défis et opportunités dans les RH et le recrutement

La progression rapide de l’Intelligence Artificielle (IA) a profondément transformé de nombreuses fonctions de l’entreprise, et les Ressources Humaines (RH) ne font pas exception. Du sourcing de candidats à l’évaluation de la performance des employés, les outils propulsés par l’IA offrent un nouveau degré d’efficacité et de cohérence. Toutefois, ces avancées comportent également des risques potentiels, notamment sous forme de biais algorithmiques et de complexité accrue en matière de conformité juridique. La proposition de règlement européen sur l’IA (AI Act) de la Commission européenne pourrait bientôt entraîner d’importants changements, destinés à encadrer la conception et l’utilisation de l’IA dans différents secteurs, y compris les RH et le recrutement.

1. Aperçu du règlement européen sur l’IA

Proposé en avril 2021, ce règlement adopte une approche fondée sur les risques, catégorisant les applications IA en quatre niveaux : risque inacceptable, élevé, limité et minimal. Les outils ou plateformes utilisés pour le recrutement, la promotion et l’évaluation de la performance se classent généralement dans la catégorie à haut risque. Cela signifie que les entreprises qui emploient ces systèmes feront l’objet d’exigences plus strictes en matière de transparence, de supervision et de gestion des données. Concrètement, le règlement impose la création d’une documentation détaillée, des analyses de risques régulières et des mécanismes de contrôle humain.

À l’instar du Règlement général sur la protection des données (RGPD), le règlement sur l’IA aura une portée extraterritoriale. Les organismes basés hors de l’Union européenne mais proposant des services fondés sur l’IA à des citoyens de l’UE devront aussi s’y conformer. Le non-respect de ces nouvelles normes pourrait entraîner des sanctions financières importantes et porter atteinte à la réputation de l’organisation.

2. Le rôle croissant de l’IA dans les RH et le recrutement

Sur un marché de l’emploi de plus en plus compétitif, les professionnels des RH ont recours à l’IA pour automatiser les tâches répétitives et optimiser la prise de décision. Voici quelques exemples clés :

  • Tri de CV : Les outils propulsés par l’IA passent rapidement au crible des milliers de candidatures, en identifiant les profils les plus pertinents sur la base de critères prédéfinis.
  • Interfaces chatbot : Les chatbots gèrent les questions initiales des candidats, planifient des entretiens ou fournissent des informations basiques sur les postes proposés.
  • Analyses prédictives : Les modèles de machine learning aident les employeurs à anticiper leurs futurs besoins en recrutement et à repérer rapidement les candidats à fort potentiel.

Si ces outils améliorent la productivité, ils soulèvent aussi des questions éthiques et de conformité. Le règlement sur l’IA exige que de tels systèmes adoptent une approche « centrée sur l’humain », veillant à ce que les décisions touchant des individus—telles que l’embauche ou la promotion—soient transparentes, justifiables et exemptes de biais systémiques.

3. Exemples concrets de biais

3.1 Workday

Contexte : Workday est une plateforme reconnue pour ses solutions RH, financières et de planification. Elle a fait l’objet d’allégations selon lesquelles son algorithme de tri des candidatures pourrait favoriser certains profils tout en désavantageant involontairement d’autres.

Nature du biais : D’après des rapports et des réclamations légales, les filtres automatisés de la plateforme auraient pu prendre en compte des facteurs comme le handicap, l’âge ou l’origine ethnique—directement ou via des variables de substitution—pour écarter des candidats pourtant qualifiés. Bien que Workday conteste ces allégations, l’incident illustre la manière dont le biais peut s’infiltrer dans les outils d’IA lorsque ceux-ci s’appuient sur des ensembles de données qui contiennent déjà des biais.

Impact : Si ces accusations sont fondées, la plateforme pourrait réduire, à son insu, la diversité de la main-d’œuvre en filtrant des catégories entières de candidats. Cela va à l’encontre des principes d’égalité des chances en matière d’emploi et peut exposer les entreprises à des responsabilités légales au regard des lois anti-discrimination existantes et de la future réglementation IA.

3.2 Amazon

Contexte : L’un des exemples les plus souvent cités de biais algorithmiques en recrutement concerne l’outil expérimental d’Amazon. Vers 2014, le géant du commerce en ligne avait conçu un système pour automatiser la sélection de candidats, dans le but d’accélérer le processus de recrutement.

Nature du biais : L’algorithme avait été entraîné majoritairement à partir de CV de collaborateurs Amazon performants, un groupe très majoritairement masculin. Par conséquent, le système pénalisait les CV contenant des termes plus souvent associés aux femmes, comme la mention de clubs ou d’institutions exclusivement féminines. Au fil du temps, le modèle a discriminé systématiquement les candidates.

Impact : Amazon a finalement abandonné ce projet après avoir constaté que l’outil était trop compliqué à corriger. Cependant, cet exemple rappelle de façon frappante que l’IA est dépendante de la qualité des données de formation. Des données biaisées génèrent des résultats biaisés, ce que le règlement européen sur l’IA cherche à limiter en imposant des exigences strictes sur la qualité des données et un audit permanent.

3.3 Étude de l’Université de Washington

Contexte : Des chercheurs de l’Université de Washington ont publié plusieurs travaux académiques montrant comment l’IA, notamment dans des domaines comme la vision par ordinateur et le traitement du langage naturel, peut perpétuer des stéréotypes et des biais issus de données historiques.

Nature du biais : Dans certaines expériences, les modèles d’IA avaient tendance à associer des rôles traditionnellement féminins (ex. : « nurse » ou « teacher ») aux femmes, et des rôles masculins (ex. : « doctor » ou « engineer ») aux hommes. Les jeux de données utilisés reflètent souvent des biais sociétaux existants. Appliqués aux processus RH—comme les outils de recrutement—ces biais peuvent fausser les embauches, l’évaluation des performances ou l’évolution de carrière des groupes sous-représentés.

Impact : Les conclusions de cette recherche soulignent la nécessité d’évaluer rigoureusement les biais et de repenser la façon dont les données RH sont collectées, étiquetées et exploitées. En mettant en évidence la vulnérabilité intrinsèque des systèmes IA, les travaux de l’Université de Washington confortent la priorité des décideurs politiques en matière de transparence et d’équité, telle que promue par le règlement sur l’IA.

4. Principaux défis de conformité

Pour les entreprises qui souhaitent exploiter l’IA dans la fonction RH, le règlement sur l’IA soulèvera plusieurs défis :

  • Catégorisation à haut risque : Si une application IA est jugée « à haut risque », l’organisation doit garantir la supervision humaine, la tenue de registres et une gestion rigoureuse des risques. Respecter ces normes pourrait exiger d’importants investissements en matière de conformité.
  • Gouvernance des données : Au titre du règlement, les entreprises doivent vérifier que les jeux de données utilisés pour entraîner les modèles IA sont représentatifs, à jour et exempts de caractéristiques discriminatoires. Toute donnée historique ou en temps réel alimentant le système devra faire l’objet d’un audit continu pour prévenir les biais.
  • Expertise technique : Les responsables RH ne sont généralement pas des spécialistes de la data. Il sera crucial d’assurer une collaboration effective entre les équipes RH et les experts en IA, ou de faire appel à des prestataires externes qualifiés.
  • Responsabilisation des fournisseurs : De nombreuses entreprises achètent ou louent des solutions RH pilotées par l’IA auprès de tiers. Il est essentiel de veiller à ce que ces prestataires se conforment aux normes européennes, en fournissant des rapports de transparence, des mises à jour régulières et une documentation suffisante sur le fonctionnement de leurs algorithmes.

5. Stratégies pour une utilisation éthique et conforme de l’IA

Bien que la mise en conformité avec le règlement sur l’IA puisse être complexe, elle offre aussi l’opportunité aux entreprises de réévaluer et d’optimiser leur utilisation de l’IA, notamment dans les RH. Voici quelques approches :

  • Réaliser des audits IA : Évaluer régulièrement les outils d’IA afin de détecter tout signe de biais. Recourir à des auditeurs externes ou à des logiciels spécialisés pour mesurer les performances algorithmiques selon des critères d’équité prédéfinis.
  • Diversifier les données de formation : Rechercher activement des ensembles de données qui représentent toute la diversité démographique, sociale et éducative. Identifier et supprimer les variables proxy susceptibles de conduire à de la discrimination.
  • Maintenir un contrôle humain : Même en mode automatisé, conserver un « humain dans la boucle » pour réviser ou annuler les décisions de l’IA. Ce garde-fou peut empêcher un algorithme défaillant de prendre des décisions discriminatoires.
  • Transparence et communication : Informer clairement les candidats et les employés quand et comment l’IA est utilisée dans le processus de recrutement. Fournir des explications accessibles sur les décisions automatisées, ainsi que des possibilités de contestation ou d’appel si nécessaire.
  • Mettre à jour les contrats avec les fournisseurs : Intégrer des clauses obligeant les prestataires IA à se conformer au règlement européen. Exiger des rapports de conformité réguliers et envisager des sanctions contractuelles en cas de non-respect.

6. L’impact global du règlement sur l’IA

La portée du règlement sur l’IA dépasse les tâches quotidiennes des RH. En imposant des évaluations de risques et une transparence accrues, ce cadre réglementaire vise à renforcer la confiance dans l’IA au sein de tous les secteurs. Pour les RH, cela signifie une meilleure adéquation entre les obligations éthiques des professionnels et les réalités opérationnelles des systèmes d’IA avancés. Par ailleurs, ce nouveau paysage réglementaire pourrait stimuler l’innovation en valorisant les prestataires capables de démontrer une équité et une maîtrise du risque vérifiables.

Les entreprises qui anticipent ces évolutions et commencent dès maintenant à mettre en place des pratiques d’audit de biais, de communication transparente et de contrôle par des tiers se trouveront en position avantageuse. Non seulement elles limiteront le risque d’amendes potentielles ou de poursuites, mais elles consolideront aussi leur réputation d’organisation éthique, attirant à la fois les talents et les consommateurs sensibles à la responsabilité sociétale.

7. Conclusion

Le règlement européen sur l’IA marque une étape importante vers une régulation de l’IA, notamment dans des domaines clés comme le recrutement et la gestion RH. Les biais réels—illustrés par les cas de Workday et d’Amazon, ainsi que les études de l’Université de Washington—montrent les risques et conséquences tangibles d’une IA non réglementée.

En classant les outils de RH et de recrutement dans la catégorie des systèmes IA à haut risque, le texte établit un ensemble d’obligations : supervision humaine, transparence, gouvernance des données et une approche robuste de gestion des risques. Bien que ces exigences puissent paraître complexes, elles fournissent une feuille de route pour des pratiques IA éthiques, protégeant les individus et promouvant une main-d’œuvre plus inclusive et équitable.

En fin de compte, les entreprises qui accordent la priorité à la conformité, investissent dans la collecte de données non biaisées et mettent en avant la transparence de leurs déploiements IA ne se contenteront pas de respecter les futures obligations réglementaires—elles encourageront également une culture de la justice et de la confiance. Cette double focalisation sur la conformité et l’éthique est la clé pour tirer pleinement parti du potentiel de l’IA dans la transformation des processus RH et de recrutement.

Références

Top