L'AI Act, comment la nouvelle réglementation européenne redéfinit l'usage de l'IA en entreprise et notamment dans les SIRH !

L'AI Act, comment la nouvelle réglementation européenne redéfinit l'usage de l'IA en entreprise et notamment dans les SIRH !

Un peu d’histoire sur l’IA et ses progrès

Depuis ses premières ébauches dans les années 1950, l'intelligence artificielle a parcouru un long chemin. L'objectif initial des chercheurs en IA était de créer des machines capables d'imiter la pensée humaine et de résoudre des problèmes complexes.

Le terme a été formalisé par John McCarthy, Marvin Minsky, et d'autres pionniers lors de la conférence de Dartmouth en 1956, marquant le début de la recherche dans ce domaine.

Toutefois, les premiers systèmes d'IA étaient très limités et manquaient de la puissance informatique et des données massives nécessaires pour atteindre leur plein potentiel.

Avec l'émergence du big data, des algorithmes de machine learning et des capacités de calcul accrues, l'IA a connu des avancées exponentielles dans les années 2010.

Des applications pratiques ont émergé dans presque tous les secteurs – santé, finance, éducation, marketing, RH, etc.

Ce développement rapide a suscité des inquiétudes sur la manière dont l'IA pourrait impacter l'emploi, la vie privée, et l'éthique en général, ce qui a motivé de nombreux gouvernements à envisager des réglementations.

 

Le contenu du AI Act, objectifs et cadre général

1.       Les motivations derrière la réglementation européenne

L’Union Européenne a adopté une approche proactive vis-à-vis des technologies émergentes, dont l’IA. À travers le AI Act, elle cherche à renforcer la confiance des citoyens en ces technologies tout en promouvant leur développement responsable. La réglementation veut répondre à deux impératifs :

·       Protéger les droits fondamentaux des citoyens : éviter que des systèmes d’IA n’entraînent des discriminations ou des atteintes à la vie privée.

·       Promouvoir l’innovation tout en garantissant la sécurité : encourager le développement de solutions IA tout en minimisant les risques liés à l’usage non contrôlé de ces technologies.

2.       Un système de classification par niveau de risque

Le AI Act classe les applications de l'IA en quatre niveaux de risque :

·       Risque inacceptable : interdit les systèmes tels que la surveillance de masse ou les outils de manipulation des comportements humains comme les systèmes de notation sociale.

·       Risque élevé : affecte des secteurs sensibles tels que les infrastructures critiques (ex. transports), l’éducation, la santé, et la gestion des ressources humaines (ex. SIRH). Ces systèmes doivent respecter des exigences strictes en termes de transparence, de gestion des données, et de sécurité.

·       Risque limité : des obligations de transparence s’appliquent à ces systèmes, tels que les chatbots et les assistants virtuels.

·       Risque minimal : pas de régulation formelle pour des IA à usage courant comme les algorithmes de recommandation ou les assistants personnels.

3.       Les obligations des entreprises

Le AI Act impose plusieurs obligations spécifiques aux entreprises qui développent ou utilisent des systèmes d’IA :

·       Transparence : les entreprises doivent informer les utilisateurs qu’ils interagissent avec une IA, particulièrement dans des domaines comme le recrutement (via les SIRH).

·       Audits et évaluation des risques : les entreprises doivent effectuer des analyses d’impact des risques pour les systèmes d’IA à haut risque, garantir l'explicabilité des résultats et démontrer leur conformité aux exigences de sécurité et d’éthique.

·       Sécurité et protection des données : les systèmes d'IA doivent être conçus pour respecter la protection des données, en particulier avec le RGPD en vigueur.

 

L'impact sur le fonctionnement des entreprises

1.       Répercussions sur les processus internes

Les entreprises doivent repenser la manière dont elles intègrent et utilisent l'IA dans leurs processus. Cela inclut de :

·       Renforcer les équipes en matière d’éthique et de conformité IA : de nouvelles expertises seront nécessaires pour assurer la conformité, en particulier pour les systèmes à haut risque.

·       Modifier les cycles de développement : les entreprises devront inclure des phases de test rigoureux, d’audits et d’auto-évaluation pour leurs outils IA.

·       Intégrer des outils d’explicabilité : les décisions prises par une IA, notamment dans le recrutement, devront être justifiables, compréhensibles et auditées.

2.       Impacts sur les appels d’offres SIRH

Le secteur des SIRH sera particulièrement impacté par le AI Act, notamment dans les phases d'appels d’offres et de sélection de solutions technologiques. Les entreprises devront :

·       Évaluer les fournisseurs de SIRH : s’assurer que les solutions proposées sont conformes à la réglementation européenne en matière de transparence et de gestion des données.

·       Exiger des garanties contractuelles : inclure dans les contrats des clauses exigeant que les fournisseurs d’IA à haut risque respectent les obligations réglementaires en matière de sécurité et d’éthique.

·       Redéfinir les critères d’évaluation : les systèmes RH alimentés par l’IA devront répondre à des critères de conformité qui ne sont pas uniquement liés à la performance technologique, mais aussi à la sécurité et à la transparence.

 

Comparaison avec d’autres réglementations mondiales sur l'IA

L'UE n'est pas seule à s'intéresser à la réglementation de l'IA. Plusieurs autres régions du monde prennent des mesures pour encadrer cette technologie.

Les États-Unis adoptent une approche assez fragmentée, avec des initiatives au niveau fédéral et des projets de loi spécifiques à certains États comme la Californie. En 2022, l’administration Biden a présenté un AI Bill of Rights, un ensemble de principes visant à protéger les Américains contre les dérives de l’IA, mais il n’a pas encore de statut légal contraignant.

La Chine, tout en encourageant massivement l'innovation en IA, a également mis en place des lois pour réguler certains usages, notamment en matière de deepfake, de manipulation d'opinion publique, et de surveillance de masse. La Chine cherche à maintenir un contrôle étroit sur les technologies tout en restant compétitive.

Le Japon adopte une approche différente en mettant davantage l'accent sur l'innovation responsable. En 2019, le pays a introduit des lignes directrices pour l'éthique de l'IA, appelant à un développement "centré sur l'humain", tout en encourageant l’utilisation de l’IA pour améliorer les services publics.

Le Canada a introduit le Digital Charter Implementation Act en 2020, qui comprend des dispositions pour encadrer l'utilisation de l'IA, avec un accent particulier sur la protection des données et les décisions automatisées. Le Directive on Automated Decision-Making impose aux agences gouvernementales de garantir l’équité et la transparence des algorithmes.

 

Vers un avenir équilibré entre innovation et régulation

La réglementation de l'IA est devenue une priorité mondiale à mesure que la technologie prend de l'ampleur.

L'UE, avec le AI Act, se positionne comme leader dans la création d’un cadre juridique structuré, visant à concilier innovation et protection des droits fondamentaux.

Pour les entreprises, cela signifie non seulement un renforcement des exigences de conformité, mais aussi une opportunité d’accroître la confiance dans les systèmes d'IA utilisés, notamment dans des domaines critiques comme les ressources humaines et la gestion des talents.

Alors que d'autres pays élaborent leurs propres régulations, il devient clair que l'intégration de l'IA dans les opérations d'entreprise ne se fera pas sans de solides garde-fous éthiques et juridiques.

Les entreprises doivent dès à présent se préparer à cette nouvelle ère où l'IA devra non seulement être performante, mais aussi responsable et transparente.

Manuel Gea

Entrepreneur • CEO • Pharma-Biotech-Digital • Thinking out of the box • Heuristic • Holistic • Trusted AI • IA confiance • R&D Life Sciences • Keynote Speaker • Board Member

1 mois

Réussir l’industrialisation durable des IA en Santé : Medicen Paris Région et Polepharma unissent leurs compétences et leurs réseaux pour relever cet enjeu majeur de compétitivité durable de notre industrie https://lnkd.in/eZWZSf4U Nous vivons enfin, le début nécessaire de l'âge de raison pour les IA et leurs développeurs. Pour faire face à cet enjeu d’industrialisation inédit, Polepharma et Medicen Paris Région ont décidé d’unir leurs compétences et leurs réseaux pour couvrir l’ensemble des chaines de valeur pharma santé dans le cadre d’un GT mixte « IA & Confiance » présidé par Manuel GEA administrateur des deux pôles

Christian VERHAGUE

Directeur de la transformation Performance RH et Directeur du Conseil SIRH

1 mois

Et pour plus d'informations sur le sujet, suivez les publications de Stephanie Rébecca Renverseau ! C'est une immense experte du sujet.

Identifiez-vous pour afficher ou ajouter un commentaire

Autres pages consultées

Explorer les sujets