Positive AI

Positive AI

Organisations à but non lucratif

À propos

Positive AI est une initiative créée par Orange, L’Oréal, BCG Gamma et Malakoff Humanis sous la forme d’une association de loi 1901 en juin 2022. Construite par ceux qui pratiquent l’IA, l’ambition de Positive AI est de rendre concrète et accessible l’éthique dans l’IA pour toutes les entreprises qui gèrent et/ou développent des systèmes d’Intelligence Artificielle. Ses missions sont de fournir aux entreprises les outils pour mettre en œuvre une IA Responsable pérenne, d’offrir à leurs dirigeants et experts de l’IA un espace d'échange et de dialogue, et de contribuer au débat public pour faire progresser le niveau de conscience, de savoir, et de mobilisation de tout le tissu économique français et européen sur le sujet de l’IA Responsable. Le label Positive AI et son référentiel sont les premiers outils proposés par l’association. Rendez-vous sur positive.ai

Site web
http://www.positive.ai
Secteur
Organisations à but non lucratif
Taille de l’entreprise
2-10 employés
Siège social
Paris
Type
Non lucratif

Lieux

Employés chez Positive AI

Nouvelles

  • Voir la page d’organisation pour Positive AI, visuel

    1 349  abonnés

    📣Publication au Journal Officiel de l’UE de la nouvelle directive européenne sur la responsabilité du fait des produits défectueux, applicable aux systèmes d’IA ✍🏼   📅 À la suite de l’adoption par le Conseil, le 23 octobre 2024, la nouvelle directive européenne sur la responsabilité du fait des produits défectueux (PLD) a été publiée le 18 novembre 2024. Le texte entrera en vigueur le 9 décembre 2024.   ✍🏼 Les objectifs principaux de la nouvelle PLD    La nouvelle PLD est une révision qui abroge la précédente directive sur le sujet qui datait de 1985, pour prendre en compte les évolutions en matière de nouvelles technologies et d’IA.    ⬇️ Plusieurs changements sont à noter :     ▫️Un élargissement de la définition du terme de produit  Les systèmes d’IA, assimilés à des logiciels, rentrent dans la notion de « produit » et sont concernés par ce régime de responsabilité sans faute du fait des produits défectueux.    ▫️Une révision du mécanisme de réparation  Si l’article 5 pose le principe d’un droit à réparation pour toute personne physique ayant subi un dommage causé par un produit défectueux, la directive met en place un mécanisme souhaitant faciliter la réparation du préjudice, grâce à une notion large de défectuosité.   ▫️Simplification du droit à réparation et la charge de la preuve  L’article 10 établit que la défectuosité d’un produit ainsi que le lien de causalité entre la défectuosité et le dommage sont présumés dans certains cas, notamment lorsque la défectuosité du produit a été établie et que le dommage est « généralement compatible » avec le défaut du produit.      ▫️ La conciliation de la Product Liability Directive avec l’Artificial Intelligence Liability Directive(AILD)  Si l’entrée en vigueur de la PLD est une avancée pour répondre efficacement aux besoins des nouveaux outils technologiques, celle-ci ne différencie pas les logiciels des SIA dans le cadre de son application. L’AILD quant à elle adapterait les règles de responsabilité civile non contractuelle aux SIA seulement, sans couvrir les logiciels dans leur globalité. Un cadre harmonisé de responsabilité serait préconisé, notamment par le Parlement Européen, avec un alignement de l’AILD sur la PLD, pour couvrir plus globalement la responsabilité des logiciels.    ▫️La transposition en droit français et l’anticipation d’une révision du régime de la responsabilité  La directive devra être transposée par les États membres à leur système national engendrant une possible révision du droit local. En droit français, c’est l’article 1245 du code civil qui pose le principe de responsabilité du producteur sur le dommage causé par un défaut de son produit. Il semblerait qu’une révision soit à anticiper afin de se conformer au droit européen. Les nouvelles règles bénéficient aux consommateurs tout en encourageant le déploiement et l’adoption de nouvelles technologies dans un cadre juridique sécurisé. 

  • Positive AI a republié ceci

    Voir la page d’organisation pour Hub FranceIA, visuel

    13 517  abonnés

    📝 AI Act : Consultation sur la définition de système d'IA et sur les pratiques d'IA interdites 🕵🏼♀️     📅 Le mercredi 13 novembre, l'AI Office a lancé une consultation sur la définition de système d'IA et sur les pratiques d'IA interdites dans le cadre des futures lignes directrices.   📗Sur la définition d'un système d'IA 🤖   Les professionnels sont invités à évaluer les différents éléments constituant la définition de système d'IA de l'article 3.1) de l'AI Act sur une échelle de 1 à 10. Il est crucial de distinguer l'IA des technologies connexes, mais aussi d'établir des critères objectifs. Un éclaircissement permettrait de lutter contre l’utilisation abusive du terme IA, qui, aujourd’hui devient un argument marketing.   L’enjeu majeur est de définir les limites et le périmètre de la définition. Pour ce faire les experts sont invités à se prononcer sur les types de système logiciel et les approches de programmation, qui ne devraient pas relever de la définition.    ✍🏼Consultation sur les systèmes d'IA interdits🚫   L’article 5 de l’AI Act définit les pratiques de SIA interdites. Plusieurs pratiques sont citées dans la consultation : le recours à des techniques subliminales, manipulatrices et trompeuses, l’exploitation des vulnérabilités, la notation sociale, l’identification biométrique à distance en temps réel… Cependant certaines notions restent floues en raison de nombreux facteurs. Les lignes directrices devraient apporter des détails sur la justification et les objectifs de l’interdiction, mais aussi sur les principaux éléments de l’interdiction et les interactions avec d’autres législations de l’Union.   La consultation ciblée convie les professionnels à demander des précisions sur les éléments caractéristiques des pratiques de l’article 5. Sur ce point, l’apport d’exemples concrets sera décisif pour les futures lignes directrices.    Il est intéressant de noter que la Commission implique la société civile et les spécialistes dans la construction de cette nouvelle réglementation sur l’IA. Ce partage de savoir collectif s’exprime aussi à travers la récente publication du premier projet de code de pratique des modèles d’IA à usage général.   ⌛️ La consultation est ouverte jusqu’au 11 décembre 2024. Les lignes directrices sont attendues pour début 2025 et auront comme objectif de fournir une interprétation cohérente et des conseils pratiques. Cette publication a été réalisée dans le cadre des travaux du Comité Veille réglementaire, et en partenariat avec Positive AI, merci à nos contributeurs: Bertrand CASSARValérie Chavanne, Olivia RimeClara Bustamante, Talya Dostes, Christine LaütGeneviève Fieux-CastagnetClara Soriano , Emilie Sirvent-Hien, Thibault du Manoir de Juan, Olivier Thirard, Marie-Agnès Nicolet et à nos animatrices Francesca MARTINI et Chloé Plédel.

  • Voir la page d’organisation pour Positive AI, visuel

    1 349  abonnés

    📢 L'IA dans les politiques publiques : analyse des enjeux éthiques et environnementaux au ministère de l’Économie et des Finances (MEFSIN) Le 22 octobre 2024, la Cour des comptes a dévoilé son rapport sur le recours à l’IA dans les politiques publiques du MEFSIN. Levier incontournable pour améliorer l'efficacité des politiques publiques, le rapport couvre la période 2018-2023 et met en lumière les avancées et les défis du MEFSIN dans l'intégration de l'IA. Le rapport étudie 4 principaux points : ◾️ La diversité des applications d’IA Le recours à l’IA au sein du Ministère est principalement lié à la gestion fiscale, la détection des fraudes et l’amélioration des services aux usagers. Le panel d’IA utilisé répond à des tâches diversifiées : analyse de textes et de mesure de sentiments ; IA prédictives ; IA génératives ; IA de reconnaissances d’images, etc. Parmi les IA, il est possible de trouver des outils spécifiques tels que "Signaux faibles", utilisé par la DGE pour détecter les défaillances des entreprises ; ou encore "Foncier Innovant" de la Direction générale des finances publiques (DGFiP), pour suivre l’évolution des bases de la fiscalité foncière. ◾️ Les gains de productivité L’IA a permis des économies significatives, bien que souvent inférieures aux prévisions initiales. Par exemple, avec le Ciblage de la fraude et valorisation des requêtes (CFVR), la DGFiP a réduit les coûts de programmation du contrôle fiscal en mobilisant moins de ressources humaines grâce des techniques d’analyse prédictive. ◾️ Les enjeux éthiques La Cour relève que les enjeux en termes d’éthique ne sont pas encore suffisamment maîtrisés. Il est nécessaire de garantir la transparence, l’explicabilité et la non-discrimination des systèmes d’IA. Cela passe par la formation des agents et la sensibilisation aux biais algorithmiques. ◾️ Les défis environnementaux L’évaluation du coût environnemental des SIA n’est pas encore parfait. Pourtant, cela semble plus que primordial au regard de la démarche de réduction de l’impact environnemental du numérique. La solution proposée est le recours à des IA frugales.   La Cour émet 5 recommandations : ▪️Le pilotage stratégique ▪️La création d’un incubateur d’IA ▪️L’identification des recours efficaces à l’IA ▪️L’évaluation de l’impact environnemental ▪️Une démarche de frugalité des outils.   L'intégration de l'IA dans les politiques publiques est une opportunité majeure pour améliorer l'efficacité et la qualité des services. Toutefois, elle doit être accompagnée d'une réflexion éthique et environnementale rigoureuse pour garantir une utilisation responsable et durable. Cette publication a été réalisée dans le cadre des travaux du Comité Veille réglementaire, et en partenariat avec Hub FranceIA, merci à nos contributeurs: Bertrand Cassar, Valérie Chavanne, Geoffroy Sinègre, Olivia Rime, Clara Bustamante, Talya D., Christine Laüt, Geneviève Fieux-Castagnet, Clara SORIANO et à nos animatrices Francesca MARTINI et Chloé Plédel.

  • Positive AI a republié ceci

    Voir la page d’organisation pour Hub FranceIA, visuel

    13 517  abonnés

    📊Vers la désignation des autorités nationales compétentes pour l'application du Règlement sur l'IA ? Le 14 octobre 2024, l'Arcom, régulateur de la communication audiovisuelle et numérique, a publié son bilan sur la " « Mission IA »" portant sur les 'impacts de l'IA, dans les secteurs de la création et de l'information.  Le 18 octobre, la CNIL, dans le cadre du G7 des autorités de protection des données, a adopté une position commune avec ses homologues, qui réaffirme leur rôle dans la promotion d’une IA digne de confiance. Comme l'Arcom et la CNIL, de nombreuses autorités administratives françaises se mobilisent sur les enjeux de l’IA. 🔍 Le Règlement sur l'Intelligence Artificielle, entré en vigueur le 1er août 2024, impose aux États membres de désigner des autorités nationales compétentes pour superviser la mise en œuvre du texte (article 70), et assurer la protection des droits fondamentaux (article 77). En France, bien qu'aucune autorité n'ait encore été officiellement désignée, les récentes initiatives de plusieurs régulateurs sectoriels laissent entrevoir une gouvernance répartie par secteur d'activité à haut risque. En ce qui concerne les systèmes d’IA à haut risque, telle que prévu dans l’annexe III, les institutions suivantes pourraient jouer un rôle clé : Arcom : pourrait superviser les systèmes d'IA dans les médias et la communication numérique ; CNIL : garantirait la protection des données personnelles dans l'usage des systèmes d’IA ; Autorité de la concurrence : assurerait une concurrence loyale et surveillerait les pratiques anticoncurrentielles liées aux systèmes d’IA ; ANSM : encadrerait l’utilisation des systèmes d’IA dans le domaine des dispositifs médicaux médical ; ACPR : surveillerait l'utilisation des systèmes d’IA dans le secteur financier ; Arcep : régulerait l’usage des systèmes d’IA dans les télécommunications et la presse. Pour ce qui concerne la protection des droits fondamentaux, le Défenseur des droits semble être pressenti pour ce rôle. 🤝 Si plusieurs de ces autorités sont officiellement désignées compétentes par la France, seule l’une d’entre elles prendra le rôle de point de contact national. L’objectif est de ont collaborer pour garantir pour le public une application cohérente et efficace du règlement européen, avec le Bureau de l'IA de la Commission européenne. 📅Les prochaines étapes : 2 novembre 2024 : date limite de désignation de l'autorité chargée de la protection des droits fondamentaux ; 2 août 2025 : date limite de désignation des autorités nationales compétentes et de l'autorité de contrôle. Cette publication a été réalisée dans le cadre des travaux du Comité Veille réglementaire, et en partenariat avec Positive AI, merci à nos contributeurs et contributrices : Bertrand Cassar,  Valérie ChavanneGeoffroy SinègreOlivia RimeMarie AlloggiaClara BustamanteMarie-Agnès Nicolet, Talya Dostes, Thibault du ManoirChristine Laüt, et à nos animatrices Francesca MARTINI et Chloé Plédel.

  • Voir la page d’organisation pour Positive AI, visuel

    1 349  abonnés

    🪜 ⭐️ Répondre aux défis de la standardisation de l'évaluation des compétences liées à l'IA : l'AFNOR Spec AICET Le 4 octobre 2024, le Groupe AFNOR a publié l'AFNOR Spec 2401 « Artificial Intelligence Competence Evaluation Test » (AICET). Soit un test d’évaluation des compétences en intelligence artificielle. Ce référentiel vise à fournir des conseils et des exigences pour évaluer les compétences liées à l’IA, tout en tenant compte de l’évolution de la technologie. La taxonomie abordée comprend deux dimensions permettant d’évaluer efficacement les informations associées à chaque processus cognitif spécifique : 1️⃣ Les connaissances factuelles et conceptuelles 2️⃣ Les connaissances procédurales et métacognitives L'AICET passe par l’évaluation de plusieurs points : les différentes méthodologies d’apprentissage (supervisé, non supervisé, apprentissage par renforcement), les différences entre les stratégies d’apprentissage automatique, la connexion à une interface homme-machine, la compréhension des biais techniques, etc. 🖋️ Le test permet de créer trois niveaux d’expertise : Expert, Avancé, Acculturation. Il pourra être réalisé à deux fins distinctes pour de l’auto-évaluation ou de la certification. L'AICET-score permettra aux entreprises, pouvoirs publics et organismes de formation, d’évaluer la maîtrise de leur public recourant à de l’IA. L'AICET répond à un besoin d'évaluation des connaissances en IA, dans le cadre de l'obligation de garantir un niveau suffisant de maîtrise de l'IA pour le personnel, posée par l’article 4 du Règlement sur l’intelligence artificielle (#AIAct). ⚙️ Sensibilisation et conformité à l'AI Act L’IA pose des défis dans sa compréhension et son utilisation par les métiers notamment concernant : ▪️Problèmes de confidentialité ▪️Fuite de données ▪️Faille en matière de sécurité informations ▪️Protection des données personnelles ▪️Propriété intellectuelle La formation des collaborateurs est donc l’une des premières étapes à mettre en place dans sa mise en conformité avec l’AI Act. L’ AFNOR SPEC 2401 AICET a pour vocation d’apporter un premier outil agnostique et holistique d’évaluation des connaissances en IA, pour une grande diversité de publics. Cette publication a été réalisée dans le cadre des travaux du Comité Veille réglementaire et en partenariat avec Hub FranceIA, merci à nos contributeurs et contributrices : Bertrand Cassar, Geoffroy Sinègre, Olivia Rime, Emilie Sirvent-Hien, Talya D., Thibault du Manoir, Valérie Chavanne, Arnaud TESSALONIKOS, Clara Soriano, Marie Alloggia, Geneviève Fieux-Castagnet, Clara Bustamante et à nos animatrices Francesca MARTINI et Chloé Plédel. #IntelligenceArtificielle #Compétences #TransformationDigitale #AFNOR #Conformité

  • Positive AI a republié ceci

    Voir la page d’organisation pour Hub FranceIA, visuel

    13 517  abonnés

    ❌ Véto du gouverneur californien sur la régulation des modèles d’IA générative (AI Bill) 🇺🇸 Le 29 septembre, le gouverneur de Californie, Gavin Newsom, reconnu pour son engagement en faveur de la régulation des nouvelles technologies, a opposé son véto au projet de loi SB 1047 aussi appelé « AI Bill ». Ce texte visait à imposer des mesures de sécurité pour les grands modèles d'IA ayant nécessité plus de 100 millions de dollars d’entraînement, une puissance de calcul supérieure à 10^26 FLOPS, ou de plus de 10 millions de dollars de fine-tuning” Malgré ce véto, l'État de Californie a récemment adopté 17 nouvelles lois encadrant divers aspects de la technologie, incluant la lutte contre les deepfakes, la protection des enfants, et la désinformation. 💡 Qu'est-ce qu'un "bill" aux États-Unis ? Un "bill" est un projet de loi adopté au niveau d'un État américain. Une fois signé, il devient une loi d’État, avec une portée juridique contraignante pour tous les résidents et les entités présentes dans cet État. Par exemple, après l'adoption du RGPD en Europe, la Californie a promulgué en 2018 le California Consumer Privacy Act (CCPA).   🛑 Pourquoi ce véto ? Ce véto intervient après une lettre des grands groupes de la tech, tels que Google, Meta et Microsoft soulignant des exigences de sécurité trop vagues. La loi proposait notamment des tests obligatoires pour les systèmes d’IA, avant leur mise à disposition du public. Ces derniers permettaient de tenir les entreprises responsables en cas de dommages, et instauraient un "Kill Switch' pour désactiver une IA en cas de problème. 🇪🇺 Au même moment, l'UE débute des travaux sur les codes de bonnes pratiques Par une approche différente de la Californie, la Commission européenne met en place des groupes d’experts indépendants. Leur objectif est de diriger les travaux de rédaction des Codes de bonnes pratiques, pour les modèles d’IA à usage général (GPAIm), prévus par l'article 56 du Règlement sur l’intelligence artificielle. (#RIA#AIAct) Le Bureau de l'IA a ainsi lancé le 30 septembre les travaux de rédaction pour ces codes. Leur objectif est de faciliter l’application des dispositions de l’AI Act aux GPAIm en ce qui concerne notamment : - la transparence et le droit d’auteur ; - les règles de classification pour les GPAIm présentant un risque systémique ;  - l’évaluation des risques et les mesures d’atténuation. Le bureau de l’IA a annoncé qu’une version finale du texte est attendue pour avril 2025. Cette publication a été réalisée dans le cadre des travaux du Comité Veille réglementaire et en partenariat avec Positive AI, merci à nos contributeurs et contributrices : Bertrand CassarValérie ChavanneGeoffroy SinègreOlivia RimeArnaud TESSALONIKOSMarie AlloggiaGeneviève Fieux-CastagnetClara BustamanteEmilie Sirvent-Hien, Talya Dostes, Olivier ThirardThibault du ManoirChristine LaütFrancoise Soulie-Fogelman et à nos animatrices Francesca MARTINI et Chloé Plédel.

  • Voir la page d’organisation pour Positive AI, visuel

    1 349  abonnés

    💼 Directive sur la responsabilité de l’IA : quel futur pour un projet contesté ? Le 19 septembre dernier, le Parlement européen a publié son analyse d’impact complémentaire sur la proposition de Directive sur la responsabilité de l’IA (AILD). Initialement proposé en septembre 2022, ce texte est toujours bloqué au stade de la proposition. Le Parlement appelle maintenant à faire évoluer ce cadre vers un règlement plus large sur la responsabilité des logiciels. 🔍 Pourquoi ce projet est-il contesté ? Le package réglementaire sur la responsabilité des systèmes d'IA, comprenant la révision de la directive 85/374/CEE sur les produits défectueux (PLD) et la création de l’AILD, est aujourd’hui remis en question. L'analyse d'impact du Parlement souligne plusieurs lacunes clés : ▪️ Non-couverture de certains systèmes d'IA à fort impact (usage général, véhicules autonomes, transport, finance, assurance). ▪️Insuffisance dans le traitement des dommages immatériels (violations des droits fondamentaux). ▪️Absence d’un régime de responsabilité stricte pour les IA à haut risque. 🛠 Les recommandations du Parlement européen : ▪️Transformer les directives PLD PLD et AILD en règlements pour éviter la fragmentation du marché numérique et assurer une cohérence réglementaire. ▪️Élargir l'AILD pour en faire un Règlement sur la responsabilité des logiciels, couvrant aussi les systèmes non IA. ▪️Introduire des dispositions spécifiques pour les PME, équilibrant innovation et protection des consommateurs. 🧐 Et maintenant ? Le Conseil doit encore approuver la révision de la directive sur les produits défectueux, acceptée en première lecture au début de 2024. Quant à la directive sur la responsabilité de l'IA, elle est à l'arrêt depuis 2022. Cependant, le processus législatif se réactive avec la rentrée avec le Conseil qui a annoncé la reprise des discussions dès la semaine prochaine et le Comité JURI du Parlement européen qui devrait désigner les rapporteurs pour relancer les travaux parlementaires en octobre... à suivre de près ! Cette publication a été réalisée dans le cadre des travaux du Comité Veille réglementaire et en partenariat Hub FranceIA et Positive AI. Merci à nos contributeurs et contributrices : Bertrand Cassar, Valérie Chavanne, Clara Soriano, Arnaud TESSALONIKOS, Thibault du Manoir, Christine Laüt, Emilie Sirvent-Hien, Marie-Agnès Nicolet, Francoise Soulie-Fogelman. Merci également à nos animatrices Francesca MARTINI et Chloé Plédel. #IntelligenceArtificielle #Réglementation #ResponsabilitéAI #Innovation #VeilleJurique

  • Positive AI a republié ceci

    Voir la page d’organisation pour Hub FranceIA, visuel

    13 517  abonnés

    📈🇪🇺Le 9 septembre 2024, Mario Draghi a présenté son rapport sur la compétitivité de l’Union européenne, à la demande de la Présidente de la Commission européenne Ursula von der Leyen. Le rapport intitulé « L'avenir de la compétitivité européenne - Une stratégie de compétitivité pour l'Europe » identifie 3 priorités cruciales pour l’avenir de l’Union européenne.   Parmi ses principales recommandations, M. Draghi insiste sur la nécessité pour l’UE de combler le fossé en matière d’innovation avec les États-Unis et la Chine. Concernant l’intelligence artificielle, il attire l’attention sur la complexité accrue du cadre réglementaire due au chevauchement potentiel entre le RGPD et l’AI Act.   Ainsi, plusieurs risques ont été identifiés : ⚖️ Des incertitudes juridiques pour les entreprises 💸 Des coûts de mise en conformité élevés 🚧 Des obstacles potentiels à l'innovation, en particulier dans le domaine de l'IA   Le rapport met également en garde contre la fragmentation du marché unique européen, déjà fragilisé par le RGPD dont les interprétations varient en fonction des États membres, que pourrait induire le manque de clarté sur l’articulation de l’AI Act avec le RGPD.   In fine, selon M.Draghi, l’articulation complexe entre le RGPD et l’AI Act pourrait avoir des conséquences significatives sur la position de l’Europe dans la course mondiale à l’IA. Cela inclut le risque d’exclusion des entreprises européennes des premières innovations en IA et des charges plus élevées pour les chercheurs et innovateurs de l’UE.   M. Draghi recommande alors une approche équilibrée dont les premières actions seraient : 1️⃣Simplification des règles du RGPD et de l'AI Act 2️⃣Harmonisation de la mise en œuvre du RGPD dans tous les États membres 3️⃣Élimination des chevauchements réglementaires entre le RGPD et l'AI Act 4️⃣Mise en place de "bacs à sable réglementaires" pour favoriser l'innovation tout en maintenant des normes élevées de protection des consommateurs   🇫🇷🔍En France, la CNIL a entamé dès début 2024 la publication d’une série de fiches afin d’aider les professionnels de l’IA dans l’application du RGPD aux modèles d’IA. Bien que ces travaux apportent des premières réponses, des incertitudes et zones d’ombres subsistent. La CNIL a ainsi ouvert une seconde consultation publique afin de recueillir les observations et questionnements des professionnels.  🔗 Pour en savoir plus : liens du rapport et de la consultation en commentaire Cette publication a été réalisée dans le cadre des travaux du Comité Veille réglementaire et en partenariat avec Positive AI, merci à nos contributeurs et contributrices : Bertrand CassarGeoffroy SinègreArnaud TESSALONIKOSValérie ChavanneEmilie Sirvent-Hien, Talya Dostes, Olivier ThirardClara SorianoArnault IoualalenMarie AlloggiaChristine Laüt. Merci également à nos animatrices Francesca MARTINI et Chloé Plédel. #Compétitivité #Innovation #IA #RGPD #AIAct #Réglementation

  • Positive AI a republié ceci

    Malakoff Humanis obtient le label Positive AI !   Depuis plusieurs années, nous avons fait de l'intelligence artificielle éthique et responsable une priorité chez Malakoff Humanis Aujourd'hui, notre engagement est récompensé par l'obtention du label Positive AI qui démontre notre volonté de mettre l'humain au cœur de l'IA. Obtenir ce label a représenté un défi de taille. Il nous a fallu adapter notre gouvernance, former nos équipes, faire évoluer nos méthodes de développement et de pilotage pour que chaque projet utilisant l'IA soit conforme avec les principes éthiques. La transparence, la lutte contre les biais, et l'amélioration continue sont des éléments centraux dans cette démarche. Notre objectif est de rendre l'IA plus accessible, compréhensible et utile pour nos collaborateurs et nos clients, tout en répondant aux enjeux de protection des données et d'inclusion. Le chemin ne s’arrête pas là. À l’heure où les réglementations évoluent, les entreprises doivent anticiper et adapter leurs pratiques. Chez Malakoff Humanis, nous sommes résolus à maintenir une attention constante à la gouvernance de nos projets IA, en continuant à innover tout en respectant des principes éthiques forts. C’est un défi permanent, mais aussi une opportunité de renforcer la confiance dans les technologies utilisées. Bravo à toutes les équipes pour leur engagement et leur travail exceptionnel ! #IAResponsable #PositiveAI #HumainEtTech #MHTech #Ethique

    • Aucune description alternative pour cette image
  • Positive AI a republié ceci

    Voir la page d’organisation pour Malakoff Humanis, visuel

    82 331  abonnés

    🆕 L'engagement de Malakoff Humanis en faveur d'une IA éthique et responsable reconnu par un label ! Ce label, délivré par l'association Positive AI après une évaluation indépendante, témoigne de la démarche proactive de notre Groupe pour intégrer des principes éthiques dans l’utilisation et le développement de ses solutions basées sur l'intelligence artificielle. Il certifie que Malakoff Humanis adopte une approche rigoureuse pour prévenir les impacts sociaux et environnementaux potentiels liés à nos algorithmes et systèmes d'IA. Il reconnait notamment la place que nous accordons au contrôle humain. Un très grand bravo à l'ensemble des équipes mobilisées !  👏 Pour en savoir plus sur Positive AI : https://positive.ai/ #IA #IAResponsable Stephane Barde David GIBLAS Marion Saroul Pascal Boisson CAROLE PORTUGAL Isaac Look Raphael Soulignac Orange BCG GAMMA L'Oréal Laetitia Orsini Sharps Philippe STREIFF Hugo Vallet David Sadek

    • Aucune description alternative pour cette image

Pages similaires