🚨 Publié au Journal officiel le 12 juillet 2024, le règlement IA (AI Act) entrera en vigueur le 1er août 2024. L’entrée en application se fera ensuite de façon échelonnée : 🎯 2 février 2025 (6 mois après l'entrée en vigueur) : Interdictions relatives aux systèmes d’IA présentant des risques inacceptables. 🚀 2 août 2025 (12 mois après l'entrée en vigueur) : Application des règles pour les modèles d’IA à usage général. Nomination des autorités compétentes au niveau des États membres. ⚓ 2 août 2026 (24 mois après l'entrée en vigueur) : Toutes les dispositions du règlement sur l'IA deviennent applicables, en particulier l’application des règles relatives aux systèmes d'IA à haut risque de l'annexe III (systèmes d'IA dans les domaines de la biométrie, des infrastructures critiques, de l'éducation, de l'emploi, de l'accès aux services publics essentiels, de l'application de la loi, de l'immigration et de l'administration de la justice). Mise en œuvre par les autorités des États membres d’au moins un bac à sable réglementaire. 🚧 2 août 2027 (36 mois après l'entrée en vigueur) : Application des règles relatives aux systèmes d'IA à haut risque de l'annexe I (jouets, équipements radio, dispositifs médicaux de diagnostic in vitro, sécurité de l'aviation civile, véhicules agricoles, etc.). ⌛ Par ailleurs, l’entrée en application s’appuiera sur des « normes harmonisées » au niveau européen qui doivent définir précisément les exigences applicables aux systèmes d’IA concernés. #CNIL #AIAct #Cloud #Cybersécurité #Risque #IA #ANSSI #RGPD
Post de Amadou Tidiane DIAWARA
Plus de posts pertinents
-
L'utilisation de l'intelligence artificielle (IA) 🤖🧠 pour renforcer la sécurité publique 🛡️ est en plein essor grâce aux progrès technologiques récents. Les systèmes d'IA sophistiqués peuvent détecter 🔍 et prévenir les menaces de manière proactive, notamment en analysant en temps réel les comportements suspects ou les situations anormales capturées par des caméras 📸. Cependant, cette intégration soulève des questions ❓ éthiques et légales importantes, notamment en ce qui concerne la protection 🛡️ de la vie privée des individus. Il est crucial de définir des normes et des réglementations claires pour garantir une utilisation responsable et éthique de ces technologies 👩🏻💻. Les professionnels de la sécurité 🛡️ et de la technologie 👩🏻💻 doivent continuer à explorer les avantages ➕ de l'IA tout en veillant à ce que son déploiement respecte les principes éthiques et les droits ⚖️ fondamentaux des citoyens. #isamm #IntelligenceArtificielle #SécuritéPublique #Technologie #Éthique
Identifiez-vous pour afficher ou ajouter un commentaire
-
OpenAI annonce une approche révolutionnaire pour surveiller l'IA superintelligente (OpenAI prend les devants en matière de sécurité et d'éthique de l'IA) OpenAI a dévoilé une nouvelle stratégie structurée pour surveiller et guider le développement de l'IA superintelligente. Cette initiative comprend plusieurs éléments clés : 1. Équipe Superalignment : OpenAI crée une équipe dédiée à diriger et contrôler les systèmes d'IA qui dépassent l'intelligence humaine. Dirigée par Ilya Sutskever et Jan Leike, cette équipe vise à créer un chercheur automatisé pour s'assurer que les IA superintelligentes soient alignées sur les valeurs humaines et les normes de sécurité. OpenAI prévoit de consacrer 20 % de ses ressources de calcul actuelles à cet effort. 2. Cadre de Préparation : OpenAI met en œuvre un cadre rigoureux pour suivre, évaluer et atténuer systématiquement les risques associés aux modèles d'IA de plus en plus puissants. Ce cadre comprend des évaluations rigoureuses des capacités, des prévisions des risques et l'établissement de seuils de sécurité. L'équipe de préparation supervisera ces efforts, organisera des exercices de sécurité et engagera des audits externes pour garantir la responsabilité et la transparence. 3. Niveaux de Risque et Mesures de Sécurité : Le cadre définit des niveaux de risque spécifiques (cybersécurité, menaces chimiques, biologiques, radiologiques, nucléaires, persuasion et autonomie des modèles) et établit des stratégies d'atténuation. Seuls les modèles présentant des niveaux de risque acceptables pourront continuer à être développés, garantissant que les modèles à risque plus élevé reçoivent une attention et des mesures de sécurité supplémentaires. Ces initiatives montrent l'engagement d'OpenAI à relever les défis éthiques et de sécurité posés par les technologies d'IA avancées. Cela s'inscrit dans une tendance où les grandes entreprises technologiques se concentrent de plus en plus sur la sécurité et la réglementation de l'IA pour prévenir les risques potentiels. P.S. Avez-vous déjà réfléchi à la manière dont l'IA pourrait façonner notre avenir ? Partagez vos pensées ci-dessous.
Identifiez-vous pour afficher ou ajouter un commentaire
-
🔒⚡️ Morris, le tout premier ver informatique capable de se répandre dans les systèmes d'IA. Une équipe de chercheurs de Cornell University a franchi une étape majeure en développant le premier ver informatique IA, nommé Morris II, capable d'infecter et de se propager entre des systèmes d'IA. Ce ver, inspiré du célèbre Morris de 1998, démontre une capacité inédite à compromettre des agents IA génératifs, permettant le vol de données et la propagation de malwares. Testé dans un environnement sécurisé, Morris II a prouvé sa capacité à infiltrer un assistant de messagerie autonome, extrayant des informations et générant des spams. L'innovation ne s'arrête pas là : les chercheurs ont mis au point des prompts auto-réplicatifs, permettant au ver de se propager via des instructions textuelles et des prompts intégrés dans des images. Cette découverte souligne la vulnérabilité croissante de nos systèmes d'IA et la nécessité impérative de renforcer nos défenses. Alors que cette menace n'est pas encore présente dans le monde réel, elle symbolise un risque potentiel que les acteurs de la technologie, des start-ups aux grandes entreprises, doivent prendre en compte. Les résultats de cette recherche ont été partagés avec des leaders du secteur tels que Google et OpenAI, soulignant l'importance de collaborer pour sécuriser l'avenir de l'IA. 🔗 https://lnkd.in/e6TSP9gW
Identifiez-vous pour afficher ou ajouter un commentaire
-
Bonjour! La mise en place de solutions de vidéosurveillance et télésurveillance couplées à l'intelligence artificielle présente de nombreux avantages. En effet, grâce à l'IA, ces systèmes peuvent analyser en temps réel de grandes quantités de données vidéo pour détecter automatiquement des comportements suspects ou des situations anormales. Cela permet une réactivité accrue en cas d'incident, facilitant ainsi la prise de décision et l'intervention rapide des autorités compétentes. De plus, l'IA peut être utilisée pour améliorer la précision des alertes et réduire les fausses alarmes, ce qui permet d'optimiser les ressources humaines et matérielles dédiées à la sécurité. Enfin, ces technologies offrent également la possibilité de mettre en place des fonctionnalités avancées telles que la reconnaissance faciale, la comptabilisation des personnes ou encore l'analyse du comportement des individus. En somme, la combinaison de la vidéosurveillance, de la télésurveillance et de l'intelligence artificielle représente un atout majeur dans la sécurisation des biens et des personnes, en offrant une surveillance continue, une réactivité accrue et une optimisation des ressources. Je reste à votre entière disposition disposition pour un audit gratuit et sans engagement de votre infrastructure et de vos contrats #osons #videosurveillance #IA #ose
Identifiez-vous pour afficher ou ajouter un commentaire
-
📢 Échéance manquée❓Où en est l'identification des organismes nationaux de protection des droits fondamentaux prévu par le RIA ? Le 2 novembre 2024 marquait l'une des premières étapes dans la mise en œuvre du Règlement sur l'Intelligence Artificielle (RIA) : l'identification par chaque État membre des organismes protecteurs des droits fondamentaux et la mise à disposition du public de la "liste" des organismes identifiés. Cette obligation, inscrite à l'article 77.2 du RIA, constitue un élément essentiel du dispositif de protection des droits fondamentaux "y compris le droit à la non-discrimination", en ce qui concerne l’utilisation des systèmes d’IA à haut risque visés à l’annexe III. Sauf erreur (en l'absence d'information en ce sens), la France n'a pas respecté cette échéance. Ce retard nous conduit à nous interroger quant à la mise en œuvre effective du règlement par la France. Dans l'attente de cette identification, les acteurs du secteur doivent maintenir leurs efforts de mise en conformité, tout en surveillant attentivement les développements institutionnels à venir. ⚖️La CNIL pourrait (aux côtés du Défenseur des droits et/ou en sus de son éventuel rôle d'autorité de surveillance du marché ?) être pressentie pour ce rôle, compte tenu de son expertise reconnue en matière de protection des droits fondamentaux dans l'environnement numérique. 🔎 Cette situation illustre les défis complexes de l'application du RIA au niveau national. #DroitDuNumerique #IA #RIA #AIAct #DroitsFondamentaux #Regulation
Identifiez-vous pour afficher ou ajouter un commentaire
-
🔍La loi européenne #AIAct met l'accent sur la responsabilité des entreprises s'agissant du recours à l'#IA et de son jumeau maléfique, le "shadow IA" 🛡️ L'observabilité avancée aide à éclipser les vices du shadow IA, renforçant la sécurité du réseau et des données. Gigamon vous en dit plus ici : https://ow.ly/KaeC30sBRWe
Identifiez-vous pour afficher ou ajouter un commentaire
-
Le décryptage des enjeux juridiques de la surveillance algorithmique est important. L'humain ne peut visionner autant d'images, alors il s'aide de lanpuissance des calculs pour traiter les images et éventuellement voir des infractions. Mais le traitement de données personnelles est très encadré. La CNIL aura à se prononcer. Nous attendons sabraction et son analyse juridique https://lnkd.in/ehVEXxTS
Identifiez-vous pour afficher ou ajouter un commentaire
-
🔍La loi européenne #AIAct met l'accent sur la responsabilité des entreprises s'agissant du recours à l'#IA et de son jumeau maléfique, le "shadow IA". 🛡️ L'observabilité avancée aide à éclipser les vices du shadow IA, renforçant la sécurité du réseau et des données. Gigamon vous en dit plus ici : https://shorturl.at/wxELN
Identifiez-vous pour afficher ou ajouter un commentaire
-
❓LE SAVIEZ-VOUS❓ 🔍 L’#IA joue un rôle de plus en plus important dans l’aide à la décision médicale et la gestion des flux patients. Mais l’IA peut-elle faire des erreurs ? Quelles mesures préventives et ou correctives peut-on mettre en œuvre pour garantir la fiabilité et la sécurité des IA? 🤖 L’IA est sujette aux erreurs ! Un article de la CNIL attire notre attention sur 3 types d’erreurs possibles : - Les erreurs liées à la conception du système : manque de représentativité, hypothèse approximative, mauvais critères retenus - Les erreurs liées aux conditions d’utilisation : mauvaise qualité des données, défauts liés au matériel (ex données collectées par des capteurs de mauvaise qualité) - Les risques classiques liés aux systèmes informatiques lors de la réalisation des calculs des échange de données et bien sûr aussi les erreurs humaines 🎯 Les solutions pour prévenir et corriger ces erreurs ! parmi elles : - Employer des bases de données fiables, vérifiables et bien établies. - Intégrer le principe de Garantie Humaine de l'IA pour anticiper et rectifier rapidement tout changement ou risque, en incluant des points de contrôle à des étapes définies de l'algorithme. Vous souhaitez avoir plus d'information ? 👉🏼 Écrivez-nous à support@botdesign.net
Identifiez-vous pour afficher ou ajouter un commentaire
-
Pour la sécurité d'un système d'IA générative, voici quelques recommandations : 1-Contrôle d'accès strict : Limitez l'accès aux données et aux fonctionnalités sensibles uniquement aux utilisateurs autorisés. 2-Validation des entrées : Assurez-vous que les données d'entrée sont vérifiées et validées pour éviter les attaques par injection ou la manipulation des données. 3-Surveillance en temps réel : Mettez en place des systèmes de surveillance pour détecter les activités suspectes ou les anomalies dans le comportement du système. En conclusion, pour garantir la sécurité d'un système d'IA générative, il est essentiel de mettre en place des mesures robustes telles que le contrôle d'accès strict, la validation des entrées, la surveillance en temps réel, l'utilisation de la cryptographie, la protection des modèles, la formation des utilisateurs, les mises à jour régulières, les tests de sécurité et un plan de réponse aux incidents. En combinant ces recommandations, vous pouvez réduire les risques de sécurité et assurer le bon fonctionnement de votre système d'IA générative tout en protégeant les données et les utilisateurs contre les menaces potentielles. Pour plus d’informations contactez nous: Riskhousesolutions.co
La mise en œuvre d'un système d'IA générative peut se décomposer en 3 phases cycliques : une première phase d'entraînement du modèle d'IA à partir de données spécifiquement choisies, puis une phase d'intégration et de déploiement, et enfin une phase de production opérationnelle dans laquelle les utilisateurs peuvent accéder au modèle d'IA entraîné, par l'intermédiaire du système d'IA. Ces 3 phases doivent chacune faire l'objet de mesures de sécurisation spécifiques, qui dépendent en partie du choix de sous-traitance retenu pour chaque composante (hébergement, entraînement du modèle, tests de performance, etc.) ainsi que de la sensibilité des données utilisées à chaque étape et de la criticité du système d'IA dans sa finalité. Enfin, la protection des modèles d'IA peut constituer un enjeu au même titre que la protection des données, non seulement pour des raisons de protection du potentiel scientifique et technique de la nation (recherche académique, modèles utilisés pour la sécurité nationale, etc.), mais aussi parce qu'un attaquant ayant connaissance de l'architecture et des paramètres d'un modèle peut potentiellement améliorer ses capacités d'attaques à d'autres fins (exfiltration de données…) Pour plus d’informations contactez riskhousesolutions.co Source: https://cyber.gouv.fr
Identifiez-vous pour afficher ou ajouter un commentaire
Co-Founder Cyber Café, Cyber Freelancer, Speaker & Trainer - CISSP - PECB Trainer
4 moisSource et FAQ de la CNIL : https://www.cnil.fr/fr/entree-en-vigueur-du-reglement-europeen-sur-lia-les-premieres-questions-reponses-de-la-cnil