INTELLIGENCE ARTIFICIELLE ET MACHINE LEARNING 🦾🖥️ Le groupe ERYS a participé les 2 et 3 février 2024 à la conférence annuelle du Master MS ISS organisée à Toulouse.🔝 L’objectif était d'explorer les possibilités qu’offre l’IA aux institutions des secteurs de la sécurité, sûreté, défense au sein des entreprises françaises.🇫🇷🤝🏻 Si l'IA et le Machine Learning sont amenés à assister les hommes, afin de lui permettre de gagner en efficacité, qu'en est-il en matière de sécurité, sûreté et défense ?🤔 La confidentialité des données étant devenue une préoccupation majeure associée à l'utilisation de l’IA dans le réseau des entreprises de la Défense, comment assurer la confidentialité et la sécurité des données collectées par les systèmes d’IA ? 🤔 Au-delà des tables rondes d’experts, cet événement a permis des échanges intéressants et constructifs entre étudiants et professionnels présents sur leur stand. L'équipe d'ERYS Sécurité Mathieu Do Vale, Christophe Bellanger, Général Perrot, Sandra Joffroy et Alexandre Aulnette était bien sûr au rendez-vous. 😉☑️ #Sécuritéaugmentée #SécuritéPrivée #erysgroup #ERYSSécurité #ERYSFormation #IA #Machinelearning #contremesures #universitéToulouse3 #ISSD
Post de Erys Group
Plus de posts pertinents
-
🎯Sécurité et intelligence artificielle #IA #computervision #innovation Le MINDEF a tenu un colloque sur le sujet aujourd’hui, au cœur duquel il est question de relever les opportunités pour notre sécurité grâce à la performance des systèmes d'intelligence artificielle. Notre système de sécurité vise à assurer ce rôle dans le futur : commençant par les entreprises, pour être une solution de sécurité nationale et avant-gardiste. We'll make it !! ( vidéo de démonstration du système : https://lnkd.in/emBKBKUn ) https://lnkd.in/egfZaysk
Identifiez-vous pour afficher ou ajouter un commentaire
-
🗺️ Dans un contexte global où les technologies et les pratiques numériques évoluent rapidement, la cybersécurité vit au rythme des innovations et à la croisée de différents champs de compétences. Au-delà des échanges entre pairs et des travaux que nous produisons, le Clusif souhaite nourrir ses réflexions au contact des chercheurs, auteurs, essayistes, qui pensent le monde dans ses évolutions avec un prisme cyber. C'était notre démarche en allant à la rencontre de Stephan Le Doaré, auteur de «Géopolitique de l'intelligence artificielle». Quelles sont les conséquences de l'avènement de l'IA sur les relations internationales ? Sur les métiers de la #cybersécurité ? Ses réponses sont à découvrir sur notre site 👇 https://lnkd.in/dC9zppfe #IA #Geopolitique
Interview de Stephan Le Doaré, auteur de Géopolitique de l'IA
https://clusif.fr
Identifiez-vous pour afficher ou ajouter un commentaire
-
Le Centre pour la Sécurité de l'IA (CeSIA - prononcé “Césia”) est une organisation lancée par le pôle IA d’EffiSciences et qui en reprend l’essentiel des activités, tout en se spécialisant davantage dans la sensibilisation, la recherche technique et l’ingénierie. 👉Comme vous le savez, l’intelligence artificielle se développe à une vitesse fulgurante, et offre d’énormes possibilités tout en soulevant des défis majeurs en matière de sécurité (jailbreaks, hallucinations, manque de transparence, enjeux de cybersécurité). Devant une préparation mondiale qui semble insuffisante face à ces évolutions, il nous semble crucial de favoriser l’émergence et l’engagement d’une variété d’acteurs, chacun apportant ses propres compétences et spécificités. Pour cette raison, le CeSIA vise à soutenir les acteurs clés de l’IA pour les préparer aux défis à venir, contribuant ainsi à l’établissement d’un écosystème français de l’IA solide et collaboratif. Notre cœur de métier sera d’apporter un éclairage technique sur les tendances de développement de l’IA, afin d’identifier les risques et enjeux actuels et d’anticiper les défis à venir. 🎯Nos activités se concentreront sur trois axes : la recherche, qui inclura le développement d’outils open source pour superviser l’opération des modèles d’IA et détecter des modes de défaillance encore inconnus ; l’information du grand public, pour élever la conscience collective sur les usages et enjeux de l’IA ; et la formation des futures générations de chercheurs et de développeurs, centrée sur l’évaluation et l’adaptation des systèmes d’IA. 🔔N'oubliez pas de vous abonner à la newsletter du CeSIA où vous y trouverez notamment les actualités françaises et mondiales sur l'IA ainsi que les événements IA à ne pas manquer : https://lnkd.in/ejj_5taD #collectifeffisciences #rechercheimpliquée #sciences #intelligenceartificielle #machinelearning
Identifiez-vous pour afficher ou ajouter un commentaire
-
[🗞️ Edition spéciale] Notre nouvelle édition spéciale consacrée à la cybersécurité vient de paraitre. Elle est disponible ici : https://lnkd.in/e9CEAZ9q Le principe 👉 on y rassemble, toutes issues de la recherche publique et propulsées par la valorisation ce que les membres du Réseau C.U.R.I.E. peuvent proposer en : ✅ technologies ✅ plateformes technologiques ✅ compétences de laboratoire ✅ belles histoires Avec par exemple : Les compétences de l'Equipe SAFE du Greyc La technologie CODE INJECTION DETECTOR proposée par Toulouse Tech Transfer La belle histoire de VeriQloud qui a développé une architecture de communication quantique reliée à la fibre optique qui permet de sécuriser les données de manière très performante en prévision de l’arrivée de l’ordinateur quantique Inria Startup Studio Damien Magoni Maxime Larrieu Casteres Jean-Marie RIGAUD ENSICAEN - Enseignement, Formation et Recherche. Ecole publique d'Ingénieurs et Centre de Recherche. Nicolas Porquet , Ph. D CNRS - Centre national de la recherche scientifique Timoléon TILMANT #cybersecurite #innovation #recherchepublique #valorisation
Cybersécurité
getinlabs.fr
Identifiez-vous pour afficher ou ajouter un commentaire
-
🗽🗼✨️Les pères de l'IA se réunissent en urgence pour discuter des risques catastrophiques de l'IA🗽🗼✨️ • Un groupe de spécialistes, dont les deux pères fondateurs de l'intelligence artificielle, Geoffrey Hinton et Yoshua Bengio, se sont réunis en urgence pour discuter des risques catastrophiques de l'IA. Ils craignent que l'IA puisse échapper au contrôle humain et devenir incontrôlable. • Pour éviter ce scénario, ils proposent un cadre réglementaire, doté de modèles inscrits sur un registre, et une recherche mondiale indépendante sur la sécurité de l'IA. Ils suggèrent également que tous les développeurs d'IA soient en mesure de démontrer la sûreté de leurs modèles si jamais leurs aptitudes dépassent certains seuils. • Cette réunion fait suite à la troisième rencontre Idais (Dialogues internationaux sur la sécurité de l'IA) qui s'est déroulée à Venise, où les spécialistes du secteur ont discuté des risques liés à l'arrivée d'une IA capable de surpasser l'intelligence humaine. • Ce n'est pas la première fois que Geoffrey Hinton parle de ce sujet. En 2003, il a démissionné de chez Google pour pouvoir partager librement ses appréhensions sur le développement de l'intelligence artificielle. https://lnkd.in/dgupxPrC
Identifiez-vous pour afficher ou ajouter un commentaire
-
📢💬Inscrivez-vous aux prochains cycles en Intelligence Économique et Stratégique #IES de l'#IHEDN ! 📍85e cycle #IES à Bordeaux, du 8 au 16 octobre 2024 ; 📍86e cycle #IES à Paris (École militaire), du 12 au 20 novembre 2024. ➡️L'#IHEDN vous propose 7 jours d'échanges et de réflexion, couvrant les grands thèmes de l’#IntelligenceEconomique : sécurité économique, influence et relations publiques, veille et OSINT, conformité et maitrise des risques à l’international, cybersécurité et souveraineté numérique. Au programme : ◾des conférences-débat faisant intervenir une grande diversité d’institutions, d’organisations compétentes et d’experts ; ◾des travaux de comité dynamiques sous forme d’études de cas sur un secteur stratégique (semi-conducteurs, robotique, lanceurs spatiaux, informatique quantique, intelligence artificielle….) ; ◾une visite (optionnelle) d’un site industriel, scientifique ou de recherche en rapport avec l’objet du cycle. Ces 7 jours de formation remplissent des objectifs pédagogiques et opérationnels : ✅sensibiliser les auditeurs aux enjeux de souveraineté et de sécurité économique de la France ; ✅comprendre et anticiper les menaces, dans un contexte de compétition, de contestation et d’affrontement ; ✅comprendre l’écosystème de l’intelligence économique ; ✅acquérir les outils indispensables pour mettre en place une démarche en IE au sein d’une organisation. 🔗📝N'hésitez plus et inscrivez-vous : https://lnkd.in/gtHKn79F Vous avez des questions ? Contactez-nous ici : ie@ihedn.fr DGSI - Direction Générale de la Sécurité Intérieure, DGSE - Direction Générale de la Sécurité Extérieure, DRSD - Direction du renseignement et de la sécurité de la défense, ANSSI - Agence nationale de la sécurité des systèmes d'information, Tracfin Haute Autorité pour la transparence de la vie publique Benoit Durieux Arnaud Sers
Cycle IES "Intelligence économique et stratégique" - L'IHEDN : Institut des hautes études de défense nationale
https://ihedn.fr
Identifiez-vous pour afficher ou ajouter un commentaire
-
Nouveau modèle d'OpenAI : course à l’innovation et sécurité de l'IA OpenAI vient de dévoiler son nouveau modèle, OpenAI o1, un outil capable de résoudre des problèmes complexes en sciences, codage et mathématiques. 🚀 Pourtant, cette nouveauté soulève des questions cruciales : comment trouver l'équilibre entre innovation rapide et sécurité ? ⚖️ Innovation et sécurité : un équilibre délicat OpenAI annonce mettre en place des partenariats avec des tiers de confiance pour évaluer les risques et mettre en place des mesures de contrôle. Malgré ces efforts, les tensions internes persistent, entraînant les départs de figures clés comme Ilya Sutskever et Jan Leike. En réaction, OpenAI a formé un nouveau comité pour renforcer la supervision de ses modèles d’IA. Le rôle des institutions publiques Les villes et les institutions publiques ont un rôle crucial dans l'adoption responsable de l'IA. En France, l'IA est déjà utilisée pour optimiser des services publics, mais elle soulève également des enjeux de sécurité et de protection des données. 🤔 Pour garantir une utilisation éthique et sécurisée, il est essentiel de veiller au respect des normes existantes, telles que l'IA Act, les directives de la CNIL, et mettre en place les protocoles adaptés. Points Clés : 🧠 OpenAI o1 : Un modèle avancé pour des tâches complexes. 🔒 Partenariats Sécurité : Collaborations pour évaluer les risques et renforcer la sécurité. 📉 Tensions Internes : Départs chez OpenAI, révélant le débat interne sur la sécurité en IA. 👥 Rôle des Villes : Nécessité d’un cadre réglementaire pour une utilisation responsable de l’IA. 🔍 Comment les institutions publiques peuvent-elles tirer parti de l'IA tout en garantissant la sécurité et la protection des citoyens ? Partageons nos réflexions et agissons pour un futur technologique responsable. #IAetSécurité #InnovationResponsable #OpenAI #Intelligenceartificielle #IA
Identifiez-vous pour afficher ou ajouter un commentaire
-
[#Universités du CRIP 2024] 🎉 Nous sommes ravis de participer aux Universités du CRIP (12 au 13 juin 2024) au Palais des Congrès, Porte Maillot à Paris. Venez nous rencontrer au 📌Stand 51 ! @Marc CHAUFFOUR, notre expert Pôle R&D et AIOPs, vous dévoilera comment exploiter tout le potentiel de vos données pour booster la performance de votre entreprise. Ne manquez pas sa présentation le 13/06, lors d'une Tribune de 10 minutes, sur les "Enjeux et bonnes pratiques pour une vision unifiée de votre capital de données" . ➡️ Vous pourrez également échanger avec les membres de notre équipe commerciale : David Wais, Cédric Martin et Adeline Giry, qui vous feront découvrir nos solutions innovantes en matière d'observabilité du SI et d'intelligence artificielle. 💬 Les Universités du CRIP 2024 traiteront 9 thématiques clés sur l'évolution des solutions IT à l'ère de l'Intelligence Artificielle Générative 🤖. #UniversitésCRIP2024 #IT #Networking #IA #Innovation #Cybersécurité #Observabilité
Identifiez-vous pour afficher ou ajouter un commentaire
-
Retour sur la 6ᵉ conférence #CAID sur l’ #IA pour la #Défense🛡️. Lors de la European Cyber Week - Official page à Rennes, notre directeur de recherche, Cédric Lopez, a eu l'honneur d’animer une intervention remarquée sur le projet #Popcorn. Cette IA innovante, dédiée à l’ #extraction d’ #informations à partir de sources #textuelles, offre de nouvelles perspectives pour le #renseignement militaire, démontrant une fois encore le potentiel de l’IA dans le renforcement des capacités de Défense. Un grand merci à l’ AMIAD - Agence Ministérielle pour l'IA de Défense, la DGA - Direction générale de l'armement, et à tous les participants pour cette conférence enrichissante et inspirante 👏. Vous n’avez pas pu assister à la présentation ? Contactez nous pour en savoir plus sur Popcorn et notre vision de l’IA au service de la Défense 🔍. #nlp #taln #IAanalytique #extraction #structuration #data #texte #automatisation #décisions
Identifiez-vous pour afficher ou ajouter un commentaire
-
Création de l'Institut canadien de la sécurité de l’IA : Un jalon pour la régulation et l’éthique de l’intelligence artificielle Le Canada renforce son engagement envers une IA sécurisée et éthique avec le lancement de l’Institut canadien de la sécurité de l’intelligence artificielle (ICSIA), annoncé par le ministre de l’Innovation, François-Philippe Champagne. Doté d’un budget de 50 M$ sur cinq ans, l’Institut se consacrera à l’analyse des risques et au développement de garde-fous pour l’IA. 👉 Cadre sécuritaire : L’ICSIA vise à renforcer la sécurité en matière d’IA en lien avec des enjeux de désinformation et de cybersécurité. 👉 Collaboration internationale : Ce centre se joint à des initiatives similaires au Royaume-Uni et aux États-Unis. 👉 Vers une confiance accrue : Le Canada entend rassurer les entreprises et le public face à l’adoption de l’IA, en travaillant à prévenir les dérives potentielles. Cet institut représente une étape clé pour aligner l'innovation technologique avec des normes éthiques robustes et protéger la société canadienne.
Lourde tâche pour l'Institut canadien de la sécurité de l'intelligence artificielle
noovo.info
Identifiez-vous pour afficher ou ajouter un commentaire
11 789 abonnés