🎭 #𝐂𝐲𝐛𝐞𝐫𝐦𝐨𝐢𝐬 2024 : 𝐌é𝐟𝐢𝐞𝐳-𝐯𝐨𝐮𝐬 𝐝𝐞𝐬 𝐝𝐞𝐞𝐩𝐟𝐚𝐤𝐞𝐬, 𝐜𝐞𝐬 𝐯𝐢𝐝é𝐨𝐬 𝐞𝐭 𝐢𝐦𝐚𝐠𝐞𝐬 𝐩𝐥𝐮𝐬 𝐯𝐫𝐚𝐢𝐞𝐬 𝐪𝐮𝐞 𝐧𝐚𝐭𝐮𝐫𝐞 ! 🎭 Les deepfakes sont des contenus multimédias manipulés grâce à l'intelligence artificielle, capables d’imiter des visages, des voix et des gestes de manière impressionnante. Si cette technologie peut être fascinante, elle représente aussi un risque majeur pour la 𝐜𝐲𝐛𝐞𝐫𝐬é𝐜𝐮𝐫𝐢𝐭é et la 𝐟𝐢𝐚𝐛𝐢𝐥𝐢𝐭é 𝐝𝐞 𝐥’𝐢𝐧𝐟𝐨𝐫𝐦𝐚𝐭𝐢𝐨𝐧. 🔍😧 Les deepfakes sont utilisés pour diffuser de fausses informations, usurper des identités et tromper des entreprises et des particuliers. Ils rendent plus difficile la distinction entre le vrai et le faux, et 𝐩𝐞𝐮𝐯𝐞𝐧𝐭 𝐩𝐨𝐫𝐭𝐞𝐫 𝐚𝐭𝐭𝐞𝐢𝐧𝐭𝐞 à 𝐥𝐚 𝐫é𝐩𝐮𝐭𝐚𝐭𝐢𝐨𝐧 𝐝𝐞𝐬 𝐢𝐧𝐝𝐢𝐯𝐢𝐝𝐮𝐬 𝐞𝐭 𝐝𝐞𝐬 𝐨𝐫𝐠𝐚𝐧𝐢𝐬𝐚𝐭𝐢𝐨𝐧𝐬. 💡 𝐍𝐨𝐬 𝐜𝐨𝐧𝐬𝐞𝐢𝐥𝐬 𝐩𝐨𝐮𝐫 𝐬𝐞 𝐩𝐫𝐨𝐭é𝐠𝐞𝐫 𝐝𝐞𝐬 𝐝𝐞𝐞𝐩𝐟𝐚𝐤𝐞𝐬 : ● 𝐑𝐞𝐜𝐨𝐧𝐧𝐚î𝐭𝐫𝐞 𝐥𝐞𝐬 𝐬𝐢𝐠𝐧𝐞𝐬 𝐝’𝐮𝐧 𝐝𝐞𝐞𝐩𝐟𝐚𝐤𝐞 : expressions faciales rigides, mouvements des lèvres décalés par rapport aux paroles, éclairages ou ombres incohérents, voix légèrement artificielle, et 𝐦𝐨𝐮𝐯𝐞𝐦𝐞𝐧𝐭𝐬 𝐝𝐞𝐬 𝐲𝐞𝐮𝐱 é𝐭𝐫𝐚𝐧𝐠𝐞𝐬 (peu de clignements, regard fixe ou absence de reflet naturel dans les yeux). ● 𝐕é𝐫𝐢𝐟𝐢𝐞𝐳 𝐭𝐨𝐮𝐣𝐨𝐮𝐫𝐬 𝐥𝐚 𝐬𝐨𝐮𝐫𝐜𝐞 des vidéos et des images, surtout si elles paraissent sensationnelles ou surprenantes. ● Utilisez des outils et plateformes fiables pour valider l’authenticité des contenus, en particulier pour les échanges professionnels. ● 𝐒𝐞𝐧𝐬𝐢𝐛𝐢𝐥𝐢𝐬𝐞𝐳 𝐯𝐨𝐬 é𝐪𝐮𝐢𝐩𝐞𝐬 pour qu’elles reconnaissent les signes des deepfakes et sachent réagir face aux informations douteuses. ● 𝐒𝐨𝐲𝐞𝐳 𝐩𝐫𝐮𝐝𝐞𝐧𝐭 𝐚𝐯𝐞𝐜 𝐥𝐞𝐬 𝐝𝐞𝐦𝐚𝐧𝐝𝐞𝐬 𝐢𝐧𝐚𝐭𝐭𝐞𝐧𝐝𝐮𝐞𝐬, même si elles semblent provenir de contacts de confiance, en particulier si elles incluent des vidéos ou des messages vocaux inhabituels. 📢 𝐑𝐚𝐩𝐩𝐞𝐥𝐞𝐳-𝐯𝐨𝐮𝐬 : La cybersécurité, c'est aussi s'assurer de la véracité des informations que nous recevons et partageons. Face aux deepfakes, la vigilance et la vérification sont nos meilleures protections. 🔒✨ #Cybersécurité #Cybermois #Deepfake #SécuritéInformatique #FiabilitéDeLInformation #UsurpationIdentité #vorstone
Post de Vorstone
Plus de posts pertinents
-
Les #IA sont souvent considérées comme des boîtes noires, mais dans des secteurs où la prise de décision est critique, comprendre les raisons de leurs actions est essentiel. @Céline Minh, Ingénieure en IA chez @Custocy, a exploré cette problématique captivante et rentre dans le détail de l'explicabilité des IA devenue essentielle en #cybersécurité ! 👇 https://lnkd.in/ejY5fTtx Bonne lecture 🤓
Identifiez-vous pour afficher ou ajouter un commentaire
-
Un deepfake c'est quoi ? 🤔 Un deepfake est un contenu sous plusieurs formats (visuel, textuel, sonore, audiovisuel) généré entièrement par un algorithme. Il peut imiter les paroles, voix et visages de personnes humaines. Il est donc utilisé pour tromper, désinformer et nuire à la réputation des personnes ou des entreprises. Comment s'en protéger ? - Vérifier les sources d’information. - Utiliser des outils de détection de deepfakes. - Sensibiliser vos équipes aux nouvelles menaces numériques. #cybersecurité #fraude #dsi #information
Identifiez-vous pour afficher ou ajouter un commentaire
-
🚀 **Nouveau projet : Bot GPT auto-protégé!** 🚀 Bonjour à tous, Je suis ravi de partager avec vous mon dernier projet : un bot GPT qui s'auto-protège contre les tentatives de piratage. C'était un défi passionnant de développer une solution qui pourrait résister aux diverses méthodes de contournement de sécurité. 🛡️ **Le défi :** Créer un agent intelligent capable de se protéger automatiquement contre les attaques et les tentatives de piratage. 🔍 **Testez-le vous-même !** J'invite toute personne intéressée à essayer de le contourner. Le lien est dans les commentaires. Vos retours sont précieux pour améliorer ce projet. Dites-moi ce que vous en pensez et si vous avez réussi à contourner les protections ! 💡 Merci pour votre attention et à très bientôt pour de nouvelles aventures technologiques ! #intelligenceartificielle #cybersécurité #gpt #protection #innovation
Identifiez-vous pour afficher ou ajouter un commentaire
-
Les #Risques de #Cybersécurité Face à l'Avancée #Technologique La récente annonce de lancement par OpenAI du #VoiceEngine met en lumière les avancées spectaculaires de l'intelligence artificielle dans le domaine #vocal. Cependant, cette innovation soulève également des préoccupations majeures en matière de cybersécurité. #Falsification Vocale: Avec des technologies de synthèse vocale de plus en plus sophistiquées, il devient de plus en plus facile de falsifier des enregistrements audio, ce qui peut être utilisé pour manipuler des individus ou propager de fausses informations. #Phishing Vocal: Les #cybercriminels pourraient utiliser des voix synthétisées pour mener des #attaques de phishing vocales, où ils imitent des personnalités ou des proches pour obtenir des #informations sensibles ou induire en erreur les #utilisateurs. #Escroqueries Audiovisuelles: Les #deepfakes audiovisuels, combinant des technologies de synthèse vocale et de manipulation d'images, pourraient être utilisés pour créer des vidéos et des enregistrements audio truqués, potentiellement utilisés à des fins de chantage ou de diffamation. #Violation de la Vie Privée: La collecte et l'utilisation non autorisées de données vocales peuvent compromettre la vie privée des individus, en exposant des informations sensibles telles que des conversations confidentielles ou des données biométriques. #Vulnérabilités des #Systèmes de #Sécurité Vocale: Les systèmes de sécurité basés sur la reconnaissance vocale pourraient être compromis par des attaques de contournement, où des imposteurs utilisent des enregistrements falsifiés pour accéder à des comptes ou des installations sécurisées. Face à ces défis, il est impératif que les #développeurs et les utilisateurs de technologies vocales prennent des mesures pour renforcer la sécurité et protéger les données sensibles. Cela comprend la mise en œuvre de méthodes d'#authentification #robustes, la #sensibilisation aux risques de #falsification audio, et le développement de contre-mesures pour détecter et contrer les attaques potentielles. En combinant l'innovation avec la vigilance en matière de cybersécurité, nous pouvons exploiter le plein potentiel des technologies vocales tout en minimisant les risques pour la société.
Identifiez-vous pour afficher ou ajouter un commentaire
-
🎭 Octobre, Mois de la Cyber - Attention au #DeepFake! 🎬 Le deepfake, une technologie fascinante mais potentiellement dangereuse, est capable de manipuler des vidéos et des voix pour créer de fausses représentations réalistes. Cela peut sembler impressionnant, mais les conséquences peuvent être dévastatrices : désinformation, arnaques en ligne, ou encore atteinte à la réputation. 👉 Il faut s'en méfier!!! Les deepfakes sont devenus une arme puissante pour les cybercriminels, qui les utilisent pour tromper les individus et les entreprises. Ce mois-ci, sensibilisons-nous tous aux risques que cette technologie pose. Chaque jour, des vidéos truquées circulent, et il devient de plus en plus difficile de distinguer le #vrai du #faux. 🙄 🚨 Restons vigilants : ▪️ Vérifiez toujours la source des vidéos. ▪️ Faites attention aux contenus partagés en ligne qui semblent trop bizarres ou incroyables. ▪️ Soyez prudents avant de croire à une information relayée par une vidéo. 🔒 La cybersécurité c'est l'affaire de tous! Ensemble, apprenons à mieux nous protéger contre ces dangers numériques. Ne vous laissez pas piéger par des images trompeuses! <<Regardez la vidéo en pièce jointe pour comprendre à quel point les deepfakes peuvent être inquiétants...>> 🎥 Cyber221: #Sensibiliser, #Informer, #Former pour une meilleure sécurité en ligne! STAY SAFE!!! -- -- -- ⭕ Rejoins nous dans l'aventure avec 10000 CODEURS pour apprendre un metier du numérique (+65 metiers disponibles) et contribues à: "𝑭𝒂𝒊𝒓𝒆 𝒅𝒆 𝒍'𝑨𝒇𝒓𝒊𝒒𝒖𝒆 𝒍𝒆 𝒑𝒐𝒖𝒎𝒐𝒏 𝒅𝒆 𝒍'𝒊𝒏𝒅𝒖𝒔𝒕𝒓𝒊𝒆 𝒎𝒐𝒏𝒅𝒊𝒂𝒍𝒆 𝒅𝒖 𝒏𝒖𝒎𝒆́𝒓𝒊𝒒𝒖𝒆" 😊 #ForumDuNumériqueAuMali #Novembre2024 #Bamako #Ségou #Tombouctou #Gao _ _ _ 🙋♂️ Je suis #MisterSecurity 1 post/jour sur la #Securité / #sûreté 🔒 Pour plus d'impact positif. Douglas Fanta Bamba Koura Balkiss Faridatou Divin Abdoul Farimata Sekou Cheick Maïmouna BROU van Hubert 🛡️ Jeovany Sékou Michel #CyberAwareness #Deepfake #StaySafe #CyberSecurity #MoisDeLaCyber
Identifiez-vous pour afficher ou ajouter un commentaire
-
💡 Sujet fascinant et crucial ! L’erreur humaine reste l’un des plus grands défis en cybersécurité. Comprendre l'impact des biais cognitifs sur nos décisions est essentiel pour mieux se protéger. 🔐 Très impatient d'explorer ces notions à travers des exemples concrets et d'enrichir nos perspectives lors de ce meetup. 📢 Qui d'autre est prêt à approfondir ce sujet ? Rejoignez Camille à 14h pour un échange passionnant ! #Cybersécurité #BiaisCognitifs #CyberAttaques #Assises2024
Aujourd'hui, aux Les Assises de la #cybersecurité à #Monaco C'est à 14h à l'éspace meetup ⭐ 𝗤𝘂𝗮𝗻𝗱 𝗻𝗼𝘀 𝗳𝗮𝗶𝗹𝗹𝗲𝘀 𝗺𝗲𝗻𝘁𝗮𝗹𝗲𝘀 𝗼𝘂𝘃𝗿𝗲𝗻𝘁 𝗹𝗮 𝗽𝗼𝗿𝘁𝗲 𝗮𝘂𝘅 𝗰𝘆𝗯𝗲𝗿𝗮𝘁𝘁𝗮𝗾𝘂𝗲𝘀 ⭐ D'après une étude de IBM, 𝗹'𝗲𝗿𝗿𝗲𝘂𝗿 𝗵𝘂𝗺𝗮𝗶𝗻𝗲 𝗲𝘀𝘁 𝗹𝗮 𝗰𝗮𝘂𝘀𝗲 𝗽𝗿𝗶𝗻𝗰𝗶𝗽𝗮𝗹𝗲 𝗱𝗲 𝟵𝟱% 𝗱𝗲𝘀 𝗯𝗿𝗲𝗰𝗵𝗲𝘀 𝗱𝗲 𝗰𝘆𝗯𝗲𝗿𝘀𝗲𝗰𝘂𝗿𝗶𝘁𝗲. En d'autres termes, si l'erreur humaine était entièrement supprimée, 19 brèches de sécurité sur 20 n'auraient peut-être pas eu lieu du tout. 3 raisons expliquent cette statistique : la tendance des individus à surestimer leur propre intelligence, les #biais #cognitifs et enfin, le sentiment de familiarité intégré (à dessein) au sein des IA pour en faciliter l’utilisation. Dans ce meetup nous explorerons les limites de l’intelligence humaine (et artificielle) et en particulier l’influence des biais cognitifs à travers des exemples concrêts et ludiques. #biases #cognitivebiases #biaiscognitifs #overconfidencebias #familiaritybias #availabilityheristic #AI #IA #cybersecurity #boundedrationality
Identifiez-vous pour afficher ou ajouter un commentaire
-
L'article du Journal du Net explore les dangers des deepfakes, qui deviennent de plus en plus réalistes et accessibles. Les deepfakes menacent l'identité en ligne et la confiance publique, notamment lors d'événements majeurs comme les élections ou les Jeux Olympiques. Pour se protéger, il est crucial d'investir dans la cybersécurité et les technologies d'identité automatisées. Les entreprises doivent prioriser la sécurisation de l'identité pour prévenir les usurpations et les désinformations, malgré les contraintes budgétaires, car les pertes potentielles sont énormes. #CYBERSECURITE #CYBERMENACES #ANTIVIRUS #IDENTITE_NUMERIQUE
Identifiez-vous pour afficher ou ajouter un commentaire
-
Les #deepfakes : quels risques pour les entreprises ? Sur franceinfo, l'occasion d'expliquer concrètement cette menace. Un prolongement de l'exercice pédagogique que nous conduisons avec les #datascientists de HeadMind Partners quand nous réalisons de tels deepfakes pour les comex afin de les préparer à ces campagnes frauduleuses. Une mise en situation très vertueuse pour faire progresser la connaissance de l'Intelligence Artificielle au sein des équipes de direction, et au-delà. Maxime de Jabrun Dr. Billal CHOULI Edouard Chon Benoit TOP Emmanuel Courtois #IA #AI #IntelligenceArtificielle #cyber
Identifiez-vous pour afficher ou ajouter un commentaire
-
🔒 Lors du dernier cyber breakfast de Bretagne Développement Innovation, j'ai proposé une analyse des publications de Microsoft relatives à l'utilisation malveillante de ChatGPT par les acteurs étatiques malveillants. Résumé 👇 🌐 Microsoft et OpenAI ont publié conjointement un rapport et un blogpost le 14 février 2024 : "Staying ahead of threat actors in the age of AI" (https://lnkd.in/eKKxdjEp) et "Navigating cyberthreats and strengthening defenses in the era of AI - Cyber Signals" (https://lnkd.in/e25wiq98) dans le cadre de sa politique pour atténuer les risques liés à l'utilisation malveillante de ses outils et API d'IA. 📊 En premier lieu, on peut regretter qu'aucune information précise n'ait été divulguée sur la méthodologie utilisée pour détecter et analyser les prompts ChatGPT malveillants et les attribuer aux modes opératoires mentionnés dans les rapports à part "grâce à l'intelligence artificielle". On n'a en particulier aucune donnée sur la quantification des usages malveillants de la plateforme et sur la performance d'OpenAI pour limiter ces usages (Quel a été le temps de détection de ces usages ? Est-ce que le chatbot a répondu aux prompts malveillants ?). OpenAI affirme avoir désactivé tous les comptes actifs associés à ces groupes. Mais au bout de combien de temps et les acteurs malveillants n'ont-ils pas recréés des comptes ou modifié leurs comportements pour échapper à la détection (ex. multiplication d'utilisation de comptes, comptes jetables, etc.) ? 🎯 Les rapports mettent en lumière les motivations et la complexité des différents acteurs de menaces, qui, malgré leurs variations, ont des tâches communes à accomplir dans le cadre du ciblage et de l’exécution des attaques. C'est résumé dans l'infographie avec la cyber kill chain. De ce point de vue, on n'est pas trop surpris par les usages qui remontent. 🕵️♂️ Parmi les acteurs étatiques malveillants identifiés, on retrouve APT28 (Fancy Bear ou FOREST BLIZZARD), un groupe russe, et Kimsuky (Velvet Chollima, THALLIUM, Emerald Sleet), un groupe nord-coréen. Ces groupes utilisent les Large Language Models (LLM) pour la reconnaissance, l'amélioration des techniques de scripting, la recherche de vulnérabilités, l'ingénierie sociale, la reconnaissance informée et l'amélioration des techniques d'évasion et de commande opérationnelle. 💡 En conclusion, c'est une première publication intéressante mais on en aimerait beaucoup plus Microsoft !
Identifiez-vous pour afficher ou ajouter un commentaire
-
Comment détecter un deepfake ? Le deepfake est une technique qui permet, grâce à l'intelligence artificielle, de superposer des vidéos et des audios pour en créer de nouveaux. Pour les reconnaitre, dans un premier temps, il faut analyser la vidéo et examiner les détails, tels que la synchronisation des lèvres avec les paroles prononcées ou encore les expressions faciales qui peuvent paraître figées ou ne pas être en adéquation avec le sujet, par exemple. Si après ces premières vérifications vous avez toujours un doute sur la véracité de la vidéo, il existe des outils qui vous permettent de savoir s'il s'agit d'un deepfake. Néanmoins, il est important de rappeler que ces outils ne sont pas infaillibles ; il faut donc prendre certains résultats avec des pincettes. - FakeCatcher : développé par Intel, cet outil permet de démasquer les deepfakes avec 96 % de réussite. Cela est possible grâce à une vérification de l'afflux sanguin qui crée des différences de lumière. - Sentinel : cette plateforme a été créée pour les agences de défense, entre autres, afin d'éviter les menaces créées par les deepfakes. Vous pouvez télécharger des fichiers via cette plateforme, et ils seront automatiquement vérifiés. - Extract Meta Data : grâce à ce site créé par Amnesty International (https://lnkd.in/eQU7rqtc), vous pourrez analyser une vidéo en la découpant en plusieurs fragments pour pouvoir effectuer une recherche par image et en connaître la source. Pour plus de sécurité, essayez de ne pas prendre vos informations sur des sites renommés (X n'est pas l'endroit le plus sûr en termes de deepfakes). Et bien sûr, faites attention à la véracité des informations que vous partagez !!!! #deepfake #prévention #cybersécurité #deepfakeawareness #YGLConsulting
Identifiez-vous pour afficher ou ajouter un commentaire
1 721 abonnés