La fraude à l'IA

La fraude à l'IA

Toute technologie est une arme à double tranchant. Elle peut non seulement promouvoir le progrès social, mais aussi révéler le mal caché dans la nature humaine. Toute technologie doit être développée dans un cadre contrôlable et supervisé. Aujourd’hui, nous sommes submergés par la vague de l’IA faible. Si nous voulons mieux y faire face, nous devons d’abord la comprendre et la connaître, puis compter sur le pouvoir de l’ensemble de la société pour affronter son côté obscur.

 

Vous avez dix entreprises au monde qui possède les meilleurs logiciels, technologies, le reste poubelle aucune en France

Utiliser la technologie d’IA pour commettre une fraude est-il une nouvelle astuce seulement cette année ?

 

La première est la synthèse vocale de l'IA. Les escrocs lancent des appels aux victimes, extraient la voix de la victime, puis synthétisent le matériel sonore pour plus tard pour frauder.

Le deuxième type est le changement de visage par l'IA. L'escroc générera d'abord un faux visage sur la base des photos ou des informations vidéo publiées par la victime sur les plateformes sociales, puis utilisera le changement de visage par l'IA pour escroquer la victime lors d'un appel vidéo.

Le troisième type est le filtrage des victimes par l'IA. Les fraudeurs utilisent la technologie de l'IA pour filtrer les groupes cibles en fonction de la tromperie qu'ils souhaitent mettre en œuvre et produire des scripts de fraude personnalisés dans un court laps de temps pour mener à bien une fraude précise. Par exemple, les escrocs qui se livrent à une fraude émotionnelle élimineront les personnes qui publient souvent des informations émotionnelles, et les escrocs qui se livrent à une fraude financière élimineront les personnes qui recherchent souvent des informations sur les investissements et la gestion financière.

 

La fraude actuelle à l'IA peut non seulement générer des portraits plus réalistes, mais peut même générer des scènes plus réalistes.

La technologie la plus récente ne nécessite que quelques secondes d'empreinte vocale pour la synthétiser. Les escrocs peuvent réussir à voler des informations pertinentes en passant des appels téléphoniques, même s'ils raccrochent après seulement quelques mots.

Les technologies de changement de visage et de voix d'IA nécessitent du matériel et de la formation. D'où viennent ces matériaux ?

 

En termes de génération de fausses vidéos, il existe actuellement de nombreux algorithmes open source. Surtout lorsque les escrocs passent des appels vidéo, ils n'ont pas besoin de pixels trop clairs ni d'une lumière trop vive. "Quelques images + algorithmes d'IA open source" peuvent déjà faire un " appel vidéo capable". "En regardant" des vidéos de fraude à l'IA, le seuil est relativement bas.

La technologie est utilisée pour inciter les victimes à leur faire confiance, les obligeant à abandonner leur dernière ligne de défense et à transférer docilement leur argent. Il est vraiment impossible de les empêcher.

Ne pensez jamais que vous ne serez pas trompé un jour, mais le scénario qui vous convient n'ait pas encore été écrit.

 

Il y a aussi des gens qui ne prêtent pas attention à la sensibilisation à la lutte contre la fraude et qui se laissent facilement tromper. Lorsque vous n’avez pas été trompés, vous penserez que ces choses sont loin de vous, mais vous ne savez pas que la prochaine arnaque pourrait vous cibler.

 

Quelles précautions les gens ordinaires doivent-ils prendre face à la fraude à l’IA ?

Nous devons également protéger nos informations personnelles et ne pas répondre aisément aux appels d'inconnus (« il excite un programme qui fait le tri), cliquer sur des liens de SMS ou télécharger des applications de sources inconnues. De plus, nous devons résister à la tentation et nous méfier de « l'attention inutile » des étrangers.

Je le récris ; nous devons être prudents dans l'utilisation de tous les logiciels qui vous permettent de prendre des selfies et d'enregistrer des enregistrements. Nous devons aussi être prudents dans l'utilisation de tous les logiciels qui peuvent accéder à votre appareil photo, votre microphone et même à vos albums photos.

Faire plusieurs vérifications lors des transferts d'argent et des envois de fonds, et de ne pas croire les conditions d'urgence ou préférentielles mentionnées par l'autre partie

 

Il existe également une situation à laquelle quelqu'un utilise l'IA pour changer de visage afin de « créer des rumeurs négatives sur les autres. » Face à cette situation, nous devons rester calmes, recueillir autant de preuves pertinentes que possible et signaler l'affaire dès que possible.

  

Une méthode consiste à ajouter des filigranes. Lorsque chaque logiciel génère de fausses images/vidéos IA, il sera marqué d'un filigrane directement lié au logiciel. Cela peut aider à retracer la source de la génération vidéo de fraude IA plus tard, et quand La police va recueillir des preuves. À ce moment-là, tant qu'il obtient la vidéo, il peut en extraire le filigrane et obtenir des informations liées aux usurpateurs, ce qui réduit indirectement le risque d'être trompé.

 

La recherche sur la technologie des contre-mesures d’IA devrait être renforcée et « utiliser l’IA pour contrôler l’IA ».

Changer les perceptions du public grâce à une éducation continue, faire savoir aux gens que voir n'est pas nécessairement croire et que les images ne sont pas nécessairement la vérité, et améliorer leur capacité à discerner les informations en ligne.

 les gouvernants utilisent l’IA pour nous XXXXXX

Identifiez-vous pour afficher ou ajouter un commentaire

Autres pages consultées

Explorer les sujets