知人女性の顔写真を「性的画像」に 韓国でディープフェイク被害拡大
韓国で、SNSに投稿された知人女性や少女らの顔写真などを人工知能(AI)で合成して作られた精巧な性的画像がインターネット上で拡散し、政府が対策の強化に乗り出している。「ディープフェイク」と呼ばれるこれらの偽画像に関する小中高校生の被害の申告は今年1月以降、200件近くに達した。被害者だけでなく投稿者の側も未成年者が多いといい、深刻な社会問題となっている。
問題が注目を集めたきっかけは、8月下旬以降、次々に報じられた韓国メディアの報道だ。匿名性の高い通信アプリのテレグラム上に、性的な偽画像のほか、住所や名前などの個人情報を共有するチャットルームが大量にあり、学校別や地域別に分けられていると報じられた。お金を払えば、送った写真をひわいな画像に加工するチャットルームもあり、問題が発覚した時点で約22万人が登録していた。
教育省によると、1月から8月27日までに、小中高校生から被害の申告が186件あった。教員からも10件の被害の申告があった。同省は緊急の対応チームを設け、被害状況の把握や心のケアなどにあたっている。
「私も潜在的被害者」
デジタル化が進む韓国では…
【初トクキャンペーン】有料記事読み放題!スタンダードコースが今なら2カ月間月額100円!詳しくはこちら
Think Gender
男女格差が主要先進国で最下位の日本。この社会で生きにくさを感じているのは、女性だけではありません。性別に関係なく平等に機会があり、だれもが「ありのままの自分」で生きられる社会をめざして。ジェンダー〈社会的・文化的に作られた性差〉について、一緒に考えませんか。[もっと見る]