AI(人工知能)を使って偽の性的な画像や動画を作る「ディープフェイクポルノ」。身近な人をターゲットにした被害が広がっている。
米ニュージャージー州の高校では昨年10月、少なくとも女子生徒30人の「裸画像」が学校内で出回っていることが発覚した。
「こんなことが自分の身に起こるなんて考えもしなかった。どうしたらいいのか分からず、ショックでただ泣いていた」。被害者の一人、フランチェスカ・マニさんは話す。
作成したのは、同級生の男子生徒だった。SNS上の画像を「服を脱がすAIアプリ」を使って加工し、他の生徒らと共有していたという。
マニさんが不信感をいだいた…
- 【視点】
イギリスの「イメージに基づく性的虐待(Image―Based Sexual Abuse、IBSA)」という概念に驚き、日本は遅れていると感じました。ディープフェイク以前に、性的イメージを共有、拡散するケースが多いように思います。男性向けの
…続きを読む