第41回女子生徒30人の偽ポルノ、作ったのは同級生 AI使えば数秒で…

有料記事新世AI

[PR]

 AI(人工知能)を使って偽の性的な画像や動画を作る「ディープフェイクポルノ」。身近な人をターゲットにした被害が広がっている。

 米ニュージャージー州の高校では昨年10月、少なくとも女子生徒30人の「裸画像」が学校内で出回っていることが発覚した。

 「こんなことが自分の身に起こるなんて考えもしなかった。どうしたらいいのか分からず、ショックでただ泣いていた」。被害者の一人、フランチェスカ・マニさんは話す。

 作成したのは、同級生の男子生徒だった。SNS上の画像を「服を脱がすAIアプリ」を使って加工し、他の生徒らと共有していたという。

 マニさんが不信感をいだいた…

この記事は有料記事です。残り1810文字有料会員になると続きをお読みいただけます。

※無料期間中に解約した場合、料金はかかりません

  • commentatorHeader
    辛酸なめ子
    (漫画家・コラムニスト)
    2024年12月21日11時30分 投稿
    【視点】

     イギリスの「イメージに基づく性的虐待(Image―Based Sexual Abuse、IBSA)」という概念に驚き、日本は遅れていると感じました。ディープフェイク以前に、性的イメージを共有、拡散するケースが多いように思います。男性向けの

    …続きを読む

連載新世AI(全30回)

この連載の一覧を見る