生成AIで「ビキニにして」 “カジュアル化”するフェイクポルノに専門家警鐘 卒アルから画像生成、皇族の被害も…
世界最大のSNSであるXのAI機能「Grok(グロック)」を巡り、投稿した人物画像を他者から性的に加工される性的ディープフェイクの被害が相次いでいる。国内では昨年末からトラブルの報告が急増。インフルエンサーや芸能人から、一部皇族にまで被害が及ぶ事態となっている。また、著名人でなくとも、卒業アルバムなどの写真から性的フェイク画像を生成され、いじめや脅迫、実際の性犯罪に発展する被害も……。急速に発展する生成AIに対し、どう向き合うべきなのか。専門家に話を聞いた。