能生成任何人裸照的性犯罪,從韓國開始泛濫
打開文本圖片集
進入“電報”(以保密性著稱的即時通信軟件)聊天房,上傳一張臉部照片,不到5秒鐘,采用了深度偽造技術(Deepfake)的機器人(bot)就能合成一張真假難辨的照片——就當前而言,深度偽造技術已經可以把不同人的聲音、面部及身體像拼圖一樣隨意拼接,制作成各種影像乃至視頻。
2024年8月,大量利用深度偽造制作色情合成物的“電報”聊天群在韓國的社交媒體上曝光,受害者遍布韓國全國,涉及明星、軍人、老師、護士、學生等不同群體,多為女性。(剩余5467字)