綜合日媒報導,涉案者為名古屋市立小學前教師水藤翔太(34歲)。他涉嫌將任職學校保管的學童影像傳送給他人,並指示對方使用生成式AI製作出2張女童胸部等部位暴露的性影像,並將其記錄在手機中持有。
然而,嫌犯水藤是另一起多名教師在社群軟體群組中分享偷拍影像的成員之一。他已向警方坦承「請人幫我用AI製作了裸照。」先前他更因向1名15歲少女的背包噴灑體液而被依器物毀損罪嫌起訴,隨後又將個人體液塗抹在學童使用的直笛上,可以說是前科累累。
AI生成色情影像,如何認定為兒少色情物品?
長久以來,深度偽造(Deepfake)影像是否適用於規範「真實存在兒童」受害的《兒少性剝削防制條例》,一直存在法律爭議。然而,愛知縣警方此次能成功定罪的關鍵在於,實質被害人特定: 警方能從AI製作的色情影像中,辨識出受害學童的真實臉部;認定兒少色情物品: 警方認定,即使是AI生成的加工影像,只要能鎖定到真實兒童,即構成《兒少性剝削防制條例》所禁止的兒童色情物品。
如何應對日益猖獗的「性影像深度偽造」犯罪?
此案的起訴,標誌著日本執法單位首次成功依此法條,將利用生成式AI製作色情影像或影片的「性影像深度偽造(Sexual Deepfake)」定罪。
警察廳警告,去年一整年,惡用學校行事曆或畢業紀念冊照片等製作未成年人性影像深度偽造的報案或諮詢案件已超過100件,顯示此類新型態犯罪正迅速增加。
★ 《鏡週刊》關心您:若自身或旁人遭受身體虐待、精神虐待、性侵害、性騷擾,請立刻撥打110報案,再尋求113專線,求助專業社工人員。



