當前的科技發展迅速,犯罪手法也不斷翻新!近日有知名youtuber透過Deepfake技術,「移植」網紅、藝人、政治人物的臉,製作成情色影片牟利,不但震驚社會,同時也衍生出更多法律層面的問題。
婦女救援基金會表示,Deepfake指的是透過AI技術將影片、照片中人物換臉處理,也是「數位性暴力」的一種型態。針對Deepfake技術造成眾多被害人被製作成色情影片流傳,目前《刑法》有 妨害名譽罪、散布猥褻物品罪可以使用;被害人也可依《民法》進行求償。但上述法條無法因應新型態的犯罪行為,在案件發生時迅速處理,並祭出完整的法律制裁,也無法給予被害人足夠的保障,更沒辦法產生遏止以及預防的效果。
為此,婦援會以及民團、朝野立委長年來致力於《侵害個人性私密影像防制條例》專法的推動,將包含Deepfake等各種類型的「數位性暴力」納入專法的規範。專法其中一部份強調,案件發生時應盡速協助被害人將性私密影像下架,並扣留證據預防影像再度外流,同時提供專業社工人員、心理諮商補助等服務、保護令,明訂且加重加害人已遂和未遂的罰則,並對網路業者加以規範。
婦援會指出,面對新型態的數位性暴力犯罪行為,不論是修法或是立專法,都要考量現行法律不夠完善的面向,如目前針對未成年被害人有較明確罰則,對成年被害人的保障相對不足。但不論是成年或是未成年的被害人,案件發生後創傷跟後遺症都相當嚴重,為了避免更多犯罪行為以及憾事發生,我們更要加緊腳步,修法刻不容緩。
而除了法律的修訂外,婦援會更期望能將性別和網路教育普及推廣,在科技發展迅速的同時,讓正確的觀念以及數位倫理向下扎根,一同打造友善的性別環境和社會風氣。此外,民眾若遭遇「數位性暴力」時,可撥打婦援會求助專線02-2555-8595,或上婦援會求助網站尋求協助。