在科技之中,藏有性别课题!Deepfake,中文译作“深假”或“深伪”。当你的脸被换到成人影片中并做出性感动作时,没有法律制度可以依靠的我们,要怎么证明那不是自己?又或者阻止那些色情影像再度流传下去?

2021 年 5 月,一篇来自《镜周刊》的报导〈脸被偷走之后:无法可管的数位性暴力?台湾 Deepfake 事件独家调查〉,揭发台湾非法 Deepfake 性爱影片交易群组的运作。

此事引起警政单位注意,自 5 月以来持续追查,最终寻得幕后主嫌,正是前 YouTuber 小玉(朱玉宸),消息释出后,震惊大众,使更多人开始关注和讨论这件事,总统蔡英文也表示将重新盘点法规,研拟推动相关修法。

回顾一下:【性别观察】从偷拍外流到 Deepfake:用不道德的方式意淫我,真的爽吗?

Deepfake 译作“深假”,是利用 AI 技术打造拟真影片的科技。透过照片让机器进行深度学习,制作出的影片细腻及细致程度,足以让人们误以为那是真的。意思是,当 Deepfake 技术被滥用,你可能会发现自己的脸被换到某支成人影片里,以你的模样做出特定行为、动作,甚至连表情也唯妙唯肖。

当法律制度跟不上科技进程,Deepfake 以假乱真,让有心人士有机可乘,原先假讯息(Disinformation)就已纷飞的资讯网络,变得更加混乱,人们无法确知何谓真、何谓假。被移花接木的受害者们,有苦说不出,无法证明影片中的人不是自己——或应该说,为什么无辜的受害者们,要拚命去辟谣与澄清一件自己从未做过的事?


图片|Photo by Joanne Adela Low on Pexels

既然人人都可能受害,为什么 Deepfake 是性别议题?

承上所述,Deepfake 扩大且加深了假讯息的问题,更糟的是,影像往往比文字更能够说服人。从此以后,眼见不一定为凭,即使有影片、有图片,我们也难辨真伪。

Deepfake 能拿来进行抹黑,成为操弄政治风向的方式,例如:2021 美国总统大选前,总统候选人川普和拜登的 Deepfake 影片四窜;甚至连 TIkTok 官网都不得不发表声明,阐明禁止事项,以免影响选情。

这样听起来,Deepfake 的假讯息与造谣,所带来的负面影响将会触及所有人,似不局限于特定国籍、种族、年龄与性别,为什么我们在讨论这件事时,不应该遗漏以性别为出发点的观点呢?

原因很简单。尽管 Deepfake 技术本身,不针对特定性别,但科技终究使用于人类,人类世界如何运作,在有了新科技和新技术后,依然会不断再制及重演,仅是从线下转移到线上的手段区别。

举一个与性/别暴力无关的实例:2018 年,Amazon 研发一款审阅求职者的 AI 系统,然因过去十年的资料库隐含性别歧视,导致 AI 在评分与筛选时,让女性求职者落入莫名低分的窘境。

科技之中,藏有性别课题,只不过我们以为它既中立又客观。

线上的数位性/别暴力,亦是从线下的性/别暴力演变、延伸及发展而来的。

延伸阅读:性别观察|解析数位性暴力:有人把我 P 成裸体,我如何证明那身体不是我?

数位性/别暴力:当荡妇羞辱遇上 Deepfake

此次 Deepfake 事件,揭示科技发展下的相应法律制度,尚未完善;但法律制度本身,并不是导致它发生的原因。真正的问题是,至今仍有人认为,可以使用 Deepfake 合成等等方式,恣意意淫、嘲弄及使用女性身体(无论是不是实体上的),去服务、去满足他们的欲望,而不需要取得本人的同意。

作为生活在父权体制下的女生,尽管我读过一些女性主义的书、试图实践于日常中,我依然发现,自己必须与“身体”及“性”,保持非常微妙而矛盾的关系。

女性的成长过程,经常是这样的:一方面,你的身体及性,经常被凝视、被欲望、被评价,彷佛谁都可以对你的外型、样貌、身材乃至于行为举止,处处品头论足,秤斤挑两,给予价值高低的品判;另一方面,当你在运用身体或从事与性有关的行为、行动时,一套隐形的规训会严格盯住你,让你难以认同自己的身体,也无法自在地享受性。

我发现,包括自己在内的许多女性,对“性的界线”,时常如履薄冰;也无法自己去定义究竟“越界”与否。社会试图控制“女人的性”,早已行之有年,女人的自主性(Autonomy)一向不被重视,无论是性自主、身体自主、生育自主,一旦女人不遵从,便可能受到程度不一的惩罚。

当一个女人“过度”裸露、展示、摆弄自己的身体、“过度”喜欢、享受、沉浸性事,那么她很容易被贴上“浪女”、“妓女”、“坏女人”的标签,然后被贬低与轻贱,这就是典型的“荡妇羞辱(Slut-Shaming)”。

那么,女人们不做这些事,就可以全身而退吗?

很遗憾地,答案是错。诸如 Deepfake、未经当事人同意散布私密影像(Nonconsensual Pornography)这类的数位性/别暴力,建立于长期以来父权社会对“女人的性”的强烈控制欲。既存的荡妇羞辱,加上 Deepfake 技术,相互加成,导致更严重的问题。


图片|Photo by elifskies on Pexels

你会喜欢:【性别观察】当“玩笑”包藏“性羞辱”,如果你在场,能如何应对?

如果有一天,受伤的是你⋯⋯

我们看到,这次 Deepfake 的轩然大波,以女性受害者为大宗(当然也不乏男性受害者),凸显及提醒了数位性/别暴力的存在。

每一桩性别时事、每一个性别课题、每一道性别观点,都让我们距离真正的平权更近一些。性别平权,不是你死我活的争夺战,也不是比谁厉害的资格赛,而是任何人都不必因为自己的生理性别、社会性别、性倾向,而感受到“身为某某某”的原罪。

二战时期的社运者 Simone Weil 曾说:“没看见窗玻璃的人,不知道自己没看见;而那些因为被放在不同位子上而看见窗玻璃的人,却不知道别人没看见它。”

她要表达的意思是:当我们身处于某一个位置或角色时,可能无法接触、了解到其他人正在面临的处境。因此,想要同理,就得展开对话与交流,也必须打开视野,让暗潮能够翻腾涌现,认识与自己原先认知不同的事物。

如果你是 Deepfake 受害者,你可以依循卫生福利部建议

  1. 截图存证(文字、对话、日期时间、连结、影像等等)
  2. 立刻报警寻求警方协助
  3. 至 iWIN 申诉,由 iWIN 与平台沟通,协助移除影像

如果你知道有 Deepfake 影片或非法群组,除了上述的卫福部建议外,切记“不点阅”、“不转传”、“不评论”,避免对当事人造成二度伤害。如果你想要为打击数位/性别暴力尽一份心力,你可以关注相关倡议及行动,例如:社团法人台湾数位女力联盟(WIDI,Women in Digital Initiative);你也可以在阅读到相关报导文章时,将讯息分享出去,让更多人知道。

如果你对这个议题有感,想瞭解更多,请锁定女人迷 Instagram hashtag #全球多元共融时事快报 。关注并分享给你所在的社群,让意识扩散,你能创造改变、影响他人,让社会一起更好。

世界持续改变,性别持续流动,社会持续推演。在发展科技、提升技术之际,期许我们亦能共同面对、思辨与解决问题。共勉之。