演算法看似抽象,但早已浸淫在人类社会的每个角落,当无法与演算法脱勾时,如果演算法并不客观、公正,重度仰赖演算法的我们又该如何因应呢?

Facebook 母公司 Meta 近期面临来自欧洲人权组织的四项指控,称其投放招募广告的演算法有性别歧视的嫌疑。讽刺的是在此之前,Meta 就曾因被指控平台上的房地产、信贷广告存在歧视,而支付 500 万美元的费用。

承诺过要消除演算法歧视问题的 Meta,又再次引发争议,不禁令人好奇,该如何在享受演算法好处的同时,避免性别歧视的渗入?


图片|Photo by cottonbro studio on Pexels

Meta 遭指控演算法重制性别刻板印象

为了解 Facebook 演算法是否潜藏性别歧视,国际非营利组织 Global Witness 在 2 月至 4 月时,以不指定受众性别的方式,在法国和荷兰投放了一系列招募广告。

Global Witness 只要求最大限度地增加广告连结的点击数,其他则全交由 Facebook 演算法,来决定最终看到广告的对象。

从 Facebook Ad Manager 平台获得的数据中,Global Witness 发现 Facebook 推荐给不同用户的广告,潜藏大量性别刻板印象。比如说荷兰的 Facebook 用户中,看到教师职缺广告者有 85% 是女性,看到服务生职缺广告则高达 96% 是女性,然而看到机师职缺的女性仅占 4%。

法国的研究结果也有相似的发现——93% 的女性看到教师职缺、86% 的女性看到心理学家职缺,6% 女性看到机师职缺。


图片|Photo by Pixabay on Pexels

有鉴于在欧洲、亚洲等多个国家都可见类似的研究结果,Global Witness 不禁怀疑 Facebook 的演算法偏见已经上升为全球性的问题。

因此为避免此偏见加剧工作场所中的不平等和薪资差距,Global Witness 、Bureau Clara Wichmann 和 Fondation des Femmes 三家非营利组织,群起向人权机构和数据保护机构递交了针对 Meta 演算法涉及性别刻板印象的控诉,若指控属实 Meta 最终可能面临罚款或更改演算法的压力。

猜你想看:「开朗善良的机械技师哈娜姐姐」 韩国导航系统突破 AI 里的性别刻板印象

Meta 推出新兴演算法,就能降低偏见了吗?

国际特赦组织大型科技问责团队负责人 Pat de Brún 也对演算法偏见表示关注,他认为 Facebook 作为公共话语发生的场域,不应该放任演算法再现、放大社会已然存在的不公平。

特别是在低收入户较常使用 Facebook 找工作的情况下,若演算法又存在偏见,那么影响最大的,将会是那些已经处于边缘地位的一群。

Meta 发言人 Ashley Settle 对此表示,广告商在 Meta 上投递就业、房地产和信贷广告时,并不允许选择性别,且此种广告受众轮廓的限制,也已经在美国、加拿大等 40 多个欧洲国家实施。

此外,Ashley Settle 也表示 Meta 将继续与学术界、人权团体等专家合作,研究和解决演算法公平性的最佳解,今年早些时候,Facebook 也推出新的机器学习技术,以此降低投递广告的偏见。

同场加映:AI 会取代人类做决策吗?抛开无意识偏见、拥抱多元共融,巧用 ChatGPT 人类一定要有的能力

看完演算法争议事件,虽然如何在享受演算法的好处,同时避免再制性别刻板印象,此题仍待解,但我们依然可从演算法争议事件中,提醒自己更有意识的注意潜藏在生活中的偏见,而不只是被动的资讯接收者。