当AI开始保护她

资讯 5年前
1.11K
当AI开始保护她

AI与女性之间的关系,似乎一直不太好。

提到AI,我们看到的往往是“AI筛选简历带有性别歧视,更偏向于男性员工”“AI取代秘书、翻译和速记正在让女性失业”“一切AI助理都是女性配音加重男权主义”……

AI作为人类智慧与经验的高度结晶,同样也继承了人类社会文化中糟粕的部分,并且会毫无遮掩展示出来。

但今天我们要讲的这个故事,是关于AI如何保护女性远离网络暴力。

女记者、女政治家和女权活动家的共同罪过

你遭受过网络暴力吗?

对于大多数人来说,网络暴力离我们很远。但即使在某一次莫名为微博喷子骚扰时,男性和女性也一定会有不同的体验。对于男性来说,遭到的辱骂通常是“傻X”一类的常规词汇,或者是对家人的“问候”。而对于女性来说,往往会遭受到对自己身材、外貌的攻击,以及性方面的骚扰。

在大赦国际的调查中发现,这种情况非常普遍,并且在Twitter这样的公共话语空间中已经上升到了危害女性人权的程度。

今年以来,大赦国际陆续推出了长达八章的调查报告,讲述普通女性、女记者、女政治家是如何因为自己的女性身份而在Twitter中饱受喷子们的侮辱的。而篇调查报告的名称就是《Toxic Twitter》——有毒的推特。

我们可以摘几组调查报告中出现的数据:

“2017年全年,有110万条辱骂性的推文被发给了778名女记者和政治家。”

“在发送给女性的推文中,有7.1%都涉及到攻击和辱骂。”

“在辱骂女性的推文中,提及黑人女性推文的比率比白人女性高84%。”

而那些辱骂女性推文的大概内容又是什么呢?

有这样的:

还有这样的:

如图所示,一切的辱骂和威胁,总与性有关,时时刻刻强调着女性身份的弱势之处。

在调查时,女政治家和记者也表示,因为性别而遭受到的攻击,是她们职业路上非常重要的困难和障碍。当男性遭到攻击时,被攻击的是他的行为和他的工作成果。可当女性遭受到攻击时,喷子们总会瞄准她们的性别。

仿佛生而为女人,应当抱歉。

算法除了推动流量涌动,还推动了什么?

而这一切中有Twitter哪些责任呢?

从基本上而言,Twitter没有足够强大的敏感词审核和过滤机制,不能从源头控制这些辱骂性的语言。

最主要的是,Twitter算法的向智能推荐方向调整后,原本相对封闭的关注体系变得更加开放了。在过去那些女政治家、女记者和普通女性的账号以及推文内容只会显示在关注者的Timeline上。但信息流变得更加开放后,更大的流量同样也带来了黑子和极端性别主义者——同样这些辱骂女性的推文虽然来自普通人,但在全新的算法机制下,即使他们没有什么关注者,也会获得不少曝光。一方面加重了语言伤害的能量,另一方面也让那些黑子可以更方便地找到彼此,形成组织对女性进行攻击。

大赦国际也表示,他们已经数次向Twitter反映了这些问题,却一直没有得到满意的答复。

其实在这件事上,Twitter显得有些无辜。毕竟算法调整增强了各个圈层的互相了解,本意上是好的。我们也知道,通过人工智能识别出侮辱性词汇,尤其是针对性别的侮辱性词汇并不是那么容易。就像“if she was raped,would she keep her mouth shut?”(如果强奸了她,她能够闭上嘴吗?)这句话从词汇上看来并没有什么不对,但是联合语境看来却是在用非常暴力的性犯罪来威胁女性停止发声。

但算法造成问题,还要算法来解决。

© 版权声明

相关文章