人,是算法的尺度
文 | 佘宗明2021年7月,还没被马斯克强娶的推特,做了一个不算艰难的决定——推出算法偏见赏金。大意就是:求求你,找我茬。这记悬赏找茬的操作,被视作开启了算法伦理治理的众包模式。推特为什么这么想不开?因为算法有不足
文 | 佘宗明
2021年7月,还没被马斯克强娶的推特,做了一个不算艰难的决定——推出算法偏见赏金。大意就是:求求你,找我茬。
这记悬赏找茬的操作,被视作开启了算法伦理治理的众包模式。
推特为什么这么想不开?
因为算法有不足。
纠治算法偏见,是为了优化算法。此举传递出的价值取向,是算法须向善。
用主流话语说就是——
算法,只能“属于人民”。
揆诸现实,算法得向善,已成了社会各方在算法命题上的共识。
对应的要求是,算法不只要有精度和准度,还要有温度。
01
算法=魔法,这是时下挺流行的看法。
由此而来的,就是算法经常成为猎巫对象:很多人会抡起道德皮鞭,抽向算法之躯。
比如,批算法制造信息茧房;比如,批算法编织赛博囚笼;比如,批算法带来大数据“杀熟”……
算法压榨外卖员,自然也在批判射程。
以至于平台经济和数字劳动研究者孙萍感慨:
外卖骑手研究,困在批判性理论里。
这针对的,就是那句蔚为风行的“外卖骑手,困在系统里”——这9个字,铺设了很多人的算法认知底座。
外卖员困在系统里,说得有错吗?
并没有。问题是,系统也困在误解里。
政治经济学视野下的“系统”,说白了就是泰罗制的翻版,是摩登时代流水线的复刻。所以,听到外卖员被困在了系统里,不少人立马联想到资本压榨,再想到挂路灯。
可正如孙萍老师认为的,现在对数字劳动的研究,无论研究的是抖音、快手的直播者,还是B站的Up主、“爱优腾”的内容生产者,抑或是网约车、外卖、快递的平台劳动者,结论不外乎资本压榨劳动者、劳动者非常不稳定、阶层化不平等等单一化论点,这是“理论化路径遇到了困难”。
在她看来,数字劳动研究该引入跨学科视角,而非陷入控制-自主、压制-反抗这样的二元话语。
就外卖系统来说,诉诸道德化评判容易,理解市场化逻辑挺难。
究其主要原因,其实就在于,平台也困在另一个系统里——对外卖平台来说,它们要连接的其实是三方:订餐用户,餐饮商家,送餐外卖员。这三者的利益诉求叠合,会合成“不可能三角”困境:商家希望能多跑单、用户希望尽快取餐、骑手希望有充裕时间送餐。
网民可以“既要又要还要”:既要商家少交佣金、撑过疫情,又要自己少掏配送费、餐早点送到,还要骑手“想慢就慢”。平台却没法全都照顾到,通常是倾向于保障商家与用户利益,牺牲相对弱势的骑手体验。
不能说平台这样就合情合理,但应看到平台抉择背后的现实考量。
系统不是不可以批,但批之前不妨先看懂其生成和运作逻辑。
02
这倒不是说,这套由算法织密的系统就没毛病。
好多人认为,是算法逼得外卖骑手不得不快。
这不是算法要坑骑手,而是算法天然有缺陷。
算法首要追求的是效率,旨在从效率/成本维度寻求最优解,但人们要求的是公平正义、善待弱者。
比起“公平正义”这类复杂伦理概念,“效率”也更容易转化为计算机编码语言。
因此,孙萍老师就指出,算法遵循的是直男逻辑,毕竟“技术本身是带有强烈男性气质的”,现在的算法技术其实没有把社会结构、人际关系、权力关系等等纳入到思考中去。
循此观点,算法底色中理应嵌入更多柔性化色泽,更显人性化、更有人情味。
那该怎么解?算法取中,就是政策层面给出的解题思路。
2021年7月,七部委联合印发文件,首次提出不得将“最严算法”作为考核要求,通过“算法取中”等方式,合理确定订单数量、准时率、在线率等考核要素,适当放宽配送时限。
在此之后,两大外卖平台都采取措施响应了“算法取中”要求。
美团在今年5月份前曾进行三次算法优化:
去年9月,公布了“预估到达时间”算法规则(兼顾“模型预估时间”和“三层保护时间”),明确在异常场景下为骑手提供时间补充,在部分情况下将预估到达时间中的“时间”变为“时间段”;
去年11月,启动了“出餐后调度”试点、推出了“主动改派”功能;
今年3月初,试点新的“服务星级”激励机制,变超时罚款为扣分、明确可加分弥补,给予骑手更多差评豁免与免扣分机会,也完善了差评申诉流程。
饿了么也明确,禁止以最严算法、最低时限为导向,不采用最短配送时效,针对复杂配送场景自动匹配灵活配送时长。
清华大学公共管理学院教授梁正认为,面对算法缺陷及其产生的问题,应将算法嵌入到整个社会体系中评估,分析算法运行所牵涉的各个环节,以体系化的思维为算法向善提供解决方案。
而算法取中,就是颇具针对性的问题解决方案。
在外卖行业陷入比速度的“逐底竞争”,骑手不得不超负荷运转的背景下,用人性化要求补足算法缺陷,确实很有必要。
03
罗尔斯的正义理论主张,没有人应当为他所不能掌控的原因所造成的后果而担负责任。由此延伸,规则设计不能不考虑那些偶然性因素。
之前许多人批评,外卖系统算法总是计算趋于理想状态的最快时间,却忽略了电梯拥挤、雨天堵车、电动车故障或骑手突发疾病等偶然性因素。言下之意,算法要考虑到异常场景问题。
现在看,平台修补算法缺陷、改善算法机制时,也将偶然性因素纳入了考量之中。
比如,疫情之下,很多小区只开一个门,部分订单配送难免要多绕路,许多外卖骑手会担心随之而来的超时问题。但现在美团骑手们可免除后顾之忧了——因为平台最新采取的异常场景下可“单次补时+系统修正”的措施,会让配送时限变得更合理。
又如,不少骑手都曾遭遇电动车在半路上没电或跌倒摔伤,暂时没法配送却又不送不行的棘手难题。而按照美团外卖5月10日宣布的举措,他们完全可通过改派、转单、自行设置“同时接单量”等方式,管理自己的接单节奏。
就算只是累了倦了,骑手们也可以想歇就歇:在接单前,他们可自行设置接单上限;在接单中,他们可自主决定是否接这单。
诸如此类的算法优化举措,显然赋予了外卖骑手更大的自主权,或者说是把自主权还给骑手。
如果说,以往完全被系统裹挟的骑手,是陷入了社会学家乌尔里希·贝克所说的风险社会里的“体制化个人主义”——他们看似越来越自由了,可仍会被各种关系和边界拴住,那给他们接还是不接的自主选择权,无异于继续松绑。他们有更多的喘息空间了。
这本质上是用另一种“算法”去解算法之弊。它让人的权利归于人,彰显的是人文关怀和人本情怀。
此处的算法,已超越了数学或计算机学的范畴,无关公式和代码,而是泛指的问题解决策略,正如有些人说的,“生活中你的一举一动一呼一吸都是算法。”在此意义上,监管是一种算法,平台决策也是一种算法。
以人为“算法”的立足点,无疑有助于让骑手们能更自主地跳出所谓的系统。
复旦大学管理学教授苏勇在谈到灵活用工时说,无论是企业的管理方、从业者,还是社会各界,都应该思考一个问题:如何在算法之外,找到以人为本的管理办法,让人的智慧和关怀在相关问题或挑战的应对过程中,发挥更大的作用。
嵌入了人本位逻辑的“算法”,就给出了答案。
04
算法之弊“算法”解。
外卖平台的“算法”优化,对算法的价值观校准不乏参照意义。
就在前几天,英国DRCF(官方性数字监管合作论坛)发布《算法的利弊》专题报告,其中提到两点:
算法为个人和社会提供了许多好处,并且这些好处可以随着持续创新而增加。
伤害可能会有意或无意地发生。
因为算法有缺陷就否定算法当然不妥。
因为算法有价值就认为有问题也不要紧,同样不合适。
科学家凯西·奥尼尔广为流传的“算法霸权”理论就认为,就将那些依托大数据却会引发偏见强化和持续大范围伤害的算法模型,称之为“数学杀伤性武器”。
虽然“算法霸权”的说法引发了许多争议,但算法确实带来了某些问题。
比如,会用于控制、会诱导沉迷、会助长大数据杀熟、会制造信息回音室等。
无论是国外某科技巨头用“AI监工”精确计算工人摸鱼时间(Time Off Task)、根据实时数据生成在线解雇指令,还是国内某企业监测通报员工摸鱼,都反映了算法被滥用的弊害。
要解决这些问题,就得将算法导入向善的轨道上。
换句话说,算法姓“算”,更要姓“善”。
遵循价值对齐的科技伦理,让算法更有温度,是应有之义。
05
让算法更有温度的外延是:算法的背后是人,人应该是丈量算法的尺度。
2016年11月,美国麻省理工学院研究员乔伊·布兰维尼就曾针对算法之弊,创办了“算法正义联盟(Algorithmic Justice League)”,来对抗算法偏见。
乔伊断定,要创造更具有包容性的代码,并且运用有包容性的编程实践,就要从人开始。
而“算法霸权”提出者凯西·奥尼尔,也就算法向善提出了两点建议:
必须承认算法不是全能的,必须明确地将正向的价值观嵌入算法代码中,创造符合道德准则的大数据模型,即使是牺牲利润。
进行算法审查。在某个算法模型投入使用之前就进行训练,借助反馈通路发现偏见,进行纠偏处理,以达到正向的效果。
它着眼的,就是用打补丁式“算法”,去弥补算法缺陷、引导算法向善。
而外卖平台把接单权利交给个人,就是打补丁消除Bug。
今年3月1日正式实施的首部聚焦算法治理的法规——《互联网信息服务算法推荐管理规定》,更是有的放矢。
确保用户有可以关闭算法的选项,就跟确保外卖骑手可以想不接单就不接单如出一辙。
而对算法黑箱、舆论操控、大数据杀熟“亮红牌”,也传递了明晰的信号:算法属于“人民”。
06
算法不是无情物。算法的“法”,也是章法的“法”。而算法的N多个章法里,最重要的,还是要把人当做算法的尺度。
算法必须“利人”而不能“损人”。
算法有弊端,那就用更高阶的“算法”来消解——这套“算法”的核心就是以人为本。
算法编织的系统,动辄把人当成工具。
而以人为本的“算法”,则重申了那个常识:人是目的,要把人当人。
原文标题 : 人,是算法的尺度