在企业中推动文明AI的六个建议

资讯 5年前
1.81K

由于“文明人工智能”尘嚣甚上,顾问们建议人们采取各种步骤,以创建公平和公正的算法。这暗地里说明世上没有什么灵丹妙药。

人工智能(AI)可能是数字时代最具颠覆性的技术,因为企业正在研究如何利用机器学习(ML)和其它人工智能工具来挖掘客户洞察,发现人才和保护企业网络。虽然IT部门可以快速推出大量技术并从中受益,但有证据表明,首席信息官在实施人工智能时应该格外小心,包括采用涉及到浓厚道德因素的技术。

为什么呢?因为人工智能颇受偏见问题的困扰。有这样一个例子,亚马逊废弃了一个招聘工具,因为它未能对从事软件开发工作和其它岗位的女性做出公正的评价。还有一个例子,麻省理工学院和多伦多大学的研究人员发现,亚马逊的面部识别软件将女性(尤其是皮肤黝黑的女性)误认为男性。

人工智能中存在很多偏见

亚马逊并不是唯一的例子,因为人工智能问题已经出现在其它公司和其它高风险领域。脸书的程序经理在测试公司的Portal视频聊天设备时遇到了算法歧视。ProPublica表明,美国各地用来预测未来罪犯的软件对非洲裔美国人存在偏见。加州大学伯克利分校对金融科技所做的研究发现,拉丁美洲和/或非洲裔美国人在使用了面对面决策和算法的抵押贷款中要支付更高的利息。

同样值得关注的是与边缘情况有关的歧视,这种偏见十分隐秘。在“替代性歧视”中,邮政编码可能会成为种族的替代品;词语的选择则可能成为性别的替代品;如果你加入一个讨论基因突变的脸书小组,那么你的健康保险成本很可能会增加,即便这样的信号尚未明确编入算法中。

很明显,人工智能受到能对物理世界产生影响的数字化偏见的困扰。毕竟,算法是“人类设计的产物”,它继承了人类的偏见,纽约大学AI Now研究所的联合创始人Kate Crawford这样说道。IEEE Spectrum称,这种偏见可以持续数十年。

因此,IT领导者越来越关注“可解释的”人工智能。他们渴望得到能明确表达结果的算法,这些算法在理想情况下能满足监管机构和企业高管的需求。但由于存在固有的偏见,也许他们真正需要的是“文明人工智能”,或者完全不偏不倚地运作的算法。

使用伦理学消除人工智能偏见:六个建议

随着首席信息官加快对人工智能的采用,采取小心谨慎的方法至关重要。Gartner于2019年对3,000名首席信息官所做的调查显示,采用人工智能的企业数量从4年前的10%上升至37%。短期内,公司应该尝试基于其对人工智能的使用制定道德规范。德勤、简柏特(Genpact)和峡湾(Fjord)的专家讨论了企业应该如何合理地推进人工智能的部署。

董事会和利益相关者都参与进来

由于与人工智能相关的道德问题可能对公司的声誉、财务和战略带来巨大且长期的风险,因此首席信息官应与董事会合作,以减轻与人工智能相关的风险,德勤美国的创新团队的董事总经理David Schatsky如是说。如果要将道德规范融入人工智能,首先要确定这对利益相关者(包括客户、员工、监管机构和公众)有何重大意义。Schatsky说:“组织必须参与其中并公开利益相关者的身份。”

成立“数字伦理”小组委员会

董事会已经有审计委员会,风险委员会和技术委员会,但现在也许该增加一个致力于人工智能事务的委员会,为企业设计和实施各种技术的简柏特的首席数字官Sanjay Srivastava如是说。这样一个“数字伦理”委员会必须由跨职能领导者组成,因为他们可以与利益相关者合作,从而帮忙设计和管理人工智能解决方案。该委员会还必须熟悉与人工智能相关的法规。在接受简柏特调研的公司中,95%表示,它们希望为消除人工智能偏见而努力,但只有34%采取了治理和控制措施。Srivastava说:“我们建议客户尽快行动。他们虽然有这样的意识,也明白其中的道理,但他们没有实施治理和控制。”

© 版权声明

相关文章