AI之战一旦爆发,将碾压核竞赛

资讯 5年前
1.29K

本周,斯坦福伦理与社会中心、斯坦福人类中心人工智能研究所以及斯坦福人类中心联合举办了一次活动,邀请到人工智能领域的先驱李飞飞和畅销书《人类简史》、《未来简史》作者尤瓦尔·赫拉利(Yuval Noah Harari)。

我们不仅面临着一场技术危机,同时还有哲学危机

Yuval:在我看来,现代社会的哲学框架仍然来源于17世纪和18世纪,人类能动性、个人自由意志等理念正在受到前所未有的挑战,这种挑战并非来源于其他哲学理念,而是来源于现代科学技术。越来越多原本属于哲学领域的问题,正在转变成工程类问题。这非常可怕,因为工程师不像哲学家那么耐心,哲学家们可以为一个问题讨论个几千年,如果没有找到满意的答案,那么他们就不会停歇,工程师们则争分夺秒。

这也就是说,我们已经没有太多的时间。为了简单概括一下我们面临的危机,我可以列出这么一个等式:B×C×D=HH。其中B代表的是生物学知识,C代表的是计算机的能力,D代表数据,HH代表的是“hack human”。

而人工智能的革命并不只是涉足人工智能领域,这也和生物学有关,这是一种生物科技。人们更多的只是看到计算机和人工智能,这只看到了这个技术的一半,它的另一半则与脑科学、生物学方面的知识有关系。一旦你将其与人工智能联系上,那么你将获得hack human的能力。这里允许我解释一下hack human是什么意思,其字面意思是“黑入人类”,它指的是创建一种算法,能比你自己更了解你自己,因此它能够操纵你,完善你,甚至取代你。这正是我们哲学上的信仰,也就是人类的能动性和自由意志,具体表现为“用户就是上帝”、“投票者最了解自己”等等,而一旦我们具备了这种能力,这种信仰就会四分五裂。

这种能力就一定是被用来操纵或取缔人类的?它就不能用于完善人类吗?

Yuval:它当然可以用来提高人类的能力。但问题是,谁来断定,这种强化到底是往好的方向还是往坏的方向?所以我们首先需要确定的是,我们必须回归到最传统的人类理念,“用户永远是对的”,“用户会自行决定自己的强化方向”。或者说“投票者永远是对的”,他们自己会决定政治上的决策。如果这种强化方向感觉不错,那么就继续做,我们只需要根据自己的想法去做事就好了。但如果人类被大规模地“被黑”,那么这种情况将不复存在。你甚至不敢相信自己的感觉和投票权。那些信奉自由意志的人反而最容易被操控,因为他们不认为自己会被操控。所以说我们应该如何决策自己的改进方向,这是一个非常有深度的道德和哲学方面的问题——到底什么是“好”的。我们应该强化自己身上的哪些方面。如果用户不可信,投票不可信,自己的感觉也不可信,那我们该何去何从?

Yuval的公式是否成立?Yuval给我们指引的方向是否正确?

李飞飞:我非常羡慕哲学家,因为他们只需要提出问题,却不一定要回答问题。作为一个科学家及工程师,我觉得我们现在有必要解决这个危机。

为什么在20年后人工智能会演化成一场危机?

这是一项革命性的技术,它还处于萌芽阶段,相比物理学、化学、生物学,它还很不成熟。但在数据和计算机的支撑下,人工智能的确在改变人们的生活,影响深刻且广泛。为了回答这些问题,以及应对人类的危机,我们能否改变教育、研究以及与利用人工智能的方式,让它变得“以人为本”?当然我们不急着今天就找到答案,但我们可以逐渐改变人类学家、哲学家、历史学家、政治科学家、经济学家等各行各业的人来研究和推动人工智能进入新的篇章。

人们认为AI会带来很多危机,例如失业、歧视,甚至担心AI会出现自己的意识,这意味着什么?

李飞飞:任何人类创造的技术最初都是一把双刃剑。它能改善生活、工作,造福社会,但同时也会有不利的一面,人工智能也不例外。每天醒来我都要担心各种问题,包括用户的隐私、公正性,以及对劳动力市场的影响。我们必须考虑这些问题,但也正因为如此,我们要继续研究,人工智能的开发策略和互动方式也不应该局限于代码和产品,还应该考虑到人类的生存空间以及社会问题。因此我绝对同意开放对话,并针对这些问题进行研究。

Yuval:我一部分的忧虑正是源于对话。人工智能专家和哲学家、历史学家、文学评论家对话,都可以。我最害怕的是他们与生物学家交流。当他们产生共同语言,才真正有可能入侵人类的思想。人工智能将不仅仅是搜集我们的搜索关键字、购买习惯和出行信息,它还会更深入一步,直接搜集我们内心所想的数据。

AI的诞生,正是源于人工智能科学家与神经科学家的对话。AI给医疗保健行业带来了巨大的改善。机器学习帮助收集了大量的生理学和病理学数据。

Yuval:这只是其中的一部分。一门科学技术如果没有任何收益,那么它就不会有任何危险,因为就没有人去研究它。我认为AI会带来巨大的利益,尤其是当它和生物学结合在一起的时候。目前全世界的医疗水平已经达到了历史以来的新高,数十亿人只需要点一点手机就能获得便宜、可靠的服务。这也是我们无法抗拒它的原因。尽管有人认为这会引发隐私方面的问题,但在隐私和健康比起来,显然后者更重要。但我必须指出它带来的危险。特别是硅谷地区的人,已经习惯了AI带来的好处,但他们很少考虑它的危害。

如果这种事情真的发生,那么我们生活中的所有决策都将源于算法。这将产生两种形式的反乌托邦。我们所有的决策都将是由算法帮我们决定的。这不仅包括早晨吃什么、去哪里购物,还包括去哪里工作和学习、和谁约会、和谁结婚、投票给谁等。我想知道的是,人类思想中是否有什么东西是无法被机器入侵的,这种技术将来作出的决策是否会优于人类。这是其中一种反乌托邦。还有则是,基于一个能监控一切的系统,我们将产生一种高度集权的政体,这类似于上个世纪出现过的集权政体,但借助生物传感器,它能全天候地监控到每一个人。

李飞飞:当你问我这个问题时,我脑海里蹦出来的第一个词是“爱”。你觉得爱也会被机器取代吗?

Yuval:这个问题得看你指的是哪一种爱。如果你指的是希腊哲学中的爱或者佛教中的爱,那么这个问题会更加复杂。如果你指的是生物学意义上的,与哺乳动物之间求偶有关的,那么我的回答是“yes”。

人类之所以是人类,那是因为我们不止会求偶,对吗?这部分也会被机器取代吗?

Yuval:我认为你在大多数科幻小说中看到过答案。当来自外星的邪恶机器人入侵地球时,人类节节败退,但最后关头人类绝地反击,反败为胜,因为机器不懂什么是爱。

李飞飞:科幻小说中通常是一个白种人拯救人类。Yuval所说的两种反乌托邦,我找不到答案。但我要强调的是,正是因此,我们现在就要寻找解决方案,现在就要寻找人类学家、社会科学家、商业巨头、公共社会和国家政府进行会谈,联手谱写人工智能的新篇章。我认为你的确引发了人们对这场潜在危机的关注。但我觉得,除了面对它,更重要的是采取行动。

Yuval:我也觉得我们应该让工程师与哲学家、历史学家进行更加密切的合作。从哲学的角度看,我认为工程师身上也存在一些很优秀的东西。工程师们少说多做。哲学家们总喜欢弄一堆稀奇古怪的比喻。所以如果工程师问哲学家“你到底想表达什么?”那么这些理论大多都站不住脚,因为他们很少能解释这些理论——我们需要的就是这种合作。

如果我们都不能解释爱,不能用代码来表达爱,那么AI可以感受它吗?

Yuval:我不认为机器能感受到爱,但如果只是为了监控、预测和操纵这种感受,那么机器也没必要感受到它。正如机器不可能喜欢玩游戏,但它就是具备这种功能。

李飞飞:个人而言,我们这段对话存在两个非常重要的前提。

第一,人工智能已经达到了一个全知全能的地步,它具备了感知能力,甚至爱的能力。但我要强调的是,这和目前的人工智能存在非常遥远的差距,这种技术还很不成熟,目前媒体对它的炒作居多,具体实施还需要很多年的努力。

第二,我们所处的这个世界将存在一个非常强大的人工智能,或者这个技术只属于少部分人,然后他们企图用它来统治全人类。但实际上,人类社会非常复杂,人类数量非常多。在历史上,我们已经见过很多科技落入少数恶棍手中,在缺少监管、协作、法律法规和道德准则的约束下,这些技术的确给人们社会带来了巨大的伤害。

但总体上看,我们的社会在朝着更好的方向发展,人们也更倾向于对话解决问题。所以我们不仅要谈论人工智能成为“人类终结者”的问题,也要谈论一些眼下更紧急的问题:多样化、隐私、劳动力、法律调整和国际政治等。

© 版权声明

相关文章