有关AI与教育,联合国教科文组织发布首份全球指南
AI领域的竞争趋于白热化,单纯的技术比拼已经很难显示出一家公司的实力了,如何快速实现场景落地,才是接下来该开启的新赛道。教育领域,应该是和AI技术最为契合的行业领域之一了。但是如果放任各方AI势力入驻教育领域,必定会出现一系列扰乱教育公平,甚至是威胁教育安全的问题
AI领域的竞争趋于白热化,单纯的技术比拼已经很难显示出一家公司的实力了,如何快速实现场景落地,才是接下来该开启的新赛道。
教育领域,应该是和AI技术最为契合的行业领域之一了。但是如果放任各方AI势力入驻教育领域,必定会出现一系列扰乱教育公平,甚至是威胁教育安全的问题。该如何让AI更好地与教育相结合,成为教育界必须要面对的难题。
全球首个“AI与教育”应用指南
近日,联合国教科文组织(人工智能伦理问题建议书》以及2019年国际人工智能与教育大会达成的《北京共识》成果文件,这份最新指南旨在回应今年5月全球教育部长会议提出的关切,并帮助政策制定者和教师最大限度地利用人工智能的潜力,以服务于学习者的根本利益。
生成式AI引争议
教科文组织发布的该应用指南,不仅给生成式AI做出定义,还解释了其运作机制,同时围绕这项技术本身及其对教育的影响阐述了相关争议。
这些争议包括:加剧“数字贫困”,超越国家监管的适应步伐,不经同意使用内容,训练模型缺乏透明度和可解释性,生成内容“污染”互联网,不可靠的产出与现实世界脱节,有损意见的多样性,以及制造更多的虚假信息。
教科文组织特别强调,目前ChatGPT模型是基于在线用户的数据进行训练,而这些数据反映的是全球北方国家的价值观与主导社会规范。因此,生成式AI如何在数字层面加剧数据鸿沟尤其值得思考。
针对这些争议,教科文组织在其指南中重申,在教育中运用人工智能也将遵循一种以人为中心的方法。这种方法倡导人工智能的使用要服务于人类能力的发展,以实现包容、公正和可持续的未来。
同时,实施这种方法必须要以人权原则为指导,并且突出保护人类尊严与文化多样性的需要。而从治理角度来说,以人为中心的方法要求对人工智能进行适当的管制,以确保人能够继续发挥作用,同时确保人工智能运用的透明度与公共问责。
七个步骤,监管AI
基于“以人为中心”的原则方法,教科文组织为各国政府提出了七个关键步骤,用以管制生成式AI,并就其在教育和研究领域符合伦理的运用制定政策框架。
步骤如下:
批准国际或地区通用数据保护条例(GDPR),或在国家层面制定这一条例;
采取/修订并资助关于人工智能的“全政府”战略;
巩固和实施针对人工智能伦理问题的专门监管措施;
调整或执行现有版权法以管制人工智能生成的内容,确保生成内容的准确性;
细化针对生成式AI的监管框架;
为教育和研究领域正确使用生成式AI进行能力建设,对教师进行系统的培训;
思考生成式AI对教育与研究的长期影响,帮助受教育者建立正确的文化和社会价值观。
此外,教科文组织还特别提出,要设定使用生成式AI适当的使用年龄,使用生成式AI学生的年龄最好不要低于13岁。
该指南在联合国教科文组织的总部的“数字学习周”期间发布。该活动汇集了超过1000名参与者,讨论的主题包括公共数字学习平台和教育中的生成式AI等。
演讲者包括:Meta副总裁兼首席人工智能科学家-Yann LeCun,美国加州大学伯克利分校计算机科学教授-Stuart Russel,2018图灵奖获得者-Yoshua Bengio等知名专家、学者。