有关AI与教育,联合国教科文组织发布首份全球指南

资讯 1年前
699
有关AI与教育,联合国教科文组织发布首份全球指南 有关AI与教育,联合国教科文组织发布首份全球指南 有关AI与教育,联合国教科文组织发布首份全球指南

AI领域的竞争趋于白热化,单纯的技术比拼已经很难显示出一家公司的实力了,如何快速实现场景落地,才是接下来该开启的新赛道。

教育领域,应该是和AI技术最为契合的行业领域之一了。但是如果放任各方AI势力入驻教育领域,必定会出现一系列扰乱教育公平,甚至是威胁教育安全的问题。该如何让AI更好地与教育相结合,成为教育界必须要面对的难题。

全球首个“AI与教育”应用指南

近日,联合国教科文组织(人工智能伦理问题建议书》以及2019年国际人工智能与教育大会达成的《北京共识》成果文件,这份最新指南旨在回应今年5月全球教育部长会议提出的关切,并帮助政策制定者和教师最大限度地利用人工智能的潜力,以服务于学习者的根本利益。

生成式AI引争议

教科文组织发布的该应用指南,不仅给生成式AI做出定义,还解释了其运作机制,同时围绕这项技术本身及其对教育的影响阐述了相关争议。

这些争议包括:加剧“数字贫困”,超越国家监管的适应步伐,不经同意使用内容,训练模型缺乏透明度和可解释性,生成内容“污染”互联网,不可靠的产出与现实世界脱节,有损意见的多样性,以及制造更多的虚假信息。

教科文组织特别强调,目前ChatGPT模型是基于在线用户的数据进行训练,而这些数据反映的是全球北方国家的价值观与主导社会规范。因此,生成式AI如何在数字层面加剧数据鸿沟尤其值得思考。

针对这些争议,教科文组织在其指南中重申,在教育中运用人工智能也将遵循一种以人为中心的方法。这种方法倡导人工智能的使用要服务于人类能力的发展,以实现包容、公正和可持续的未来。

同时,实施这种方法必须要以人权原则为指导,并且突出保护人类尊严与文化多样性的需要。而从治理角度来说,以人为中心的方法要求对人工智能进行适当的管制,以确保人能够继续发挥作用,同时确保人工智能运用的透明度与公共问责。

七个步骤,监管AI

基于“以人为中心”的原则方法,教科文组织为各国政府提出了七个关键步骤,用以管制生成式AI,并就其在教育和研究领域符合伦理的运用制定政策框架。

步骤如下:

  • 批准国际或地区通用数据保护条例(GDPR),或在国家层面制定这一条例;

  • 采取/修订并资助关于人工智能的“全政府”战略;

  • 巩固和实施针对人工智能伦理问题的专门监管措施;

  • 调整或执行现有版权法以管制人工智能生成的内容,确保生成内容的准确性;

  • 细化针对生成式AI的监管框架;

  • 为教育和研究领域正确使用生成式AI进行能力建设,对教师进行系统的培训;

  • 思考生成式AI对教育与研究的长期影响,帮助受教育者建立正确的文化和社会价值观。

此外,教科文组织还特别提出,要设定使用生成式AI适当的使用年龄,使用生成式AI学生的年龄最好不要低于13岁。

该指南在联合国教科文组织的总部的“数字学习周”期间发布。该活动汇集了超过1000名参与者,讨论的主题包括公共数字学习平台和教育中的生成式AI等。

演讲者包括:Meta副总裁兼首席人工智能科学家-Yann LeCun,美国加州大学伯克利分校计算机科学教授-Stuart Russel,2018图灵奖获得者-Yoshua Bengio等知名专家、学者。

© 版权声明

相关文章