2023/08/16 17:31 智成企业研究院
导言
本期前沿观察我们聚焦AI和教育的未来,本文原标题“Artificial Intelligence and the Future of Teaching and Learning”,由美国教育技术办公室于今年5月出品。报告对当下人工智能在教育领域的应用和挑战做了详尽的阐述,讨论了为 "人工智能 "分享知识和制定政策的明确需求,并提出指导进一步政策制定的建议。如何使用人工智能改进教学工作、准备和支持教师进行规划和反思?如何实现值得信赖的人工智能教育?以及如何关注教育技术使用的“长尾”等...
"人工智能 "是一类快速发展的基础能力,越来越多地嵌入到所有类型的教育技术系统中,同时也向公众提供。我们将认为 "教育技术"(edtech)既包括(a)专门为教育用途设计的技术,也包括(b)在教育环境中广泛使用的一般技术。本报告中的建议旨在让教师、教育领导 、政策制定者、研究人员以及教育技术创新者和供应商参与进来,共同解决人工智能(AI )在教育中应用时出现的紧迫政策问题。
人工智能可以被定义为“基于关联的自动化”。当计算机根据数据中的关联(或从专家知识推导出的关联)自动推理时,人工智能发生了两个根本性的转变,并将计算超越了传统的教育技术:(1)从捕获数据到检测数据的模式,以及(2)从提供对教学资源的访问到对教学和其他教育过程的自动化决策。检测模式和自动化决策是可以委托给计算机系统的责任级别的飞跃,但同时,开发人工智能系统的过程可能会导致模式检测方面的偏见和决策自动化方面的不公平。因此,教育系统必须管理其对人工智能系统的使用,充分发挥人工智能改善教育的机会,认识并应对即将出现的挑战。
作者 | 美国教育技术办公室 编译丨智成企业研究院 崔帅
(正文4000字,预计阅读时间6-8分钟)
01 教育界对人工智能的兴趣日益浓厚
当前,许多改进教学和学习的事项尚未得到满足,教育工作者寻求技术的方法来解决这些事项。像我们所有人一样,教育工作者在日常生活中正在使用人工智能驱动的服务,例如:家里的语音助手,可以纠正语法、完成句子和写文章的工具,以及手机上的自动旅行规划等。许多教育工作者正在积极探索人工智能工具,因为它们刚刚向公众发布。教育工作者看到了使用人工智能驱动的功能的机会,例如通过语音识别等功能来增加对残疾学生、多语种学习者和其他受益的学生的支持。
同时教育工作者也意识到新的风险。有用、强大的功能也可能伴随着新的数据隐私和安全风险。教育工作者认识到,人工智能可以自动生成不适当或错误的输出,因此要警惕人工智能创建的关联或自动化可能会放大不必要的偏见,他们担心算法生成的建议是否公平。教育界的每个人都有责任利用好的东西来服务于教育优先事项,同时也要防止人工智能被整合到教育技术中可能产生的危险。
为了制定教育技术的指导方针,各方专家需要与教育界人士密切合作,其中包括教育领袖-教师、教师、支持人员和其他教育工作者及研究人员;政策制定者;教育技术的倡导者和资助者;技术开发人员;社区成员和组织;学习者及其家人/监护者。最近,通过与教育界人士的活动,我们注意到教育界对人工智能的兴趣和关注急剧增加。例如, 2021年的调查发现,各种技术系统的开发人员,包括用于学生信息、课堂教学、学校后勤、家长教师沟通等技术的开发者,希望在他们的系统中添加人工智能功能;另外。通过2022年6月和8月美国举行的四场听证会,700多名与会者出席,情况变得清晰,各派认为,现在需要采取行动,以加速教育技术中人工智能的增长。
2022年底和2023年初,ChatGPT为代表的聊天机器人横空出世,通过人工智能写论文、创建课程计划、制作图像、为学生创建个性化的作业等成为了新的探索方向。从社交媒体、会议和新闻媒体上的公开表达中,该部门更多地了解了人工智能聊天机器人的风险和好处。
02 教育中采用人工智能技术优劣互现
首先,人工智能可能使教育优先事项能够以更好的方式、更大的规模和更低的成本实现。解决学生因疫情而未完成的各种学习是一项政策优先事项,人工智能可能提高学习资源对学生的优势和需求的适应性。改善教学工作是另一项优先事项,通过自动化助手或其他工具,人工智能可能为教师提供更大的支持。同时,人工智能还可能使教师能够在时间不够时向个别学生提供支持。此外,人工智能还可能使课程资源更具定制性,以满足当地需求。正如我们在语音助手、地图工具、购物推荐、论文写作能力和其他熟悉的应用程序中所看到的那样,人工智能可能会增强教育服务。
其次,紧迫性和重要性来自对系统级风险的认识和对潜在未来风险的焦虑。例如,学生可能会受到更多的监视、一些教师担心他们可能会被取代、以及算法偏见导致的歧视等。人工智能的一些用途可能是基础设施和无形的,这引发了对透明度和信任的担忧。人工智能通常带着魔力的光环出现在新的应用程序中,但教育工作者和采购政策要求教育技术展示效力。人工智能可能会提供看似真实的信息,但实际上是不准确的,或者缺乏现实基础。最重要的是,除了众所周知的数据隐私和数据安全风险外,人工智能还带来了新的风险,例如规模化模式检测器和自动化的风险,这会导致“算法歧视”(例如,向某些学生群体推荐的学习机会或资源存在系统性不公平)。
第三,由于可能出现意想不到或意想不到的后果,紧迫感上升。当人工智能使教学决策能够大规模自动化时,教育工作者可能会发现不想要的结果。
举个简单的例子,如果人工智能通过加快一些学生的课程进度和放慢其他学生的进度来适应不同人群学习能力,成绩差距可能会扩大。在某些情况下,可用数据的质量可能会产生意想不到的结果。例如,一个基于人工智能的教师招聘系统可能被认为比基于人类的简历评分更客观。然而,如果人工智能系统依赖于质量较差的历史数据,它可能会降低那些可以为学校的教学队伍带来多样性和天赋的候选人的优先级。
总之,现在必须在教育中解决人工智能问题,以实现关键机遇,预防和缓解突发风险,并解决非预期后果。谈及人工智能在教育中的应用有哪些挑战,根据报告中的描述,人工智能在教育中的应用面临以下五大挑战:
(1)如何实现值得信赖的AI教育;
(2)如何关注教育技术使用的“长尾”;
(3)如何将人工智能置于正确的位置,教育工作者和其他成年人可以有效地利用这些工具进行教学和学习;
(4)人工智能并不完全符合学习目标,需要设计教育环境,将人工智能置于正确的位置;
(5)人工智能甚至还没有准备好将学习与学生社区和家庭的独特优势联系起来。
03 人工智能在教育中的政策
斯坦福大学以人为中心的人工智能研究所(Stanford Institute for Human-Centered AI)发布的《2023年人工智能指数报告》(2023 AI Index Report)记录了对人工智能的投资显著加速,以及对道德(包括公平和透明度问题)研究的增加。当然,对伦理等主题的研究正在增加。
该报告发现,25个国家对人工智能的立法表现出了惊人的兴趣。在美国,多项行政命令的重点是确保人工智能是值得信赖和公平的,白宫科技政策办公室推出的一份人工智能权利法案——蓝图(Blueprint),提供了有助于实现这一目标的原则和实践。这些举措,以及行政和立法部门开展的其他与人工智能相关的政策活动,将指导人工智能在社会各部门的使用。在欧洲,欧盟委员会最近为教育工作者发布了关于在教学和学习中使用人工智能和数据的道德准则。
人工智能正在快速发展,预示着需要国家政策应对的社会变革。除了针对社会各部门的广泛政策外,还需要针对教育的具体政策来应对现有框架内的新机遇和挑战。人工智能还会自动提出建议并采取行动来支持学生的学习,因此教育工作者需要考虑这些建议和行动如何符合《残疾人教育法》(IDEA)等特别法律。
人工智能正在呈指数级发展,用于生成图像和文本的强大的新人工智能功能向公众开放,并导致人们创建文本和图像的方式发生变化。人工智能的进步不仅发生在研究实验室,也出现在主流媒体和教育出版物上。
研究人员已经阐述了一系列关于道德人工智能的概念和框架,以及相关概念,如公平、负责任和以人为本的人工智能。但同时,也迫切需要制定保障措施和指导方针,使人工智能进步的教育应用更加安全,特别是考虑到人工智能融入主流技术的步伐正在加快。由于政策的制定需要时间,政策制定者和教育机构需要从现在开始共同制定要求、信息披露、法规和其他结构,为所有机构——尤其是学生和教师——塑造一个积极和安全的未来。
迫切需要实施以下政策:
1. 利用自动化来提高学习成果,同时保护人类的决策和判断;
2. 根据适合教学情况的准确信息,询问人工智能模型中的底层数据质量,以确保教育应用中公平公正的模式识别和决策;
3.能够检查特定的人工智能技术,作为更大的教育技术或教育系统的一部分,研究AI如何增加或破坏学生的公平;
4. 采取措施保护和促进公平,包括提供人力制衡,限制任何破坏公平的人工智能系统和工具。
榜单收录、高管收录、融资收录、活动收录可发送邮件至news#citmt.cn(把#换成@)。