版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
1学的未来解和建议2023年5月人工智能与教与学的未来MiguelA.Cardona,Ed.D.美国教育部秘书罗伯托·J·罗德里格斯规划、评价和政策发展办公室助理秘书克里斯蒂娜·以实玛利副主任,教育技术办公室,2023年5月示例不是背书本文档包含为方便用户而提供的示例和资源材料。列入任何材料并不旨在反映其重要性,也不旨在认可所表达的任何观点或提供的产品或服务。这些材料可能包含各种主题专家的意见和建议,以及超文本链接,联系地址和网站,由其他公共和私人组织创建和维护的信息。这些材料中表达的意见不一定反映美国的立场或政策。S.教育部。TheU.S.教育部不控制或保证这些材料中包含的其他来源的任何信息的准确性,相关性,及时性或完整性。除了文件中包含的法定和监管要求外,本指南的内容不具有法律的效力和效力,也不意味着约束公众。合同和采购本文件不打算提供法律咨询或批准任何潜在的联邦承包商的商业决策或战略与任何当前或未来的联邦采购和/或合同。此外,本文件不是招标、征求建议书或其他招标。许可和可用性此报告已公开,可在美国教育部(部门)网站https://tech.ed.gov上获得。诸如盲文或大字体等替代格式文档的请求应通过致电1-202-260-0852或通过电子邮件联系504协调员提交给替代格式中心om_eeos@ed.gov。 有限英语熟练人员须知如果您难以理解英语,您可以为公众提供的部门信息请求语言援助服务。这些语言援助服务是免费提供的。如果您需要有关口译或翻译服务的更多信息,请致电1-800-USA-LEARN(1-800-872-5327)(TTY:1-800-437-0833);发送电子邮件至Ed.Language.Assistance@ed.gov;或写信给美国教育部,信息资源中心,LBJ教育大楼,马里兰州西南大道400号,华盛顿特区,20202。如何引用虽然没有必要允许转载本出版物,但建议的引文如下:美国教育部,教育技术办公室,人工智能与教学与学习的未来:见解和建议,华盛顿特区,2023年。此报告可在https://tech.ed.gov获得812121414 18 2 2 2426 挑战:在保护学生隐私的同时回应学生的优势3234 40424450 59 601TheU.S.教育部(部门)致力于支持使用技术来改善教学和学习,并支持整个教育系统的创新。本报告明确需要共享知识和制定“人工智能”政策,这是一种快速发展的基础能力,越来越多地嵌入所有类型的教育技术系统中,也可供公众使用。我们将考虑“教育技术”(edtech)包括(a)专门为教育用途设计的技术,以及(b)在教育环境中广泛使用的一般技术。本报告中的建议旨在让教师,教育领导者,政策制定者,研究人员以及教育技术创新者和提供者共同努力解决人工智能(AI)在教育中使用时出现的紧迫政策问题。AI可以定义为“基于关联的自动化”。当计算机基于数据中的关联(或从专家知识中推导出的关联)自动推理时,发生了AI的两个基本转变,并将计算转移到传统的edtech之外:(1)从捕获数据到检测数据中的模式,以及(2)从提供对教学资源的访问到自动化教学和其他教育过程的决策。检测模式和自动化决策是可以委托给计算机系统的职责级别的飞跃。开发人工智能系统的过程可能会导致模式检测的偏差和决策自动化的不公平。因此,教育系统必须管理他们对人工智能系统的使用。本报告描述了使用人工智能改善教育的机会,认识到将出现的挑战,并提出了指导进一步政策制定的建议。AI在教育中的兴趣不断上升今天,许多改善教学和学习的优先事项尚未得到满足。教育工作者寻求技术增强的方法来解决这些安全,有效和可扩展的优先事项。自然,教育工作者想知道日常生活中技术的快速进步是否会有所帮助。像我们所有人一样,教育工作者在日常生活中使用AI驱动的服务,例如家中的语音助手;可以纠正语法,完成句子和撰写论文的工具;以及在手机上进行自动旅行计划。许多教育工作者正在积极探索人工智能工具,因为它们是新发布给公众的。1教育工作者看到了使用语音识别等人工智能功能的机会,以增加对残疾学生、多语言学习者和其他可以从数字学习工具的更大适应性和个性化中受益的人的支持。他们正在探索人工智能如何能够编写或改进课程,以及他们寻找、选择和改编材料以用于课程的过程。教育工作者也意识到新的风险。有用的、强大的功能也可能伴随着新的数据隐私和安全风险。教育工作者认识到人工智能可以自动产生不合适或错误的输出。他们警惕人工智能创建的关联或自动化可能会放大不必要的偏见。他们注意到学生可能采用的新方法1WaltonFamilyFoundation(2023年3月1日)。老师和学生拥抱ChatGPT进行教育。https://www.waltonfamilyfoundation.org/learning/teachers-and-students-broke-chatgpt-for-education2代表他人的工作。他们很清楚人类教师可以解决的“可教时刻”和教学策略,但未被AI模型发现或误解。他们担心算法建议的建议是否公平。教育者的担忧是多方面的。教育中的每个人都有责任利用好的服务于教育优先事项,同时也要保护免受人工智能集成到教育技术中可能带来的危险。为制定edtech指南,该部门与教育部门密切合作。这些组成部分包括教育领导者-教师,教师,支持人员和其他教育工作者-研究人员;政策制定者;倡导者和资助者;技术开发人员;社区成员和组织;最重要的是,学习者及其家人/护理人员。最近,通过与选民的活动,该部门注意到人们对人工智能的兴趣和担忧急剧上升。例如,2021年的一次现场扫描发现,各种技术系统的开发人员——学生信息、课堂教学、学校后勤、家长与教师沟通等——都希望在他们的系统中添加人工智能功能。通过2022年6月和8月举行的一系列四场听证会,700多名与会者参加了会议,很明显,选民们认为现在需要采取行动,以领先于人工智能在教育技术领域的预期增长-他们希望卷起袖子,开始合作。在2022年末和2023年初,公众开始意识到新的生成AI聊天机器人,并开始探索如何使用AI撰写论文,创建课程计划,制作图像,为学生创建个性化作业等。从社交媒体、会议和新闻媒体的公开表达中,该部更多地了解了人工智能聊天机器人的风险和好处。然而,本报告不会关注特定的人工智能工具、服务或公告,因为人工智能系统发展迅速。最后,该部利用内部可用的教育政策专业知识以及与人工智能政策专家的关系来制定本报告中的调查结果和建议。现在在教育中解决AI问题的三个原因在聆听会议期间,选民们阐述了现在解决AI的三个原因:首先,人工智能可以以更好的方式、规模和更低的成本实现教育优先事项。解决因大流行而导致的各种未完成的学生学习是一项政策优先事项,人工智能可能会提高学习资源对学生优势和需求的适应性。改善教学工作是当务之急,通过自动化助理或其他工具,人工智能可以为教师提供更大的支持。人工智能还可以使教师在时间不多的时候扩大对个别学生的支持。开发响应学生带来的知识和经验的资源-他们的社区和文化资产-是一个优先事项,人工智能可以使课程资源的可定制性更大,以满足当地需求。3从语音助手、地图工具、购物推荐、论文写作功能和其他熟悉的应用程序中可以看出,人工智能可能会增强教育服务。其次,紧迫性和重要性是通过对系统级风险的认识和对潜在未来风险的焦虑而产生的。例如,学生可能会受到更大的监视。一些教师担心他们可能会被取代-相反,该部门坚决拒绝AI可以取代教师的想法。来自算法偏见的歧视的例子在公众的脑海中,例如语音识别系统不能很好地与地区方言配合使用,或者考试监控系统可能不公平地识别一些学生群体进行纪律处分。人工智能的某些用途可能是基础设施和无形的,这引起了人们对透明度和信任的担忧。人工智能通常会出现在具有魔力光环的新应用程序中,但教育者和采购政策要求edtech表现出功效。人工智能可能会提供看起来真实的信息,但实际上是不准确的或缺乏现实基础的信息。最重要的是,除了众所周知的数据隐私和数据安全风险之外,人工智能还带来了新的风险,例如缩放模式检测器和导致“算法歧视”的自动化的风险(例如。Procedre,向某些学生推荐的学习机会或资源的系统性不公平)。第三,紧迫性是由于可能的意外或意外后果的规模而产生的。当人工智能使教学决策能够大规模自动化时,教育工作者可能会发现不必要的后果。在一个简单的例子中,如果人工智能通过加快一些学生的课程节奏和放慢其他学生的步伐(基于不完整的数据、糟糕的理论或对学习的偏见)来适应,成就差距可能会扩大。在某些情况下,可用数据的质量可能会产生意想不到的结果。例如,一个支持人工智能的教师招聘系统可能被认为比基于人类的简历评分更客观。然而,如果人工智能系统依赖于质量差的历史数据,它可能会降低候选人的优先级,这些候选人可以为学校的教学队伍带来多样性和才华。总之,现在必须解决教育中的人工智能问题,以实现关键机会,预防和减轻紧急风险,并解决意外后果。斯坦福以人类为中心的人工智能研究所的2023年人工智能指数报告记录了对人工智能投资的显着加速以及对伦理学的研究的增加,包括公平性和透明度问题。2当然,由于观察到问题,对道德等主题的研究正在增加。教育中也会出现道德问题。3该报告发现,25个国家对专门包括AI的立法提案数量产生了浓厚的兴趣。在美国,多项行政命令的重点是确保AI值得信赖和公平,白宫科技政策办公室已推出2Maslej,N.,Fattorini,L.,BrynjolfssonE.,Etchemendy,J.,Ligett,K.,Lyons,T.,Manyika,J.,Ngo,H.,Niebles,J.,Parli,V.,Shoham,Y.,Wald,R.3Holmes,W.&Porayska-Pomsta,K.(Eds.)(2022)。人工智能在教育中的伦理。Routledge。ISBN978-03673497214AI权利法案蓝图(蓝图)4提供有助于实现这一目标的原则和实践。这些举措以及行政和立法部门开展的其他与人工智能相关的政策活动,将指导人工智能在社会各阶层的使用。在欧洲,欧盟委员会最近发布了关于在教育工作者的教学中使用人工智能(AI)和数据的道德准则。5人工智能正在快速发展,预示着需要国家政策回应的社会变革。除了针对社会各阶层的广泛政策外,还需要针对特定教育的政策,以在考虑联邦学生隐私法(例如《家庭教育权利和隐私法》或FERPA)的现有框架内解决新的机遇和挑战,以及类似的州相关法律。人工智能还自动提出建议并采取行动支持学生的学习,因此教育工作者需要考虑这些建议和行动如何符合《残疾人教育法》(IDEA)等法律。我们在结论部分讨论具体政策。图1:关于人工智能的研究正在快速增长。其他指标,如投资美元和就业人数,也显示出类似的趋势。AI正在呈指数级发展(参见图1),具有强大的新AI功能,可用于生成图像和文本,并导致人们创建文本和文本的方式发生变化4白宫科技政策办公室(2022年10月),AI权利法案蓝图:让自动化系统为美国人民服务。白宫科技政策办公室。https://www.whitehouse.gov/ostp/ai-bill-of-rights/5欧盟委员会,教育,青年,体育和文化总局。(2022)。关于在教育工作者的教学中使用人工智能(AI)和数据的道德准则,欧洲出版物办公室联盟。https://data.europa.eu/doi/10.2766/1537565图像6人工智能的进步不仅发生在研究实验室,而且在主流媒体和特定教育出版物上也在制造新闻。研究人员已经阐明了道德AI的一系列概念和框架7,以及公平、负责任和以人为本的人工智能等相关概念。与会者呼吁在这些概念和框架的基础上发展,但也认识到需要做更多的工作;与会者指出,迫切需要保障和指导方针,以确保人工智能进步的教育使用安全,特别是考虑到人工智能融入主流技术的步伐加快。由于政策制定需要时间,政策制定者和教育选民需要立即开始指定要求,披露,法规和其他结构,这些结构可以为所有选民-特别是学生和教师-塑造积极和安全的未来。迫切需要执行以下政策:1.利用自动化来提高学习成果,同时保护人类的决策和判断;2.询问AI模型中的基础数据质量,以确保基于适合教学情况的准确信息在教育应用中进行公平和无偏见的模式识别和决策;3.允许检查特定的人工智能技术,作为更大的教育技术或教育系统的一部分,可能会增加或破坏学生的公平;和4.采取措施保护和促进公平,包括提供人类制衡,并限制任何破坏公平的人工智能系统和工具。6Sharples,M.&PérezyPérez,R.(2022).Storymachines:Howcomputershavebecomecreativewriters.Routledge.ISBN97803677519517Akgun,S.,Greenhow,C.(2022)。教育中的人工智能:解决K-12设置中的道德挑战。AI道德,2,431-440。https://doi.org/10.1007/s43681-021-00096-76在本报告中,我们的目标是建立在该部门主办的听课基础上,参与并告知所有参与制定教育决策的选民,以便他们能够为人工智能在教学中的作用做好准备并做出更好的决策。人工智能是一个复杂而广泛的话题,我们无法涵盖所有内容,也无法解决仍然需要更多组成部分参与的问题。这份报告旨在成为一个起点。人工智能在教育中的机会和问题在K-12、高等教育和劳动力学习中同样重要。由于范围限制,本报告中的例子将集中在K-12教育上。其影响在各级教育中相似,该部计划在2023年开展进一步活动,以吸引K-12学校以外的选民参与。指导性问题理解人工智能提高了自动化,并允许机器做一些过去只有人做的任务,这让我们想到了两个大胆的、首要的问题:1.我们对一个理想和可实现的教育系统的集体愿景是什么,该系统利用自动化来促进学习,同时保护和集中人类机构?2.我们将如何以及在什么时间表上准备好必要的指导方针和护栏,以及令人信服的积极影响证据,以便选民能够在道德上和公平地广泛实施这一愿景?在本报告的学习,教学和评估部分,我们详细阐述了基于当今学习者,教师和教育系统所需的教育愿景的要素,并描述了关键见解和所需的下一步。下面,我们阐述了构建这些主题的四个关键基础。这些基础源于我们对有效利用教育技术来改善学生的机会、公平和成果的了解,也与新的蓝图有关。在联邦、州和地区层面,将需要以教育为重点的人工智能政策,以指导和授权地方和个人决定在学校和教室采用和使用哪些技术。想想日常生活中正在发生的事情。我们中的许多人使用具有AI功能的产品,因为它们通常更好,更方便。例如,很少有人想再使用纸质地图;人们发现技术可以帮助我们更有效,更方便地规划到达目的地的最佳路线。然而,当人们接受人工智能系统进入他们的生活时,他们往往没有意识到他们放弃了多少隐私。人工智能将带来隐私和其他风险,这些风险很难通过个人决策来解决;需要额外的保护。7告的限制。随着保护措施的发展,我们建议政策以人员为中心,而不是机器。为此,本文档中的第一个建议(在下一节中)是强调AI与人类在循环中教师,学习者和其他人需要保留他们的机构来决定模式的含义并选择行动方案。循环中的人类概念建立在蓝图中的“人类替代,考虑和退缩”概念以及在评估AI时更广泛使用的道德概念,例如维护人类尊严。政策的首要任务必须是将人作为教育应用的要求,尽管使用人工智能作为人类决策的替代方案存在相反的压力。政策不应阻碍创新和改进,也不应成为执行的负担。社会需要以教育为重点的人工智能政策,以保护公民权利,并在自动化系统的建设、部署和治理中促进民主价值观,以便在美国教育系统的许多分散层面上使用。-RussellShilling博士最近的行政命令9拜登总统发表的报告试图加强种族平等、教育和人工智能之间的联系,指出“服务不足的社区成员——其中许多人经历了几代人的歧视和投资减少——仍然面临重大障碍,无法实现我们伟大国家的全部承诺,联邦政府有责任消除这些障碍”,联邦政府既要“追求教育公平,使我们国家的学校让每个学生走上成功之路”,也要“根除人工智能等新技术设计和使用中的偏见”。“公平的具体愿景,如该部最近的报告《推进全民数字公平》中所述。10对于有关教育中AI的政策讨论至关重要。本报告将数字公平定义为8白宫(2022年9月8日)。白宫听取有关技术平台责任的会议的读数。https://www.whitehouse.gov/简报室/statements-releases/2022/09/08/readence-of-white-house-listing-session-on-tech-platform-accountability/9白宫(2023年2月17日)。关于通过联邦政府进一步促进种族平等和支持服务不足的社区的行政命令。https://www.whitehouse.gov/简报室/总统-行动/2023/02/16/行政命令-进一步推进种族平等10U.S.DepartmentofEducationalTechnologyOfficeofEducation(2022).Provingdigitalequityforall:Community-basedrecommendationsfordevelopingeffectivedigitalequityplanstoclosethedigitaldivesandenabletechnology-poweredlearning.USDepartmentofEducation.8“个人和社区具有信息技术能力的条件这是充分参与美国社会和经济所必需的。”与种族平等和不公平偏见有关的问题是我们举行的每次聆听会议的核心。特别是,我们听到的对话越来越关注数据质量问题以及在AI系统中使用不良或不适当数据进行教育的后果。数据集用于开发AI,当它们不具有代表性或包含不希望的关联或模式时,生成的AI模型可能会在检测模式或自动化决策方面表现不公平。计算机如何检测模式或自动化决策的系统,不必要的不公平被称为“算法偏差”。“算法偏见可能会在意外歧视的情况下大规模减少公平性。正如本文档在形成性评估部分所讨论的那样,这不是一个新的对话。几十年来,选民正确地探讨了评估是否公正和公平。就像评估一样,人工智能模型是否表现出算法偏见或被认为是公平和值得信赖的,这一点至关重要,因为当地的学校领导会做出使用人工智能来实现其公平目标的决定。我们在蓝图中强调了“算法歧视”的概念。偏见是如何使用历史数据开发AI算法的内在因素,并且在系统设计期间很难预测偏见数据和算法的所有影响。该部门认为,人工智能算法中的偏见在引入或维持不公正的教育歧视性做法时必须得到解决。例如,在中学后教育中,必须对做出入学决定,识别学生进行早期干预或标记可能的学生考试作弊的算法进行询问,以寻找不公平的歧视性偏见的证据-不仅在设计系统时,而且在以后,随着系统被广泛使用。该部政策中的一个核心安全论点是,教师、学生和其他教育机构使用的系统需要数据隐私和安全。AI的开发和部署需要访问详细的数据。这些数据超越了传统的学生记录(名册和成绩簿信息),提供了有关学生在学习技术时做什么以及教师在使用技术进行教学时做什么的详细信息。人工智能对数据的依赖需要重新并加强对数据隐私、安全和治理的关注(如蓝图中所示)。由于人工智能模型通常不是在考虑教育使用或学生隐私的情况下开发的,因此这些模型的教育应用可能与教育机构遵守联邦学生隐私法(如FERPA或州隐私法)的努力不一致。9图2:《中小学教育法》定义了四个层次的证据。此外,教育领导者致力于将其关于采用教育技术的决定基于有效性的证据-这是该部政策的核心基础。例如,在经修订的《中小学教育法》(ESEA)中也提出了以证据为基础作出决定的要求,该法引入了四层证据(见图2)。我们国家的研究机构,包括教育科学研究所,对于提供所需的证据至关重要。蓝图要求提供有效性的证据,但教育部门在这场比赛中处于领先地位:我们需要坚持AI增强的教育技术也要达到ESEA标准。复杂的AI模型在技术检测模式和实现自动化中的核心作用,是支持AI的应用程序、产品和服务与传统edtech不同的重要途径。蓝图介绍了在披露(“通知”)和解释方面对AI模型的透明度的需求。在教育领域,决策者需要的不仅仅是注意,他们需要了解人工智能模型在一系列一般教育用例中的工作方式,这样他们才能更好地预测局限性、问题和风险。edtech中的AI模型将是现实的近似值,因此,选民总是可以问这些问题:AI模型的精确度如何?它们是否准确地捕获了最重要的内容?AI模型提出的建议与教育目标的契合程度如何?在教育过程中大规模使用AI模型的更广泛含义是什么?在从选民那里听到的内容的基础上,本报告的各个部分提出了使用多个维度评估AI系统和工具质量的主题,如下所示:●关于AI:人工智能系统和工具必须尊重数据隐私和安全。人类必须在循环中。●Learning人工智能系统和工具必须符合我们对高质量学习的集体愿景,包括公平。●教学人工智能系统和工具必须是可检查的、可解释的,并为基于人工智能的建议提供替代方案;教育工作者将需要支持,以行使专业判断,并在必要时超越人工智能模型。10●形成性评价人工智能系统和工具必须最大限度地减少偏见,促进公平,并避免额外的测试时间和学生和教师的负担。●研究与发展:人工智能系统和工具必须考虑到教学和学习的背景,并且必须在教育实践中很好地发挥作用,因为学生、教师和环境存在差异。●Recommendations:人工智能系统和工具的使用必须对学生安全有效。它们必须包括算法歧视保护,保护数据隐私,提供通知和解释,并在出现问题时提供求助于人类。受教育中人工智能使用影响最大的人必须是人工智能模型、系统或工具开发的一部分,即使这会减缓采用的速度。我们回到这样的想法,即在“建议”部分中,这些考虑因素综合考虑了人工智能模型的质量。在下一节中,我们首先阐述了人工智能的定义,然后讨论学习、教学、评估和研发。通过这些主题组织关键见解,让我们专注于探索在整个报告中为学生改善教育机会和成果的影响。在这些主题中,探讨了三个重要主题:1.机会和风险。政策应侧重于最有价值的教育进步,同时减轻风险。2.信任和可信性。信任和保护在教育中尤为重要,因为我们有义务使学生免受伤害并保护他们的学习经历。3.AI模型的质量。开发和应用模型的过程是任何AI系统的核心。政策需要支持评估AI模型的质量及其在教育采用和使用过程中与教学目标的一致性。-DaleAllen博士11AI?我们将AI初步定义为基于关联的自动化需要详细说明。下面我们将讨论什么构成AI的三个额外观点。教育工作者将发现这些不同的观点出现在AI功能的营销中,并且在评估包含AI的edtech系统时必须了解这些观点。一个有用的AI教育术语词汇表是CIRCLS教育者人工智能术语词汇表。11AI不是一回事,而是一个不断增长的建模能力的总称,如图3所示。图3:基于Regona等人(2022)的AI的组件、类型和子字段。1211搜索“AI词汇表教育者”以查找其他有用的定义。12Regona,Massimo&Yigitcanlar,Tan&Xia,Bo&Li,R.Y.M.(2022).AI在建筑行业的机遇和采用挑战:PRISMA综述.JournalofOpenInnovationTechnologyMarketandComplexity,8(45).https://doi.org/10.3390/joitmc801004512人工智能的广泛文化意识可以追溯到1968年具有里程碑意义的电影“2001:太空漫游”-其中“启发式编程算法”计算机或“HAL”与宇航员弗兰克交谈。HAL帮助Fra驾驶太空之旅,这是Fra自己无法完成的工作。然而,弗兰克最终走出了航天器,HAL接管了控制权,这对弗兰克来说并不好。HAL表现出类似人类的行为,例如推理,说话和表演。像人工智能的所有应用一样,HAL可以帮助人类,但也会带来意想不到的风险——特别是因为人工智能的原因与人类不同,也有不同的局限性。“类似人类”的想法很有帮助,因为它可以成为计算机现在具有的功能与早期edtech应用程序的功能非常不同的想法的简写。教育应用程序将能够与学生和教师交谈,共同驾驶活动如何在教室中展开,并采取更广泛地影响学生和教师的行动。将有两个机会做得比我们今天做得更好,也有必须预期和应对的风险。然而,“类似人类”的速记并不总是有用的,因为人工智能处理信息的方式与人们处理信息的方式不同。当我们掩盖人与计算机之间的差异时,我们可能会为人工智能在教育中制定一些遗漏的政策。第二个定义强调AI系统和工具识别模式并选择动作以实现给定目标。这些模式识别功能和自动推荐将以影响教育过程的方式使用,包括学生学习和教师教学决策。例如,当今的个性化学习系统可以识别学生正在挣扎的迹象,并且可以推荐替代的教学序列。模式识别和自动推荐的范围将扩大。13IEEE-USA董事会。(2017年2月10日)。人工智能研究,开发和监管。IEEEhttp://globalpolicy.ieee.org/wp-content/uploads/2017/10/IEEE17003.pdf14Friedman,L.,BlairBlack,N.,Walker,E.,&Roschelle,J.(2021年11月8日)安全AI教育需要你。计算机协会博客,https://cacm./blogs/blog-cacm/256657-safe-ai-in-education-needs-you/fultext13相应地,人类必须确定我们将在教育过程中赋予技术的责任类型和程度,这不是一个新的困境。几十年来,教师和计算机的角色之间的界限已经在教育中得到了讨论,例如,在使用“计算机辅助教学”,“混合教学”和“个性化学习”等术语的辩论中。“然而,在包括人类和算法的系统中如何做出教学选择?今天,人工智能系统和工具已经能够根据学生的需求调整教学序列,例如在数学问题解决或外语学习期间,为学生提供反馈和提示。关于AI在课堂教学法和学生学习中的使用的讨论将随着AI系统和工具的能力提高而更新和加强。让我们从另一个简单的例子开始。当老师说“在教室屏幕上显示古希腊地图”时,人工智能系统可以通过注意课程目标、在类似教室中效果良好的地图或哪些地图具有学生学习的理想特征来选择数百张地图。在这种情况下,当人工智能系统建议教学资源或在几个选项中提供选择时,教师可以节省时间,并可以专注于更重要的目标。然而,课堂教师可能会拒绝支持人工智能的自动化形式,例如,让人工智能系统或工具为与历史事件相关的学生选择最合适和最相关的读数。在这种情况下,教育者可能会选择不使用支持人工智能的系统或工具,因为人工智能会产生虚假事实(“幻觉”)或引导学生对互联网上发现的历史事件进行不准确的描述。教育工作者每天都会像这样权衡利益和风险。计算机处理理论和数据的方式与人类不同。AI的成功取决于在AI模型开发过程中提供给算法的数据中发现的关联或关系。尽管一些关联可能是有用的,但其他关联可能是有偏见的或不适当的。在数据中发现不良关联是一个主要风险,可能导致算法歧视。每个监护人都熟悉这个问题:一个人或计算机可能会说:“我们的数据表明您的学生应该被安排在这个班级中”,而监护人很可能会争辩说:“不,您使用了错误的数据。我更了解我的孩子,他们应该被安排在另一个班。“这个问题不仅限于人工智能系统和工具,但当计算机使用数据进行推荐时,人工智能模型的使用可以放大问题,因为它可能看起来更客观和权威,即使事实并非如此。虽然这种观点可能是有用的,但它可能会误导。人类对代理,追求目标和推理的看法包括我们人类理解多种环境的能力。例如,一位老师可能会看到三个学生每个都犯了相同的数学错误,但认识到一个学生有一个个性化的教育计划来解决视力问题,另一个学生误解了一个数学概念,而第三个学生只是在操场上经历了令人沮丧的互动;因此,同样的教学决定是不合适的。然而,人工智能系统通常缺乏数据和判断来适当地包括上下文,因为它们检测模式并自动化决策。此外,案例研究表明,当环境发生轻微变化时,技术有可能迅速从安全到不安全或从有效到无效。出于这个和其他原因,人们必须参与目标设定,模式分析和决策。1515Russell,S.(2019)。人类兼容:人工智能与控制问题。维京。ISBN978-0-525-55861-3。14基金会#1(上图)使人类处于循环中,并定位AI系统和工具以支持人类推理。“智能增强”(IA)17以人类的“智力”和“决策”为中心,但认识到人们有时负担过重,并从辅助工具中受益。人工智能可能会帮助教师做出更好的决定,因为计算机会注意到教师可能错过的模式。例如,当教师和学生同意学生需要提醒时,AI系统可以以学生喜欢的任何形式提供提醒,而不会增加教师的工作量。智能自动化(IA)使用与AI相同的基本功能,利用数据中的关联来注意模式,并通过自动化基于这些模式采取行动。然而,IA专注于帮助人们进行人类的教学和学习活动,而AI倾向于将注意力集中在计算机可以做什么上。“模型”的定义上述观点为理解AI打开了一扇门。然而,为了有意义地评估人工智能,选民必须考虑具体的模型以及它们是如何开发的。在日常使用中,术语“模型”有多个定义。我们澄清我们的预期含义,即类似于下面的“数学模型”的含义。(相反,请注意,“AI模型”中使用的“模型”与“模型学校”或“教学模型”中的用法不同,因为AI模型不是专家创建的作为范例的单例。).AI模型就像金融模型:对现实的近似,可用于识别模式,进行预测或分析替代决策。在典型的中学数学课程中,学生使用数学模型来分析两种手机计划中哪一种更好。财务规划师使用这种类型的模型来提供退休投资组合的指导。从本质上讲,AI是用于构建和使用模型的高度先进的数学工具包。事实上,在著名的聊天机器人中,复杂的文章是一次一个字写的。底层的AI模型预测到目前为止,下一个单词可能会跟随文本;AI聊天机器人使用一个非常大的统计模型一次添加一个可能的单词,从而写出令人惊讶的连贯文章。当我们询问AI核心的模型时,我们开始得到关于“模型很好地逼近现实的哪些方面?”和“它对要做出的决策有多合适?”的答案。人们还可以询问用于构建模型的数据的质量-例如,该数据的代表性如何?在三个术语之间切换-。16Gartner(n.d.)Gartner词汇表:增强智能。Gartner。https://www.gartner.com/en/information-technology/glossary/augmented-intelligence17Englebart,D.C.(October1962).Augmentinghumanintellect:Aconceptualframework.SRISummaryReportAFOSR-3223.https://www.dougengelbartt.org/pubs/augment-3906.html15模型,算法和数据-将变得令人困惑。由于这些术语密切相关,我们选择关注AI模型的概念。我们希望突出每个AI模型都是不完整的,重要的是要知道AI模型与我们关心的现实的契合程度,模型将在哪里分解以及如何分解。有时人们避免谈论模型的细节来创造一个神秘感。仿佛AI的潜在能力是无限的,对现实的近乎完美的近似可以传达一种对未来可能性的兴奋。然而,未来可能会超卖。类似地,有时当模型AI的使用变得司空见惯时,人们不再称之为模型AI,但这样的系统仍然是具有这里讨论的所有风险的AI模型。我们需要确切地知道人工智能模型在何时何地无法与教学愿景保持一致。人工智能模型允许计算过程提出建议或计划,并使它们能够支持更自然的交互形式,例如与助手交谈。启用AI的教育系统将是可取的部分原因是它们能够在教学和学习期间支持更自然的交互。在经典的edtech平台中,教师和学生与edtech互动的方式是有限的。教师和学生可以从菜单或多项选择题中选择项目。他们可以键入简短的答案。它们可以在屏幕上拖动对象或使用触摸手势。计算机通过文本、图形和多媒体向学生和教师提供输出。尽管这些形式的输入和输出是通用的,但没有人会误解这种交互方式与两个人彼此交互的方式;它特定于人机交互。使用AI,与计算机的交互可能变得更像是人与人之间的交互(见图4)。老师可能会与AI助手交谈,也可能会回话。学生可以绘制绘图,并且计算机可以突出显示绘图的一部分。老师或学生可能会开始写一些东西,而计算机可能会完成他们的句子-就像今天的电子邮件程序可以比我们输入它们更快地完成想法一样。此外,人工智能工具可以执行自动化操作的可能性正在扩大。当前的个性化工具可以通过学习体验自动调整顺序、速度、提示或轨迹。18未来的行动可能看起来像一个人工智能系统或工具,帮助学生完成家庭作业19或助教,通过推荐适合教师需求的课程计划来减少教师的工作量,并且类似于教师以前喜欢的课程计划。20此外,支持AI的助手可能会在一小群学生中作为额外的“合作伙伴”出现,这些学生正在一起完成协作任务。21支持AI的工具还可以帮助教师处理复杂的课堂例程。22例如,一个18Shemshack,A.,Spector,J.M.(2020)个性化学习术语的系统文献综述。智能学习环境,7(33)。https://doi.org/10.1186/s40561-020-00140-919Roschelle,J.,Feng,M.,Murphy,R.&Mason,C.A.(2016)。在线数学作业提高学生成绩。AERA公开赛,2(4),1-12。DOI:10.1177/233285841667396820Celik,I.,Dindar,M.,Muukkonen,H.&Järvelä,S.(2022)。人工智能对教师的承诺和挑战:对研究的系统回顾。TechTrends,66,616-630。https://doi.org/10.1007/s11528-022-00715-y21Chen,C.,Park,H.W.&Breazeal,C.(2020).Teachingandlearningwithchildren:impactofreutualpeerlearningwithasocialrobotonchildren'slearningandemotiveengagement.Computers&Education,150,https:22Holstein,K.,McLaren,B.M.,&Aleven,V.(2019).Co-designingareal-timeclassroomorchestrationtooltosupportteacher-AIcompanitation.JournalofLearningAnalytics,6(2).https://doi.org/10.18608/jla.2019.62.316工具可以帮助教师编排23学生从全班讨论到小组的运动,并确保每个小组都有开始工作所需的材料。图4.教师和学生在未来技术中可能遇到的差异。许多人经历过这样一个时刻,技术让他们感到惊讶,他们有一种不可思议的能力,可以推荐一种感觉像是一种精确个性化的产品、歌曲,甚至是在文字处理器中完成一个句子,比如用来起草这份文件的句子。在本补充中,我们讨论了人工智能系统可能为教育带来价值(或风险)的特定、有针对性的应用。我们绝不打算暗示AI可以取代老师,监护人或教育领导者作为学生学习的监护人。我们讨论了AI模型的局限性,以及教育选民需要具备的对话,即他们希望AI模型具有什么品质以及应该如何使用它们。——MarceloAaronBonillaWorsley博士23Roschelle,J.,Dimitriadis,Y.&Hoppe,U.(2013).Classroomorchestration:Synthesis.Computers&Education,69,512-526.https://doi.org/10.1016/j.compedu.2013.04.01017这些限制导致了我们的第一个建议:我们追求人类在循环中的AI愿景。这意味着人们是在教育系统中注意模式并为这些模式赋予意义的过程的一部分。这也意味着教师仍然是主要教学决策的掌舵人。这意味着形成性评估也涉及教师的投入和决策。一个循环是识别学生做什么的模式,并选择可以支持他们学习的下一步或资源的循环。其他循环涉及教师计划和反思课程。对干预的反应是另一种众所周知的循环。人类在循环中的想法是我们关于AI和社会的更广泛讨论的一部分,而不仅仅是教育中的AI。感兴趣的读者可以寻找更多关于以人为本的AI,负责任的AI,对价值敏感的AI,对社会有益的AI以及与人类在循环中结盟的其他类似术语,例如“以人为本的AI”。在使用AI系统和工具时进行判断和控制是为所有学生提供最佳学习机会的重要组成部分-特别是当教育决策产生影响时。人工智能不具备人们所具备的广泛的语境判断素质。因此,人们必须继续对我们孩子的健康和安全负责,对所有学生的教育成功和为他们的未来做好准备,并对创造一个更加公平和公正的社会负责。18Learning该部门长期以来的edtech愿景将学生视为积极的学习者;学生参与讨论,促进他们的理解,使用可视化和模拟来解释与现实世界相关的概念,并在学习时利用有用的脚手架和及时的反馈。选民希望技术与这些和其他基于研究的人们如何学习的理解保持一致并建立在此基础上。教育者可以借鉴两本书,名为“人们如何学习”和“人们如何学习II”,由美国国家科学院,工程和医学院撰写,以广泛地综合我们对学习的了解。24当我们围绕基于研究的原则塑造人工智能增强的教育技术时,一个关键目标必须是加强和支持那些经历过不利学习环境的人的学习,例如由COVID-19大流行或更广泛的不平等造成的。我们必须坚定地关注将使学习者在社区和工作场所的未来生活中受益最大的学习形式。本节中支持学习原则的AI示例包括:为学生解决数学问题时提供基于AI的辅导(基于认知学习理论),适应有特殊需要的学习者(基于通用学习设计框架和相关理论),以及AI支持有效的学生团队合作(基于称为“计算机支持的协作学习”领域的理论)。适应性已被认为是技术可以改善学习的关键方式。25AI可以成为提高edtech适应性的工具集。AI可以提高技术的能力,以满足学生的需求,利用他们的优势,并发展他们的知识和技能。由于AI具有自然输入形式的工作能力和AI模型的基本优势(如什么是AI?部分中所讨论的),AI可以成为扩展提供给学生的适应性的特别强大的工具包。然而,特别是对于人工智能,适应性总是比“满足学生在哪里”这样的宽泛短语更具体和有限。核心限制来自任何特定的人工智能系统的核心模型的性质。模型是现实的近似。当人类学习的重要部分被排除在模型之外或开发得不那么充分时,所产生的自适应性也将受到限制,并且所产生的对学习的支持可能是脆弱或狭窄的。因此,本节关于学习的重点是一个关键概念:朝着适合学习愿景的AI模型努力-避免将学习限制在AI目前可以很好地建模的内容上。由于所谓的“大型语言模型”或有时是“基础模型”的进步,AI模型正在展示更高的技能。“这些非常普遍的模型仍然有局限性。例如,主流新闻中讨论的生成AI模型可以快速生成关于各种主题的令人信服的文章,而其他模型可以根据几个提示绘制可靠的图像。尽管人们对基础模型感到兴奋,但我们的专家。24国家研究委员会。2000年。人们如何学习:大脑,思想,经验和学校。国家科学院出版社。https://doi.org/10.17226/9853;国家科学院,工程和医学院。2018年。人们如何学习II:学习者,环境和文化。国家科学院出版社。https://doi.org/10.17226/2478325Aleven,V.,McLaughlin,E.A.,Glenn,R.A.,&Koedinger,K.R.(2016)。基于自适应学习技术的教学。在Mayer,R.E.&Alexander,P.A.,学习和教学研究手册,522-560。ISBN:113883176X19聆听会议警告说,人工智能模型比人类学习的愿景更窄,并且在考虑这些限制的情况下设计学习环境仍然非常重要。这些模型也很脆弱,并且在环境变化时表现不佳。此外,它们没有人们的“常识”判断,通常会以不自然或不正确的方式做出回应。26鉴于基础模型的意外方式错过了标记,保持人类在循环中仍然非常重要。一种长期存在的人工智能技术是智能教学系统(ITS)。27在早期的成功中,科学家能够建立人类专家如何解决数学问题的准确模型。所得到的模型被合并到一个系统中,该系统将观察学生在计算机上处理数学问题时解决问题的情况。研究人类导师的研究人员发现,对具体步骤的反馈(而不仅仅是正确或错误的解决方案)可能是为什么辅导如此有效的关键。28例如,当学生偏离专家模型时,系统给出反馈以帮助学生回到正轨。29重要的是,这种反馈超出了对或错的范围,相反,该模型能够为解决方案过程的具体步骤提供反馈。因此,人工智能的一个重大进步可能是它能够在逐步的水平上提供适应性,并且能够以适度的成本大规模地做到这一点。随着研发(R&D)领域的出现,以推进ITS的发展,这项工作已经超越了数学问题,而不是逐步解决问题的其他重要问题。在早期的工作中,可以观察到一些局限性。ITS可以支持的问题是逻辑的或数学的,它们是封闭的任务,对解决方案和解决方案过程应该是什么样子有明确的期望。此外,早期AI模型中的“现实近似”与认知有关,而与人类学习的其他元素无关,例如社会或动机方面。随着时间的推移,这些早期的限制已经通过两种方式得到解决:通过扩展AI模型和让人类参与循环,这种观点现在也很重要。例如,今天,如果ITS专注于作为学生实践的反馈,那么人类教师仍然可以负责激励学生参与和自我调节以及其他方面的教学。在其他当代示例中,计算机ITS可能专注于解决问题的实践,而教师则与小组中的学生一起工作。此外,学生可以与AI保持联系,就像“开放学习者模型”一样,这是一种支持AI的系统,可提供信息以支持学生的自我监控和反思。3026Dieterle,E.,Dede,C.&Walker,M.(2022)。在教育中使用人工智能的周期性伦理效应。AI&Society。https://link.springer.com/article/10.1007/s00146-022-01497-w27Mousavinasab,E.,Zarifsanaiey,N.,R.NiakanKalhori,S.,Rakhshan,M.,Keikha,L.,&GhaziSaeedi,M.(2021)。智能辅导系统:对特性、应用和评估方法的系统回顾。交互式学习环境,29(1),142-162..https:/28VanLehn,K.(2011)人类辅导,智能辅导系统和其他辅导系统的相对有效性。教育心理学家,46(4),197-221。https://doi.org/10.1080/00461520.2016.61136929Ritter,S.,Anderson,J.R.,Koedinger,K.R.&Corbett,A.(2007).CognitiveTutor:Appliedresearchinmaterialeducation.PsychomicBulletin&Review,14,249-255/https:///doi.org/10.3758/BF0319406030Winne,P.H.(2021).Openlearnermodelsworkinginsymbiumwithself-regulatedlearers:Aresearchagenda.国际人工智能教育杂志,31(3),446-459。https://doi.org/10.1007/s40593-020-00212-420尽管ITS的研发不应限制对可能性的看法,但这样的例子很有用,因为已经对ITS方法进行了大量研究和评估。研究人员在荟萃分析中查看了所有可用的高质量研究,并得出结论认为ITS方法是有效的。31现在,许多学校系统都在寻找高强度的人工辅导,以帮助学生完成未完成的学习。人类家教非常昂贵,很难找到足够的高质量人类家教。关于大规模需求,如果ITS可以补充人类导师所做的事情,那么可能会超出人们可以提供给学生的辅导量。适应性有时被称为“个性化”。尽管这是一个方便的术语,但许多观察者已经注意到它是多么不精确。32对于一些教育工作者来说,个性化意味着给予学习者“发言权和选择权”,而对于另一些教育工作者来说,这意味着学习管理系统向每个学生推荐一个单独的活动“播放列表”。隐藏在这种不精确中的是,许多个性化的edtech产品以有限的方式这样做。调整教材的难度和顺序是edtech产品适应的两种最常见的方式之一。然而,任何老师都知道支持学习比调整材料的难度和顺序更重要。例如,一个好的老师可以通过连接到他们自己的过去的经历来找到吸引学生的方法,并且可以形成解释,直到他们真正连接在那个学生的“啊哈!”时刻。当我们说“与学习者见面”时,人类教师比大多数可用的edtech对每个学习者都有更完整的了解。教师也不太可能“过度个性化”(通过像只呈现学习者表达兴趣的材料的算法那样执行),从而限制学生接触新主题。人类教师可以掌握的“可教学时刻”的性质比当今AI模型所掌握的可教学时刻更广泛。在我们的听力会议中,我们听到了许多必须扩展AI系统中核心模型的方法。我们在下面讨论这些。1.从赤字型到资产型。听课与会者指出,围绕适应性的修辞往往是基于赤字的;技术试图查明学生缺乏什么,然后提供指导来填补这一具体差距。教师还针对学生的优势;他们找到学生拥有的能力或“资产”,并利用这些能力或资产来建立学生的知识。人工智能模型不能完全公平,而不能识别或建立在每个学生的能力来源上。更面向资产的AI模型将是一个进步。2.从个体认知到包括社会和其他方面的学习。现有的适应性修辞也倾向于关注个性化学习,主要关注学习的认知因素,动机和其他因素只是为了支持认知学习目标而引入的。与会者观察到他们的学习视野比认知更广泛。例如,社会学习很重要,尤其是31Kulik,J.A.,&Fletcher,J.D.(2016)。智能辅导系统的有效性:元分析综述。教育研究综述,86(1),42-78;Ma,W.,Adescope,O.O,Nesbit,J.C.&Liu,Q.(2014)。32Plass,J.L.,&Pawar,S.(2020).Towardataxonomyofadaptivityforlearning.JournalofResearchonTechnologyinEducation,52(3),275-300.https://doi.org/10.1080/15391523.2020.1719943;21让学生学会推理、解释和证明。对于正在学习英语的学生来说,在学习课程内容的同时提高语言技能的定制和适应性支持显然很重要。发展自我调节技能也很重要。现代的学习视野不是个人主义的;它承认学生也在团体和社区中学习。3.从神经典型到神经多样化的学习者。AI模型可以帮助包括神经多样化的学习者(与“神经典型”学生相比,以不那么常见的方式访问,处理和与世界互动的学生),他们可以从不同的学习路径以及适合自己优势的显示和输入形式中受益。选民希望AI模型能够支持神经多样性学习者和残疾学习者的学习。因此,他们希望AI模型能够与多种学习路径和多种交互模式一起工作。应该对此类模型进行有效性测试,以防止可能为某些学生分配“个性化”但不足的学习资源。此外,一些用于神经多样性学生的系统目前未得到充分利用,因此支持预期用途的设计也很重要。4.从固定任务到主动、开放和创造性任务。如上所述,从历史上看,人工智能模型在解决数学问题等封闭任务或玩游戏等逻辑任务方面表现更好。在终身和终身机会方面,我们重视学习如何在需要学习者长期参与的开放式和创造性任务中取得成功,而这些往往不是纯粹的数学或逻辑。我们希望学生学会发明和创造创新的方法。我们希望AI模型能够在开放的创造性任务上取得进展。5.从正确的答案到额外的目标。目前市场上许多适应性方法的核心是,该技术内部的模型会计算学生的错误答案,并决定是否加快速度、放慢速度或提供不同类型的学习支持。然而,正确和错误的答案并不是唯一的学习目标。我们希望学生在学习中遇到困难时学会如何自我调节,例如,能够坚持解决难题或知道如何以及何时寻求帮助。我们希望学习者在团队合作和领导团队中变得熟练。随着学生的成长,我们希望他们发展更多的机构,并能够自己采取行动,朝着自己的学习目标前进。列出我们在听力会议中听到的每个扩展维度都超出了本报告的范围。下面的教学,评估和研究部分介绍了一些其他维度。例如,在研究中,我们讨论了人工智能系统在上下文中遇到麻烦的所有方式-人类容易掌握和考虑的上下文。总的来说,听课的成员意识到我们需要一个雄心勃勃的学习观,以应对当今学习者的未来。选民们担心人工智能可能缩小学习范围的方式。例如,如果将人工智能纳入教育中,减缓了对学生在创造性、开放式任务上的技能以及他们在团队中领导和协作的能力的关注,那么学区可能不太能够实现学生在大学毕业生肖像方面的进步。22选民提醒我们,当我们概念化我们希望人工智能在edtech中实现的目标时,我们必须开始并不断重新审视以人为中心的学习愿景。随着AI被引入学校,关于AI在教育中的两个广泛观点出现:(1)AI支持学生学习;(2)支持学习AI和相关技术。到目前为止,我们已经讨论了人工智能系统和工具,以支持学生学习和掌握数学和写作等科目。然而,同样重要的是,学生学习人工智能,批判性地审视它在教育和社会中的存在,并确定它在自己的生活和职业中的作用和价值。我们在本报告中讨论了每个部分的风险。在这里,重要的是让学生更加意识到和了解人工智能的风险-包括偏见和监视的风险-因为它们出现在他们生活的所有要素中。例如,在最近的过去,学校支持学生对网络安全的理解。人工智能将带来新的风险,学生需要了解这些风险。我们看到正在进行的努力让学生有机会了解人工智能是如何工作的,同时也让他们有机会讨论隐私和安全等相关主题。33K-12计算机科学框架中提到了其他学习目标。我们已经看到,学生可以在小学,初中和高中开始学习AI。他们可以使用AI来设计他们认为令人兴奋的模拟和产品。我们已经看到,学生们想谈论他们在日常生活中体验到的产品的道德,并且对他们希望在学校看到或不看到的产品有很多要说的。(稍后,在研究部分,我们注意到共同设计过程的愿望,让学生参与创建下一代人工智能支持的edtech)。总的来说,重要的是要平衡使用AI来支持学习和给学生学习AI的机会。随着AI扩展到教育系统中,我们的聆听会议参与者提醒我们,它将进入系统中目前功能失调的部分或位置。AI当然不是针对损坏系统的解决方案,相反,当系统的上下文不稳定或不确定时,必须更加谨慎地使用。33福赛斯,S.,道尔顿,B.,福斯特,E.H.,沃尔什,B.,Smilac,J.,&Yeh,T.(2021年5月)。想象一个更道德的人工智能:利用故事来培养青少年对人工智能及其社会影响的认识和理解。2021年公平和持续参与工程,计算和技术研究会议(REPECT)。IEEE。https:///10.1109/RESPECT51740.202.9620549;Zhag,H.,Lee,I.,阿里,S.,迪保拉,D.,程,Y。,&Breazeal,C.(2022年)。将道德和职业未来与技术学习相结合,以促进中学生的AI素养:一项探索性研究。“国际人工智能教育杂志”,1-35。https:///10.1007/s40593-022-00293-3。23-NicoleTurner博士如前所述,由于人工智能系统和工具与学习目标并不完全一致,我们必须设计教育环境,将人工智能置于正确的位置,让教育工作者和其他成年人可以有效利用这些工具进行教学和学习。在ITS的例子中,我们看到人工智能可以通过练习数学问题来提高学习效率,而整个课程方法可能包括教师的角色,强调数学实践,如论证和建模。此外,小组工作可能仍然很重要:学生可能会在小组工作中使用数学来预测或证明他们在应对现实挑战时的工作。目前,对于人们而不是人工智能来说,一个“正确的地方”是理解学习如何在文化上做出回应和在文化上维持,因为人工智能甚至还没有准备好将学习与学生社区和家庭的独特优势联系起来。随着人工智能基础的进步,使用人工智能支持学习的机会正在迅速扩大。当我们探索这些机会时,下面的悬而未决的问题值得持续关注:●AI在多大程度上能够适应学生的优势而不仅仅是缺陷?AI是为残疾学习者和英语学习者提供更好的支持?●青年声音如何参与选择和使用AI进行学习?●AI是导致狭窄的学生活动(例如,程序数学问题),还是国家教育技术计划(NETP)中强调的更全面的活动范围,该计划强调诸如个性化学习,基于项目的学习,从可视化中学习,模拟和虚拟现实,以及跨学校,社区和家庭环境的学习?●AI是否支持整个学习者,包括学习的社会维度,例如使学生成为小组和协作学习的积极参与者?例如,AI是否有助于我们重视的学生协作方面,例如共同关注,相互参与,同伴帮助,自我调节和建立彼此的贡献?●当使用人工智能时,学生的隐私和数据是否受到保护?学生及其监护人是否了解他们的数据发生了什么?●监控学生使用AI的过程或系统有多强大,以了解学习者使用AI的障碍,偏见或其他不良后果?如何解决紧急问题?●关于使用AI系统对学生学习的影响的高质量研究或评估是否可用?我们不仅知道该系统是否有效,而且还知道该系统在什么条件下对谁有效?24我们已经提请注意AI的进步对适应性的重要性,以及适应性受到模型固有质量限制的方式。我们注意到,之前的一波edtech以不同的方式使用了“个性化”一词,澄清个性化对特定产品或服务的含义通常很重要。因此,我们的主要建议是梳理即将推出的edtech产品中AI模型的优势和局限性,并专注于与预期的学习愿景密切相关的AI模型。AI现在正在迅速发展,我们应该区分内部具有简单AI功能的产品和具有更复杂AI模型的产品。看看研究和开发中发生的事情,我们可以看到巨大的努力,并努力克服这些限制。我们注意到,决策者在选择可能缩小他们学习视野的人工智能模型时需要谨慎,因为一般的人工智能并不存在。而且,由于人工智能模型总是比现实世界的经验要窄,我们需要继续进行系统思考,考虑到特定教育系统的优缺点。我们认为,整个学习系统比其AI组件更广泛。25教学长期以来,教师们一直设想技术可以为教师、他们的教室和他们的学生带来许多可能的事情,但不是最近大流行带来的变化。今天,几乎所有的教师都经历过使用技术的教学,这是没有人预料到的。其中一些经历是积极的,而另一些则不是。当我们进一步思考教学和技术时,所有的经验都提供了重要的背景。迫切需要专注于解决教师经历的挑战。它必须变得更容易为教师做惊人的工作,他们总是做。我们还必须记住为什么人们选择教学职业,并确保他们能做重要的工作。本节讨论了AI支持教师和教学的示例,包括以下概念:AI助手,以减轻常规教学负担;AI为教师提供学生需求的建议,并扩展他们与学生的工作;以及AI,帮助教师反思,计划和改进他们的实践。始终将教育工作者集中在教学循环中为了成功地将AI作为学习和教学的增强手段,我们需要始终以教育工作者(ACE)为中心。实际上,实践“AI中的ACE”意味着保持以人为本的教学观。当被问及“人工智能会取代教师吗?”时,ACE带领部门自信地回答“不”。例如,这包括更深入地了解他们的学生,并有更多的时间以创造性的方式回应可教的时刻。为了使我们应该如何以及在哪里集中教育者更精确,我们回到我们对人类在循环AI的倡导中,并问,教师应该在什么循环中集中?图5建议了三个关键循环(灵感来自适应性循环的研究34):34Aleven,V.,McLaughlin,E.A.,Glenn,R.A.,&Koedinger,K.R.(2016)。基于自适应学习技术的教学。在Mayer,R.E.&Alexander,P.A.,学习和教学
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2026广西上林国民村镇银行春季招聘备考题库【培优b卷】附答案详解
- 2026海南海口市美兰区校园招聘教师45人备考题库(一)附参考答案详解(典型题)
- 2026苏州创元集团财务有限公司招聘2人备考题库【巩固】附答案详解
- 2026江苏南通市儿童福利中心招聘政府购买服务岗位人员1人备考题库及一套完整答案详解
- 2026浙江嘉兴市海宁市儿童福利院招聘2人备考题库含答案详解(培优a卷)
- 2026黑龙江齐齐哈尔市克东县公益性岗位人员招聘60人备考题库附答案详解【培优】
- 2026天津市安定医院招聘第三批派遣制人员3人备考题库带答案详解(突破训练)
- 2026甘肃平凉华亭市中医医院招聘9人备考题库及参考答案详解【突破训练】
- 2026贵州贵阳贵安招聘中小学(幼儿园)教师819人备考题库附参考答案详解(基础题)
- 哈药集团股份有限公司2026届春季校园招聘备考题库附答案详解(夺分金卷)
- 2026年江苏经贸职业技术学院单招综合素质考试题库附答案详解
- 2026河北衡水恒通热力有限责任公司公开招聘工作人员28名笔试备考试题及答案解析
- 2026春统编版(新教材)小学道德与法治一年级下册(全册)各单元知识点复习课件
- 吉水县2026年面向社会公开招聘农村(社区)“多员合一岗”工作人员【146人】笔试备考试题及答案解析
- 《工程勘察设计收费标准》(2002年修订本)-完整版-1
- 电子元器件选型规范
- 多彩贵州,魅力贵州
- 厦门医学院辅导员考试真题2022
- 有限公司450m3高炉项目初步设计安全专篇
- 热学李椿 电子
- 教学能力比赛决赛 《英语》教案
评论
0/150
提交评论