教育人工智能伦理与道德风险治理:问题廓清与精准施策
发布日期:2025-01-10 10:48:14
来源
: 中国教育学会
作者
:戴岭 祝智庭
浏览量
:216
戴岭 祝智庭
中国教育学会
发布日期:2025-01-10 10:48:14
216

戴 岭,华东师范大学教育学部博士研究生
祝智庭,华东师范大学开放教育学院终身教授、博士生导师人工智能技术在教育领域的深度渗透所带来的伦理和道德风险日益突出。在先梳理伦理和道德的基本内涵,并构建出伦理、道德和治理的互动框架的基础上,通过从何而来、核心何在、何其重要、如何分辨、若弃何成的问题链剖析教育人工智能伦理与道德风险的渊源、演进和界限,区隔伦理风险和道德风险的问题阈。基于此,提出伦理风险的治理路径:构建分类分级的监管和问责体系,完善多元共治的社会行动结构;以教育伦理规约人工智能,探寻教育技术向善之道;关注教育主体间交互和角色嬗变,重塑良性智能教育生态伦理。道德风险的治理路径则在于:优化算法、强化可解释性,增强智能体价值判断和道德决策;调节分析、预设道德难题,提升科研人员道德和文化敏感性;加强多主体间合作和创造,培育人机共善的道德素养。
当前,新一代人工智能所引发的热潮正席卷教育领域,带来全方位数字化革新。但教育的本质并不会因数字化技术的介入而发生改变,教育传承文化和培育人才的本质不会变,立德树人的根本任务不会变。未来教育是基于伦理和人文主义的教育,是学习与道德和情感成长的结合,强调价值驱动、伦理考量和全人发展的共进。在人工智能治理领域中,对伦理与道德概念的精确界定不仅是理论研究的基础性问题,更是确保技术向善与人类和谐共生的关键前提。本文在厘清伦理和道德的区别与联系、教育人工智能的伦理和道德风险的渊源与演变的基础上,深化理论建设与实践的联结,尝试探讨教育人工智能风险的治理方略并构建未来教育的综合治理体系,旨在实现对人工智能的变革性收益与复杂性风险的驾控,打造“高质量且有温度”的教育人工智能新生态。“道德” 与“伦理” 在伦理学理论体系中属核心范畴,伦理指向风俗或习惯,道德指向行动的原则或规范。伦理的作用在于调和个体间的关系,确保社会的和谐与持续发展。伦理的核心在于培养伦理品格,而伦理品格的培养基于美德的塑造。要成为具有美德的人,个体需通过实践美德相关行为并将其内化为习惯。相较“伦理”,“道德”具有更多的主观性和情感性。“道”本意指道路,后引申为人的行为必须遵循特定原则和规范,与“理”有共通性,故有“道理”一词。朱熹注释《论语》时云:“道, 则人伦日用之间所当行者是也”“德者得也,得其道于心而不失之谓也”。“道德”是指个体将社会规范与原则(道)内化为个人德性,并通过自主行为(德行)落实,从而促进他人福祉与社会和谐,同时促进自身成长与人生价值的提升。对道德治理的解读主要有三种观点。第一,工具论,将道德作为治理的工具,发挥道德的导向作用来调节社会群体间关系,维护社会秩序的政治活动。道德治理就是运用道德中的“应当”“不应当”进行“扬善”“抑恶”,通过道德认知、道德调节、道德教育、道德辩护等方式进行系统的社会治理。第二,内引论,在治理过程中充分考量德性,将道德价值渗透在公共政策中,不仅利用道德的方式手段、途径功能,还需贯彻道德性质和倾向,体现“善治”的诉求。第三,治德论,对道德问题进行治理,通过制定针对性治理方案和措施,多元主体共同参与对不良道德行为惩戒矫正,从而实现社会更高层次的道德理想,如社会正义等。总之,道德是治理的原则基础、合法性来源、方向标准和目标动力,治理是道德的制度化表现、反思修正过程、社会化途径和实践场域。在现代语境下,伦理治理指对特定伦理挑战和问题的治理,而不是一个没有边界的广义治理概念。比如,对一些具体的伦理难题进行治理:现代社会的高度分化导致 “人的完整性”被分割, 伦理如何应对道德世界的碎片化难题;科技进步挑战传统伦理边界,甚至重塑人类和文化的定义, 如何应对这种全新的亟需治理的伦理道德难题。伦理治理是协调合作关系或合作网络的建设性力量,也是确保行为和决策符合道德和社会价值观期望的关键机制。此外,价值观作为道德与伦理判断的行为基础与实践导向,赋予个体及社会群体行为正确性的评价标准与原则。在道德维度,价值观塑造了对善行与正义的认知,指导道德行为的选择。在伦理维度,价值观构成了评判行为善恶的根本依据,影响伦理规范的建立和执行。因而,价值观为道德判断与伦理实践提供了内在的信念体系和行为准则。综上所述,伦理和道德互补相依、相互制约,是治理的合法性和正当性来源。伦理治理和道德治理虽有概念焦点和实施方式的区别,是社会治理的两个不同维度,但相互融合和协同(见图1),共同指引人类社会文明的进步和成熟。在伦理治理和道德治理中,要充分发挥价值观的导向作用与个人-集体道德伦理的建构功能。人工智能的广泛渗透一方面促进效率的提升、降低了成本;另一方面,人工智能系统的自主学习能力使算法决策逐步取代人类决策,而这种替代由于“算法黑箱”“幻觉现象”等原因,导致解决问题的能力并非恒定,有时反而使现存问题更加复杂,并引发新的社会难题。尤其是以深度学习为核心的人工智能技术正不断暴露自身的脆弱、易受攻击、可靠性低、不确定性及对训练数据的过度依赖等风险隐患。技术伦理学强调,技术系统在设计和应用过程中必须全面考虑其潜在的社会影响和风险。然而,当前智能系统在这一方面显著不足,过于侧重技术性能,忽略了社会、伦理和法律层面的深远影响和潜在风险。新一代人工智能涵括转换器模型、思维链、自回归采样、自监督学习等技术模型,尽管在创新性、精准性和智能化方面表现卓越,但其对伦理道德和社会秩序的影响也愈加显著,现有的法律和规范体系因此日益受到挑战。教育人工智能的伦理与道德风险涉及从技术研发到教学应用全过程对个体道德观念、身心发展和社会伦理规范的潜在影响及其随之而来的后果。智能技术的更迭在教育领域的应用给人才培养带来利好的同时也产生诸多风险,尤其是以ChatGPT为代表的新一代人工智能技术所涌现的不确定因素在教育领域显得更加严峻,由于教育的本质是培养人的活动,对象是人,表现在伦理道德上的问题就愈发凸显。当新一代人工智能技术逐渐应用到教育教学过程中,出现了如人机协同教学、个性化学习、智能化评价、辅助学术研究等典型应用。但同时也产生了诸如数据泄露、算法偏见与歧视、学术不端、教育价值偏颇、人文关怀缺失等亟待解决的伦理问题,这些问题给教育的可持续发展带来了极大的挑战。因此,教育人工智能的伦理与道德风险治理的核心在于平衡技术创新与伦理道德约束之间的关系,确保技术发展服务于学习者的个性化需求和全面发展,避免技术错/滥用带来的负面影响。何其重要:教育人工智能伦理与道德风险治理的战略地位
人工智能技术的飞速发展极大地超越了教育伦理风险研究的推进速度,随之而来的风险案例种类和形式也远超过教育伦理风险研究者的想象。风险类型不仅包括教育伦理、信息垄断、人异化发展、责任纠纷等技术与数据管理风险,还包括社会安全、社会意识形态等社会风险。当前,人工智能伦理与道德治理已是全球人工智能发展战略的核心内容,各国通过伦理规范明确人工智能技术研发和应用的基本伦理要求,加强全球人工智能伦理治理合作,构建人工智能有序发展的治理机制。国际人工智能领域的竞争已从技术应用与产业调整扩展到规则的制定,尤其是教育人工智能的监管与治理规则。全球教育人工智能治理的发展历程展示了从初期探索到系统化政策制定的演变,逐步建立了多层次、跨国界的治理结构,确保AI在教育中的负责任和可持续应用。2019年,联合国教科文组织与中国发布的《北京共识—人工智能与教育》奠定了AI在教育中的基本原则,强调了公平性和包容性,标志着全球对AI教育应用伦理问题的初步共识。紧随其后,中国发布的《新一代人工智能治理原则》进一步细化了和谐友好、公平公正的治理理念,强化了对隐私保护和社会责任的关注。UNESCO于2021年发布《人工智能与教育:政策制定者指南》和《人工智能伦理问题建议书》,提出跨部门治理和数据隐私保护的具体指导,为各国制定政策措施提供了详细框架。在具体实施方面,联合国高级别人工智能咨询机构的《以人为本的人工智能治理》通过风险评估和国际合作,强调了在全球范围内建立统一监管标准的重要性,并提出了具体的实施路径。中国进一步通过《新一代人工智能治理规范》,强调增进人类福祉和保护隐私的要求,为AI治理提供了更为具体的操作指南。2023年,美国发布的《人工智能研究和发展战略计划:2023更新版》则强调教育培训在AI治理中的关键作用,特别是在高等教育和伦理培训方面,为全球AI教育治理提供了新的视角。UNESCO发布的《教育和研究中的生成式人工智能指南》针对生成式人工智能提出了制定规范与政策框架的关键举措。此外,中国互联网信息办公室发布的《全球人工智能治理倡议》则提出以人为本和智能向善的发展原则,强调建立AI风险评估机制的重要性。一系列文件和政策通过保护数据隐私、促进公平包容、提升AI素养等多方面措施,共同构建了一个综合性的治理框架,体现出全球在AI伦理治理上的共识与合作,为未来AI技术的发展提供了坚实的伦理基础和广泛的国际合作框架。欲求善治,必先洞察其本质。人工智能伦理学是一门研究人工智能技术在设计、研发、应用和推广过程中所产生和有可能产生的社会问题的学科,关涉人与人、技术与人、技术与社会、技术与自然之间的平衡关系与规范。人工智能伦理属于技术伦理的分支领域,但由于人工智能技术的特殊性,相比于传统的技术伦理,人工智能伦理在研究领域、研究视角和研究方法上具有自身鲜明的特征,传统的技术伦理研究架构已经不能完全涵盖人工智能伦理的研究格局。在此背景下,本研究在国外相关研究基础上勾画出人工智能伦理的涉及界限与其他伦理间的关系(见图2),加深对人工智能伦理的理论关切。人工智能伦理的研究内容包括信息伦理中的数据安全、数字鸿沟等问题,计算机伦理中的技术开发、人机交互中可解释性等问题,三者交叠为大数据伦理领域。人类伦理学作为庞大的学科体系不断向外拓展,但AI伦理中意识和自主性、AI权责等问题暂未被人类伦理所覆盖。通过统计学界对人工智能风险的所有表征和种类,界定出教育人工智能伦理风险和道德风险的各自领域和具体形态。伦理风险侧重各个主体(教师、学生、技术、资源、社会)间的关系问题,道德风险侧重各个主体本身(师生、个人层面不正当地使用等)的风险问题(见图3)。人工智能教育应用领域的迅猛发展受到广泛关注。一方面,企业在持续迭代创新的智能教育产品;另一方面,行业进展的迅猛速度显著超越了行业规范与法律体系的更新频率,致使企业处于一种相对自由而无序的发展态势中。与技术创新“日新月异” 的发展速度相比,伦理规范的制定呈现出明显的滞后性,这一现象在人工智能教育应用的伦理监管领域尤为突出。对教育发展而言,是要将新一代人工智能关进笼子,还是要顺势而为重塑自身?人工智能发展所引发的伦理和道德风险只是潜在社会问题中的冰山一角,以深度学习为代表的人工智能已超出人类的理解和传统伦理的约束。工业革命历经数百年,其积累的物质财富背后,留下的关键教训之一是“先发展,后治理”的模式,为此付出了生态环境失衡等严重代价。以往互联网产业发展的治理理念是“让子弹飞一会儿”,但由于人工智能技术的巨大渗透力和飞速迭代性,不能套用之前先发展后治理的思路,至此,边发展边治理的理念已初成共识。伦理治理旨在善治,关键是守正和立新,通过扬善和惩恶来协调教育领域中各主体的关系,从而规制出数智时代良性的新型教育生态伦理。道德治理的关键是德育,具体要发挥个体的主观能动性、尊重思想内部矛盾积极转化的规律,个体将道德内化为德性,再将德性外化为德行,从而促使主体道德素养的真正形成。①构建分类分级的监管和问责体系,完善多元共治的社会行动结构分类分级是联结算法治理与教育人工智能治理的切入点,通过精细化的实施框架,保障治理措施与教育应用场景的契合。教育人工智能算法的分级分类指向精确且具实施性的框架构建,依据算法特征与功能进行分类和分级排序,体现了科学监管、高效规制和精准治理的目标。差异化管理确保治理措施与技术属性、社会维度及教育场景的充分契合,同时追求多元价值的平衡,为个性化教育治理机制的设计和实施提供了重要指导。基于分类分级理念,首先需对教育人工智能算法进行科学分类,并构建贯穿算法全生命周期的评估与监控框架。该框架包括围绕师生数据采集方式、算法结构、能力获取途径、教育任务特性及教学决策自主度等设立的核心评估指标,并依据算法的教育风险等级,综合考虑其对教育主体、范围及程度的影响,建立相应评估系统。对于风险高、隐患多、逻辑复杂的教育人工智能算法,应深化评估指标,扩充评估内容并增加评估频次。在责任归属方面,伦理责任和义务最终应由人工智能的设计者、开发者、管理者和使用者(师生)共同承担,各治理主体应分别承担各自的责任。在构建算法问责机制时,需根据教育人工智能服务的潜在风险程度、提供方式及提供者资质,实施差异化责任归属。对高侵权风险的人工智能,应注重提供者的预审责任;对中风险服务,实行过失责任原则,结合提供者的经营能力和技术掌控力进行责任调整;若算法开发与部署无明显缺陷,则制定特定免责规则以激励创新。算法备案信息应揭示潜在缺陷与风险,对侵权方的主观过错、是否采取补救措施等进行全面判断,确保算法安全评估及风险监控结果的可追溯性。此外,人工智能与教育多元主体间的交互性要求治理体系应明确政府、企业、行业组织和教育各主体的权利、责任与义务。通过科学布局治理架构、规范操作程序、促进相关主体间良性互动,形成政府监管、企业自律、学校负责和社会监督相结合的多元协同治理模式。政府应与企业、公众、专业机构、研究人员和教育工作者等多方协作,共同制定数字技术伦理监管策略,确保其公平性、透明化、问责性和可持续性。同时,设立教育人工智能伦理委员会等监管机构,依据相关政策法规和应用原则,对教育人工智能开发和使用中可能出现的伦理问题进行监控和解决,对设计中涉及的算法、数据和运行机制进行审查。一旦出现风险事故,该机构可进行追责,并能拥有彻停该系统的权力。在人工智能应用风险和利好的巨大张力下,教育人工智能的发展航向难免发生偏移,每一步算法与每一款应用皆裹挟着不测之险,迫使人们审思“究竟需要何种教育人工智能”。尽管人工智能正变革着教育的全生态,但不变的是教育的本质、学生的需要,是贯穿其中不变的教育之理和教育之道,即教育伦理,代表着教育传承文化的教育使命、优质公平的教育属性、个性发展的教育理念、能力素养的教育内容、美德品性的教育目的不变。作为实现技术向善的必要载体,教育人工智能伦理建设在路径安排上要体现教育伦理的未来性、生命性、社会性与教育实践的人伦原理、人德规范、人生智慧和人文关怀。教育人工智能伦理建设是由社会主导和师生参与,采取切实可行的形式、方法和措施,以调节教育活动中的人伦关系、提高学习者道德素质为根本指向的实践活动。第一,教育人工智能伦理的建设须立足于学生的未定性和创造性,立足于学生的成长,着眼于社会的发展和未来的需要;第二,必须立足于人的生命存在,突出教育挖掘学生生命潜能的中心地位;第三,必须使学生认识到自身应尽的各种社会责任,成为社会化的个体;第四,教育的重点要转向人格、道德情操、审美、责任等方面,凸显人伦精神;第五,针对特定环境中教育对象的需求,须依托适宜性、持续性与经济性原则,制定反映教育需求多样性的适应性标准;第六,承担教育公正公平、教育人道、教育尊严和教育人文关怀等重任,积极推动全民族整体文化素质水平的提高和学习型社会的形成。教育技术的发展愿景赋予了其向善的价值取向和根本立场。教育人工智能伦理构建之道在于融合工具性、人文性、目的性的目标导向,其规范体系建设上旨在抑恶与扬善,并通过制定他律与自律的保障机制确保技术向善的有效实现。教育人工智能追求的不仅是技术创新,而且是如何在创新中融入教育伦理的考量,以确保技术进步服务于推进教育公平、个性发展、促进人类智慧与道德水平共同提升的目标,即塑造一个由人工智能驱动、伦理引领的教育生态。③关注教育主体间交互和角色嬗变,重塑良性智能教育生态伦理以教师-学生为中心的教育模式正发展为以学生为中心、以学习为中心和以资源为中心的学习共同体模式。教育组织形态由过去“师-生”二元单向的传递模式,转变为由“师-机”协同的复合教育者与“生-机”协同的复合学习者多向交互的开放教育生态,颠覆了非数字化时代确立的众多教育关系。另外,人工智能带来的个体发展与身份的异化也在呼唤公众对教育人工智能伦理风险的审慎反思。面向良性智能教育生态的教育人工智能应注重构建学生、教师、知识和世界之间的应然性联系,通过搭建生态学习空间,形成教与学、人与人、人与环境的和谐关系,促进教育的可持续发展。纾解教育人工智能伦理风险,首先要转变观念,教育观念关系着人们对于教育的认识、对于教育价值的看法和怎样进行教育的议题。教育育人的目标应从提高学生的知识储备转向培养学生面向未来、引领未来发展的综合素养:成长型思维与高意识学习特质、人机共生思维与AI渗透技能、开拓精神与“破界”能力、创想能力与实践智慧、人文精神与科技合伦行动力、人类共同体思维与跨文化行动力等。在教育过程中,不能将人工智能技术简单化应用,而要在深度融合中探索培养高智能、高创造性的人的教学模式。其次,规范开放的教育系统和资源均等配置。虚实融合的特性赋予了数字教学系统一定的复杂性与不可预测性。因此,应制定相应的规范保护知识产权、个人信息以及保持网络环境的清洁。同时,优质数字资源的公平分配以及在资源传递过程中的人文关怀,也应被视为重要考量。再次,关注教育主体的地位、权益和角色转变,需强化教育主体在智能化教与学中的主导地位,确保技术应用服务于教育价值的实现,而非简单替代。在法规与伦理层面加强对教育主体权益的保护,确保技术创新的道德边界,对教育者及学习者的角色转型进行深度引导与支持,通过专业培训、课程改革等手段,促进其在智能时代下的能力提升与角色适应。最后,聚焦人机交互的多维诉求,营造技术助力人文关怀与情感体验的数字文化愿景。数智时代,教育的未来使命是培育具有生命性和创新精神的数字原民,这不仅需要超越传统的技术应用视角,深入挖掘与满足人的内在情感和认知需求,更需构筑一个由技术驱动,却深植于人文关怀与情感体验的数字文化环境,让教育技术打破数字时代虚拟空间、人机协同对于情感交互的桎梏,丰富教师与学生的情感表达与情感决策。①优化算法、强化可解释性,增强智能体价值判断和道德决策人工智能的发展应以增进人类福祉为目的,与人类的价值标准和道德规范相符合。道德风险治理的最终目标是通向人机共生、共善,使人类和人工智能共享“美德”,关键在于将教育育人的价值目标融入人工智能系统,实现价值对齐。在教育领域,教育人工智能应秉持人本性、平等性和差异性的基本价值标准。将教育人工智能系统的价值观构建与具体的道德规范嵌入结合起来,并将之落实为具体、可行的操作规则。同时,寻求逻辑的形式表达与刻画方法,缩减道德规范与技术架构间的鸿沟,促进师生与技术实体特征的融合,赋予人工智能以可解释性和可信度,确保其安全、稳定与可控。然而,仅关注性能优化而忽视对算法决策背后的逻辑和价值判断的考量是不可取的。为确保人工智能有效执行规范行为和道德决策,需形成道德协同决策体系、建立道德决策的监测机制以及健全道德决策的社会支持系统等。拉塞尔等提出,将人类价值编程化,有望规避人类面临的奇点风险。教育人工智能道德的算法设计应聚焦于机器道德模型的搭建,通过技术手段嵌入道德要素,利用编程设计公正的技术规范体系,并通过技术程序的合法性加强人工智能决策系统的透明度、可审查性和可解释性。具体可通过融合自下而上的机器学习方式与自上而下的价值嵌入策略和加强内部评估机制。正如学生道德能力的形成融合先天禀赋与后天学习,人工智能的道德能力主要源自人类的设计与开发,但单靠先验设定无法确保机器在复杂环境中作出正确的道德选择。因此,可以通过后天学习协助机器完善其内在道德机制。初步将教育育人目标的核心价值观标准转化为可量化的算法指标并作为决策算法的基础嵌入智能系统中,使之在行为和决策中反映对应的价值取向,以便于教育人工智能系统理解和应用。譬如,尊重可转化为对学生个人隐私和自主权的尊重指标;公平可转化为教育资源分配的公平性指标;正义可转化为教育机会均等的实现指标等。人工智能道德系统以元价值为基准设定其价值观标准,通过价值一致性进行学习,确保其道德行为与人类保持一致。随后,通过自主学习,使机器逐渐掌握并内化这些价值标准。正如道德物化理论认为技术可以内嵌价值,进而通过对技术的设计、制造和应用来实现所期待的道德目的。此外,引入解释性特征或模型结构使得算法的决策过程更加可解释。通过提供决策解释的工具和接口,用可视化方式呈现算法的决策逻辑,帮助教育者和学生理解算法的决策原因和依据,确保教育人工智能技术在伦理和道德上的一致性和可控性。②调节分析、预设道德难题,提升科研人员道德和文化敏感性人工智能和技术生态的设计能在潜移默化中将特定价值观植入日常生活,进而微妙地引导个体行为。技术并非中立,它通过调整和优化结构来扩大或限缩特定意向内容,从而形塑人们的知觉和体验。因此,技术也是道德行为的构成性参与者,人的道德能动性总是受到技术的调节。这就要求科研人员重视技术设计的价值敏感性,并进行“调节分析”,不仅要考虑技术功能的实现和可能的后果,同时要考虑技术被非常规使用的可能。在教育领域,人工智能产品的设计是道德治理的重要环节。首先,建立道德情景分析机制、道德案例库和职业道德评价体系。通过模拟真实教育场景中的道德困境和挑战,引导科研人员参与道德决策和讨论,帮助他们深入理解教育领域中的道德问题,提升道德敏感性和判断力。譬如,通过虚拟课堂模拟复杂的道德情境,让师生和科研人员共同讨论和解决道德问题。再则,科研人员需对技术超预期使用保持敏感,保持一种在技术特定功能之外的调节想象,除了关注技术在不同教育场景中的实际应用效果,还应考虑技术背后对学生全面发展所带来的影响。另外,科研人员应展现对技术跨文化应用的深度自觉性,认识到特定技术在异质文化背景下的多样应用模式及其可能衍生的变体,这些变体有时会与当地文化价值观发生碰撞。譬如,一种人工智能教学工具在不同文化背景的学校中使用时,可能会遇到不同的道德和价值观冲突。当前,科技应用的全球化使新兴技术一旦被开发和推广,便迅速在全球范围内传播。若技术设计内置了特定的价值观,其跨文化应用可能引发价值冲突甚至文化霸权,进而导致育人向度的偏倚。因此,人工智能的设计者与开发者需培育开放性、多元性及跨文化的全局视角,确保人工智能在教育实践中的健康发展。不同领域在处理伦理和道德问题时,由于各自的专业和思维壁垒,往往导致看法存在差异。所以,道德治理的关键在于破“界”和融合,不仅需要学科知识、专业领域、社会身份、文化习俗的互通,更需要不同主体间的认识、方式、价值、理念的交流。因此,学校管理和决策者、产品设计和开发者、学生、教师、家长、教研工作者应携手推进教育人工智能的包容性生态和多元化道德体系的建设,共同合作形成人工智能技术融合教育的“推力”。例如,提升研发团队的教育理解,让人工智能应用更具教育性;让师生成为智能教育产品的共同创造者,建立教育界和技术界互助互惠的关系;以美德、道德、伦理形成数字文化的德育基因,培育各群体人机共善的道德素养,赋能于人机协同的共生共创智慧。培育人机共善的道德素养不仅关乎人工智能研究和应用的道德和法律合规性,更关乎人类文明的发展进程。只有具备高度人机共善的道德素养,教育人工智能才能更好地为人类服务。首先,加强科学共同体的伦理道德教育,通过针对性的培训和交流活动系统地传授科学道德、伦理风险、法律法规等相关知识,提升师生道德判断能力,奠基人机共同体意识的底座。其次,完善互相监督机制和反馈交流平台,各教育主体应负有监督人工智能合乎道德伦理发展的责任,一旦出现触碰道德问题的敏感事项,可以通过监督机制对技术合理性进行管理,以维护教育人工智能的公正性和透明度。再次,利用媒体、网络、课程等多种手段加强科普工作,向广大师生和家长普及人工智能伦理知识,提高人机共善道德素养的整体水平。最后,通过加强国际合作,进行优秀案例和经验的分享,深化主体的道德责任和社会责任感,达成确保人工智能走向更健康、可持续发展道路的共识。(来源:《中国教育学刊》,本平台发表内容以正式出版物为准)
