教育人工智能伦理风险如何消解
赵磊磊 代蕊华人工智能是计算机科学的一部分,包括研究、开发用于模拟、延伸和扩展人类的智能理论、方法、技术及应用系统等方面。教育人工智能伦理是用以规范教育人工智能开发及应用过程中关系、行为的道德及准则。教育人工智能虽具备强大的数据整合与分析能力,但同时也会引发一系列新的伦理风险,主要体现在以下4个方面。
信息安全。人工智能助力教育教学的同时,不仅为师生发展创造机遇,也产生了海量教育数据,如个人身份信息、行為轨迹、学习偏好等。若此类数据并未得到有效保护或者被非法使用,则会引发一系列信息安全问题。例如:个人隐私资料被恶意泄露及不正当使用、电子邮件的恶意推送、非法电子监控、网络诈骗、数据侵权等,师生的隐私权利在人工智能透视镜下将变得十分脆弱。
目标冲突。教育人工智能的目标冲突风险,主要由人工智能开发商和用户的基本目标不一致所产生。对私营部门来说,由于商业利益至上的理念根深蒂固,可能会依托人工智能技术工具过度追逐私利。而且,不少教育人工智能设计者与开发者缺乏致力于“教育公共服务”的责任意识,欠缺对教育成长的价值关怀 ......
您现在查看是摘要页,全文长 4330 字符。