欢迎光临中国图象图形学学会官方网站,让我们一起努力,探索图象图形领域的广袤天地!
首页 > 关于CSIG > 科技伦理与学风建设

专家解读:高文:完善人工智能伦理治理工作

2022-04-01

    《关于加强科技伦理治理的意见》(简称《意见》),是新时代我国科技伦理治理领域具有里程碑意义的纲领性文件,为推动“科技向善”发展、服务我国社会进步及造福人类提供了基本准绳,对有效防范科技伦理风险、促进科技治理体系和治理能力现代化具有十分深远的意义。

 

  人工智能的研究内容常会涉及科技伦理敏感领域,根据《意见》的精神,我认为应主要开展以下工作:

 

  一是道德层面。要根据《意见》精神,完善人工智能领域科技伦理规范、指南,对科技人员进行伦理道德约束和引导,使科研人员具有较好的伦理道德意识,在研发过程中始终以伦理道德红线来约束自己。推动人工智能科研院所和企业建立伦理委员会,自觉开展人工智能伦理风险评估、监控和实时应对,使道德引导和道德约束贯穿在人工智能设计、研发和应用的全流程之中。

 

  二是技术层面。要加强一线科技人员的技术管控和预判能力,使其能够及时识别各类潜在风险的发展阶段和发展程度(如:风险目前没有严重表现,但潜在风险肯定是有的;风险的近期紧迫性不强,但长期严重性绝不可低估;风险的严重性被普遍低估,也没有受到有效的监督与管控等)。同时,要加强算法、数据以及应用的管理、检测和评估,构建有效的风险预警机制,通过不断改进技术而降低伦理风险。

 

  三是法制方面。要将法律法规建设放在重要的位置上,将其作为人工智能伦理治理的最高依据,不断完善人工智能伦理治理的法律体系,使人工智能技术从设计、研发、测试、产业化到应用的全过程都有法可依,消除人工智能伦理治理的法律监管盲区。

 

  人工智能研究工作应以《意见》为指南,准确把握人工智能治理的要求,既要促进人工智能技术的快速发展,又要保证人工智能技术符合社会伦理。

 

  首先,要牢固树立道德伦理红线意识,划出伦理治理的底线。技术发展常常会超前于伦理,所以更要始终将道德伦理作为科技创新、技术应用的先决条件,特别是在进入未知领域探索或拓荒式应用之前,要全面研判潜在道德伦理风险,通过思想实验和伦理悖论推演等多种形式评估风险程度,识别可能引发道德伦理的潜在风险点。科学家要始终将人类基本的道德伦理作为不可逾越的红线,在科研活动中形成严格的道德伦理边界和底线,并在道德伦理安全域内从事各类科研创新和应用实践活动。

 

  其次,要建立敏捷响应机制,积极应对科技伦理治理中出现的问题。在科技活动的实践中,人类会面临诸多新的、没有预见到的伦理治理挑战。一方面,要坚持伦理先行;另一方面,更要建立一套完善的敏捷响应机制,对新出现的道德伦理风险隐患进行快速处理,及时组织伦理学、人文社科、法律、科技政策等专家与科学技术研发者共同开展评估和研究,及时出台行业公约、科技道德伦理规范、法律法规等,将伦理治理滞后于科技发展所带来的负面影响降到最低。

 

  最后,要加强国际交流与合作,探索形成科技伦理治理的中国方案。在道德伦理观方面,不同国家、不同民族、不同文化之间既有相同、相通之处,也有自己独特的角度和定位。我们要站在人类命运共同体的战略高度,坚持“增进人类福祉、尊重生命权力、坚持公平公正、合理控制风险、保持公开透明”的科技伦理治理的基本原则,努力推进符合全人类的科技伦理治理方案。同时,也要结合我国五千年的文化传统,深入研究我国独有的科技伦理治理路径。特别是要从最广大人民利益出发,积极防范数据安全和隐私泄露、算法歧视、基于深度伪造的安全风险、法治风险、科技贫困等一系列道德伦理问题。既要着重解决好中国自身面临的伦理治理问题,又要为全人类的发展作出中国贡献。

 

作者:高文(国家科技伦理委员会委员、中国工程院院士)

来源:光明日报