4Blx60STthX作者:朱启超、王文佳opinion.huanqiu.comarticle朱启超、王文佳:军用人工智能国际安全治理亟待加强/e3pmub6h5/e3pr9baf6人工智能的广泛应用正深刻改变人类社会生产生活方式,在军事领域的应用也不断改变战争的样貌,但与此同时引起了人们对无人化自主武器可能被滥用、滥杀的警惕与担忧。日前,由荷兰和韩国共同主办的“军事领域负责任使用人工智能”峰会在海牙闭幕,包括美国、中国在内的60多个国家在会上签署了一份联合行动倡议书,呼吁各国政府、产业界和智库等所有利益攸关方行动起来,以共同应对人工智能在军事领域应用时可能造成的“意外后果”和责任追溯难题。这次峰会和这份“行动呼吁”被认为迈出了确立在战场上应用人工智能国际准则的重要一步,引起世界广泛关注。 其实,针对人工智能军事应用安全治理和国际规范制定相关话题的讨论多年前就已展开,既有联合国层面的定期磋商,也有国家层面的各自努力,还有产业界和智库层面的对话交流。2019年9月,联合国《特定常规武器公约》确立了致命性自主武器系统运用的11项指导原则。联合国教科文组织2021年正式发布了《人工智能伦理问题建议书》。除联合国外,一些区域性政府间组织也发布了涉及人工智能伦理准则的文件。比如,2019年4月,欧盟委员会发布《可信赖的人工智能伦理准则》。 在国家层面,作为世界上科技最发达、军力最强大的国家,美国2012年以来先后出台自主武器安全规范和军用人工智能伦理准则。比如,美国国防部陆续发布了《国防部指令3000.09:自主性武器系统》《负责任的人工智能准则》《负责任的人工智能战略与实施路径》等政策文件。中国政府也高度重视人工智能军事应用国际治理和规范制定,科技部指导成立了国家新一代人工智能治理专业委员会,2017年以来陆续发布了《新一代人工智能治理原则—发展负责任的人工智能》《新一代人工智能伦理规范》等报告文件。2021年12月13日,中国特命全权裁军事务大使李松向联合国《特定常规武器公约》第六次审议大会提交了《中国关于规范人工智能军事应用的立场文件》。2022年11月16日,李松大使又向联合国《特定常规武器公约》缔约国大会提交了《中国关于加强人工智能伦理治理的立场文件》。在这些文件中,中国积极倡导人工智能“伦理先行” “以人为本”“智能向善”和“多边协商”等治理原则。 在智库交流层面,中国军控与裁军协会、清华大学战略与安全研究中心等机构,积极组织中国专家学者参与人工智能国际安全治理二轨对话,与美国、欧盟、印度、印度尼西亚、马来西亚等国智库之间建立了机制性对话研讨平台,增进人工智能负责任运用的概念理解、规范制定和学术共识。 此次海牙峰会发表的“行动呼吁”,再次强调了负责任开发和使用人工智能军事系统的重要性,强化了国际社会已有的人工智能军事应用国际规范基本共识。但我们需清醒地认识到,这是一项不具有法律约束力的温和“行动呼吁”,在参加会议的80多个国家的代表中只有60多个国家签署了“行动呼吁”。比如,作为人工智能技术强国,以色列代表就没有在“行动呼吁”倡议书上签字。可见,在人工智能军事应用领域,要制定一项类似于限制使用化学武器和生物武器的联合国军控协议,还有很长的路要走。 首先,国际社会对致命性自主武器系统的认识存在较大分歧。以“不结盟运动”和非洲联盟为代表的广大发展中国家和非政府组织强烈要求限制乃至禁止致命性自主武器系统,主张就此达成一项具有法律约束力的国际文书;以欧盟为代表的部分发达国家强调人工智能的军民两用性,主张达成一项不具有法律约束力的政治声明;俄罗斯和美国则强力阻碍致命性自主武器系统军控,尤其是美国,一再强调人工智能军事应用对于人道主义有显著的改善作用,坚决反对制定禁止致命性自主武器系统的国际条约。 其次,地缘政治对抗严重影响各国团结合作。当前,大国博弈与对抗达到自冷战结束以来的新高,少数国家被排除在国际合作框架与体系之外,缺乏全面参与人工智能军事应用国际规范讨论与制定的渠道。比如,由于俄乌冲突,俄罗斯未被邀请参加此次人工智能负责任运用的峰会,没有机会签署此份“行动呼吁”。 最后,人为制造科技壁垒限制了人工智能技术发展与合作。人工智能是人类共同的智慧结晶,应该造福全人类。同时,因人工智能技术的自主成长性、不可解释性造成的潜在使用风险,需要全人类合作攻关。美国等个别国家虽然口头上高调宣称支持人工智能负责任运用的国际合作,但又把人工智能技术当作地缘政治博弈中维护自身霸权的工具,构建排他性小圈子小集团,在与人工智能技术发展应用紧密相关的芯片、5G通信等领域人为制造科技壁垒,恶意阻挠人工智能技术国际交流,成为负责任使用人工智能国际合作的绊脚石。 从历史上看,具有颠覆性潜力的新兴技术往往首先用于军事,因而人工智能军事应用不可避免。尽管目前要达成一项关于人工智能军事应用的国际条约仍困难重重,但各国已经越来越意识到人工智能军事应用的同时,必须考虑其所带来的法律、伦理和道德风险的应对问题。 展望未来,要进一步推动人工智能军事应用的国际规范制定,仍需要各国拿出真诚意愿,积极磋商合作。在这个问题上,中美俄等大国需要加强沟通对话,探索建立相关信任措施,避免人工智能误用滥用引发的战争冲突升级和人道主义灾难,推动构建人工智能军事应用领域的人类命运共同体,与国际社会一道共同维护全球战略稳定和人类和平福祉。(作者分别是国防科技大学国防科技战略研究智库副主任、研究员和助理研究员) 1676833876277环球网版权作品,未经书面授权,严禁转载或镜像,违者将被追究法律责任。责编:赵建东环球时报167684820396311[]
人工智能的广泛应用正深刻改变人类社会生产生活方式,在军事领域的应用也不断改变战争的样貌,但与此同时引起了人们对无人化自主武器可能被滥用、滥杀的警惕与担忧。日前,由荷兰和韩国共同主办的“军事领域负责任使用人工智能”峰会在海牙闭幕,包括美国、中国在内的60多个国家在会上签署了一份联合行动倡议书,呼吁各国政府、产业界和智库等所有利益攸关方行动起来,以共同应对人工智能在军事领域应用时可能造成的“意外后果”和责任追溯难题。这次峰会和这份“行动呼吁”被认为迈出了确立在战场上应用人工智能国际准则的重要一步,引起世界广泛关注。 其实,针对人工智能军事应用安全治理和国际规范制定相关话题的讨论多年前就已展开,既有联合国层面的定期磋商,也有国家层面的各自努力,还有产业界和智库层面的对话交流。2019年9月,联合国《特定常规武器公约》确立了致命性自主武器系统运用的11项指导原则。联合国教科文组织2021年正式发布了《人工智能伦理问题建议书》。除联合国外,一些区域性政府间组织也发布了涉及人工智能伦理准则的文件。比如,2019年4月,欧盟委员会发布《可信赖的人工智能伦理准则》。 在国家层面,作为世界上科技最发达、军力最强大的国家,美国2012年以来先后出台自主武器安全规范和军用人工智能伦理准则。比如,美国国防部陆续发布了《国防部指令3000.09:自主性武器系统》《负责任的人工智能准则》《负责任的人工智能战略与实施路径》等政策文件。中国政府也高度重视人工智能军事应用国际治理和规范制定,科技部指导成立了国家新一代人工智能治理专业委员会,2017年以来陆续发布了《新一代人工智能治理原则—发展负责任的人工智能》《新一代人工智能伦理规范》等报告文件。2021年12月13日,中国特命全权裁军事务大使李松向联合国《特定常规武器公约》第六次审议大会提交了《中国关于规范人工智能军事应用的立场文件》。2022年11月16日,李松大使又向联合国《特定常规武器公约》缔约国大会提交了《中国关于加强人工智能伦理治理的立场文件》。在这些文件中,中国积极倡导人工智能“伦理先行” “以人为本”“智能向善”和“多边协商”等治理原则。 在智库交流层面,中国军控与裁军协会、清华大学战略与安全研究中心等机构,积极组织中国专家学者参与人工智能国际安全治理二轨对话,与美国、欧盟、印度、印度尼西亚、马来西亚等国智库之间建立了机制性对话研讨平台,增进人工智能负责任运用的概念理解、规范制定和学术共识。 此次海牙峰会发表的“行动呼吁”,再次强调了负责任开发和使用人工智能军事系统的重要性,强化了国际社会已有的人工智能军事应用国际规范基本共识。但我们需清醒地认识到,这是一项不具有法律约束力的温和“行动呼吁”,在参加会议的80多个国家的代表中只有60多个国家签署了“行动呼吁”。比如,作为人工智能技术强国,以色列代表就没有在“行动呼吁”倡议书上签字。可见,在人工智能军事应用领域,要制定一项类似于限制使用化学武器和生物武器的联合国军控协议,还有很长的路要走。 首先,国际社会对致命性自主武器系统的认识存在较大分歧。以“不结盟运动”和非洲联盟为代表的广大发展中国家和非政府组织强烈要求限制乃至禁止致命性自主武器系统,主张就此达成一项具有法律约束力的国际文书;以欧盟为代表的部分发达国家强调人工智能的军民两用性,主张达成一项不具有法律约束力的政治声明;俄罗斯和美国则强力阻碍致命性自主武器系统军控,尤其是美国,一再强调人工智能军事应用对于人道主义有显著的改善作用,坚决反对制定禁止致命性自主武器系统的国际条约。 其次,地缘政治对抗严重影响各国团结合作。当前,大国博弈与对抗达到自冷战结束以来的新高,少数国家被排除在国际合作框架与体系之外,缺乏全面参与人工智能军事应用国际规范讨论与制定的渠道。比如,由于俄乌冲突,俄罗斯未被邀请参加此次人工智能负责任运用的峰会,没有机会签署此份“行动呼吁”。 最后,人为制造科技壁垒限制了人工智能技术发展与合作。人工智能是人类共同的智慧结晶,应该造福全人类。同时,因人工智能技术的自主成长性、不可解释性造成的潜在使用风险,需要全人类合作攻关。美国等个别国家虽然口头上高调宣称支持人工智能负责任运用的国际合作,但又把人工智能技术当作地缘政治博弈中维护自身霸权的工具,构建排他性小圈子小集团,在与人工智能技术发展应用紧密相关的芯片、5G通信等领域人为制造科技壁垒,恶意阻挠人工智能技术国际交流,成为负责任使用人工智能国际合作的绊脚石。 从历史上看,具有颠覆性潜力的新兴技术往往首先用于军事,因而人工智能军事应用不可避免。尽管目前要达成一项关于人工智能军事应用的国际条约仍困难重重,但各国已经越来越意识到人工智能军事应用的同时,必须考虑其所带来的法律、伦理和道德风险的应对问题。 展望未来,要进一步推动人工智能军事应用的国际规范制定,仍需要各国拿出真诚意愿,积极磋商合作。在这个问题上,中美俄等大国需要加强沟通对话,探索建立相关信任措施,避免人工智能误用滥用引发的战争冲突升级和人道主义灾难,推动构建人工智能军事应用领域的人类命运共同体,与国际社会一道共同维护全球战略稳定和人类和平福祉。(作者分别是国防科技大学国防科技战略研究智库副主任、研究员和助理研究员)