位置:主页 > 联系我们 >
“卡古-2”给人类拉响警报
发布日期:2021-10-22 07:03   来源:未知   阅读:

  联合国安理会最近的一份报告指出,2020年3月,一架土耳其STM公司生产的“卡古-2”军用无人机,在被编程为不依靠操作员的情况下,在利比亚战场上跟踪并攻击了正在撤退的“利比亚国民军”,导致一人死亡。有报道称,这可能创下了致命性自主武器在自主模式下攻击人类的首个案例。

  在没有接收到任何指令的情况下自主对人类发起袭击,必将带来战争伦理和作战方式的双重挑战。事件曝光后,各国有识之士纷纷呼吁应对致命性自主武器的发展和使用进行限制。

  具备自主攻击能力的军用无人机同无人战车、哨兵机器人、无人舰艇一样,都属于致命性自主武器系统,俗称“杀人机器人”。这些武器具有敌我识别、数据交换、指令交互、行动协调等功能和全天候作战能力,能根据实际战场环境和态势变化,实施自主化、无人化作战行动。

  近年来,俄罗斯相继成立了国防部机器人技术装备科学研究与试验总中心、无人机国家中心和陆军机器人研发中心等机构,大力发展致命性自主武器。“奥兰-10”无人机、“波塞冬”核动力洲际无人潜航器、“平台-M”履带式机器人等装备陆续亮相。预计到2025年,无人武器在俄装备体系结构中的比例将达到30%。

  美国也发布了数份《无人系统综合路线图》,对未来无人武器发展作出长远规划。美军计划到2030年,将其60%的地面作战平台实现智能化。

  此外,法国、日本、英国、土耳其、伊朗、韩国等国也加大了对致命性自主武器的研发和采购力度。

  与此同时,得益于人工智能、态势感知、人机交互等技术的不断进步,近年来致命性自主武器的智能化水平也得到飞速发展。

  早在2000年,美空军研究实验室就提出了无人机自主能力的等级划分标准,用来衡量无人机自主水平。“卡古-2”无人机属于微型战术多旋翼攻击无人机,能按照预设航迹飞行,还能以20架组成一个机群压制敌防空系统,搭载的自主目标识别系统可以自主定位、跟踪和识别人员、车辆等地面移动目标,进行持续监视或发动攻击。按照该标准,“卡古-2”无人机自主能力等级达到5级以上。

  美军正在实施“空战进化”“空天博格人”等一系列提升无人机自主作战能力的研发项目。美国防部高级研究计划局主导的“拒止环境下的协同作战”项目,2018年至今利用“复仇者”“幽灵”“虎鲨”等不同无人机开展了多次试飞演示,探索和深化分布式空战无人机的自主和协同技术,验证的无人机自主能力等级已达到8级以上。

  通过人工智能等技术的应用提高智能化水平和自主能力,一直是致命性自主武器的发展方向。

  二是随着自主能力的提升,其可以更多地替代人类执行高难度和高风险任务,最大限度地避免己方人员伤亡;

  三是采用自主识别和智能分析等技术,可以避免由于控制者精神不集中、目标误判等人为失误引起的误伤。

  其一,随着人工智能技术的发展和扩散,致命性自主武器得以廉价批量生产,极易被恐怖武装或极端分子获得,或被相关国家大规模装备使用,从而引发新的冲突和军备竞争。目前,无人机已经扩散至包括极端组织“伊斯兰国”在内的多个武装组织。叙利亚也曾多次使用无人机袭击叙利亚政府军和俄罗斯驻叙军事设施。

  其二,由于控制者远离战场,其对军事打击的后果变得更为“麻木”。随着越来越多的致命性自主武器出现在武装冲突一线,人类或将比以往更容易迈过战争的门槛。

  其三,由于战场态势复杂或程序纰漏,致命性自主武器脱离人类控制后,很难完全避免误伤已经丧失战斗力的伤员和准备投降的士兵,遵守相关国际法变得越发困难。

  这些问题的出现,以及由之引发的道德和伦理问题,使得越来越多的人开始探讨如何从道德、条约、法律等不同层面规制致命性自主武器的发展和使用。

  此次“卡古-2”无人机自主攻击事件,折射出国际社会采取行动有效控制致命性自主武器的紧迫性,必须对具有自主决策能力的无人武器发展和使用进行约束。

  在相关领域专家看来,致命性自主武器在没有人的干预下自动选择和攻击目标,意味着将剥夺鲜活的自然人生命的权利交给了冷酷无情的机器人。这既是“道义责任的缺失”,也对国际人道法和国际和平与安全提出了严峻的挑战,是人类“无法承受之重”,必须通过国际法的规制捂紧这个“潘多拉魔盒”。

  中国在安理会常任理事国中首倡在联合国《特定常规武器公约》框架下缔结具有法律拘束力的国际协议来规制致命性自主武器。欧盟拟通过制定文件来避免自主武器对人类的伤害,其发布的《可信任人工智能道德准则》是首个否定致命性自主武器合理性和合法性的区域性国际法文书,提出人工智能不能侵犯人类的自主性。2014年起,联合国《特定常规武器公约》缔约国根据会谈机制,专门以致命性自主武器系统的军备控制为议题,召开多次非正式专家会议和正式政府专家组会议。联合国人权理事会也成立专门委员会讨论是否应冻结“杀人机器人”研发。2018年在瑞典斯德哥尔摩举行的国际人工智能联合会议上,2400多名人工智能领域学者共同签署《禁止致命性自主武器宣言》。

  受战争伦理制约,开火权不可能完全交由致命性自主武器,最多只是在特殊情况下部分地、有条件地放权。这种放权改变的只是人类参与战争的方式,只是将传统由有人武器完成的作战任务交由无人武器执行,人由前台退居幕后,在后方起着控制或监控作用。因此,即使未来致命性自主武器具备了完全自主决策、完全自主行动的能力,人仍然需要对其遂行任务情况实时进行监督,并在必要的情况下随时进行干预。不管是为了战局还是为了人类自身,人类都必须保留在关键时刻对致命性自主武器“喊停”的权力。

感谢阅读,欢迎再来!