滚动
财经>财经要闻

人权组织称,杀手机器人2015:完全自治的武器太危险了

2019-07-24

人权组织称,杀手机器人2015:完全自治的武器太危险了

Killer robots
作为2013年4月23日在伦敦停止杀手机器人运动的一部分,在议会大厦和威斯敏斯特大教堂前面描绘了一个机器人。在没有任何人为干预的情况下攻击目标的机器人必须在它们被开发之前被禁止活动人士敦促在战场上使用。 照片:Reutes

两个人权组织正在对在战争中部署所谓的的危险发出警告,敦促各国不要追求这项技术,因为当完全自主武器选择在没有人为输入的情况下杀人时,很难让某人负起责任。周四发布的 。 “根据现行法律制定和使用完全自主武器的问责制的障碍是巨大的,”“注意差距:杀手机器人缺乏责任感”的作者写道。

杀手机器人尚未进入战场,但和哈佛法学院的建议国际协议和国家法律停止开发,生产和使用完全自主武器。 作者说,杀手机器人的性质使得该技术的受害者几乎不可能追求法律追索权。

他们写道:“武器本身不能对其行为负责,因为它们不能以犯罪意图行事,不属于国际法庭的管辖范围,不能受到惩罚。” “刑事责任可能仅适用于人们特意打算使用机器人违法的情况。 至少在美国,由于法律赋予军方及其承包商的豁免权以及产品责任诉讼的证据障碍,民事责任几乎是不可能的。

据报道,杀手机器人本身不能承担法律责任,因为他们不能像人类那样拥有犯罪内容。 作者写道:“完全自主的武器本身不能为它可能犯下的犯罪行为负责,因为它缺乏意向性。”

同时,根据该报告,高昂的法律标准使成功起诉杀手机器人指挥官成为一项艰巨的任务。 报告称,“杀手机器人的自主性在某种程度上会使他们在法律上类似于人类士兵,因此它可能触发间接责任或指挥责任的学说”。 “在大多数情况下,指挥官仍然会逃避责任。 指挥责任只有在他们知道或应该知道下属的犯罪行为并且未能阻止或惩罚它时才能使上级承担责任。 这些标准为完全自主武器的行动责任制定了一个很高的标准。“

该报告赞同了2013年由包括人权观察在内的一些非政府组织组成的的立场。 “自主机器人将缺乏人类的判断力和理解环境的能力。这些品质对于在动态战场上做出复杂的道德选择,充分区分士兵和平民,以及评估攻击的相称性是必要的,”该组织说它的 。 “因此,完全自主武器不符合战争法的要求。”


载入中...

责任编辑:索伢癯