发布时间:2024-11-16 16:57:20 来源: sp20241116
中新网 北京1月18日电 日内瓦消息:红十字国际委员会(ICRC)近期发布“走进国际人道法”系列解读,对“平民必须受到保护”“人道行动必须保持中立”等战争规则和人道行动原则进行科普和解读。在17日发布的最新解读中,红十字国际委员会警告称,人工智能在军事领域的应用带来系列风险,必须遵守人类道德底线。
ICRC指出,当下,机器人和人工智能等新兴尖端技术日益普及并广为应用,且有可能被应用于“自主武器”当中。“我们无法接受一个算法可以杀人的世界。然而,各国政府正投入前所未有的经费,用于武器自动化研究,开发可自主选择目标和实施打击的无人机、机器人、潜艇和坦克。”
ICRC举例称,当今许多远距离操控的武器,未来可能都将由传感器和软件控制。配备机枪的无人驾驶车辆,冲入城市中任意开枪;检查站的武装机器人,可以通过动作、温度或视觉传感器控制触发袭击;大量的武装无人机可以相互连接,成群结队地展开攻击。
ICRC继而指出,当下战争主要在城市和村镇中发生。不同于开放的战地,居民区环境复杂、人员集中,自主武器很可能击中民用车辆或平民。即使自主武器对正确目标实施打击,其攻击对平民和基础设施产生的风险,也难以依据战争法的要求进行衡量和限制。
ICRC警告称,武器自主性的不断增强使得军队能以极快的速度进行攻击和反击,攻击和冲突脱离人类掌控的风险切实存在。自主武器的使用者无法确保攻击仅限于军事目标,或有效评估给平民带来的风险。
ICRC强调,“无论使用何种武器,冲突方必须做出相应的法律和道德判断。”同时指出,“数字技术的开发者们同样发出警告:机器永远无法将真正的人性融入其交互性能中,无论它们伪装得有多像。”
ICRC呼吁各国立即采取行动,针对自主武器达成新的具有法律约束力的条约。包括:对不可预测的自主武器予以禁止,禁止使用自主武器攻击人类,严格规制所有其他自主武器以确保平民安全等。(完) 【编辑:陈彩霞】