2月21日报道 英国《经济学人》周刊网站1月25日刊登题为《自动武器是一个规则改变者》的文章称,相对于机器人暴动的终极噩梦,一个更加现实的担忧是人类有可能让自动武器自行判断杀人与否。有分析认为,在竞争激烈的地区执行任务时,让机器全权负责的诱惑将变得难以阻挡。
资料图:警员在反恐演练现场操纵机器人迅速处置突发情况。
文章称,迅速到来的军事机器人革命是空前的。这些技术带来了伦理、法律、政策等问题,可能构成在某些人看来关乎生死存亡的一种危险。
联合国《特定常规武器公约》(CCW)相关会议已经进行了有关致命自动武器的讨论,该公约禁止或限制一些被认为会引起不合理痛苦的武器。CCW去年11月一场会议召集了一批政府专家和阻止杀手机器人运动组织的非政府组织代表。阻止杀手机器人运动组织希望达成一项具有法律约束力的国际条约,禁止使用致命自动武器,就像此前禁止集束弹药、地雷和激光致盲武器一样。
文章称,棘手的是,自动武器包括从能够有选择性地瞄准的导弹到具有能够决定打击谁、何时打击以及如何打击等认知技能的学习型机器等一系列武器。大多数人认为,当使用致命武器时,应当由人来负责启动。但要确定哪类人工控制是适宜的则更为棘手,并且相关技术发展太快,导致国际外交无法跟上形势。
文章称,令情况更加复杂的是,人工智能和自动机器最引人注目的进展正由具有商业动机的私企实现。即使能够达成禁止军用机器人的协议,催生自动武器的技术也会很快普及并容易转让。
防务分析人士彼得·辛格指出,人工智能竞赛由不可阻挡的力量驱动:地缘竞争、知识前沿领域的科学动力以及追求利润的科技企业。因此,是否能抑制人工智能竞赛一些更令人不安的方面以及如何抑制成为问题所在。简单来说,一个令大多数人惊恐的想法是让能够思考的机器自行选择是否杀死人类。而且,尽管有关机器人暴动的终极噩梦仍是科幻小说,但其他担忧则具有现实性。
专家保罗·沙雷担心自动系统可能因代码编写质量不高或对手发动网络攻击而失灵。这可能致使机器人攻击人类部队,或导致局势快速升级,以至于人类无法做出反应。自动武器的可靠性非常难以测试。会思考的机器可能以人类操控者从未设想过的方式行事。
文章称,美国前国防部副部长詹姆斯·米勒说,如果自动系统在竞争激烈的地区执行任务,让机器全权负责的诱惑将变得难以阻挡。