人工智能方兴未艾。在去年8月的一场虚拟空战中,人工智能5比0战胜一名人类飞行员。该结果仍在被讨论,但毫无疑问,机器具有更快的反应能力,有能力同时追踪数件事,并且不会受到疲劳或恐惧的困扰,疲劳和恐惧可能会导致在战斗中的糟糕决策。
对此有两种回应。一种是努力并控制人工智能,让其远离战场,因为机器缺乏人类的道德感。长期以来,反对“杀手机器人”的组织一直提出理由反对自主武器,而欧盟似乎也赞同。上周,欧洲议会确定其立场:“选择一个目标并使用自主武器系统采取致命行动的决定,必须始终由人类做出,进行有意义的控制和判断。”换言之,自主武器作出自己的决定应被法律禁止。
然而,美国似乎采取了不同的路线。由政府任命的一个小组本周向国会报告时提出,人工智能有可能比人类犯的错误少,并且在识别目标方面会做得更好。
该小组副主席、前国防部副部长罗伯特·沃克说:“至少追求这一假设是道德义务。”他认为,自主武器将减少由于目标错误识别而造成的伤亡。
在这背后,有军事观点。如果由人工智能控制的武器能够击败人类操作的武器,那么拥有人工智能的任何人都将获胜,并且无法部署它们意味着接受失败。
来源:参考消息网 |