】 【打 印】 
【 第1页 第2页 第3页 第4页 第5页 】 
中评关注:美国“震慑战争”时代一去不复返
http://www.CRNTT.com   2024-08-06 01:22:58


 

  文章最后谈到人工智能的安全风险,以及大国合作控制这种风险的重要性。文章承认,在最坏的情况下,人工智能战争甚至可能危及人类。使用OpenAI、Meta和 Anthropic的AI模型进行的战争游戏发现,与人类进行的游戏相比,AI模型往往会突然升级为动态战争,包括核战争。如果真正使用这些人工智能系统,不需太多想象力就可以看出事情会如何变得严重错误。

  作者表示,值得庆幸的是,中国和美国似乎认识到他们必须在人工智能方面进行合作。旧金山峰会两国领导人承诺共同讨论人工智能风险和安全问题,第一轮会谈于5月在日内瓦举行。这次对话是必要的。即使两个超级大国之间的合作从小规模开始,也可以为更大的事情奠定基础。北京有动力与华盛顿合作控制新武器。美国和中国有着不同的全球愿景,但两国都不希望恐怖分子拥有危险的机器人,他们可能还想阻止其他国家获取此类技术。拥有强大军事技术的大国几乎总是有重叠的利益来保留这些技术。

  米利和施密特指出,美国应该确保自己的军事人工智能受到严格控制;应该确保人工智能系统能够区分军事目标和民用目标;必须让人工智能处于人类的指挥之下;应该不断测试和评估系统,以确认人工智能在现实条件下按预期运行。他们称,美国应该向其他国家(无论是盟友还是对手)施压,要求他们采取类似的程序。如果其他国家拒绝,华盛顿及其合作伙伴应该利用经济限制来限制他们获得军事人工智能。


 【 第1页 第2页 第3页 第4页 第5页 】


扫描二维码访问中评网移动版 】 【打 印扫描二维码访问中评社微信  

 相关新闻: