本篇文章1486字,读完约4分钟
4月9日,联合国特定常规武器公约政府专家组在瑞士日内瓦召开会议。会议计划讨论致命自主武器系统的研发可能带来的影响,这种武器系统通常被称为“杀手机器人”。
50多名世界著名的人工智能和机器人研究人员4日宣布,他们将抵制韩国科学技术研究所,以抗议其开发人工智能武器的计划。
与此同时,一封公开信已经在美国谷歌公司(Google Inc .)流传了几周,3000多名谷歌员工签名要求该公司退出五角大楼的人工智能军事计划。
人工智能的迅速发展给社会的各个领域带来了深远的影响,也给军事作战系统的研究和发展带来了新的思路。然而,人工智能领域的专家、学者和国防分析家认为,机器人骚乱只是科幻小说的终极噩梦,军事机器人革命带来的伦理、法律和政策问题,尤其是自主武器能否判断是否杀死敌人,是人们迫切需要担心和讨论的现实问题。
大多数专家学者一直认为,当使用致命武器时,人应该是负责启动的关键因素。关于什么样的人工控制最合适的讨论还没有结束,相关的政策制定也已经被人工智能技术的快速发展抛在了后面。随着具有认知能力的人工智能系统的出现,出现了更加复杂的问题。
新美国基金会(New America Foundation)研究员、国防政策分析师辛格(Singer)在他的著作《互联战争:21世纪的机器人革命与冲突》(Connected Ware:Roboth Revolution and Conflicts in 21世纪)中指出,在地缘政治和知识的前沿领域不断进取的动力,甚至是追求利益的科技企业,都是人工智能发展的不可抗拒的力量。简而言之,现在大多数人最害怕的是是否让能够“思考”的人工智能系统来决定是否杀人。
新美国安全中心技术和国家安全项目主任沙雷说,自主武器系统可能会因代码问题或黑客攻击而失败,机器人可能会攻击人类力量,人类无法做出反应,或者当地局势迅速升级。自主武器系统的可靠性很难测试,而“思维”机器系统可能以人类控制者从未想象过的方式运行。
美国国防部前副部长米勒(Miller)认为,在战争激烈的地区,自主武器系统执行任务的诱惑可能难以抵挡,技术上的可能性可能总是让人们做出对形势有利的选择。
对于自主武器系统,人工智能领域的专家和学者经常说“不”,拒绝在相关领域进行研究和开发。例如,韩国科学技术研究院开发的机器人在2015年赢得了美国国防部高级研究计划局的机器人挑战赛。据《韩国时报》报道,韩国科学技术研究院和韩化系统公司(一家军事企业)合作建立了一个R&D中心,旨在开发能够“在没有人工控制的情况下搜索和清除目标”的人工智能武器。
作为回应,50多名顶级人工智能研究人员在一封公开信中表示,他们将抵制与韩国科学技术研究所的任何合作,直到该研究所宣布不会开发任何缺乏人类控制的自主武器。韩国科学技术研究院随后发表声明称,它没有计划开发“致命自动武器系统或杀手机器人”。
五角大楼的“梅文项目”始于2017年,旨在寻找加速军方应用最新人工智能技术的方法。尽管五角大楼和谷歌都表示,谷歌的产品不会创造出一个无人操作的自动武器系统,但谷歌员工在一封公开信中表示,参与“梅文计划”将对谷歌的品牌和人才吸引力造成不可挽回的损害,谷歌不应卷入战争,谷歌及其承包商也不应开发战争技术。
在2017年的国际人工智能大会上,在硅谷被称为“钢铁侠”的马斯克、苹果联合创始人之一沃兹尼亚克、开发“阿尔法围棋”(Alpha Go)的深思熟虑的公司哈萨比斯(Hassabis)以及其他人都签署了公开信,呼吁联合国禁止在战争中使用致命的自主武器和“杀手机器人”,就像禁止化学和生物武器一样。
来源:搜狐微门户
标题:AI界对“杀手机器人”说不 联合国为此召开会议
地址:http://www.shwmhw.com/shxw/46530.html