新闻快讯
< >

专家回应:116位AI专家的杀手机器人禁令没有建设性

专家回应:116位AI专家的杀手机器人禁令没有建设性-E安全

网易智能讯8月22日消息,上周日,包括埃隆·马斯克(特斯拉和SpaceX公司CEO)在内的116名企业家联合发表了一封致联合国的信。信中警告称,AI武器是具有极大危险性的“潘多拉盒子”,它们自己决定何时开展杀戮。对此,包括卫报和华盛顿邮报在内的外媒都报道称,马斯克和他的同事曾呼吁对“杀手机器人”实施“禁令”。

显然,这些新闻标题具有一定的误导性。首先,这封信并没有明确呼吁禁令,尽管其中一位组织者暗示说这是禁令。相反,它为去年12月成立的联合国自动武器委员会提供技术建议。该组织警告称自动化机器“可能是恐怖的武器”是有一定道理的,但试图彻底禁止它们可能是在浪费时间和精力。

这并不意味着禁止武器技术是不可能的。例如,约有192个国家签署了禁止化学武器的《化学武器公约》,一项阻止使用会造成永久性失明的激光武器的国际协议。

自行决策的武器系统是一个完全不同的、范围更广的类别。由人类控制的武器和自主开火的武器之间的界限是模糊的,许多国家(包括美国在内)已经开始越界。此外,机器人飞机和地面交通工具等技术已经被证明有用,武装部队可能会给予他们更多的自由(包括杀戮的自由),这是大势所趋。

美国国家情报总监办公室最近发布的一份关于人工智能和战争的报告得出结论称,这项技术将极大地增强军事实力。报告的合著者、无党派智库“新美国安全中心”的兼职研究员Greg Allen认为,美国和其他国家不可能阻止自己制造武器军械库,这些武器可以自行决定什么时候开火。“你不太可能完全禁止自动武器,”他说,“使用它们的诱惑将会非常强烈。”

美国国防部确实有一项政策,就是在部署致命武器时,要让“人处于决策圈内”。但它并未表示将对禁止自动武器的国际协议持开放态度。美国国防部本周一没有立即回应记者的置评请求。据悉,2015年,英国政府对禁止自动武器的呼吁做出回应,称没有必要使用自动武器,而且现有的国际法已经足够。

你不必费力就能找到已经在某种程度上做出了自己决定的武器。一个例子是美国海军使用的宙斯盾舰载导弹和飞机防御系统。据新美国安全中心的一份报告称,该系统能够在不需要人类干预的情况下,与接近的飞机或导弹进行接触。

其他的例子还包括一架名为“ Harpy”的无人机,它是在以色列开发的,用于地区巡逻,以寻找雷达信号。如果探测到了,它就会自动地对信号源进行俯冲轰炸。以色列航空航天工业公司将这种“Harpy”无人机作为一种“开火后就遗忘”的自动武器。

2015年,马斯克与数千名学术界和工业界的人工智能专家一起签署了一封公开信,呼吁禁止攻击性使用自主武器。就像上周日的信件一样,它是由生命未来研究所组织协调的,据悉该机构研究人工智能和其他技术的长期影响,马斯克向其赞助了1000万美元。

目前,外媒无法联系到该机构,询问为何这封新信函采取了不同的策略。但耶鲁大学法学院的研究员Rebecca Crootof表示,担心自动武器系统的人们应该考虑更有建设性的替代方案来开展全面禁令。对此,她说:“时间和精力若用于制定规章制度会更好。”例如,限制人类士兵活动的日内瓦公约等国际法,可以用来规范机器人士兵在战场上的作战能力。

其他没有禁令的规定,可能会澄清一个模糊的问题:当一款软件做出错误的决定,比如杀害平民时,谁应当被依法追究责任?

相关阅读:

专家警告未来自主武器或可自己选择并攻击目标
美国网络武器也不是万能的?在打击ISIS上表现不如人意
美国防部针对五角大楼网络武器采购实施改革
安全专家全方位解读NSA和CIA网络武器泄露事件

文章来源:网易科技  原文地址:http://tech.163.com/17/0822/15/CSF0C8LL00098IEO.html  专家回应:116位AI专家的杀手机器人禁令没有建设性