搜狐首页 科技 贴身校花2

手机搜狐

SOHU.COM

专家:应约束人工智能军事化 勿逃避人类监管

【环球网军事综合报道】据中国兵器集团官方微信发布的消息,展示了中国兵器集团研发的中国版“大狗”机器人参加由解放军陆军装备部主办的“跨越险阻2016”地面无人系统挑战赛中获50米竞速和综合越野第一名。中国版“大狗”其实就是中国兵器研发的“奔跑号”山地四足仿生移动平台,该平台在比赛中发挥出

奔跑号”山地四足仿生移动平台在比赛中爬坡

四足步行机器人示意图

中国兵器集团公司其他参赛装备,履带式无人车辆。

中国兵器集团公司其他参赛装备,履带式无人车辆。

有必要约束人工智能军事化

斯蒂芬·霍金、马斯克等人曾在国际人工智能联席会议上,支持通过禁止不受人类有意识控制的进攻性自主武器,来阻止人工智能军备竞赛的提议。笔者认同他们的观点,也认为在必要时应签署一个公约来约束人工智能军事化。

人类今天要保卫自己,可利用的武器已经太多了,对于核武器的管控早已是大问题,我们并不需要在常规武器之外,还把人工智能用于武器。

人工智能最大的价值在于低成本、高效率、密集性,通过大数据、智能学习迅速提升其能力。人类对人工智能的把握和控制力又是薄弱和未知的。今天已经有大量的无人机、智能机器人被用于军事行动,而未来所谓“不需要人类干预就能选择目标和交战的武器”,对于人类社会产生的威胁变得不可预知。表面上,这些智能机器人或是无人机作战,会减少士兵的伤亡,但是这些智能机器人和无人机的攻击对象是谁?主要还是人类。

人工智能武器最复杂的问题,在于它的廉价与不可控。不像核武器制造需要极高的技术,很难获得的原料以及高昂成本。人工智能武器便于大规模生产,并通过多种渠道流通。最近我们已经看到在叙利亚战场出现了由民用无人飞机改造而成,携带了榴弹攻击型的无人机,一架无人机和一支步枪的价格相近,可以大批量生产,很容易获得。

人工智能武器的不可控性还在于,即使由技术大国生产出不需要人类干预就能选择目标和交战的武器,但这类武器受人类控制的可能性是未知的,在大量人工智能介入,拥有了强大的学习能力之后,它会怎么选择攻击目标,我们一无所知,无人能保证它会被有效控制,不会人为复制。

因此,在人工智能武器还没成为下一个“原子弹”之时,大国首先需要担起责任,在国际上形成一个类似于禁止化学和生物武器国际协定一样的公约,禁止把人工智能用于军事,而不能单靠科学界的“良心”。如果有一天,大量小型、低成本、不可控的杀人机器泛滥成灾,甚至出现人工智能武器逃避人类监管的情况,再谈管理和控制已经太晚了。▲(作者是信息消费联盟理事长)

精选