韩国研发自主武器:人工智能自主掌控武器可以吗?

2018-04-12 08:41     光明网

人工智能自主掌控武器,这个可以吗?

--韩国研发自主武器引发业界深忧

本报记者 张 晔

最近,韩国科学技术院大学与军工企业"韩华Systems"合作研发自主武器,遭全球50多名人工智能学者联名抵制,南京大学周志华教授是唯一一名中国内地学者。

周志华认为,其危险之处在于让机器自己决定是否对人类进行毁灭性打击,"自主武器首先在伦理上就是错误的"。

近年来,人工智能技术突飞猛进,产业界为此狂热不已。但是从已经暴露出的多起舆论事件来看,人工智能技术正在被利益绑架,伦理规范、法律约束一片苍白,这已引发业界的深忧。

自主武器要举起简单规则的屠刀

兵者不祥之器,非君子之器,不得已而用之。我国著名思想家老子对武器的使用曾有恰如其分的阐述。

"武器作为一种必要的'恶'而存在,它的伦理规范要高得多。"东南大学程国斌副教授认为,与人类控制的武器相比,自主武器依靠提前设定的程序,但再复杂的程序也是一种简单规则,一旦达到触发条件,即可自动执行,比如对方携带武器或有显著特征等,"而现场的环境是极其复杂多变的,换成是人类,当时的决策也不见得就正确,更何况是机器依据一个简单的规则"。

一般的智能武器早就有了,但是最终做决定的都是人类。而自主武器,是要把这个"决定权"交给机器,让机器去决定是否对人类进行杀戮。

"如果这样的武器开发出来,自主武器将导致战争的第三次革命,战争将比以往任何时候都更容易发生并且更残忍。"周志华等50多名学者在公开信中写道,它们有可能成为恐怖分子的武器。暴君和恐怖分子可以利用它们对付无辜的人群,他们不会理会任何的道德限制。如果打开了这个潘多拉魔盒,将很难关闭。

任何一个科研领域都存在不该去触碰的东西。例如克隆人是被主流生命科学界所禁止的。这就是科技伦理划定的禁区,也是主流价值观和人类道德的共识。

"人类在使用武器时,受自由意志和道德责任支配,而自动武器则是依据固定程序做出判断,既没有责任主体,也不会产生对杀戮的道德反思,这非常可怕。"程国斌说。

两种伦理规范缺一不可

设想一下:当一辆自动驾驶汽车在高速行驶,前方车道上突然跑出一个人,如果保持车道不打方向就有可能撞死对方保住自己,如果急打方向避开对方却有可能丢了自己的性命……这时,计算机如何决策才是合理的?

这是人工智能业界广为讨论的一个伦理问题,就如同妈妈和女友落水先救谁的问题一样,答案并不明朗。

阅读下一篇

本月第二次!英国海滩再现数千死鱼 死因成谜(组图)

综合英媒报道,十二月刚刚过半,英国海滩已经第二次出现异常景象:数千条死鱼被冲上沙滩,场面十分诡异。周日早晨退潮时,行人在康沃尔Marazion海滩发现了成千上万的死鱼。本月4日,在附近的Pentwean海滩同样发现了数千死鱼。目击者称,无论是早晨遛狗的人牵着的狗,还是天空中的海鸥,都不愿意接近这一大片死鱼。海洋学家认为,这一现象跟天气有关。鱼群可能是为了逃避恶劣天气而游近岸边,也可能是为了逃避捕食