韩国研发自主武器:人工智能自主掌控武器可以吗?

2018-04-12 08:41     光明网

人工智能自主掌控武器,这个可以吗?

--韩国研发自主武器引发业界深忧

本报记者 张 晔

最近,韩国科学技术院大学与军工企业"韩华Systems"合作研发自主武器,遭全球50多名人工智能学者联名抵制,南京大学周志华教授是唯一一名中国内地学者。

周志华认为,其危险之处在于让机器自己决定是否对人类进行毁灭性打击,"自主武器首先在伦理上就是错误的"。

近年来,人工智能技术突飞猛进,产业界为此狂热不已。但是从已经暴露出的多起舆论事件来看,人工智能技术正在被利益绑架,伦理规范、法律约束一片苍白,这已引发业界的深忧。

自主武器要举起简单规则的屠刀

兵者不祥之器,非君子之器,不得已而用之。我国著名思想家老子对武器的使用曾有恰如其分的阐述。

"武器作为一种必要的'恶'而存在,它的伦理规范要高得多。"东南大学程国斌副教授认为,与人类控制的武器相比,自主武器依靠提前设定的程序,但再复杂的程序也是一种简单规则,一旦达到触发条件,即可自动执行,比如对方携带武器或有显著特征等,"而现场的环境是极其复杂多变的,换成是人类,当时的决策也不见得就正确,更何况是机器依据一个简单的规则"。

一般的智能武器早就有了,但是最终做决定的都是人类。而自主武器,是要把这个"决定权"交给机器,让机器去决定是否对人类进行杀戮。

"如果这样的武器开发出来,自主武器将导致战争的第三次革命,战争将比以往任何时候都更容易发生并且更残忍。"周志华等50多名学者在公开信中写道,它们有可能成为恐怖分子的武器。暴君和恐怖分子可以利用它们对付无辜的人群,他们不会理会任何的道德限制。如果打开了这个潘多拉魔盒,将很难关闭。

任何一个科研领域都存在不该去触碰的东西。例如克隆人是被主流生命科学界所禁止的。这就是科技伦理划定的禁区,也是主流价值观和人类道德的共识。

"人类在使用武器时,受自由意志和道德责任支配,而自动武器则是依据固定程序做出判断,既没有责任主体,也不会产生对杀戮的道德反思,这非常可怕。"程国斌说。

两种伦理规范缺一不可

设想一下:当一辆自动驾驶汽车在高速行驶,前方车道上突然跑出一个人,如果保持车道不打方向就有可能撞死对方保住自己,如果急打方向避开对方却有可能丢了自己的性命……这时,计算机如何决策才是合理的?

这是人工智能业界广为讨论的一个伦理问题,就如同妈妈和女友落水先救谁的问题一样,答案并不明朗。

阅读下一篇

安倍特使称“消灭”挑拨日韩关系者 遭韩政府打脸

据环球时报6月13日报道,日本首相安倍晋三特使、自民党干事长二阶俊博率领一个360人规模的特使团于6月10日起访韩。二阶俊博此行带着安倍的嘱托,力图修复日韩关系,并为两国首脑会谈铺路,但由于在韩国“出言不逊”,12日连遭韩国政界和舆论猛批。韩国执政党党首秋美爱在与二阶俊博会谈时称,要想对方好言相向,需先自己口吐莲花。韩国外交部也回应称,谈及慰安妇问题等事关韩日关系时,有必要慎重发言。韩国总统文在寅