|
|
||||||||
殺手之濫殺風(fēng)險
人類底線在哪里?
在科幻電影中,機器人的濫殺主要有三種原因。一是某臺中央電腦產(chǎn)生邪惡意識,從而操控其控制下的機器人發(fā)動對人攻擊,如《機械公敵》《終結(jié)者》等都是如此;二是機器人本身由于故障或病毒或自主意識產(chǎn)生了反抗乃至屠殺制造者的思想,如《變形金剛》。還有更多的情況,則是野心家或幕后集團刻意的造出了殺人機器人,只不過,有時他們反過來失去對機器人的控制而已。
據(jù)美國媒體報道,過去幾個月,對于使用全自動機器人的辯論日益增多。有人堅稱,機器人在戰(zhàn)場上能拯救更多生命。美國陸軍肯尼斯少校勾勒出機器人技術(shù)在戰(zhàn)場上的幾大優(yōu)勢:機器不會疲倦,下雨時不需要躲到樹下,也不需要交談。但是人權(quán)組織對“全自動殺人機器人”的擔(dān)心,主要是倫理道德層面的。
相比科幻電影,現(xiàn)實中機器人濫殺無辜的可能性遠(yuǎn)不止這些。有智能的機器也是機器,是機器就有出故障的可能,而且智能化越高,出故障風(fēng)險越大。全自動殺人機器導(dǎo)致濫殺固然是可怕的;但就算現(xiàn)在的半自動殺人機器,難道就是安全的么?偵察系統(tǒng)可能獲取錯誤的信息,造成對目標(biāo)的誤判;后方遙控信號可能被干擾,接收到錯誤的攻擊指令。
而且,比機器更可怕的是操作機器的人。即使軟硬件不出故障,也可能因為操作者的疏忽大意造成誤傷。而軍人的惡念更是戰(zhàn)爭罪行的直接來源。以美軍為例,在伊拉克、阿富汗打著反恐名義殺傷的大量平民,很多是不能怪罪到武器系統(tǒng)的。國際機器人武器控制委員會主席諾艾爾撰文稱:“隨著戰(zhàn)爭變得越來越自動化,我們必須捫心自問,我們的底線在哪里?”(楊益)