支付寶|傳聞日本實驗室曾發生AI殺人事件?如果AI殺人,誰該為此負責?( 二 )


可是當問她這名陸戰隊成員的姓名時 , 她又含糊其辭地表示這是高度機密 。 那基地在哪 , 總能說個大概范圍吧?她也說不方便透露 。 不管怎么說 , 這老太太的推特瀏覽播放量倒是通過這件事暴增到了560萬回 , 這一數字連很多網紅大V都自嘆不如 。

有真實可考的AI殺人事件嗎?
關于Linda Moulton Howe演講里提到的故事 , 究竟是真是假 。 那就仁者見仁、智者見智了 。 很多人看到這里不禁要問:現在人工智能發展日新月異 , 這種AI殺人的事情未來會不會發生呢?
很遺憾 , AI殺人的事情已經發生了!是的 , 你沒有聽錯!AI已經可以用來殺人了 。 當然 , 這并像Linda Moulton Howe說的那么邪乎 。
那是在2020年3月的利比亞內戰戰場上 , 一架土耳其生產的自殺型無人機在完全自動的模式下 , 開槍攻擊了一名參戰士兵 。 根據《新科學家》雜志宣稱 , 這是人類有史以來第一例明確記錄在案的“AI機器人自主殺人事件” 。

有人可能會說 , 這算什么 , 之前美國無人機殺的人還少啊 , 卡扎菲不就是讓美國無人機給弄死的嗎?這可不一樣 , 區別可大了去了 。
此前的無人機攻擊 , 無論是斬首行動也好 , 自爆自殺也罷 , 都是先有后方的人進行操控發出指令 , 無人機只是在執行人下達的指令 。 而土耳其這次不同 , 無人機完全是自己思考后做出的決斷 。 而這種能力 , 也是由于被人工智能“深度學習”改裝發展而來的 , 只不過一般的AI學習用來創造 , 這臺武器卻在學習如何殺人 。
AI殺人的恐怖后果
若一種武器系統可「自主」選擇與攻擊目標 , 便可稱為「致命自主武器系統」(LAWS)致命自主武器系統亦有人將之稱為「殺手機器人」(killer robot) , 但不限于有雙手雙腳、可進行攻擊防御的人形機器 。
關于其能力涵括了三個指標:自主移動、自主導向和自主決定 。
自主移動意謂系統能夠自行移動、自主導向意謂系統能識別目標、自主決定則意謂系統能自行設定計劃 。
若依此定義 , 目前大多數AI武器具有很高的自主移動和自主導向能力 , 但極少有自主決定的能力 。
【支付寶|傳聞日本實驗室曾發生AI殺人事件?如果AI殺人,誰該為此負責?】
有人說了 , 戰場上用AI不是更好么?如果單純地機器對機器 , 不是更能減少不必要的人員傷亡了么?
其實不然 , 再冷血的士兵也是一個個活生生的人 , 也有自己的喜怒哀樂 。 而任何戰爭的目的都只是為了達成自己的目標 , 給反對者以痛擊 。 而不是純粹為了進行殺戮游戲 。 所以世界上才會有國際戰俘法 , 才會有人道主義救助走廊 。

人道原則是指即使在戰時 , 也必須尊重人的生命和尊嚴 , 要求對他人施與人道待遇 。 因為人類會同情人類 , 因此有動力以人道方式對待彼此 。 此外 , 法律和道德判斷使人類能夠理解特定環境 , 做出經過思慮后的決策 , 包括在戰爭里最小化傷害 , 并防止任意與不合理的生命損失 。

這些都是AI所欠缺的部分 , 做為無生命的LAWS缺乏同情心 , 無法體會人類生命價值及其喪失的痛苦 。
AI只能根據算法做出生死決定 , 而算法在復雜和不可預測的情況下效果不佳 , 也無法針對每種情形先行編程 , 最終會將人類降低為一般的生物對象 , 違反人道原則 。
它們只是一群冷冰冰的兵器 , 并沒有人類的感情 , 也不知道生命的價值 。 就拿無人機來說吧 , 它可以通過運用臉部識別技術加以學習訓練后 , 就可以鎖定特定人物進行攻擊 , 至于這個人到底罪該不該死 , 這個人對于我軍是否存在價值 , 完全不在無人機的考慮范圍之內 。

相關經驗推薦