人工智慧科學家們不應該逃避戰爭機器人議題,應該正大光明的面對

    加入我們永遠收到最新的消息

奧創2

已有超過2400名人工智慧(AI) 以及機器人工學科學家們簽暑了一份公開的文件,訴說把所有的自動化武器-或稱"殺人機器"給禁止。

科學家們提出眾多個關於自動化武器的缺點,特別強調軍事化的武器會促進更多的軍備競賽,跟製造更多的軍事衝突。

雖然,公開簽暑的文件中不僅缺少提出的數個自動化武器的缺陷,但卻很有效的表示人工智慧與機器人工學科學家們應該退出所有的自動化武器的研發。

雖然如此,我認為還有很多很好的理由為何AI與機器人工學的科學家們應該面對自動化武器議題,例如增加他們的道德觀以及增進我們對於道德的認知。

公開文件中的內容

公開的文件中提到說,自動化武器的開發會導致一連串的問題:

“如果任何軍事龍頭開始推往人工智慧武器研發,國際上的軍備競賽絕對是無法避面的,最後的結果可想而知的就是自動化武器會成為下一個的Kalashnikovs(AK-47) 。"

這再次確認了為何自動化武器應該被禁止。

文件中有個有趣的的觀點,自動化的侵略性武器應該被禁止,但是自動化的防禦性武器,卻是可以接受的。看來這個推廣禁止自動化武器的的活動也做過相當的功課,且接受了北大洋公約組織(NATO),阿拉伯聯合大公國,以色列,沙烏地阿拉伯,日本,以及南韓都已花了大錢在防禦性的自動化武器上,像是愛國者,方陣系統,C-RAM。因為這些大國都不會接受這些被禁止。

文中也輕微的提到,人工智慧的歷史,去推廣第二個政策結論:AI科學家不應該讓自己的手染上軍事的鮮血,也不該讓戰爭汙染了自己的身心。

推薦文章:  挪威正在建造世界上最大的船用隧道,真的超級巨大!

人工智慧2

坦白的說,如果跟軍事扯上關係會被汙染,那人工智慧出生就是已經被汙染的。是發明家Alan Turing決定提供智慧信號給布萊切利園(Bletchley Park),Turning是為了軍事用途而發明這機器的。

也許TCP/IP-現今的掌管網路的系統-也是被汙染的裝置,因為他誕生的用途是來控制與命令核飛彈的。

國際性的人工智慧軍備競賽始於1940年左右,至今還未停止過,即使如此,社會還是有從這些當初為了軍事用途的民間科技程式中獲取相當大的利益。

科學家Martin Seligman 研究正向心理學,名為Flourish,是由美國軍方贊助的,但是我們卻不覺得他是被汙染的創作。還有Daniel Kahneman研究 “System 1″ (fast) 跟 “System 2”  (slow) 也是由以色列軍方出資的,而這對於我們如何思考上有很大的幫助。

人工智慧3

文件中未提到的內容

當然也有許多問題關於自動化武器的問題沒有列在公開文件中

  • 機器人無法辨識目標(是敵是友或是一般民眾)
  • 機器人無法計算比例(是否犧牲幾個無辜的小孩子去擊殺一名高等級的恐怖份子是否值得)
  • 機器人無法為他們的行為負責(因為它們不是有自由意志的真實探員有決定事情的自由,同時也無法為它們所做的事被表揚,責怪,或是處罰)。
  • 機器人會降低戰爭的花費,導致戰爭比以往更容易發生
  • 機器人會減少戰爭的榮譽感,已經從無人機開始了
  • 機器人不應該做出殺人的決定
推薦文章:  O型的人一定要知道這件事,因為它能救你一命!

奧創

這些都是很嚴肅的議題,但是,也有些議題人工智慧跟機器人工學科學家可以很完美的解決。畢竟他們有這個專業能力可以去解決這些問題,降低在未來戰爭中傷亡的人數,也同時解決了科學家道德觀的問題。

這也是我沒有簽屬這份公開文件的原因。

AI學者們應該更注意ADF手冊

用Kahneman研究的快(fast) 慢(slow)系統來說明,不應該屈服在能快速解決了解的道德認知,AI與機器人工學的科學家們應該慢慢的在實戰中解決的這些道德觀問題。

ADF手冊,或稱澳洲國防手冊,是一個容易開始的地方,它比美國的手冊好,因為澳洲有簽屬了許多美國沒有簽屬的國際人道主義的法規,例如日內瓦公約的追加協議,特定常規武器的公約,還有諸多別的協定。

AI科學家們應該看看這份手冊,在軍人的人生中,決定是否必要射殺敵人不是一切,最重要的是降低,最小化戰爭的災難,保障人的權利,保護文化財產。有認知的人員,有時就需要決定是否要使用手中的武器去保護這些權力完成他的義務。

讀過ADF手冊後,AI(或是類似的領域)應該研究哪些人工的部份能自動化,同時也研究自動化的風險,然後領悟到人類的有效控製(meaningful human control)的失敗。

推薦文章:  令人震驚:浮游生物會吃有毒的超細纖維,最後落入人類的肚子裡!

我們需要他們去研究倫理的風險轉移,強迫接受風險,移除風險,還有在機器上呈現與處理這些資料。

或者,如果他們能證明這是不可能做到的,那應該要設計一個能做到的更好的機器。

人工智慧

他們也需要決定科技進步後,人類還是機器哪一個較適合在戰場上,還有思考戰士們的心理上是否會被實戰重創,機器人也一樣。

在這些都解決以後,我們才能把從實驗結果中的資料拿來參考,決定政策。

結論為AI不該停止,但是應該成為軍事機器的最前線,接受道德認知的挑戰。
加入好友
來源: Iflscience