background

2024年7月26日 星期五

时事万象国际要闻

科學家懇求國際應停止製造殺手機器人

姜啟明

2019年4月3日

AA

姜啟明

2019年4月3日

0
0
0
AA

0
0
0
0
0
0
AA

2019年4月3日

姜啟明

2019年4月3日

姜啟明

【新三才首發】數十名科學家、醫療保健專業人士和學者致函聯合國,呼籲國際禁止使用自動殺手機器人,稱最近人工智能方面的進展「使我們處於致命自主武器新軍備競賽的邊緣」。

該信由70多名醫療保健專業人員簽署,由生命未來研究所匯總,指出致命的自主武器可能落入恐怖分子和暴君的手中,降低武裝衝突的障礙並「成為大規模殺傷力武器,只要很少人就能殺死很多人。」

「此外,當我們永遠不放棄將演算法用於人類生活的決定時,自主武器在道德上是令人憎惡的。」這封信繼續說道。「作為醫療保健專業人士,我們相信科學的突破具有巨大的社會利益潛力,但不應用於自動化傷害。因此,我們呼籲國際禁止使用致命的自主武器。」

除了這封信之外,艾米莉亞·賈沃斯基(Emilia Javorsky)博士寫的一項研究認為,一些致力於致命自治武器系統的國家最近取得的進展將是繼火藥和核武器之後,代表戰爭中的「第三次革命」。

生命未來研究所提出的努力遵循了來自世界各地公司和組織2,400多人的2018年承諾。來自谷歌DeepMind、歐洲人工智能協會和倫敦大學學院等人表示他們「既不參與也不支持致命自主武器的開發、製造、貿易或使用」。

過去的擔憂

其他人也向聯合國提出了關於殺手機器人的好處和代價的擔憂。幾個國家的專家於2018年8月在聯合國日內瓦辦事處舉行會議,重點關注致命的自主武器系統,並探討可能對其進行管制的方法等問題。

聯合國官員當時表示,理論上目前尚不存在完全自主的計算機控制武器。辯論仍處於起步階段,專家們有時也在努力解決基本定義問題。美國認為,建立這種系統的定義還為時過早,更不用說它們了。

一些倡導團體表示,應該阻止政府和軍隊開發這樣的系統,這些系統引發了恐懼,並導致一些批評者設想了令人痛苦的使用場景。

2017年,特斯拉首席執行官埃隆馬斯克和其他領先的人工智能專家呼籲聯合國全面禁止使用無人機、坦克和機槍等殺手機器人。「一旦潘多拉的盒子被打開,就很難關閉。」來自全球的115位專家和馬斯克在信中寫道。

「我們面臨的最大風險」

馬斯克一再擔心人工智能的興起,此前曾表示這可能是「我們作為一個文明面臨的最大風險」。這位技術高管甚至說它可能導致第三次世界大戰。

研究公司IDC預計,到2022年全球機器人和無人機的支出將達到2013億美元,高於2018年的959億美元。

多年來,包括馬斯克,傳奇理論物理學家斯蒂芬·霍金(Stephen Hawking)和其他許多人在內的幾位名人都警告人工智能的興起。在霍金於2017年11月去世之前,他認為如果我們不小心,人工智能最終可以「摧毀」人類。

2017年9月,馬斯克在推特上說他認為AI可以在引發第三次世界大戰中發揮直接作用。馬斯克的想法是對俄羅斯總統普京的評論予以回應,普京說「誰成為[人工智能]這個領域的領導者,將成為世界的統治者。」

(編譯:王明真)

(責任編輯:姜啟明)

(文章來源:新三才首發)

免费订阅精彩内容免费订阅

標籤:

评论留言