開啟人腦對 AI 的智力挑戰

問問自己關於下一個惡意人工智慧的這些問題:6種問題來去除針對 AI 的恐懼

作者: EVAN ACKERMAN,ELIZA STRICKAND  來源:  IEEE Spectrum

GETTY IMAGES/IEEE SPECTRUM

五月份,在倫敦舉行的未來戰鬥空中與太空能力高峰會上,美國空軍上校塔克漢密爾頓描述了一個模擬測試,其中一架具有人工智能的無人機「開始意識到」如果摧毀其人類操作員,它可以更有效地完成任務。這個「流氓人工智能」殺死創造者的故事迅速在互聯網上傳播開來,主要是由社交媒體推動,也出現在一些主流新聞中。

然而,在受到更多關注後,這個故事迅速崩潰,原因是一個引述錯誤和一個假設性思想實驗的結合。「我們從未進行過那個實驗,也不需要進行該實驗才能意識到這是一個可能的結果」,漢密爾頓後來澄清道。從後來看來,這似乎是相當明顯的,因為最初描述的情景和人工智能的表現並不合理。

這個故事確實是一個關於流氓人工智能的精彩故事,無論它是否真實。隨著人工智能在科技和社會中的日益突出,似乎不可避免地我們將看到更多這樣的故事。因此,我們從各種人工智能專家的建議和意見中,整理了一個問題清單,以幫助您對下一個關於流氓人工智能的故事進行合理性檢查。

這個故事來自可靠的來源嗎? 這個故事來自可信賴的新聞來源,是直接來自研究人員或使用者,或者經過驗證證實為真實的嗎?其他主流新聞網站或事實核查網站是否對這個故事作出回應?同時,考慮故事來源的動機也很重要,例如,是否為了銷售產品或籌集資金?有時這些動機可能被掩蓋,所以重要的是尋找根本的動機,而不是來源可能向你呈現的表面動機。

有意義嗎? 這個情境是否是合理、現實中使用AI的方式?你不一定需要是一位AI專家,就能對一個失控的AI故事進行審查——如果某件事情似乎不對勁,保持懷疑是很重要的。

是否有模稜兩可的字眼? 機器學習系統並不會「理解」或「意識到」事物,也不會「自己學習」去做超出其領域的事情,而這些詞語和片語通常被用來混淆AI實際運作的重要背景。這些詞語可能只是為了將一個概念傳達給更廣泛的觀眾而做出的不恰當選擇,但值得多做一些調查,以了解實際上正在發生的事情。

AI是如何訓練的? 在訓練階段中,哪些行為受到獎勵,這些獎勵是否被適當地加權和限制?AI是在哪些數據上進行訓練的,這些數據是否真實地代表了現實世界?在模擬中可以做各種事情,而AI在條件被精心控制時才能可預測地執行,這通常不適用於實際使用。失控的AI故事強調結果,但往往不提供獲得這些結果的過程的詳細解釋,這可以提供關鍵的背景信息。

人在哪裡? 通常,意外的AI行為是由參與設計或訓練AI的人做出的選擇直接導致的,而不是AI本身的新興行為。這可能是訓練過程的一部分,也可能是AI系統在概念化或實施上的一個更簡單的錯誤。這不是一個「失控的AI」,而是人為錯誤。

專家們有何看法? 文章中是否引用了獨立AI專家的言論?如果有的話,請確保你了解這些專家是誰,以及你自己的懷疑直覺是否建議你相信他們。對於你之前未聽過的專家是否值得信任,很難確定;尋找有見識的懷疑者(最好是在你的廣泛人脈中)。但是,再次提醒你要注意他們的動機可能是什麼。

這些問題的目的不是要否定每一個可能被稱為“流氓AI”的例子。什麼樣的AI算是“流氓AI”是有解釋空間的,你對AI的擔憂可能與AI專家或媒體的看法不一致。不管你對AI持什麼樣的觀點,提出這些問題有助於將令人擔憂的AI故事置於更客觀和準確的背景中。

無論下一個流氓AI的故事說什麼,人工智能很可能並不想摧毀所有人類。它也很有可能並不試圖將我們全部變成書夾。這並不意味著AI不會帶來嚴重的後果,其中一些可能是有害的。但至少在短期內,這些傷害似乎更有可能是微妙的,有針對性的AI系統悄悄地做著它們被設計來做的事情:以最高效的方式利用我們的數據從我們身上獲取注意力和金錢。因此,對下一個流氓AI的故事持懷疑態度,並儘量不要讓它太分散你對AI真正影響你生活的注意力。

新增留言