人工智慧專家簽署文件,比較“人工智慧滅絕”與流行病、核戰爭的風險

“AI 教父”以及 OpenAI、Google DeepMind 和 Anthropic 的執行長都在數百名簽名者中

數十位人工智慧 (AI) 專家,其中包括 OpenAI、谷歌 DeepMind 和 Anthropic 的執行長,大家最近簽署一份由人工智慧安全中心 (CAIS) 發布的公開聲明。

該聲明中有一句話:

“減輕人工智慧滅絕的風險應該與流行病和核戰爭等其他社會規模的風險一起成為全球優先事項。”

該文件的簽署者中有名副其實的 AI 名人錄,包括AI 的“教父”Geoffrey Hinton;加州大學伯克萊分校的 Stuart Russell;和麻省理工學院的 Lex Fridman,音樂家格萊姆斯也是簽約人,列在“其他著名人物”類別下。

雖然該聲明表面上看起來無傷大雅,但潛在的信息在 AI 社群中頗具爭議。

似乎越來越多的專家認為,當前技術可能或將不可避免地導致能夠對人類物種構成生存威脅的人工智慧系統之出現或發展。

然而,他們的觀點遭到一群持有截然相反意見的專家的反駁,例如,Meta 首席人工智慧科學家 Yann LeCun 曾多次指出,他不一定相信人工智慧會變得無法控制。

對於他和其他不同意“滅絕”論調的人,例如谷歌大腦的聯合創始人、百度前首席科學家吳恩達,人工智慧不是問題,而是答案。

另一方面,Hinton 和 Conjecture 執行長 Connor Leahy 等專家認為,人類級別的人工智慧是不可避免的,因此,現在是採取行動的時候了。

然而,尚不清楚聲明的簽署者要求採取什麼行動,幾乎所有主要 AI 公司的執行長和/或 AI 負責人,以及來自學術界的知名科學家都在簽名者之列,這表明他們的意圖並不是要阻止這些具有潛在危險的系統開發。

本月稍早時,上述聲明的簽署人之一 OpenAI 執行長山姆阿特曼 (Sam Altman) 在參議院舉行的討論人工智慧監管的聽證會上首次亮相國會,在他用大部分時間 敦促立法者規範他的產業後,他的證詞成為頭條新聞。

原文

from freepik

新增留言