超智能AI即將來臨:OpenAI警告需重視治理和監管

擬超越專家水準十年內現 – OpenAI呼籲制定監管措施,預防潛在災難

圖/由 0xchou 製作提供

根據OpenAI的CEO Sam Altman、總裁Greg Brockman和首席科學家Ilya Sutskever共同撰寫的博客文章中警告稱,為了避免潛在的災難,我們需要重視人工智能的治理與監管。

在文章中,Altman指出:「現在是開始思考超智能治理的好時機。」
他承認未來的AI系統可能在能力上顯著超越通用人工智能(AGI)。


根據他的觀察:

「在未來十年內,AI系統將在大多數領域超越專家級技能水平,並執行的效益相當於與數一數二的企業生產出的效益。」

文章中提到,OpenAI的領導團隊在最近對國會的證詞中也提出了相似的擔憂,並強調了未來規劃的三個關鍵支柱。

首先,OpenAI認為必須在控制和創新之間取得平衡,並主張建立一種社會協議,既確保安全,又促進AI系統與社會的順利融合。

其次,他們倡導建立一個國際機構,負責系統檢查、審計執行、安全標準遵循測試以及部署和安全限制。
他們提到了類似於國際原子能機構的全球AI監管機構。

最後,他們強調了「技術能力」的必要性,以確保對超智能AI的控制和安全。
儘管具體內容尚不明確,但文章警告不應實施過於繁重的監管措施,如對未達到超智能水準的技術進行許可證和審計。

總結來說,這個想法的核心是確保超智能AI與其訓練者的意圖保持一致,避免出現無法控制的AI能力迅速爆炸的情況,這將超越人類的掌控能力。

OpenAI還警告稱,未受控制的AI模型發展可能對未來社會造成災難性的影響。
這與該領域的其他專家的擔憂相呼應,無論是AI之父還是AI公司的創始人,甚至是過去參與GPT LLM培訓的OpenAI員工。
對於積極針對AI治理和監管採取行動的呼籲已引起全球監管機構的關注。

OpenAI相信,一旦解決了這些問題,AI的潛力就可以更自由地為了善盡所能而被利用。
他們表示:「這項技術可以改善我們的社會,每個人使用這些新工具的創造能力必將令我們驚訝。」
還解釋說,這個領域目前正以加速的速度增長,並且這種情況不會改變。
文章提到,要阻止AI的發展,需要類似全球監視體制的措施,但即使如此也不能保證成功。

儘管面臨著種種挑戰,OpenAI的領導層仍然致力於探索一個問題:「如何確保實現對超智能AI的技術安全能力?」
目前世界上還沒有確切的答案,但絕對需要一個答案,這是ChatGPT無法提供的。

關於AI治理和監管的重要性,以及超智能AI可能帶來的潛在影響。
這一議題已經引起全球監管機構的關注,並需要制定相應的監管措施,以確保AI技術的發展能為社會帶來積極的影響。


文章出處&參考

新增留言