Google、Microsoft、OpenAI和新創公司組成機構監管AI發展

四家最具影響力的人工智能公司宣布組建一個行業機構,以監管最先進模型的安全發展。

來源: The Guardian

Frontier Model Forum 由 ChatGPT 開發者 OpenAI、Anthropic、Microsoft 和 DeepMind 的所有者 Google組成。

該團體表示,將專注於「安全和負責任」地發展前沿的AI模型,意味比目前可用的AI技術更先進的AI技術。

儘管微軟的業績超過華爾街的預期,但該公司的股價在周二下跌。 微軟股價下跌,即使AI投資帶來回,, 微軟總裁布拉德·史密斯(Brad Smith)表示:“創建AI技術的公司有責任確保其安全、安全且仍然在人類控制之下。這一倡議是將科技部門聚集在一起負責任地推進AI發展並應對挑戰的重要一步,以使其造福全人類。

該論壇的成員表示,他們的主要目標是促進AI安全研究,例如制定評估模型的標準;鼓勵對先進AI模型的負責任佈署;與政治家和學者討論AI的信任和安全風險;並幫助開發AI的積極用途,例如應對氣候危機和檢測癌症。 

他們補充說,該組織的成員資格對開發前沿模型的組織開放,前沿模型被定義為「超越目前最先進現有模型能力的大規模機器學習模型,能夠執行各種任務」。

此舉是在加快監管技術的步伐之際宣布的。上週五,科技公司(包括Frontier Model Forum的創始成員)在與喬·拜登(Joe Biden)的白宮會議後同意了新的AI保障措施。會議的承諾包括對AI內容進行數字水印,以便更容易發現深度偽造等誤導性材料,並允許獨立專家測試AI模型。

白宮的這一宣布遭到一些活動人士的懷疑,他們表示科技行業在自我監管方面的承諾曾經失敗。上週Meta宣布向公眾發布AI模型的舉措被一位專家形容為「有點像給人們提供建造核彈的模板」。

該論壇的宣布提到,包括英國政府在內的機構對AI安全做出了「重要貢獻」,英國政府召開了全球AI安全峰會,歐盟正在引入一項AI法案,這是對該技術進行最嚴肅立法監管的嘗試。

薩里大學人本AI研究所的安德魯·羅戈伊斯基博士表示,人工智能的監管不能陷入「規範困境」,即公司的擔憂主導監管過程。

他補充說:“我非常擔心政府已經將AI的領導權交給了私營部門,可能無法挽回。這是一項強大的技術,具有巨大的潛力,對於好壞都有很大的影響,因此需要獨立的監管機構,代表未來將受到AI影響的人民、經濟和社會。”

新增留言