未來的AI 演算法有潛力像人類一樣的學習

新研究衡量機器學習方法的有效性

作者: Tatyana Woodall  來源: ScienceDaily 

A Girl Looking at a Wheeled Toy with Wires

記憶對機器來說,就像對人類一樣,保持不易。為了幫助理解為什麼人工智能代理會在認知過程中出現漏洞,俄亥俄州立大學的電氣工程師們分析了一種被稱為「持續學習」的過程對其整體性能的影響。

持續學習是指電腦被訓練以連續學習一系列任務,利用其從舊任務中累積的知識來更好地學習新任務。

然而,科學家們仍然需要克服一個主要障礙,即學習如何繞過機器學習中的記憶喪失等效問題,這個過程在AI代理中被稱為“災難性遺忘”。俄亥俄州立大學的資深學者和計算機科學與工程學教授Ness Shroff表示,當人工神經網絡在一個又一個新任務上進行訓練時,它們往往會失去從先前任務中獲得的信息,這可能會成為社會越來越依賴AI系統的問題。

Shroff說:“當自動駕駛應用程序或其他機器人系統學習新知識時,重要的是它們不要忘記已經學到的教訓,以確保我們的安全和它們自己的安全。”“我們的研究深入探討了這些人工神經網絡中的持續學習的複雜性,我們發現的見解開始填補機器學習和人類學習之間的差距。”

研究人員發現,就像人們可能難以回憶起關於相似情境的對比事實,但對於本質上不同的情況卻能輕易記住一樣,當人工神經網絡面臨連續的多樣任務時,它們能更好地回憶信息,而不是那些具有相似特徵的任務,Shroff說。

這個團隊包括俄亥俄州立大學的博士後研究員Sen Lin和Peizhong Ju以及教授Yingbin Liang和Shroff,將在夏威夷檀香山舉行的第40屆國際機器學習年會上介紹他們的研究成果,該會議是機器學習領域的旗艦會議。

雖然教導自主系統展示這種動態的終身學習可能具有挑戰性,但擁有這種能力將使科學家能夠以更快的速度擴展機器學習算法,並輕鬆地適應不斷變化的環境和意外情況。基本上,這些系統的目標是有朝一日能夠模仿人類的學習能力。

傳統的機器學習演算法一次性對所有數據進行訓練,但這個團隊的研究結果顯示,像任務相似性、正負相關性,甚至演算法學習任務的順序,都會影響人工網絡保留特定知識的時間長短。

例如,為了優化演算法的記憶,Shroff表示,在持續學習過程中,應該早期教授不相似的任務。這種方法擴展了網絡對新信息的容量,並提高了其隨後學習更相似任務的能力。

Shroff表示,他們的工作尤其重要,因為理解機器和人腦之間的相似之處可能為更深入理解人工智能鋪平道路。

他說:“我們的工作開啟了智能機器能像人類一樣學習和適應的新時代。”

該研究得到了國家科學基金會和陸軍研究辦公室的支持。

新增留言