艾薩克阿西莫夫的《羅比》教導了關於人工智能和思維運作的重要觀點

當人類不知道是什麼使海洋和太陽運動時,他們賦予這些物體心智狀態。類似的情況也可能發生在人工智能身上。

來源: Wired

Leonardo.ai 生

在艾薩克·阿西莫夫的經典科幻小說《羅比》中,威斯頓家擁有一個機器人,它是他們聰明的小女兒格洛麗亞的保姆和伴侶。格洛麗亞和機器人羅比是朋友,他們的關係充滿了情感和互相關心。格洛麗亞把羅比視為忠實和盡職盡責的照顧者。然而,威斯頓太太對這種“不自然”的機器人和她的孩子之間的關係感到擔憂,擔心羅比可能會對格洛麗亞造成傷害(盡管它明確地被程式不能這樣做);顯然,她嫉妒心理作祟。在幾次失敗的嘗試後,無奈和疲憊的父親建議參觀一家機器人工廠 – 在那裡,格洛麗亞將能夠看到羅比“只是”一個製造出來的機器人,而不是一個人,並且會對它失去愛意。這個計劃並沒有奏效。格洛麗亞沒有了解羅比“真正的運作方式”,而且在情節的轉折中,格洛麗亞和羅比變得更加要好。威斯頓太太再次受挫。格洛麗亞對羅比“真正是誰仍然困惑。

這個故事的寓意是什麼?最重要的是,那些與人工智能互動和社交的人,如果不知道(或不關心)它們內部的“真正運作方式”,將會與它們建立獨特的關係,並賦予它們與關係相應的心智特質。格洛麗亞和羅比一起玩耍,她把它當作伴侶並愛著它;它也回報著她的關心。格洛麗亞與羅比進行了一場詮釋性的舞蹈,羅比的內部運作和構造對此毫無關聯。當有機會了解這些細節時,羅比的功能(在它拯救格洛麗亞免於意外事故後)分散了格洛麗亞的注意力,阻止她進一步了解。

從哲學的角度來看,“羅比”教會我們,在將心智歸因於另一個存在時,我們所做的並不是對它是什麼樣的事物的陳述,而是揭示了我們對其運作方式的深刻理解。例如,格洛麗亞認為羅比很聰明,但她的父母認為他們可以將其看似聰明的行為歸納為低層次的機器操作。更廣泛地說,請注意相反的情況,我們將心智品質歸因於自己,而不願將其歸因於程式或機器人。這些品質,如智能、直覺、洞察力、創造力和理解力,有一個共同點:我們不知道它們是什麼。儘管神經科學和實證心理學的從業者以及各種認知科學家經常妄自菲薄地宣稱,這些自我導向的讚美仍然無法定義。任何對其進行表徵的嘗試都會使用另一個品質(“真正的智能需要洞察力和創造力”或“真正的理解需要洞察力和直覺”),並且需要進行廣泛的揮手舞蹈。

但是,即使我們對這些品質不太確定,也不知道它們的底層基礎是什麼,無論是哪種心智品質,諺語中的“受過教育的外行人”都確信人類具有這些品質,而像機器人這樣的機器則沒有——即使機器像我們一樣行動,生產出與人類相同的產品,並偶爾複製據稱需要智能、獨創性或其他東西的人類壯舉。為什麼?因為,就像格洛麗亞的父母一樣,我們知道(得益於受到系統創造者在大眾媒體中的啟發),它們所做的一切只是“查找表/提示完成/解決方案空間的全面搜索”。與此同時,我們對自己應用的心智特質定義模糊,對我們的心智運作的無知如此深刻(目前),以至於我們無法說“人類的直覺(洞察力或創造力)只是[用平庸的身體活動填空]”。

因此,當我們面對一個“人工智能”時,無論我們是否(認為自己)理解其運作方式,我們都會以這種方式進行辯論:“這個人工智能所做的一切都只是X。”這種簡化的描述使其運作不再神秘,因此我們確信它不具備智能(或創造力或洞察力)。換句話說,那些我們了解並且可以指出和闡明其內部、低層次運作的存在或事物,只是根據已知的平庸物理運作模式運作。那些我們不了解其內部運作的看似智能實體卻能洞察、理解和創造。 (與人類相似也有幫助;我們更容易否認那些看起來不像我們的動物具有智能。)

但是,如果我們像格洛麗亞一樣,對某個系統、存在、物體或外星人在產生其明顯“智能”答案時的運作方式一無所知,我們會將什麼品質歸因於它以理解它在做什麼?這種程度的不可理解性可能迅速接近。看看一些ChatGPT開發者對其所謂的“新興”行為的困惑反應,沒有人似乎知道ChatGPT是如何產生它的答案的。當然,我們可以堅持說“它所做的一切只是(某種)提示完成”。但實際上,我們也可以對人類說:“它只是神經元的激發。”但是,ChatGPT和人類都不會以這種方式對我們有意義。

證據表明,如果我們遇到一個足夠複雜且有趣的實體,它看起來很聰明,但我們不知道它是如何運作的,也無法說出我們通常的輕視之詞“所有x只是y”,我們將開始使用“民間心理學”的語言來管理與其的互動,理解它為什麼會做它所做的事情,並且重要的是,試圖預測它的行為。從歷史的類比來看,當我們不知道是什麼使海洋和太陽運動時,我們賦予它們心智狀態。(“憤怒的海洋認為懸崖是它的致命敵人。”或者“太陽想要快速下山。”)一旦我們知道它們是如何運作的,得益於我們對物理科學的不斷增長的知識,我們將它們降級為純粹的物理對象。(這一舉動帶來了災難性的環境後果!)同樣地,一旦我們失去對人工智能系統內部的掌握,或者與它們一起長大,不知道它們是如何運作的,我們也可能將心智歸因於它們。這是一個實用的決策,而不是一個發現。因為這可能是理解它們為什麼以及它們做什麼的最佳方式。

這應該促使我們更仔細地觀察。想一想,我怎麼知道其他人類有和我一樣的心智?大致上:他們看起來像我,他們行為像我,所以我推斷他們必須有和我一樣的心智,工作方式也和我想像的一樣。(這是對他們可見的外部行為的最佳解釋的完全合理的推論。)然而,我們從來沒有打開其他人類的大腦來檢查是否有心智,因為我們不知道該看什麼。更重要的是,我們知道我們會看到什麼:一個大腦,而我們不知道它們是如何運作的。當以更低層次的描述來看待時,我們的意圖和理解也是神秘的。因此,因為我們找不到智能的物理相關性,即使我們找到了,使用它們與智能人類打交道也會變得太麻煩,我們反而觀察人類的行為和行動,以及他們符合心理學概括的程度。如果有人想進入醫學院,並且他們相信努力學習將幫助他們實現這一目標,那麼我們可以預測他們可能會在圖書館努力學習。這就是“正常、聰明”的人類所做的事情。這是我們與人類進行的解釋性舞蹈;心理學的語言從這些互動中出現。這是我們理解同胞的最佳方式。

這意味著我們的同胞也是一種複雜且不太理解的實體,無法通過它們的物理組成和特性(就像石頭或玻璃瓶一樣)或者它們的設計特性(就像飛機或機械鉛筆一樣)來解釋、預測和理解它們與我們的互動。因為我們必須使用更高層次的心理解釋,理解人類行為的最佳方式是將它們人格化!也就是說,理解與我不同的這些其他存在(其他“人類”)的最佳方式是將它們視為與我相同的類型。這裡的關鍵是我不必把其他人類視為與我相同。我可能把他們視為奇怪的外星人,他們碰巧像我一樣,行為也像我一樣,但在某種“重要、關鍵”的意義上並不真正像我,因為我沒有確鑿的證據表明他們有像我一樣的內在生活和心智。相反,我們選擇將人類人格化,因為這樣做使我們與他們的互動更容易處理,這比忍受唯我論的存在更可取,相信我們的思想是唯一存在的。

這種哲學分析很重要,因為在思考對人工智能研究的法律監管時,我們必須進行重要的平衡:我們希望人工智能的技術優勢和社會效益(例如AlphaFold所產生的驚人的蛋白質結構預測),因此我們希望它們的設計者繼續開發這樣的系統。但是這些公司需要責任保險,就像最高法院在鐵路的初創時期提供的那樣,否則人工智能系統的設計者將避開這個潛在的財務風險領域。但我們也希望社會免受這些智能程序的負面影響,特別是如果它們採取了未被預料到的行動-這當然也是它們理想的功能。

因此,從法律和經濟角度來看,我們需要適當地分配風險和責任。一種方法是基於對人工智能的這種修正理解。當我們在概念上意識到我們與之互動的人工智能代理是心理意義上的代理時,也就是說,我們將他們的行為理解為由他們的信念和欲望引起的,這將使我們能夠將這些系統視為開發和部署它們的人的法律代表(法律代理人)。就像醫院僱用代表醫院行事、醫院對其行為負責、可以簽訂合約並代表醫院採取行動的醫生一樣。(法律制度不一定必須等到這種概念理解到位才能將人工智能代理視為法律代理,但如果這種概念理解得到廣泛社會接受,這些規定的廣泛社會接受將更容易。)然後,他們將成為其法律委託人的法律代理人,例如,Bing聊天機器人將成為其委託人Microsoft的法律代理人。然後,委託人對其行為和後果負責,正如我們,廣大公眾所希望的那樣,但只在其開發人員和部署者希望的職責範圍內。例如,公共交通公司的司機對他在工作中的行為負責,但在工作之外的行為則不負責。因此,運輸公司可以雇用司機,知道他們對工作中的行為負責,但當他們在工作之外“背離”時,公司可以保護自己免受員工的影響。同樣地,假設一個客戶購買了一個訂製版本的Bing,用於提供定價方面的專家指導,那麼Bing提供的定價建議將負責,但如果客戶將其用於其他任務,例如提供有關尋找合適的戀人的建議,Microsoft將不再對Bing提供的任何錯誤建議負責。因為這樣的建議超出了其擬定職責的範圍。再舉一個例子,考慮谷歌的Gmail代理,它會掃描郵件的內容以向Gmail用戶提供廣告。谷歌對於侵犯隱私的指控的可笑回應是,因為人類不會掃描用戶的郵件,所以不存在隱私侵犯。如果谷歌的Gmail代理被視為其法律代理,這不是谷歌可以使用的辯護措施,因為根據法律,法律代理所獲得的知識直接歸因於其委託人。因此,谷歌的“自動化屏幕”因其部署的程序的法律代理狀態而失敗。在這裡,我們的利益受到了賦予人工代理的法律地位的保護。這並不減少我們的權利,而是保護它們。

想象一下,如果外星人降落在我們的星球上,並說:“帶我們去見你們的領導人!”我們將如何理解和描述他們?如果他們的內部機制如此神秘,以至於我們最好的科學也無法理解它們的運作方式,我們將不得不像勤奮的田野人類學家一樣,尋找與他們的言論相關的行為證據,並開始考慮他們可能與我們一樣擁有思想的可能性。我們的律師將不得不評估這些存在在我們社會秩序中的生物的地位,並且在看到他們擔任重要的執行角色並與人們建立個人關係時,也許要認真考慮評估他們的公民身份和法律地位的申請。在我們當今的人工代理和程序方面,存在著一種類似的情況,但有一個重要的區別:我們創造並設計了它們。這種熟悉感帶有輕蔑的色彩,但我們與它們的互動方式可以並且將會根據我們對它們的神秘程度而改變。它們的內部運作越是難以理解,它們的功能越是複雜,我們將不得不依賴於使用“代理人”等心理術語的外部描述。這不是對任何事情的讓步,而是對常識和我們的天然智慧的保護。

新增留言