羅素:大模型只是AGI的一塊孤立拼圖,還有拼圖沒找到

2023-06-12 23:00:07

“人工智能就像是一塊來自未來的巨大磁鐵在牽引我們前進(jìn),如何確保自己不會被超越人類的智能所控制?”6月10日,美國加州大學(xué)伯克利分校計(jì)算機(jī)科學(xué)教授、人類兼容人工智能中心(Center for Human-Compatible AI)主任斯圖爾特·羅素(Stuart Russell)在2023北京智源大會上發(fā)表演講稱,人工智能系統(tǒng)的設(shè)計(jì)必須遵循兩個(gè)原則。首先,AI的行為必須符合人類的最大利益;第二,AI自己不應(yīng)該知道這些利益是什么。

在對話環(huán)節(jié),羅素與圖靈獎得主、中國科學(xué)院院士姚期智共同探討了人工智能的長期未來及其與人類的關(guān)系,羅素引用中國古代哲學(xué)家孟子“博愛”的觀點(diǎn),“未來,當(dāng)人工智能系統(tǒng)在代表社會做出決策時(shí),應(yīng)當(dāng)合理地考慮到每個(gè)人的利益?!?/p>


【資料圖】

羅素與他人合著的《人工智能:一種現(xiàn)代的方法》被譽(yù)為人工智能領(lǐng)域最受歡迎的教科書,被135個(gè)國家的1500多所大學(xué)采用。2022年,國際人工智能聯(lián)合會議(IJCAI)授予羅素卓越研究獎,他此前已獲得IJCAI計(jì)算機(jī)與思想獎,由此成為世界上第二個(gè)能夠同時(shí)獲得兩項(xiàng)IJCAI主要獎項(xiàng)的科學(xué)家。

通用人工智能還很遙遠(yuǎn)

在北京大會現(xiàn)場,羅素在題為《AI: Some Thoughts?(一些關(guān)于AI的思考)》的演講中對通用人工智能(AGI)做出了定義:通用人工智能是指在大多數(shù)經(jīng)濟(jì)有價(jià)值的任務(wù)上超越人類能力的人工智能系統(tǒng)。這種人工智能系統(tǒng)可以比人類更好更快地學(xué)習(xí)和執(zhí)行任何任務(wù),包括人類無法處理的任務(wù),并且由于機(jī)器在速度、內(nèi)存、通信和帶寬方面的巨大優(yōu)勢,未來,通用人工智能在幾乎所有領(lǐng)域都將遠(yuǎn)遠(yuǎn)超過人類的能力。

那么,人類距離通用人工智能還有多遠(yuǎn)的距離呢?羅素表示,我們離通用人工智能還很遙遠(yuǎn)。“事實(shí)上,仍然存在許多尚未解決的重大問題?!?/p>

羅素在演講中指出,ChatGPT和GPT-4并不理解世界,也沒有在“回答”問題,“如果說通用人工智能是一件完整的拼圖,大語言模型僅僅只是其中的一塊,但我們并不真正了解如何將它與拼圖的其他部分連接起來,以真正實(shí)現(xiàn)通用人工智能?!彼f,“我相信甚至還有部分缺失的拼圖沒有被找到。”

羅素認(rèn)為,目前的人工智能系統(tǒng)存在一個(gè)根本性的弱點(diǎn),即它們使用電路來生成輸出。“我們正試圖從電路中獲得高度智能的行為,而電路本身是一種相當(dāng)有限的計(jì)算形式?!彼J(rèn)為,電路無法準(zhǔn)確地表達(dá)和理解一些基本的概念,這意味著這些系統(tǒng)需要大量的訓(xùn)練數(shù)據(jù)來學(xué)習(xí)一些可以用簡單的程序定義的函數(shù)。他認(rèn)為,未來人工智能的發(fā)展方向應(yīng)該是使用基于明確的知識表征的技術(shù)。

“拋開技術(shù)問題不談,如果我們確實(shí)創(chuàng)造了通用人工智能。接下來會發(fā)生什么?”羅素引用現(xiàn)代計(jì)算機(jī)科學(xué)奠基人艾倫·圖靈的話說,“機(jī)器思維方法一旦開始,用不了多久就會超越我們微弱的力量,這似乎很可怕。”

“我們?nèi)绾斡肋h(yuǎn)確保自己不會被人工智能所控制?這是我們面臨的問題——如果找不到這個(gè)問題的答案,那么我認(rèn)為別無選擇,只能停止開發(fā)通用人工智能。”羅素表示。

今年3月,羅素曾與特斯拉CEO埃隆·馬斯克、“AI教父”杰弗里·辛頓(Geoffrey Hinton)等上千人簽署公開信,呼吁暫停訓(xùn)練比GPT-4更強(qiáng)大的AI系統(tǒng)至少六個(gè)月。

羅素在會上強(qiáng)調(diào),解決問題的答案是有的。人工智能系統(tǒng)的設(shè)計(jì)必須遵循兩個(gè)原則。首先,AI的行為必須符合人類的最大利益;第二,AI自己不應(yīng)該知道這些利益是什么。因此,它們不確定人類的偏好和未來,這種不確定性會給人類控制權(quán)。

羅素稱,人們需要改變觀念,不要追求“機(jī)器必須是智能的”,而要注重機(jī)器的“有益性”,使之符合人類的根本利益。“外星人是非常智能的,但我們并不一定希望它們來到地球?!?/p>

AI與孟子的博愛思想

在對話環(huán)節(jié)中,羅素與姚期智進(jìn)行了一場深刻而富有洞見的討論。

在被姚期智問及人工智能與人類關(guān)系的長期未來時(shí),羅素表示,人類利用AI滿足自身利益,從而導(dǎo)致AI不可控的現(xiàn)象源于功利主義,“功利主義是人類進(jìn)步的一個(gè)重要步驟,但也導(dǎo)致了一些問題。”例如,當(dāng)一個(gè)決定會影響到多少人的實(shí)際存在時(shí),如何做出決策?人們想要一個(gè)不太幸福的大群體還是一個(gè)很幸福的小群體?“對于這類問題,我們沒有很好的答案,但我們需要回答這些道德哲學(xué)的核心問題,因?yàn)槿斯ぶ悄芟到y(tǒng)將擁有強(qiáng)大的力量,而我們最好確保它們以正確的方式使用這種力量。”

羅素與圖靈獎得主、中國科學(xué)院院士姚期智(右)共同探討了人工智能的長期未來及其與人類的關(guān)系。

羅素在回答中引用了中國古代哲學(xué)家孟子的觀點(diǎn),“孟子在中國談到了博愛的概念,意思是在做道德決定時(shí),每個(gè)人的利益都應(yīng)該被考慮在內(nèi)。而每個(gè)人的偏好都應(yīng)該被平等對待?!彼嘈庞幸环N基于復(fù)雜形式的偏好功利主義(preference utilitarianism)的方法,可以使人工智能系統(tǒng)在代表社會做出決策時(shí),能合理地考慮到每個(gè)人的利益。

羅素問,當(dāng)有一個(gè)人和許多機(jī)器時(shí),如何確保這些機(jī)器相互協(xié)作來幫助人類?當(dāng)許多人有許多機(jī)器時(shí),這就涉及到道德哲學(xué)的基本問題。他認(rèn)為,AI系統(tǒng)應(yīng)該被設(shè)計(jì)為代表全人類工作。“如果你想讓AI系統(tǒng)順應(yīng)個(gè)人的愿望,那么你必須證明該AI系統(tǒng)的行動范圍被限制在個(gè)人關(guān)注的范圍內(nèi),它不能通過追求個(gè)人利益來傷害其他個(gè)人,因?yàn)樗⒉魂P(guān)心其他個(gè)人。因此,我認(rèn)為默認(rèn)情況應(yīng)該是,人工智能系統(tǒng)是代表人類工作的?!?/p>

此外,在討論中,羅素提到了經(jīng)濟(jì)學(xué)術(shù)語“位置性商品”,“位置性商品”指的是人們重視的并非物品本身,而是它們隱含了優(yōu)于其他人的意義?!盀槭裁粗Z貝爾獎是有價(jià)值的?因?yàn)閯e人都沒有,這證明你比世界上幾乎所有人都聰明?!彼f。

“位置性商品的性質(zhì)是,在某種意義上存在零和游戲。簡單地說,不是每個(gè)人都能進(jìn)入前1%的行列。因此,如果你從成為1%的人中獲得個(gè)人價(jià)值、自豪感和自尊心,我們就不能把這種自豪感和自尊心給所有人。”羅素說。

那么,AI系統(tǒng)在代表社會做決定時(shí),是否應(yīng)該考慮到位置性商品?“如果我們說不應(yīng)該,那就會造成社會運(yùn)行方式的巨大變化。這是一個(gè)更加困難的問題。我認(rèn)為社會中的許多內(nèi)部摩擦實(shí)際上是由這些位置性商品引起的,這些商品根本不可能由每個(gè)人實(shí)現(xiàn)?!?/p>

像社交媒體算法一樣危險(xiǎn)

姚期智問道,未來是否有可能制定一個(gè)“白名單”,允許人工智能系統(tǒng)被用來做有利于人類福祉的事,例如,使用人工智能方法來設(shè)計(jì)藥物和解決癌癥問題。

羅素表示,納米技術(shù)的創(chuàng)始人之一金·埃里克·德雷克斯勒(K. Eric Drexler)在過去幾年里一直致力于人工智能安全,他提出了全面人工智能服務(wù)(Comprehensive AI services,CAIS),即建立人工智能系統(tǒng)不是為了通用目標(biāo),而是為了解決特定、狹窄的問題,比如蛋白質(zhì)折疊、交通預(yù)測等。比起通用人工智能,這些系統(tǒng)帶來的大規(guī)模風(fēng)險(xiǎn)相對較小。

羅素稱,“在短期內(nèi)這是一個(gè)合理的方法”,但是,“我不認(rèn)為了解人工智能安全的唯一途徑,是在現(xiàn)實(shí)世界中部署一個(gè)系統(tǒng)的數(shù)億個(gè)副本,然后觀察結(jié)果?!彼硎荆祟惒粫σ呙邕@么做,“我們在部署疫苗之前必須先測試它,因?yàn)槲覀儗阉⑸涞綌?shù)億人身上?!?/p>

因此,目前還需要更多的工作來確保人們使用這些系統(tǒng)的安全性。羅素指出,人工智能系統(tǒng)可能會通過對話來改變數(shù)億人的觀點(diǎn)和情緒。OpenAI等科技公司應(yīng)該停止在不告知的情況下向數(shù)億人發(fā)布新的人工智能系統(tǒng),這些系統(tǒng)可能會通過對話來操縱和影響人類的思想和行為,導(dǎo)致一些災(zāi)難性的后果,例如核戰(zhàn)爭或氣候?yàn)?zāi)難?!叭绻隳芘c數(shù)億人對話,你就能說服這數(shù)億人對其他國家不那么友好,也能說服人們不那么關(guān)心氣候變化。”

羅素說,“這種情況類似于社交媒體算法,我們甚至沒有意識到它正在改變公共話語、情緒,以及我們?nèi)绾慰创撕臀磥?,這是非常危險(xiǎn)的?!薄皬南到y(tǒng)來看,有一些我們沒有辦法檢測到的內(nèi)部目標(biāo),導(dǎo)致AI把我們推向這個(gè)方向?!?/p>

那么,如何保證人工智能技術(shù)的安全性和可控性?

“如果AI這項(xiàng)技術(shù)與核武器一樣強(qiáng)大或更強(qiáng)大,我們可能需要以類似的方式管理它?!绷_素稱,“在核武器技術(shù)發(fā)明之前,曾有物理學(xué)家認(rèn)為,我們需要有一個(gè)治理結(jié)構(gòu),以確保技術(shù)只用于人類利益,而不是以武器的形式使用。不幸的是,物理學(xué)界和政府都沒有聽取他們的意見。”他強(qiáng)調(diào),AI這項(xiàng)技術(shù)與核武器、航空技術(shù)一樣強(qiáng)大,各個(gè)國家應(yīng)該努力盡快開展這種AI安全方面的合作。

羅素認(rèn)為,保證發(fā)揮AI的潛在好處需要全面變革,不能僅僅靠監(jiān)管和確立嚴(yán)格的規(guī)則及安全標(biāo)準(zhǔn),還需要整個(gè)AI領(lǐng)域的文化轉(zhuǎn)變。

他給出了建議:首先,要建立人類能夠理解的AI系統(tǒng)。“我們不了解大型語言模型以及它們?nèi)绾喂ぷ?。我們需要有這種理解,以便對安全有信心。人類構(gòu)建AI系統(tǒng)的技術(shù),不應(yīng)該依賴大量的數(shù)據(jù)訓(xùn)練和內(nèi)部結(jié)構(gòu)未知的黑箱?!?/p>

此外,要阻止不安全的人工智能系統(tǒng)被部署,特別是被惡意行為者使用,“需要改變整個(gè)數(shù)字生態(tài)系統(tǒng),從計(jì)算機(jī)的運(yùn)行模式入手,即計(jì)算機(jī)不會運(yùn)行它所認(rèn)為的不安全的軟件?!?/p>

羅素在討論最后總結(jié)道,人工智能是一門科學(xué),因此在使用它之前,需要了解它的內(nèi)部結(jié)構(gòu)和工作原理。“就像我們制造飛機(jī)一樣,我們可以根據(jù)飛機(jī)的物理形狀和發(fā)動機(jī)等來說明它們是如何保持在空中的?!彼硎?,“目前,特別是在大型語言模型領(lǐng)域,人工智能還沒有達(dá)到這樣的水平。我們不知道它們是如何產(chǎn)生這些特性的。事實(shí)上,我們甚至不知道它們具有什么特性,所以不能將這些現(xiàn)象與它們內(nèi)部的工作原理聯(lián)系起來?!币虼耍斯ぶ悄苁且婚T需要繼續(xù)深入探索的科學(xué)。

標(biāo)簽:

關(guān)閉
新聞速遞