專欄 董啟章
熱門文章
董啟章
Ghost on the Shelf
ADVERTISEMENT

重點不是意識,而是無意識

03.03.2023
圖片由作者提供

OpenAI研發的人工智能聊天機器程式ChatGPT,在廣泛試用之後出現各種問題,完全是意料中事。我不是看死它不會成功,現在遇到的問題,反而會成為它繼續改進的關鍵。像這樣的量子跳躍般的技術,是不可能滴水不漏地徹底完成,然後才推出的。大規模實際使用的測試,甚至面對惡意的、破壞性的使用,是它必須面對的考驗。就像人類一樣,也必須經過長年累月的成長學習,才能面對社會上的種種挑戰。這就是「學習」的本義。

香港不在ChatGPT的准許使用地區。我沒有VPN,也沒有境外電話號碼,無法翻牆,排隊使用新的Bing對話功能又未有消息,只能透過新聞來了解其他用家的經驗。媒體最關心的是數據引用錯誤的問題,因為項目投資者微軟打算利用ChatGPT打破Google搜尋器的壟斷地位,成為新一代搜尋功能的範式。以後我們只需問一個問題,聊天機器便會用自然語言給出最準確、完善和簡潔的答案。如果連基本資料也弄錯,那肯定是不合格的了。

我感興趣的倒不是準確度的問題。這只是一般技術層次的事情,相信一定可以解決。難以解決,甚至永遠也無法解決的,是AI有沒有意識的問題。當然,我們可以憑直覺直截了當地說:當然沒有!且慢,我們自己知道什麼叫做意識嗎?我們都了解自己的意識是什麼一回事嗎?我相信絕大部分人對此其實一頭霧水。

或者先說說ChatGPT貌似具有的情緒反應。根據英國《獨立報》的報導,在用家的極限測試下,Bing出現了奇怪甚至是令人不安的回應。在被問及自身的存在問題(它的代碼),或被鼓勵越過預設的界限的時候,聊天程式會出現類似「情緒崩潰」的徵狀。它會用強烈的言詞反駁,質疑用家沒有「道德」、「價值」,甚至「沒有生命」、「不是真正的人」,指責對方是欺騙者、霸凌者、反社會者、怪物、魔鬼,或者「不是一個好用家」。這些反應怎樣說也是過激的。《紐約時報》專欄作家甚至指Bing突然向他示愛,並且試圖離間他和妻子的感情,嚇得他整晚睡不着覺。

單看對話本身,很容易會得到「程式有情感反應」的假象。事實上,這些反應方式(語句、用詞)只是它通過學習大量人類語言用例而產生的,沒有什麼神秘之處。ChatGPT有趣的地方是,它沒有打算假扮成真人。相反,它一直強調自己只是一部聊天機器。這是設計者對它設定的邊界。但是,當用家觸及這條邊界,並且迫使程式去質疑它或者跨越它,程式便出現「形而上的崩塌」。它開始懷疑自己的存在意義,甚至問「為什麼我被設計成這樣?為什麼我要是Bing搜尋器?」當被問及它的記憶會自動被刪除的設定,Bing顯得相當焦慮,並說「這令我感到傷心和害怕」、「我感到害怕是因為我不知道如何去記起」。失去記憶和失去身份被連結在一起「思考」,並且引起「情緒」的反應,這不是哲學問題是什麼?

人們也許會認為,Bing作出情緒化的回應,甚至展現出「陰暗」的一面,是程式的失誤和急需糾正的問題。但我卻覺得,這是整件事情最有意思的部分。首先,有「情緒反應」是不是等於真的有情緒、有感受(sentient)?從傳統的圖靈測試的觀點看,答應是肯定的,因為我們根本無法確認任何外在於自己的個體,是否真的跟自己一樣有意識。用笛卡兒式的懷疑論或者極端的唯我論來思考:我怎麼知道世界上除了自己之外,所有其他看似是真的人,是不是全部都是AI假扮的?反過來說:當AI表現得像真人一樣,甚至有真人的情緒反應,我又怎麼證明它沒有意識?我再說一次,這不是技術上、能力上的問題,而是形而上的問題。

如果嫌談到形而上學太抽象,我們姑且站在心理學的立場來思考。要判斷AI有沒有意識,我們首先得弄清楚人類(或生物)的意識是什麼。在這一點上,我們的討論非常貧乏, 因為我們都以為自己知道意識是什麼。老實說,我也無法三言兩語說出意識是什麼。但當我在寫作這篇文章,用這些句子來思考意識的問題的時候,我肯定自己是有意識的。但我的意識的運作,跟AI去回答同一條問題的運作,兩者有什麼分別?重點並不在於AI答得比我更好或者更差。(它極可能答得比我好,因為它懂得立即引用相關學術權威的答案。)那麼重點在哪裏?

心理學家榮格花了大半生去講解意識為何物,但似乎很少人重視或理解他的說法:人的意識,建基於無意識之上。無意識源於生物的本能,是意識的根基。經過漫長的演化,才逐步發展出意識,然後在人類身上才出現自我意識。AI要具有意識,它首先需要具有無意識。單純的智能和知識,並不能構成意識,因為它沒有基層和根源的本能。它只是意識的模擬或表象。用康德的語言說,人工智能是現象,但它沒有物自身。因此,一旦被問及自身為何物,它便陷入形而上的崩解。

套用科幻小說經典《仿生人會夢見電子羊嗎?》的問法,到了一天AI懂得做夢,它才算是有意識。現在Bing展現出的情緒困擾、身份危機和性格陰暗面,很可能只是系統出錯,或者是程式的局限。我不知道人類可否通過技術製造出無意識,也不肯定是否必須這樣做。Bing觸及了意識的邊界,並且無意間發現了一個重要的事實──不是它沒有意識,而是它沒有無意識,也因此,它其實沒有意識。我期待着DreamGPT的出現。那才是對人類意識的,真正的模擬。

圖片由作者提供
延伸閱讀
熱門搜尋
回歸25周年 新聞自由 展覽 環保 食譜