電腦怎樣才算擁有人類的心靈?

誠邀您加入我們的Patreon計劃,成為會員後登入網站即享免廣告及專屬內容![可按此]

Spread the love

作者:嚴振邦  難度:★★★☆☆    

     人工智能的進步,對很多人來說,是一件又期待又擔心但的事情。期待的是,就算僅以目前有限的人工智能科技來看,它已經為人類帶來了很多便利,所以人工智能的繼續發展一定會令我們生活更加方便;但同一時間,不少人卻對人工智能發展憂心仲仲,擔心有朝一日人工智能跟真正的人類無異,完全取代人類工作,引致大規模失業,甚至會傷害或反過來統治人類。不少經典的科幻片與反烏托幫小說,就以這種想象來作故事的背景設定。

       這種對人工智能擔心,甚至普遍到在人工智能科技比現在更不發達的1942年,科幻小說家艾西莫夫﹙Asimov﹚就已經制定了「機械人三法則」,來規管智能機械人。三法則包括:

  1. 機械人不得傷害人類,或坐視人類受到傷害;
  2. 除非違背第一法則,否則機械人必須服從人類命令;
  3. 除非違背第一或第二法則,否則機械人必須保護自己。

       當然這三條法則只是艾西莫夫小說中的設定,但這仍反映了人類對智能機械人的擔心。而且後來機械人倫理學﹙Robot Ethics﹚學者還真的認真討論這三法則,所以可見這並不只是小說設定這麼簡單。[1]

       究竟,這樣的擔心合理嗎?在我們討論究竟應該怎樣面對或規管智能機械人以前,或許我們應該問一個更基本的問題:人工智能最終真的能擁有人類一樣的心靈﹙human mind﹚嗎?事實上,很多我們的擔憂,也源於我們認為人工智能最終可以擁有跟人類一樣的心靈,懂得思考甚至會有情感。例如,如果人工智能懂得思考和有情感,人工智能自然可以全面取替我們工作,引致人類大規模失業。所以我們要思考的第一個問題,似乎是人工智能是不是有可能擁有跟人類一樣的心靈﹙或部份人類心靈有的能力﹚,如果可以的話,我們才需要思考該怎樣面對它們的問題。

怎樣才算擁有「人類的心靈」?

       人工智能哲學的討論中,會問很多類近上述的問題:電腦會不會有一天懂得思考?機械人會不會有情感?會不會有意識?會不會有一天,人工智能會「醒過來」?這些問題全部都相關卻又不盡相同。所以我們要做的第一件事,是弄清楚人工智能能不能夠擁有「人類心靈」究竟是甚麼意思,我們才可以好好地回答問題。

一、人工智能會不會可以思考?

       第一種問題,問的是人工智能會不會可以思考。要定義「思考」其實並不容易,但大體上我們可以舉出很多明顯是思考的例子。例如你在玩數獨,在想應該怎樣玩下去,這樣的過程是思考。例如你在寫一篇哲學論文,一邊寫一邊思考怎樣論證你的結論,這樣的過程是思考。例如你上班遇到麻煩上司,你在思考怎樣可以不惹怒他的情況下完成工作,這樣的過程是思考。問人工智能會會不會可以思考,就是問人工智能會不會有一天,也可以做上面這些例子中我們正在做的事情,即在某個處境中分析相關資料然後得出結論。

二、人工智能會不會可以有情感?

       第二種問題,問的不是人工智能會不會思考,而是問它們會不會也可以有情感。我們人類會有不同情感,遇到好事會開心,看到慘事會傷感,面對未知的將來會擔心,給朋友發現放了個屁會尷尬等。情感跟思考相關:你如果有考試考得不好這個想法的話,你會產生不開心這情感。前者屬於思考領域,後者卻是一種情感,但要留意情感卻不等同思考。這類問題要問的並不是人工智能會不會覺得自己考試考得不好﹙這是在問人工智能會不會思考﹚,而是問人工智能能不能覺得不開心﹙這才是問人工智能可不可以擁有情感﹚。

三、人工智能會不會有感覺?

       第三種問題,問的跟第二種有點類似,卻又不盡相同。這種問題要問的是,人工智能可不可以像人類一樣,擁有一些「主觀的感覺」,哲學上我們叫這個做「Qualia」。 Qualia是甚麼呢?你試回想一次給針刺到的痛感,那一種痛的感覺,就是一種Qualia。Qualia是一種主觀的感覺,因為他是只有你自己才感受到的東西;你知道自己痛時的感覺是甚麼,但永不知道別人痛時的感覺是怎樣的。這種痛的感覺永遠是「主觀」的,因為每個人都只能感受到自己的痛,而感受不到別人的痛。

       除了痛感,任何視覺、聽覺、嗅覺、味覺、觸覺、熱感、癢感、餓感等,都有自己的主觀感覺。你試設想自己正在吃檸檬,把檸檬放進口中,舌頭上立即就泛起檸檬那超級酸的味道。對,你主觀感到的那種味道,就是檸檬給你的Qualia。事實上,人工智能要判斷一種東西是不是檸檬很容易,因為檸檬一定有它特定的化學成分和基因結構,所以人工智能可以透過測試某東西有沒有相同的化學成分或基因結構,它就可以準確地判斷放進來的東西是不是檸檬。很多人卻還是認為,即使人工智能能判斷這是不是檸檬,但人工智能在探測的時候,還是不會生起我們吃檸檬時吃到那酸酸的「味道」。持這立場的人,覺得人工智能最多能分析東西的化學成分,但它不能擁有「味道」這種主觀感覺。

       同樣道理,人工智能能用探測器分析到前面的光是甚麼波長,從而判斷到它是甚麼顏色的光。然而,跟人類不同,人類不只能判斷到前面的是紅光還是藍光,人類看到光時,還會有不同的「感覺」。你回想看到紅光的感覺,和看到藍光的感覺,當然是截然不同的感覺。我們要問的是,人工智能可不可以在判斷光的顏色以外,還可以有看到光時的感覺?

       我們要留意的是,能不能判斷光的顏色,和有沒有看到不同顏色時有不同感覺,是兩個不同的問題。判斷光的顏色是思考的問題,而看到不同顏色時有不同感覺是「主觀感覺」的問題。讓我多舉一例來說明。我們開冷氣時可以控制溫度,例如我把冷氣調較至23度,那代表冷氣機製冷去到23度時就會停下來。在這看來,冷氣機能判斷現在的溫度,所以它知道高過23度的話就繼續製冷,23度或以下時就停下來,但很少人會覺得冷氣機有「覺得冷」或「覺得熱」這些主觀感覺,而人類就有這種能力﹙試想想你盛夏時在街上跑到汗流浹背,或隆冬穿得不夠時寒風刺骨的感覺﹚。問題是,人工智能繼續進步的話,它們可不可以有這種「主觀的感覺」?[2]

四、人工智能會不會有自我意識?

       第三種問題問的東西,有些哲學家會簡單稱之為「意識」。所以問人工智能會不會有意識,問的就是它們可不可以有主觀感覺。

       而這跟有些人問,人工智能會不會有「自我意識」並不相同。「自我意識」指的,是人工智能有沒有「自我」﹙I / Self﹚這個概念、懂不懂得用「自我」這概念去指自己、知不知道自己是一個東西而且跟其他東西不同。有一些結構比較簡單的生物,可能牠們的大腦已足夠地複雜,可以有不同的主觀感受,例如會有痛感,但卻又未複雜到,可以擁有「自我」這概念,知道「自己」是一個東西,又與其他東西不同﹙例如大部份的鳥類會能有痛感,卻沒有自我意識﹚。所以說,自我意識又是另一個不同問題,而好多時候很多人討論電腦會不會有一天「醒過來」,更多要問的,是人工智能會不會終有一天會有自我意識。

心靈的各個面向

       這幾條問題中,以人工智能可不可以思考最為根本。因為不少人認為,思考是上面這幾種能力中最有機會達到的,所以如果連思考也做不到,其他幾樣能力也不容易成功。當然若我們從生物學的例子來看,思考卻又不一定最基礎,因為很多生物應該會有痛感﹙所以有主觀的感覺﹚,但卻不一定能思考。

       討論哲學問題,花的第一道工夫往往是弄清楚問題在問甚麼。「人工智能是不是有可能擁有跟人類一樣的心靈」這問題,問起來大家都好像知道在討論甚麼,但嚴格而言,人的心靈有很多不同面貌,我們要回答這問題,可能需要弄清楚人的心靈究竟有甚麼重要面向,才能追問人工智能是不是能夠擁有這些不同面向。這篇文章對這些問題沒甚麼結論,但希望能為大家分清楚這討論中可能牽涉的不同問題。

 

[1] 艾西莫夫後來甚至把三法則擴展成四法則。

[2] 第二種問題中問到的「情感」,當然也涉及第三種問題中談及的那種「主觀感覺」。如「開心」、「傷心」這些情感自然也包括相關的「主觀感覺」﹙即你感到開心傷心時的那感覺﹚,但哲學家一般會覺得情感一般也包括一些「主觀感覺」以外的元素﹙如開心除了開心的感覺外,也包括「有好事發生了」這想法﹚,所以情感不能完全等同於主觀感覺。反過來說,有些主觀感覺﹙如看到紅光的感覺、聽到Middle-C這音時的感覺﹚也不是情感,所以也代表不能將兩者等同。

﹙原文刊於2021年6月《號外》﹚

嚴振邦

為人嚴肅,平常都正經八百,不苟言笑,對運動旅遊美食色情資訊等日常輕鬆話題和說廢話挖苦別人說髒話耍廢搞惡作劇等取樂子的活動可說是全無認識也無興趣更無能力,甚至常不屑那些飽食終日無所用心終日只懂大言炎炎侃侃而談的人,以至有「嚴肅」的別名。可惜小弟一登場往往氣勢太嚇人,年紀雖輕卻常遭誤認為叔父輩的人物,故又被誤以為叫「鹽叔」——一個叫「鹽」的大叔。有些不認為我江湖地位值得稱「叔」的人,也就只能叫我「呀鹽」了。

More Posts