【王奕然、邱少齊、林映彤】人類和機器的心智:共享的歷史、共造的社會、共同的內在世界?

人類和機器的心智:共享的歷史、共造的社會、共同的內在世界?
王奕然、邱少齊、林映彤

人工智能(AI)與人類心智從過往的發展歷史、當今的整合互動、到未來的可能,兩者密切複雜地相互影響。人類心智與AI的發展有什麼樣的關係?AI除了帶來生活上的便利之外,如何影響我們的社會或心智?如何想像AI未來的樣貌?本文將透過心智哲學觀點切入探討。


共享的歷史:心智的研究與機器的發展如何相互啟發

對於自身的探索是我們生命或是人類文明的重要一環。無論是基督教文化的靈魂觀,或是佛學思想中的無我,我們都試著找尋能夠解釋各種形形色色心智面向的基礎。當今的心智哲學與科學,便是延續如此的探問。而此心智探索史與機器、電腦乃至AI的發展史相互交織與影響。

心靈或心智的本質是什麼?關於心智的形上學問題,西方心智哲學曾經給過的答案包括靈魂的存在或是以行為來理解。直到1930年代,圖靈(Alan Turing)發明圖靈算機(Turing Machine)),機器依循規則進行簡單的符號操弄,而展現各式各樣的功能(Turing, 1936)。規則或程式可用四元函數來簡單表示:(Si, Ij, Ok, Sl),讓機器知道若是在 S狀態,且遇到輸入Ij,則該執行什麼樣的動作或輸出(Ok),並進入哪一個機器狀態(Sl)。從簡單的加法到更為複雜的計算,可以用特定的圖靈算機來完成。你我目前使用的電腦所採用的基礎原理便是圖靈算機。

除了發明圖靈算機,圖靈(1950)也探索心智的問題。他提問道:機器能思考嗎?理論上,電腦是否可能透過有限的指令或程式,展現出類似人類思考的行為反應,甚至不被人發現它只是一臺電腦?後者的測試即為「圖靈測試」(Turing test)。受到圖靈的啟發,哲學家普特南(Hilary Putnam)(1960, 1967)提出了以機器狀態來理解心智狀態的想法。此觀點開啟之後功能論(functionalism)的發展,由功能性觀點來理解心智。

電腦的發明啟發了心智的功能理論,另一方面,人類的心智運作也回過頭來啟發電腦和人工智能的發展。從羅森布拉特(Frank Rosenblatt)(1958)所發展出的模仿人類視覺運作的感知器(perceptron)神經網路,到羅森布拉特、辛頓(G. E. Hinton)與威廉斯(R.J. Williams)(1986)提出三層網路的學習算程,到現今當紅的深度學習,其運作原理模擬生物神經系統,由單元(unit)相互聯結組成。經過訓練而改變聯結的強度,讓神經網路自動學會輸入和輸出之間的關係,而得以展現某項功能。隨著硬體運算能力提升,透過更複雜和龐大的類神經網路設計,讓我們三不五時驚豔於AI科技能力的發展,包括協助選才中的公司篩選應徵者、自駕車的視覺辨識系統、醫療上辨識放射圖中的腫瘤,以及協助司法系統進行審判等等。

共造的社會:AI科技與人類心智的合作

當代AI科技在社會中的參與不勝枚舉,包括代替人類進行部分的決策或參與決策歷程,例如輔助法官判案的AI,可幫助避免人類法官在判案時可能產生的標準不一致的狀況。研究顯示,法官的血糖值與飢餓程度,將會大幅影響其判決的標準,進而造成判決不公的疑慮 (Danziger, Levav, & Avnaim-Pesso, 2011)。輔助判決的AI應用便能給予法官一個不受飢餓程度影響的判決建議,幫助法官避免雜訊(noise)影響決策結果(Kahneman, Sibony, & Sunstein, 2021)。從這個例子中可以發現,AI科技確實對社會有好的影響;但同時,這並不代表AI的判斷就是全然公正的。

2016年12月,一名紐西蘭華裔在線上申請護照時,總是無法通過審核。在與相關局處反應後,經調查發現,這是因為照片審核AI系統將照片中眼睛小的他判定為「未張眼」,因此無法通過審核;這照片審核AI的判斷標準對眼睛普遍較小的族群是有所偏誤的。同樣地,美國過去使用的視覺辨識AI也有較難辨識出黑人女性的偏誤存在。這類偏誤使得某些族群不容易、或甚至無法取得應得的資源。分配正義和歧視的問題油然而生。

有偏誤的AI判斷標準如何產生?AI進行判斷時所使用的標準,是透過人類給予的過往認知判斷資料型塑而成。換句話說,AI是以人類過往的認知判斷史為學習對象。若該判斷史本身便是由帶有偏誤的過往判斷建構而成,則AI也難以避免地學習了這些偏誤。

過往的判斷史多由人類的主流社群決定,體現了人類的集體價值、觀點。但所謂的集體價值、觀點,實際反映的也只是主流意見,而忽略了邊緣化群體的聲音。由這樣的判斷史所型塑的社會常模,勢必會有不利於、或甚至壓迫某些邊緣化群體的偏誤參雜其中。使用AI雖能避免判斷當下因生、心理狀況而發生偏誤,卻仍舊躲不開已然嵌入歷史、並被AI內化的偏誤繼續介入社會當中。難道我們沒有可能做得更好嗎?

AI偏誤的問題目前已在相關學界被討論得沸沸揚揚,也喚起AI設計人員與公司的注意。AI無法發現自身判斷的偏誤進而修正,主要的原因在於AI是透過「事實」學習;發生過的判斷資料中有甚麼模式(pattern),AI就將之學習起來。但論及偏誤時,我們常談的是「應該」,AI決策結果「應該」要公正。然而,AI無法單靠被給予的事實資料與自身演算法就學習到人類社會追求的「理想」價值,反而會學習到人類在經意或不經意的狀況下展現的價值判斷。這些價值應該如何實踐在AI身上?包括如何進行數據蒐集和清理,確保判斷資料的多元性?如何檢視演算法的使用是否適當?什麼樣的結果才能稱得上是公正的,且符合邊緣化群體價值?如何帶入各利益關係人和不同族群的觀點,培養出符合社會正義的AI?這些是落實價值的難題(Fazelpour & Danks, 2021)。

然而,即便我們在某種程度上降低AI的偏誤,這仍舊是治標不治本的方法。AI終究是從人類決策中學習到偏誤,只要人類社會存有偏誤,我們就難以保證AI沒有學習到偏誤的可能。不過,也許不需要如此悲觀,我們能夠從另一種觀點看待AI能提供人類社會的貢獻。AI是不是能夠協助降低人類的偏誤或是這些偏誤所帶來的傷害呢?

人類偏誤的運作是自動化且迅速的,總是潛伏在意識與無意識的邊界之間,時常在不經意的情況下介入認知判斷,而在事後反思時才能發現(Brownstein, 2018)。即使人類仍有許多訓練手段能降低認知偏誤,但效果有限。當代AI科技的功能不只與人類的認知能力相似。AI介入人類的認知工作如此之深,在相互影響下,兩者可被視為嵌合而成的認知系統。針對人類偏誤的問題,AI 能夠幫忙。透過將 AI 設計為人類認知的延伸(Clark & Chalmers, 1998),一同型塑認知歷程,AI能協助人類了解和偵測自身偏誤的自動化運作,甚至在適當的時機進行提醒或介入,協助人類進行判斷較不受偏誤影響的決策過程 (Lin, Hung, & Huang, 2020)。

如此的輔助AI成為人類心智的一部份,那麼AI本身是否可能有心智呢?AI能有什麼樣的心智?

共同的內在世界?我們能,機器能嗎?

雖然多數研究聚焦在研發服務人類的AI,AI能夠展現出什麼樣的心智面向也是常受到關注的議題。例如:人工系統是否可能像人類一樣「理解」或「感受」呢?這反映在人類對於人工意識(artificial consciousness)(Metzinger, 2013)或是超級智能(superintelligence)(Bostrom, 2014) 的憂慮上。

哲學家希爾勒(John Searle)提出中文房間的思想實驗(Searle, 1980):假設小明待在一個房間裡面,他完全不懂中文,但這間房間裡面有一本規則書,讓小明知道收到什麼樣的輸入,應該輸出什麼樣的訊息。如果小美拿著一張紙條寫著「你好嗎?」丟進房間裡,而小明可以根據這幾個字的樣子,在規則書中找到要回覆「我很好,妳呢?」給小美。對於不知道房間內部運作的小美而言,她會以為在房間裡的人是懂中文的,然而事實上,小明只是根據真正懂中文的人所訂下的規則,去完成聊天的任務而已。希爾勒試圖提出此思想實驗挑戰功能論,後者以依循規則的方式理解認知運作,無法解釋人類所具備的「理解」經驗或能力。他的攻擊也一起挑戰了電腦能夠「理解」的可能性。

要了解AI是否能像我們一樣具備「內在小劇場」或「心理世界」,問題又更為複雜了,而且類似的問題也展現在動物意識問題上。我們會說狗具有視覺意識,因為牠們眼睛構造、知覺處理、神經系統等跟人類足夠相似,也因為外在的刺激而展現相對應的行為。在動物心智的研究,不外乎是透過動物的訊息處理系統的運作,或是展現出來的行為表現,來推論某類生物是否有意識或是某種心智能力。然而,這樣的推論方式,可運用在與人類貓狗、猩猩等與人類接近的生物。然而有些落在中間的動物,像是昆蟲或是魚類,學者的觀點以及我們的直覺就開始分歧了。針對與人類差異太大的生物,單就系統的運作和行為的判斷,無法成功取得共識。

而當我們在探討什麼樣的AI系統是否能具有內在心智或意識時,也面臨同樣的知識論挑戰。即便我們先姑且接受功能論的立場,接受意識或其他心理面向有可能在人工系統上實現,但要了解什麼樣的系統才能展現。需要什麼樣的特殊結構或運作?需要多複雜?需要多麽類似人類?類似人類系統運作的哪些面向?需要能夠展現出什麼樣複雜的行為表現?就如同動物心智研究面臨的問題,透過探討底層的認知運作,或是外在的行為表現,我們都無法確認AI是否真的有內在世界,還是只是像中文房間一樣,具備複雜的運作規則,且能給予適當的回應。

我們和機器一路走來,相互「學習」和影響。想像我們和 AI 的未來為何,除了我們對於未來無法完全掌握所帶來的未知,還有機器在知識上隔絕於我們的不可知。

(本文原刊於【台灣數位藝術】網站,原網頁請點此處。)


References

Bostrom, N. (2014). Superintelligence: Paths, dangers, strategies. Oxford University Press.

Brownstein, M. (2018). The implicit mind: Cognitive architecture, the self, and ethics. Oxford University Press.

Clark, A., & Chalmers, D. (1998). The extended mind. Analysis, 58(1), 7-19.

Danziger, S., Levav, J., & Avnaim-Pesso, L. (2011). Extraneous factors in judicial decisions. Proceedings of the National Academy of Sciences, 108(17) 6889-6892.

Fazelpour, S., & Danks, D. (2021). Algorithmic bias: Senses, sources, solutions. Philosophy Compass, 16(8), e12760.

Kahneman, D., Sibony, O., & Sunstein, C. R. (2021). Noise: A flaw in human judgment. Little, Brown Spark.

Lin, Y. T., Hung, T. W., & Huang, L. T. L. (2020). Engineering equity: How AI can help reduce the harm of implicit bias. Philosophy & Technology, 1-26.

Metzinger, T. (2013). Two principles for robot ethics. Robotik und gesetzgebung, 247-286.

Putnam, H. (1960). Minds and machines. In S. Hook (Ed.), Dimensions of mind (pp. 138-164). London: Collier-Macmillan.

Putnam, H. (1967). Psychological predicates. Art, mind, and religion, 1, 37-48.

Rosenblatt, F. (1958). The perceptron: a probabilistic model for information storage and organization in the brain. Psychological review, 65(6), 386.

Rumelhart, D. E., Hinton, G. E., & Williams, R. J. (1986). Learning representations by back-propagating errors. nature, 323(6088), 533-536.

Searle, J. (1980). Minds, brains and programs. Behavioral and Brain Sciences, 3: 417–57.

Turing, A.M. (1936). On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, s2-42: 230–265.

Turing, A. M. (1950). Computing machinery and intelligence. Mind, 59(236), 433-460.