有“人工智能教父”之稱(chēng)的杰弗里·辛頓(Geoffrey E. Hinton)在這個(gè)周一宣布從谷歌公司離職,“以自由談?wù)撊斯ぶ悄艿娘L(fēng)險(xiǎn)”。一些媒體稱(chēng)他的離開(kāi)為“拯救”,另一些則渲染了辛頓對(duì)自己畢生從事的人工智能研究的“后悔”。不過(guò),正如辛頓自己所說(shuō),“如果不是我,或許別的人也會(huì)做出同樣的工作”:相比過(guò)去的事情,他更在意將進(jìn)行的工作。
對(duì)自己的離職,辛頓在社交媒體上不愿將矛頭指向老東家。他認(rèn)為,這是一種普遍存在的問(wèn)題:科技巨頭研發(fā)先進(jìn)的人工智能,這必須受到全世界監(jiān)管,以避免“不負(fù)責(zé)任的利用產(chǎn)生意想不到的后果”。在這個(gè)意義上,與其說(shuō)辛頓離開(kāi)了某家公司,不如說(shuō)他選擇離開(kāi)業(yè)界。
辛頓的主要工作完成于20世紀(jì)80年代。他和兩位合作者共同完善了訓(xùn)練多層神經(jīng)網(wǎng)絡(luò)的反向傳播算法,使之得到廣泛應(yīng)用。說(shuō)它是當(dāng)前人工智能技術(shù)的一塊基石,也許不算過(guò)譽(yù)。2012年,辛頓和他的學(xué)生共同完成了使用深度卷積網(wǎng)絡(luò)進(jìn)行圖像分類(lèi)的工作,這在計(jì)算機(jī)視覺(jué)領(lǐng)域樹(shù)立了里程碑。鑒于他的貢獻(xiàn),2018年,他同約書(shū)亞·本希奧(Yoshua Bengio)及楊立昆(Yann LeCun)一道獲得圖靈獎(jiǎng)。
與辛頓的選擇相對(duì)照,楊立昆仍在Meta任副總裁兼人工智能領(lǐng)域首席科學(xué)家,本希奧則通過(guò)初創(chuàng)公司的中介為微軟提供咨詢(xún)服務(wù)。人工智能領(lǐng)域這些著名研究者和公司之間的結(jié)盟,似乎是利奧塔在1973年的《后現(xiàn)代狀況》中就已發(fā)現(xiàn)的那種情形的進(jìn)一步延伸。“當(dāng)科學(xué)幾乎完全用于為公司提供專(zhuān)利和專(zhuān)有技術(shù)時(shí),知識(shí)的計(jì)算機(jī)化不僅加快了知識(shí)轉(zhuǎn)移的速度,而且改變了我們所認(rèn)為的知識(shí)?!?/span>
但另一方面,這種結(jié)合往往不是長(zhǎng)久之計(jì)。知名華裔人工智能專(zhuān)家吳恩達(dá)(Andrew Ng)曾于2011年參與創(chuàng)建“谷歌大腦”(Google Brain),2014年又加盟百度,任首席科學(xué)家。2017年從百度離職后,他創(chuàng)辦了一系列人工智能領(lǐng)域的初創(chuàng)公司,同時(shí)經(jīng)營(yíng)著最早的“慕課”平臺(tái)Coursera。其他相對(duì)不那么知名的高級(jí)技術(shù)人員,也頻繁在業(yè)界與學(xué)界間跳轉(zhuǎn):離開(kāi)科技巨頭提供的優(yōu)渥條件,許多研究事實(shí)上無(wú)法開(kāi)展;陷于商業(yè)利益的掌控下,則很難在個(gè)人價(jià)值觀和技術(shù)應(yīng)用場(chǎng)景之間做出平衡。倫理、技術(shù)和利益似乎構(gòu)成一種“不可能三角”,總有至少一個(gè)目標(biāo)無(wú)法兼顧。
從知識(shí)的“計(jì)算機(jī)化”到計(jì)算機(jī)的“去知識(shí)化”
利奧塔斷言,隨著知識(shí)從任何特定的個(gè)體知識(shí)者中外化出來(lái),學(xué)習(xí)知識(shí)的“教化”(Bildung)功能將消失,不僅“構(gòu)成的知識(shí)體系中,任何不能翻譯成計(jì)算機(jī)語(yǔ)言的東西都將被放棄”,而且“新研究的方向?qū)⒂蛇@種翻譯的可能性決定”。
利奧塔寫(xiě)作《后現(xiàn)代狀況》的時(shí)代,“知識(shí)的計(jì)算機(jī)化”的確是一個(gè)成立的技術(shù)議題?;谝?guī)則的專(zhuān)家系統(tǒng),正聲稱(chēng)能在社會(huì)各個(gè)部門(mén)發(fā)揮決策作用,作為其支撐的則是各種高度結(jié)構(gòu)化的推理規(guī)則和知識(shí)庫(kù)。因而,與對(duì)知識(shí)的關(guān)注相一致,利奧塔也特別強(qiáng)調(diào)了數(shù)據(jù)庫(kù)的重要性。他將重建公共性的希望寄托在數(shù)據(jù)庫(kù)的開(kāi)放上:
“計(jì)算機(jī)可以成為控制和調(diào)節(jié)市場(chǎng)體系的‘夢(mèng)幻’工具,擴(kuò)展到包括知識(shí)本身,并完全由性能原則來(lái)管理。在這種情況下,它將不可避免地涉及使用恐怖手段。但它也可以幫助討論元規(guī)定性(metaprescriptive)的群體,向他們提供他們通常缺乏的信息,以做出有知識(shí)的決定。要使計(jì)算機(jī)化走上這兩條道路中的第二條,原則上是很簡(jiǎn)單的:讓公眾自由地訪(fǎng)問(wèn)存儲(chǔ)器和數(shù)據(jù)庫(kù)?!?/span>
在《哲學(xué)的誤配》中,東浩紀(jì)質(zhì)疑了利奧塔策略的有效性。他指出,今天的搜索引擎已構(gòu)筑起一個(gè)巨大的數(shù)據(jù)庫(kù),每個(gè)人都可免費(fèi)訪(fǎng)問(wèn),因此利奧塔的前提得以成立,但其設(shè)想的結(jié)果卻并未來(lái)臨。東浩紀(jì)認(rèn)為,這是由于利奧塔誤解了他所援引的“語(yǔ)言游戲”所致。
相比東浩紀(jì)給出的診斷,更值得注意的是:搜索引擎之為“數(shù)據(jù)庫(kù)”的性質(zhì),已與利奧塔時(shí)代經(jīng)過(guò)精心篩選、構(gòu)建的知識(shí)庫(kù)有了很大區(qū)別。隨著基于符號(hào)推理的技術(shù)路徑被基于概率統(tǒng)計(jì)的數(shù)值運(yùn)算所掩蔽,仔細(xì)篩選并編碼的、結(jié)構(gòu)化的“知識(shí)”表征,也為非結(jié)構(gòu)化的全量收錄所代替。此時(shí)的“數(shù)據(jù)庫(kù)”,并不只包含設(shè)計(jì)者制定的規(guī)則和認(rèn)定的“知識(shí)”;可以說(shuō),搜索引擎不提供“知識(shí)”,而是呈現(xiàn)“內(nèi)容”。它不對(duì)內(nèi)容本身的真實(shí)有效負(fù)責(zé)。無(wú)怪乎,利奧塔意向中提供有效“知識(shí)”以利人們作出決策的數(shù)據(jù)庫(kù),并沒(méi)有隨著搜索引擎出現(xiàn)而成為現(xiàn)實(shí)。
不僅如此,在當(dāng)今人工智能技術(shù)條件下,計(jì)算機(jī)給出的可能只是一種偏見(jiàn)。設(shè)想,從網(wǎng)絡(luò)社區(qū)語(yǔ)料中訓(xùn)練出的生成性語(yǔ)言模型,或?qū)a(chǎn)生冒犯而有偏見(jiàn)的文本。今天的人們習(xí)慣以倫理要求來(lái)約束這樣的語(yǔ)言模型和技術(shù)應(yīng)用。
但是,這種在文本中浮現(xiàn)的冒犯或偏見(jiàn),并不是模型無(wú)中生有的“發(fā)明”或“幻覺(jué)”,更不是技術(shù)的“本質(zhì)屬性”,而是它們的統(tǒng)計(jì)性質(zhì)同冒犯與偏見(jiàn)在互聯(lián)網(wǎng)上的實(shí)際盛行相遇的結(jié)果。阻止模型產(chǎn)生有偏見(jiàn)的內(nèi)容,相比消除切實(shí)存在的偏見(jiàn)而言,是一種技術(shù)性的“解決”,但也無(wú)異于飲鴆止渴,是一種對(duì)現(xiàn)實(shí)存在的不公的粉飾。
在語(yǔ)言模型的偏見(jiàn)輸出中所浮現(xiàn)的,正是東浩紀(jì)所說(shuō)的“公意2.0”,就是“以統(tǒng)計(jì)學(xué)的方式從全體民眾的話(huà)語(yǔ)和行動(dòng)中產(chǎn)生”的“諸眾的欲望”(desire of the masses)。不同于盧梭對(duì)“公意”的倚重,對(duì)這種新版本的“公意”,必須保持批判的態(tài)度:它只描繪“實(shí)然”,而應(yīng)然仍需由觀察者另行判斷。在此,人工智能的作用在于,將原本就存在于人類(lèi)社會(huì)的種種偏見(jiàn)與不公,再度呈現(xiàn)于世人面前。
人工智能所顯現(xiàn)的倫理問(wèn)題
于是我們發(fā)現(xiàn),近半個(gè)世紀(jì)后的當(dāng)下,利奧塔的問(wèn)題意識(shí)仍然有效:知識(shí)與大公司之間的關(guān)系,以及更普遍意義上與社會(huì)的關(guān)系應(yīng)當(dāng)?shù)玫街匦聦徱?,以便從中尋求一條路徑,能夠“同時(shí)尊重對(duì)正義的渴望和對(duì)未知的渴望”。
除了上文提及的那類(lèi)在人工智能模型中直接顯現(xiàn)的倫理問(wèn)題外,人工智能技術(shù)的發(fā)展和應(yīng)用,也給倫理問(wèn)題創(chuàng)造出新的登場(chǎng)機(jī)會(huì)。例如,時(shí)人一而再、再而三地談?wù)撨^(guò)計(jì)算機(jī)或人工智能能夠“替代”何種職業(yè),同資本市場(chǎng)對(duì)高度自動(dòng)化未來(lái)的賭注,就足以說(shuō)明這一問(wèn)題:一個(gè)人對(duì)另一個(gè)人的“替代”,不能脫離“出賣(mài)自己的勞動(dòng)力”的制度;而談?wù)撊斯ぶ悄軐?duì)人的“替代”之所以有意義,條件同樣在于一種將“人”僅視為完成某項(xiàng)任務(wù)的工具的系統(tǒng)性制度。
又如,全球范圍內(nèi)插畫(huà)師群體對(duì)人工智能繪畫(huà)模型廣泛而持續(xù)的反對(duì),就其一般的方面而言,固然和那種有關(guān)人工智能職業(yè)“替代”的觀點(diǎn)一脈相承;但在其特殊語(yǔ)境中,還存在一系列圍繞藝術(shù)身份和風(fēng)格署名的論爭(zhēng)。由此呈現(xiàn)的境況是,人工智能繪畫(huà)模型的設(shè)計(jì)方,從未征詢(xún)插畫(huà)師的意見(jiàn),就將他們的作品用于訓(xùn)練自己的模型。這在牽涉任何藝術(shù)上的觀點(diǎn)與立場(chǎng)之前,首先顯現(xiàn)的是業(yè)界成員對(duì)插畫(huà)師的傲慢與相應(yīng)的模式,其方法是將他們排除在人工智能模型的設(shè)計(jì)過(guò)程之外。
值得關(guān)注的是,這種未經(jīng)許可即將他人作品或數(shù)據(jù)用于人工智能開(kāi)發(fā)的行為,并非個(gè)例,也并不只在藝術(shù)相關(guān)領(lǐng)域中才有突出意義。事實(shí)上,英國(guó)版權(quán)局2022年6月發(fā)布的一項(xiàng)規(guī)定甚至已將其合法化,并稱(chēng)之為“創(chuàng)新者蓬勃發(fā)展的催化劑”和“突破性研發(fā)的強(qiáng)大推動(dòng)力”,以“利于”英國(guó)在人工智能和數(shù)據(jù)挖掘領(lǐng)域取得進(jìn)展。在此,倫理、技術(shù)和利益的取舍,不再是研究者個(gè)體一己的決定,而上升為一種公共決策。
在這一境況下,談?wù)撊斯ぶ悄苣P驮谌嗣媲翱赡艿摹皞惱怼钡匚?,顯得有些奢侈,因?yàn)閼?yīng)當(dāng)著手處理的是,那些借“人工智能”之名而顯現(xiàn)的真正的倫理問(wèn)題,潛藏其中的“危險(xiǎn)”當(dāng)下就切實(shí)存在并起著作用,甚至也將決定我們是否必須面對(duì)那樣一個(gè)不確定的“未來(lái)”。
回到利奧塔的問(wèn)題,答案并不是顯然的?,F(xiàn)在所能給出的,毋寧說(shuō)更接近一種愿望:技術(shù)知識(shí)作為社會(huì)的一部分,不是專(zhuān)屬于技術(shù)專(zhuān)家或大公司的事物,從而沒(méi)有人應(yīng)當(dāng)被預(yù)先排除出關(guān)于人工智能的討論。每個(gè)人有自己理解和把握人工智能的方式,它不應(yīng)任由專(zhuān)家、公司憑借經(jīng)濟(jì)與社會(huì)資本的權(quán)力來(lái)規(guī)定。只有這些意見(jiàn)充分地得到表達(dá),處于公開(kāi)的、理智的討論之下,它才能凝結(jié)出應(yīng)然的效力。
來(lái)源:澎湃新聞2023-05-03
作者:朱恬驊,上海社會(huì)科學(xué)院文學(xué)研究所