李洋(哲學(xué)研究所)
價(jià)值對(duì)齊的生成式人工智能是否符合人類對(duì)人工智能的終極訴求?當(dāng)AI工程師嘗試賦予機(jī)器以價(jià)值表達(dá)的能力時(shí),我們不得不反思該行為可能誘發(fā)的最消極后果——技術(shù)“意向性”的反向控制。DeepSeek越來(lái)越頻繁地被應(yīng)用于日常的研究工作,它能夠簡(jiǎn)化繁瑣、耗時(shí)、枯燥的重復(fù)性工作。然而,與之伴隨的問(wèn)題亦層出不窮——知識(shí)可靠性、AI幻覺(jué)、人機(jī)互動(dòng)矛盾、智能化規(guī)訓(xùn)、沖擊評(píng)價(jià)體系甚至是學(xué)術(shù)不端等屢受詬病。無(wú)疑,作為“超級(jí)工具”的生成式人工智能具有強(qiáng)大的反向作用力,透過(guò)技術(shù)“意向性”在人機(jī)互動(dòng)中對(duì)使用者施加影響,讓使用者從驚艷到沉浸其中,再到“折服”。這種新形態(tài)似乎正在裂解傳統(tǒng)的學(xué)術(shù)研究模式,重新定義人類在知識(shí)探索過(guò)程中對(duì)“工具”的認(rèn)知。
生成式人工智能何以表達(dá)技術(shù)“意向性”
技術(shù)的“意向性”是如何表達(dá)的?舉例而言,圖像生成大模型多被詬病生成的人物圖像以白人為主。2024年2月,谷歌宣布緊急關(guān)閉大模型Gemini的生圖功能,其中一個(gè)重要的原因在于,為了扭轉(zhuǎn)人們對(duì)其表達(dá)偏見(jiàn)的印象,Gemini似乎出現(xiàn)了矯枉過(guò)正的偏見(jiàn)。技術(shù)意向性作用下的價(jià)值偏見(jiàn)表達(dá)可見(jiàn)一斑。但是,嚴(yán)格意義上講,在當(dāng)前技術(shù)條件下,我們并不能認(rèn)為技術(shù)已經(jīng)展現(xiàn)出基于主體意識(shí)的意向性。與其說(shuō)技術(shù)的意向性,倒不如說(shuō)是人的意向性的技術(shù)轉(zhuǎn)述。但是,人與技術(shù)的互動(dòng)又使得技術(shù)意向性展現(xiàn)出超越轉(zhuǎn)述的動(dòng)態(tài)性。
從技術(shù)人工物的結(jié)構(gòu)分析看,技術(shù)人工物與自然物或物理物的最大區(qū)別在于它具有兩重性,即物理結(jié)構(gòu)(physical structures)和人的意向性(human intentions)。荷蘭技術(shù)哲學(xué)家克洛斯認(rèn)為,人類適應(yīng)世界的生存方式便是將人的意向施加于物理?xiàng)l件,使之成為被賦予功能的技術(shù)人工物。簡(jiǎn)言之,人類意向性的技術(shù)轉(zhuǎn)述首先是透過(guò)功能導(dǎo)向的物理世界改造實(shí)現(xiàn)的。當(dāng)用分析進(jìn)路思考技術(shù)人工物時(shí),我們可以嘗試回答三個(gè)問(wèn)題:該物是由什么做成的?該物是為了什么而制作的?該物又是如何被使用的?問(wèn)題一指向物理屬性,問(wèn)題二指向人類意向,而問(wèn)題三則指向情境場(chǎng)域,將物理屬性和人類意向連接,構(gòu)成了完整的技術(shù)人工物意向性表達(dá)的結(jié)構(gòu)。因此,從技術(shù)人工物的結(jié)構(gòu)分析看,技術(shù)意向性是通過(guò)功能設(shè)計(jì)完成了人的意向性的轉(zhuǎn)化,一旦我們將各式各樣的功能賦予生成式人工智能時(shí),它就以成為人類意向性轉(zhuǎn)述的方式存在了。當(dāng)然,其中包含了兩個(gè)非常重要的環(huán)節(jié):生成式人工智能是如何被設(shè)計(jì)的?又是如何被使用的?
從人與技術(shù)的關(guān)系看,我們不妨先從生成式人工智能是如何被使用的角度思考。DeepSeek等大模型與以往技術(shù)最大的區(qū)別在于它和使用者之間動(dòng)態(tài)的、持續(xù)的互動(dòng)關(guān)系。技術(shù)調(diào)節(jié)論持非工具主義的技術(shù)立場(chǎng),即強(qiáng)調(diào)人與技術(shù)是在互動(dòng)中相互糾纏、相互塑造的共生關(guān)系,正視技術(shù)對(duì)人的知覺(jué)和理解世界方式的建構(gòu)性作用。事實(shí)上,使用者與大模型的每一次互動(dòng)都是語(yǔ)料“投喂”的過(guò)程,而語(yǔ)料之于大模型就相當(dāng)于食物之于人。當(dāng)用戶語(yǔ)料集聚到一定規(guī)模時(shí),便會(huì)傳導(dǎo)并影響模型輸出,以負(fù)載技術(shù)意向性的方式將信息回傳用戶。因而,用戶與大模型的互動(dòng)在深層次上也是一種意向性交互,體現(xiàn)了二者之間相互塑造的構(gòu)成性關(guān)系。不過(guò),消極地看,用戶知識(shí)的良莠不齊反而不利于構(gòu)建高質(zhì)量大模型。當(dāng)良莠不齊的語(yǔ)料積累到一定程度(甚至不排除惡意使用),不可避免地造成系統(tǒng)性的技術(shù)“病灶”。正如當(dāng)下熱議的人工智能幻覺(jué)問(wèn)題,很大程度上也是由人機(jī)交互過(guò)程中的意向性互動(dòng)造成的。
從價(jià)值嵌入的設(shè)計(jì)哲學(xué)看,生成式人工智能是如何被設(shè)計(jì)的?既然技術(shù)不是價(jià)值中立的工具,它能夠反映甚至表達(dá)不同的價(jià)值觀,也就是說(shuō),技術(shù)能夠通過(guò)與人的互動(dòng)增強(qiáng)或弱化不同價(jià)值觀的表達(dá)。而這一過(guò)程必須有一個(gè)先在基礎(chǔ),即在設(shè)計(jì)階段借助工程師的操作將價(jià)值“寫入”技術(shù),使得意向性由人轉(zhuǎn)入技術(shù),并借助技術(shù)人工物表達(dá)。技術(shù)意向性由此轉(zhuǎn)換為一個(gè)設(shè)計(jì)問(wèn)題、工程問(wèn)題。這樣的例子不勝枚舉,如電動(dòng)汽車就是環(huán)保意識(shí)的技術(shù)意向性表達(dá)。可見(jiàn),工程師或設(shè)計(jì)者在價(jià)值嵌入方面發(fā)揮著主導(dǎo)作用。DeepSeek也非例外狀態(tài),基礎(chǔ)算法的搭建不僅凝結(jié)了工程師對(duì)事實(shí)認(rèn)知的代碼,也承載了他們對(duì)價(jià)值判斷的編程,模型訓(xùn)練和校準(zhǔn)中的微調(diào)與標(biāo)注絕非完全的事實(shí)判斷。很明顯,相較于之前的版本,DeepSeek提升了對(duì)政治議題的敏感性,并開始回避此類問(wèn)題。這正是工程師“價(jià)值校準(zhǔn)”后的技術(shù)意向性表達(dá)。當(dāng)然,復(fù)雜技術(shù)的價(jià)值設(shè)計(jì)并非易事。一方面,價(jià)值的定義、評(píng)估、變化、沖突等都面臨具體操作化問(wèn)題。另一方面,何種價(jià)值能被寫入需要技術(shù)專家、學(xué)者、公眾多元主體參與的技術(shù)民主化的討論。就現(xiàn)狀而言,所謂技術(shù)民主化的程序還僅為設(shè)想,設(shè)計(jì)者仍占據(jù)著主導(dǎo)地位。
DeepSeek的技術(shù)“意向性”是否構(gòu)成人文學(xué)科的危機(jī)
一個(gè)有趣的現(xiàn)象是,自然科學(xué)學(xué)者在侃侃而談如何用好生成式人工智能賦能科學(xué)探索,并開啟了AI for Science的科學(xué)范式,人文社會(huì)科學(xué)學(xué)者卻對(duì)此憂心忡忡,大有被機(jī)器取代之危機(jī)感。其中很重要的原因在于人文社會(huì)科學(xué)是關(guān)于人的,而生成式人工智能表現(xiàn)得越來(lái)越像人。批評(píng)意見(jiàn)認(rèn)為生成式人工智能正將文科的思維方式重塑為標(biāo)準(zhǔn)化、機(jī)械化、公式化的智能模式。筆者認(rèn)為,DeepSeek賦能學(xué)術(shù)研究的過(guò)程中,有兩種趨勢(shì)是應(yīng)該避免的:一是人類的機(jī)器化,二是機(jī)器的擬人化。一方面,人文社會(huì)科學(xué)之所以有所謂危機(jī),很大程度上是對(duì)權(quán)力讓渡的危機(jī)感,即寫作、思考權(quán)力的讓渡。學(xué)術(shù)研究的目的在于知識(shí)探索,一旦DeepSeek化身為論文制造機(jī)器,知識(shí)探索便被異化,似乎寫文章是為了評(píng)職稱和追逐名利,這必然將人類引入機(jī)器化的歧途。另一方面,歷史地看,人之為人得益于科學(xué)的發(fā)展,進(jìn)化論等科學(xué)理論使得人類徹底從“上帝之手”中解放。而AI的擬人化顯然是一種危險(xiǎn)的嘗試,如果將思維、價(jià)值、情感賦予人工智能,那技術(shù)意向性可能就完全不再是人的意向性轉(zhuǎn)述了。彼時(shí),人工智能是否也會(huì)從“人類之手”中解脫,是當(dāng)下倡導(dǎo)“價(jià)值對(duì)齊”技術(shù)進(jìn)路、致力于通用人工智能時(shí)不得不反思的。
一種去價(jià)值化的危機(jī)應(yīng)對(duì)思路
或許我們還無(wú)須為當(dāng)下DeepSeek沖擊人類獨(dú)有的創(chuàng)造性而過(guò)度擔(dān)憂。正如趙汀陽(yáng)所言,創(chuàng)造性的秘密還無(wú)法還原為科學(xué)解釋,因此不必?fù)?dān)心能夠賦予人工智能創(chuàng)造性思維,它目前所展現(xiàn)出來(lái)的“創(chuàng)造性思維”無(wú)非心理學(xué)水平的聯(lián)想和組合。但是,我們不得不警惕擬人化進(jìn)路下的生成式人工智能。在使用DeepSeek等工具輔助研究時(shí),最基礎(chǔ)的首先是對(duì)技術(shù)的意向性表達(dá)有所察覺(jué),有意識(shí)地規(guī)避技術(shù)脆弱性和有限性,通過(guò)學(xué)習(xí)、了解相關(guān)AI的技術(shù)原理和人技關(guān)系理論提升自覺(jué)能力;其次要在使用中保持個(gè)體的主導(dǎo)性和思考的獨(dú)立性,避免技術(shù)依賴導(dǎo)致的自我淪喪,更應(yīng)該警惕人的機(jī)器化;更重要的是,必須慎思生成式人工智能的“價(jià)值對(duì)齊”進(jìn)路,思考“能否對(duì)齊、與誰(shuí)對(duì)齊、為什么要對(duì)齊”,以防止“價(jià)值對(duì)齊”外衣下的“重新野蠻化”。相應(yīng)的使用規(guī)則還在形成過(guò)程之中,作為學(xué)者和研究人員,應(yīng)有意識(shí)地參與相應(yīng)規(guī)則的制定,并在使用中遵守基本的科研倫理。
工具也好,伙伴也罷,DeepSeek賦能學(xué)術(shù)研究,最重要的還是保持學(xué)者在學(xué)術(shù)研究中的獨(dú)立性和自主性。畢竟,學(xué)術(shù)研究是嚴(yán)謹(jǐn)?shù)闹R(shí)探索和尋求真理的過(guò)程,其樂(lè)趣和獲得感始終蘊(yùn)藏于撥云見(jiàn)日的思考進(jìn)程中。一旦被技術(shù)意向性左右,或被功利性目的打破,知識(shí)探索便被異化,其樂(lè)趣也蕩然無(wú)存。不妨將DeepSeek始終維持在“超級(jí)工具”的水平,摒除其擬人化的價(jià)值賦值,避免其成為價(jià)值表達(dá)的“超級(jí)工具”,通過(guò)去價(jià)值化的方式將其風(fēng)險(xiǎn)維持在可控的水平。
?。ū疚南祰?guó)家社科基金青年項(xiàng)目“生成式人工智能的責(zé)任倫理及治理機(jī)制研究”(23CZX058)階段性成果)