技術(shù)自律:未成年人的技術(shù)保護方案


重慶大學(xué)新聞傳播學(xué)院教授、博士生導(dǎo)師
古鳳
重慶大學(xué)新聞傳播學(xué)院碩士研究生

當談到技術(shù)與人的關(guān)系時,一種人律技術(shù)的樸素思想總會出現(xiàn)。這種思想與早期的人文主義類似,總體而言對于技術(shù)持有一種積極的想象。
起始于14世紀的文藝復(fù)興解放了人的思想,肯定人的主體價值。從宗教和神靈認識框架中走出來的人類步入了理性世界。人代替神成為世界的主宰,技術(shù)則成為人類鞏固統(tǒng)治地位的武器。總之,在人文主義的初級階段,人與技術(shù)相依相存,技術(shù)還是人的附庸,兩者共同于嶄新天地中開墾蠻荒。
01
人律技術(shù)還是技術(shù)律人?

然而,人律技術(shù)的和諧景觀并沒能持續(xù)很長時間,人逐漸失去對技術(shù)的完全主導(dǎo),異化于社會生活的各個層面開始隱現(xiàn)。大規(guī)模同質(zhì)性的文化工業(yè)在繁榮大眾文化的同時導(dǎo)致了高雅藝術(shù)的沒落,流水線限制了多維的審美取向。秉承理性精神的科層制方案大大提升了社會運轉(zhuǎn)效率,但片面的理性又讓人陷入“現(xiàn)代的鐵籠”。
技術(shù)的擴張沒能實現(xiàn)人類的烏托邦理想,反倒讓人陷入自身主體性危機,芒福德(Lewis Mumford)口中的“巨機器”(Megamachine)成為沉重的社會現(xiàn)實,人類迷失于技術(shù)律人的恐慌中。
盡管如今對于技術(shù)律人抑或人律技術(shù)還存在諸多討論,但在技術(shù)力量與人類力量的諸次博弈中,我們必須承認技術(shù)具有某種程度的不可抗性,人完全主導(dǎo)技術(shù)或許只是一種存在于想象中的神話。

在社會體系中,未成年人是一個特殊的群體。從成長階段來說,未成年人還未建立起完善的認知體系,易受影響而且較難糾偏;從社會構(gòu)成來看,未成年人柔嫩而脆弱,基數(shù)龐大但幾乎沒有技術(shù)主動駕馭能力。對于成年人來說尚難控制的技術(shù)影響于未成年人那里又會成倍放大。因此,在技術(shù)高歌猛進的現(xiàn)代社會中尋找一種未成年人技術(shù)保護方案迫在眉睫。
事實上,國內(nèi)國外已經(jīng)有許多方案被提出。不論是《中華人民共和國未成年人保護法》還是《兒童權(quán)利公約》,雖然都涉及未成年人的技術(shù)保護,但歸根結(jié)底是一種技術(shù)他律方案,人律技術(shù)是其底層邏輯。然而如前所述,技術(shù)他律或許不是一個理想的解決方法,因為它具有沖突性、斗爭性。尤其當我們身處智能時代,人工智能技術(shù)的類人性、滲透性使得技術(shù)的影響更是避無可避,數(shù)字化生存儼然已經(jīng)成為人類生存新模式。
那么我們不禁追問,在人工智能時代,當他律方案不可行時,用技術(shù)保護未成年人還可能實現(xiàn)嗎?如果可能,要如何實現(xiàn)呢?
答案或許可以在康德(Immanuel Kant)關(guān)于自律(Autonomie)的思想中找到。
要回答技術(shù)如何通過自律實現(xiàn)未成年人技術(shù)保護,實際上需要回答兩個問題。
第一個問題:技術(shù)能否自律?即技術(shù)自律的實現(xiàn)基礎(chǔ)為何?
第二個問題:技術(shù)何以自律?即技術(shù)自律的運行邏輯為何?
02
技術(shù)能否自律

自律思想貫穿于康德的道德哲學(xué)體系中,與“先天理性”、“意志”等概念緊密相關(guān)。
首先需要明確的是,現(xiàn)實世界是充滿經(jīng)驗的,即充滿隨機性和不確定性。然而在康德看來,這種經(jīng)驗性的獲得不能使我們得出真正的道德法則,因為真正的道德“是我們?nèi)魏吻闆r下都必須遵守的道德規(guī)范”,其首要的要求和最大的特點就是普遍性和必然性。
那么我們?nèi)绾尾拍塬@得這種必然性的道德法則呢?康德認為,先天理性是核心。
在康德的道德哲學(xué)體系中,“先天的理性自在地存在于每個有理性的東西的心中”,這種理性是天然獲得的,與后天的經(jīng)驗無關(guān)。因而遵守先天理性的意志也能拋棄“質(zhì)料”上升為“善良意志”,引導(dǎo)人做出符合道德法則的行為,從而實現(xiàn)一種純粹的道德。
當人能夠放下功利和目的,僅在善良意志的作用下憑純粹的道德法則進行社會行動時,那么人就實現(xiàn)了自律,到達康德口中的“自律即自由”境界。此時,“自律既作為一種‘道德意向’而存在,同時也反映著道德主體的‘實踐能力’”。
那么人工智能是否有實現(xiàn)康德式自律的基礎(chǔ)呢?答案是肯定的。
首先,人工智能的類人性稟賦決定其具有仿造人類執(zhí)行道德法則的思維基礎(chǔ)。
作為模擬、延伸人類智慧的技術(shù),人工智能與人類思維存在內(nèi)在的共通性。人工智能可以理解為模仿人腦結(jié)構(gòu)的人工神經(jīng)網(wǎng)絡(luò)。不論是只能執(zhí)行既定方案的弱人工智能,還是具有自主意識、足以通過圖靈測試的強人工智能,抽象邏輯思維都是底層能力,而這也同樣是人類的思維形態(tài)之一。
借助抽象邏輯思維,人類得以遵循先天理性、實現(xiàn)意志自律。由此觀之,在思維基礎(chǔ)方面,人工智能具有踐行康德式自律的可能性。

其次,人工智能的技術(shù)邏輯決定其具有遵循“技術(shù)的先天理性”的實踐基礎(chǔ)。
如今我們處于弱人工智能階段,還無法實現(xiàn)機器的自我感知以及真正的自我意識和智慧思考。弱人工智能階段重要的技術(shù)開發(fā)手段是深度學(xué)習,即在構(gòu)建機器學(xué)習模型的基礎(chǔ)上通過海量的數(shù)據(jù)訓(xùn)練來提升其準確性。因此,人工智能最終的行為結(jié)果還是需要以底層代碼為根基,無法做出超出代碼設(shè)計范圍的行動。
區(qū)塊鏈領(lǐng)域流行著“代碼即法律”的看法,強調(diào)規(guī)則的確定性和對于外界干擾的排斥性。從更深層次來看,“代碼即法律”其實體現(xiàn)了一種“原教旨主義式的技術(shù)信仰”,尤其強調(diào)代碼的神圣不可侵犯性。
盡管對于此種觀點學(xué)術(shù)界還存在巨大的爭議——代碼其實內(nèi)嵌了人的價值判斷,但無論如何,智能技術(shù)會按照既定的規(guī)則運行,同時在運行過程中不受外界干擾是共識,不論這種規(guī)則是否是中立的,或者說是否是道德的。
這與康德的先天思想不謀而合。對于人來說,只有遵循絕對法則、秉持絕對理性才能到達道德的彼岸。而對于遵循“技術(shù)的先天理性”的人工智能來說,當這種理性符合絕對法則的要求時,那么人工智能也具有了實現(xiàn)自律的實踐基礎(chǔ)。
03
技術(shù)何以自律

我們已知人工智能是可以實現(xiàn)自律的,即人工智能在理論上可以實現(xiàn)對未成年人的自主保護,那么這種保護的實現(xiàn)機制為何?
依據(jù)康德的哲學(xué)理論,他特別強調(diào)以下幾點:
1、道德法則必須具有必然性和普遍性
“要只按照你同時能夠愿意它成為一個普遍法則的那個準則去行動。”康德之所以要求道德規(guī)范必須排除經(jīng)驗、必須基于先天理性,是因為只有如此,人才能有可靠的依據(jù)做最后的道德裁定,我們才能判斷一種行為是否是道德的,并使得這種判斷結(jié)果具有強有力的支撐。
2、定言式命令形式才是真正的道德命令
康德用命令式來表示客觀規(guī)律與意志之間的關(guān)系。命令式分為假言式(假如你想…,則做…)和定言式(去做…)。定言式命令強調(diào)無條件、無目的,即并不為了實現(xiàn)什么別的目的去做這件事,而是根源于自身善的意志。定言式命令排除了經(jīng)驗的介入,指向?qū)π袨榈臒o條件約束。只有當一種行為由定言式命令指導(dǎo),不假與外物,它才真正走向道德,人才真正實現(xiàn)自由。

3、以人為目的而非手段
在康德看來,作為理性存在者的人是崇高的,“在任何時候都應(yīng)當同時作為目的”。人具有絕對的價值,其存在本身就是目的,別的物應(yīng)僅僅作為手段為他服務(wù),而非將人作為追求他物的手段。因此以他人為手段、踐踏他人尊嚴的行為完全不可取,在社會行動中,凌駕于他人和自身的行為都是不道德的。
以此為啟發(fā),我們可以從中建構(gòu)保護未成年人的技術(shù)自律框架。
1、普適性原則
首先,需要制訂一套具有絕對道德意義的未成年人保護原則。踐行康德式的道德自律體系需要有道德法則作為指引,因此在技術(shù)設(shè)定之初就需要將未成年人保護的道德原則融入其中并讓其成為普遍性的原則,即在技術(shù)整體體系中需要一以貫之且必須無條件遵守。
2、無條件執(zhí)行
在開發(fā)與未成年人有關(guān)的技術(shù)時,指導(dǎo)性的道德法則需要無條件執(zhí)行且不能讓其他利益凌駕于其上,同時不允許因為別的目的采取對于未成年人的保護行動,避免經(jīng)驗性因素和主觀性動機的干擾。在進行技術(shù)開發(fā)和更新迭代時,對未成年人的保護也需要置于首要位置。
3、個體性尊重
個體性尊重是指要尊重未成年群體本身。一方面不應(yīng)把未成年人保護視為技術(shù)附加物而應(yīng)視其為技術(shù)本身應(yīng)該具備的屬性,另一方面不應(yīng)將未成年人保護行為視為謀取其他利益的途徑而應(yīng)該真正將其視為要達成的目的。
通過技術(shù)自律實現(xiàn)未成年人保護目前來說還只是一種理論設(shè)想,但隨著人工智能技術(shù)的深度進化,唯有尋找新出路、發(fā)現(xiàn)新方案才可能破解人機對立難題,確保人本身的崇高性和神圣性。



