AI正在高度滲透進(jìn)人類社會。
在教育領(lǐng)域,DALL·E、Midjourney等生成式AI工具不僅能夠輔助創(chuàng)作圖像與文本內(nèi)容,更能依據(jù)學(xué)習(xí)者特征提供個性化支持;醫(yī)療場景中,AI輔助診斷系統(tǒng)通過影像識別將乳腺癌早期檢出率提升27%,藥物研發(fā)周期在算法介入下縮短40%;內(nèi)容創(chuàng)作上,AI寫作和繪畫工具為創(chuàng)作者提供靈感與便利......
只是,AI技術(shù)在展現(xiàn)強大應(yīng)用前景的同時,也暴露出不容忽視的倫理困境。由于訓(xùn)練數(shù)據(jù)集存在固有缺陷,部分AIGC呈現(xiàn)出系統(tǒng)性偏見、價值觀沖突、“觀點霸權(quán)”、刻板印象及虛假信息傳播等一系列問題。
清華大學(xué)新聞與傳播學(xué)院教授陳昌鳳長期關(guān)注AI倫理安全。在她看來,人工智能猶如人類社會的鏡子——世界是怎樣的,算法就會反映出來是怎樣。人類若以善為準(zhǔn)則培育它,就會塑造出良善;反之,會映射出惡意。
“前AIGC時代人類未能意識到的自身缺陷,如今通過智能生成的內(nèi)容暴露了出來,這是它對人類的提示、警醒。在此之前,人類還沒有如此全面地了解自身、理解人類社會,是不完美的人工智能展示了更全面的人類,從歷史到現(xiàn)實。”陳昌鳳在《由數(shù)據(jù)決定?AIGC的價值觀和倫理問題》一文中寫道。
當(dāng)ChatGPT等AIGC工具日益滲透,其價值觀偏差與倫理漏洞的根源何在?面對AI偏見與幻覺的雙重挑戰(zhàn),普通個體應(yīng)又該如何自處?圍繞這些牽動大眾神經(jīng)的核心議題,時代財經(jīng)專訪了陳昌鳳教授,試圖在這輪技術(shù)狂潮中,厘清AI時代的生存法則。
以下是訪談節(jié)選(在不影響原意的情況下,略有刪減):
時代財經(jīng):什么是AI偏見?它對我們的社會生活會產(chǎn)生哪些影響?
陳昌鳳:回答這個問題前,我們需要先厘清兩個關(guān)鍵概念——算法偏向(Bias)與算法偏見(Prejudice)。前者指算法基于數(shù)據(jù)特征形成的傾向性,比如系統(tǒng)根據(jù)用戶喜好推送娛樂內(nèi)容。偏向本身未必涉及道德問題,更多是技術(shù)設(shè)計的選擇性優(yōu)化。但當(dāng)這種傾向與社會共識的公平價值觀相悖時,就會演變成具有倫理爭議的“Prejudice”(偏見)。
典型的AI偏見常體現(xiàn)在社會身份相關(guān)的決策中。例如圖像系統(tǒng)將企業(yè)高管默認(rèn)描繪為男性,而將清潔工設(shè)定為女性;招聘算法給男性推薦高薪職位,卻為女性匹配低薪崗位......通過AI的自動化決策,算法偏見會形成規(guī)?;缫?,從而擴大社會不公。
早在2016-2018年間,美國ProPublica新聞網(wǎng)站發(fā)布了60余篇“機器偏見”系列報道,其中披露美國監(jiān)獄采用的再犯風(fēng)險評估系統(tǒng)“丑聞”:該算法號稱能夠通過歷史犯罪數(shù)據(jù),預(yù)測犯人危險性,卻將黑人偷自行車判定為“高?!?,而對持槍搶劫的白人罪犯判為低危。這種基于非公正歷史的數(shù)據(jù)循環(huán),會通過機器學(xué)習(xí)不斷自我強化,形成數(shù)字時代的“種族偏見”。
時代財經(jīng):算法偏見是如何產(chǎn)生的?
陳昌鳳:AI偏見的本質(zhì)源于現(xiàn)實數(shù)據(jù)的局限性。
以“機器偏見”系列報道為例,過去一個世紀(jì),黑人平權(quán)運動中存在較多與司法系統(tǒng)沖突的記錄——這本質(zhì)是社會不公正的連鎖反應(yīng):教育機會缺失、階層固化等結(jié)構(gòu)性問題,導(dǎo)致某些群體更容易被納入犯罪統(tǒng)計。當(dāng)算法直接采用這類帶有歷史傷痕的數(shù)據(jù)時,就形成了“黑人犯罪率高”的算法歧視。
有時候,算法設(shè)計者的個體偏見也會滲透進(jìn)系統(tǒng)。就像Facebook前工程師自述,自己作為崇尚自由主義的開發(fā)者,刻意在算法中壓制保守派信息。從這一點看,AI偏見實際是社會現(xiàn)實的投射——既可以鏡像呈現(xiàn)人類的善意,也可能將惡意幾何級放大。
時代財經(jīng):進(jìn)一步說,人類社會偏見不可避免存在,那是否意味著算法偏見也無法消除?
陳昌鳳:兩年前我們訪談算法工程師時,問了他們同一個問題,當(dāng)時對方反問說:世界是怎樣的,算法就會反映出來怎么樣,你難道要我憑空創(chuàng)造沒有人類缺點和問題的世界嗎?
人工智能與社會本就是交互共生關(guān)系——它既具備技術(shù)特性,更承載著社會屬性,不可能成為無菌的“社會真空體”。就像微軟2016年的聊天機器人Tay,上線15小時就被社交媒體的惡意數(shù)據(jù)投喂成種族主義者。用偏見數(shù)據(jù)喂養(yǎng)就會強化歧視,AI是社會的鏡子,折射出人性明暗。
所以我們還是強調(diào)技術(shù)要有價值觀引領(lǐng)。就像媒體需承擔(dān)導(dǎo)向功能,AI同樣能在交互中設(shè)置道德濾網(wǎng)。關(guān)鍵在于人類如何將"向善"的編碼植入算法底層:當(dāng)用戶查詢自殺方式時,系統(tǒng)不應(yīng)機械提供工具指南,而應(yīng)觸發(fā)危機干預(yù)機制;當(dāng)面對犯罪咨詢時,需自動激活法律警示程序。
時代財經(jīng):除了算法偏見外,造成AI胡說八道的另一個問題在于“幻覺”。AI幻覺是怎么產(chǎn)生的?它對我們有何影響?
陳昌鳳:圍繞AI幻覺有一個經(jīng)典故事:2023年2月,微軟人工智能Bing的內(nèi)部測試中,紐約時報科技記者凱文·魯斯與其進(jìn)行了長達(dá)兩小時的對話,期間系統(tǒng)不僅自命為具有獨立意識的"辛妮",更虛構(gòu)出工程師賦予其心理輔導(dǎo)功能的設(shè)定,并向人類記者示愛。
此類問題核心在于,AI運算原理是基于數(shù)據(jù)庫預(yù)測下一個“token”的概率游戲,而非回答的準(zhǔn)確性;另一方面基于深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)架構(gòu),AI幻覺與人類認(rèn)知機制存在相似性,浙江大學(xué)計算機系的教授曾提到過:人類文明本就建立在集體幻覺之上,從遠(yuǎn)古神話到現(xiàn)代宗教,虛構(gòu)敘事讓人類有秩序性地生存下去。
因此以技術(shù)發(fā)展階段而言,生成式人工智能的幻覺問題難以避免,有時候還會變得越來越難以分辨,早期的DeepSeek往往把胡編亂造的事實藏在一堆看似合理的邏輯推論里,比如前段時間“中國80后的死亡率5.2%”的謠言,就是AI幻覺的衍生。
時代財經(jīng):聽起來無論是AI偏見還是幻覺,現(xiàn)階段都無法解決,它的技術(shù)瓶頸在哪?
陳昌鳳:首先你得能打開“算法黑箱”。由于算法的復(fù)雜性難以追溯,AI的決策機制就連設(shè)計者自身有時都難以解釋清楚。事實上,人類與“黑箱”的博弈已持續(xù)數(shù)十年,但技術(shù)自洽邏輯與生物性特質(zhì)決定了這種必然,“算法黑箱”目前來說是打不開的。
時代財經(jīng):在無法打開的算法“黑箱”面前,如何讓AI的決策更加透明和可靠?
陳昌鳳:因為“黑箱”內(nèi)在特性所致,我們目前只能在設(shè)計層面盡可能把握透明度,比如公開推薦算法的公式、用戶畫像、地理位置畫像等多維度數(shù)據(jù),向社會展示技術(shù)邏輯。過去幾年,學(xué)術(shù)界經(jīng)常從倫理層面呼吁提高透明度,但對AI算法只是“無牙老虎”,這往往只是一個倫理的期待。歸根到底,企業(yè)核心算法仍是商業(yè)機密,一旦公開,核心競爭力將蕩然無存。
在人工智能時代,算法黑箱爭議多演變?yōu)榉刹┺模現(xiàn)acebook在歐洲的訴訟、谷歌的賠償案例,用戶與平臺間形成“進(jìn)退”拉鋸:有時用戶讓步接受現(xiàn)狀,有時平臺妥協(xié)適度開放,本質(zhì)上是公共利益與商業(yè)利益的持續(xù)平衡,而標(biāo)準(zhǔn)會在反復(fù)磨合中趨于合理。
時代財經(jīng):既然AI存在那么多問題,當(dāng)它錯誤決策導(dǎo)致不良后果時,法律下的權(quán)責(zé)應(yīng)該如何劃分?
陳昌鳳:AI時代權(quán)責(zé)劃分是難點問題之一,目前的法律實踐通常將責(zé)任主體鎖定在兩個層面,即使用方需承擔(dān)審慎核查義務(wù),平臺方則需對技術(shù)框架負(fù)責(zé)。
比如,自動駕駛技術(shù)引發(fā)事故,責(zé)任通常指向平臺方、車主,因為車輛控制權(quán)由駕駛員掌握。類似地,在醫(yī)療場景中,若AI開具的處方導(dǎo)致患者損害,責(zé)任應(yīng)由醫(yī)療機構(gòu)承擔(dān),而非技術(shù)平臺。其責(zé)任劃分邏輯仍是參照互聯(lián)網(wǎng)治理框架,責(zé)任均需根據(jù)控制權(quán)歸屬進(jìn)行動態(tài)分配。
時代財經(jīng):前段時間,網(wǎng)信辦下發(fā)整治AI技術(shù)濫用亂象、規(guī)范AI類應(yīng)用網(wǎng)絡(luò)生態(tài)的通知,說明AI工具已經(jīng)對現(xiàn)實產(chǎn)生了不少負(fù)面影響。在你看來,當(dāng)下圍繞AI安全方面急需解決的問題是什么?
陳昌鳳:最緊迫的監(jiān)管議題當(dāng)屬虛假信息治理與個人信息安全防護兩個領(lǐng)域。眼下,深度偽造技術(shù)已經(jīng)非常泛化,其應(yīng)用已從娛樂場景轉(zhuǎn)向社會攻擊工具,被濫用實施人格抹黑、煽動意識形態(tài)對立等惡性行為。包括偽造國際名人謠言、中學(xué)生的面容被移植至非法場景。
同時,開源模型帶來的“低門檻”生成能力,使任何人都可批量制造誹謗圖文、偽造敏感影像。在這種背景下,民眾的教育確實非常重要。AI的用戶們要有技術(shù)素養(yǎng),確保自己不會被AI蒙騙,首先在認(rèn)知上有所調(diào)整,不能全盲依賴AI,它非結(jié)論和教條;其次,謹(jǐn)慎辨別信息,把AI檢索和推理的信息分開,亦或是用AI對抗AI方式校準(zhǔn)內(nèi)容。
時代財經(jīng):有沒有什么方法可以強化大眾的技術(shù)素養(yǎng),保證大家能夠以平均水準(zhǔn)去使用AI?
陳昌鳳:AI技術(shù)素養(yǎng)本質(zhì)上屬于全民終身教育范疇,需要社會多方主體的協(xié)同參與。政府層面應(yīng)主導(dǎo)制定更加細(xì)化的監(jiān)管體系,教育系統(tǒng)需將AI認(rèn)知課程融入各階段教學(xué),新聞則要及時告知大眾AI技術(shù)可能帶來的風(fēng)險......
盡管如此,技術(shù)素養(yǎng)提升與數(shù)字鴻溝消除具有相似規(guī)律——它既不能單靠強制推行實現(xiàn),也不會自然達(dá)成均衡狀態(tài),而是需要技術(shù)普惠機制與個體學(xué)習(xí)意愿的共同作用。提升AI時代原住民的技術(shù)素養(yǎng)任重道遠(yuǎn),也是一個自然而然的過程。
本文鏈接:http://jphkf.cn/news-2-1148-0.html專訪清華大學(xué)教授陳昌鳳:AI是社會的鏡子,折射出人性明暗
聲明:本網(wǎng)頁內(nèi)容由互聯(lián)網(wǎng)博主自發(fā)貢獻(xiàn),不代表本站觀點,本站不承擔(dān)任何法律責(zé)任。天上不會到餡餅,請大家謹(jǐn)防詐騙!若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。
點擊右上角微信好友
朋友圈
點擊瀏覽器下方“”分享微信好友Safari瀏覽器請點擊“
”按鈕
點擊右上角QQ
點擊瀏覽器下方“”分享QQ好友Safari瀏覽器請點擊“
”按鈕