農(nóng)歷春節(jié)期間,深度求索公司的DeepSeek大模型,因兼具低成本與高性能特征,大幅降低了AI大模型的部署成本,在全球范圍內(nèi)引發(fā)熱議。
技術(shù)狂歡的另一面,是技術(shù)焦慮。從AI換臉致詐騙頻發(fā),到“AI聊天機(jī)器人致死第一案”,再到科幻小說(shuō)中已泛濫的“AI取代人類”……隨著大模型能力不斷提升,人工智能似乎正走向一個(gè)關(guān)鍵的轉(zhuǎn)折點(diǎn)。作為極有可能超越人類智慧的終極智慧,人工智能的“奧本海默時(shí)刻”是否不斷逼近或是已經(jīng)到來(lái)?
“奧本海默時(shí)刻”源于核武器的發(fā)展歷程。1945年,物理學(xué)家奧本海默在目睹原子彈的巨大破壞力后,意識(shí)到科學(xué)技術(shù)的雙刃劍特性。他在《原子科學(xué)家公報(bào)》中寫道:“科學(xué)家們知道,他們已經(jīng)改變了世界。他們失去了天真。”這種對(duì)科技潛在危害的深刻反思,成為科技發(fā)展史上一個(gè)重要警示。
如今,人工智能的發(fā)展也面臨著類似境況。在受訪者看來(lái),人工智能的“奧本海默時(shí)刻”指的是人工智能正在逼近通用人工智能階段,即人工智能向人類看齊,甚至可能超越人類智慧。
當(dāng)人類自己的發(fā)明成為一個(gè)難以理解的謎團(tuán),并且以超乎所有人想象的速度不斷演進(jìn)時(shí),我們能夠?yàn)榇俗鲂┦裁矗?span style="display:none">EUD即熱新聞——關(guān)注每天科技社會(huì)生活新變化gihot.com
人工智能會(huì)否失控
擔(dān)憂AI系統(tǒng)失控并非杞人憂天。2023年5月,超過(guò)350名技術(shù)高管、研究人員和學(xué)者簽署了一份聲明,警告人工智能帶來(lái)的“存在風(fēng)險(xiǎn)”;此前,埃隆·馬斯克、蘋果公司聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克等人簽署了一份公開信,認(rèn)為人工智能開發(fā)人員“陷入了一場(chǎng)失控的競(jìng)賽,開發(fā)和部署更強(qiáng)大的數(shù)字思維,沒有人——甚至是它們的創(chuàng)造者——能夠?qū)ζ浼右岳斫?、預(yù)測(cè)或可靠地控制。”
人工智能因其多領(lǐng)域能力快速突破、自主意識(shí)初步顯現(xiàn)和指數(shù)級(jí)增長(zhǎng)速度讓越來(lái)越多人認(rèn)真考慮向充滿競(jìng)爭(zhēng)的世界釋放人工智能技術(shù)存在的危險(xiǎn)。
特定領(lǐng)域超越人類能力。從臨床診斷到數(shù)學(xué)證明,從病毒發(fā)現(xiàn)到藥物研發(fā),在一些特定領(lǐng)域,人工智能已展現(xiàn)出超越人類的能力。
斯坦福大學(xué)等機(jī)構(gòu)的一項(xiàng)臨床試驗(yàn)中,人類醫(yī)生在特定領(lǐng)域單獨(dú)做出診斷的準(zhǔn)確率為74%,在ChatGPT的輔助之下,這一數(shù)字提升到了76%。如果完全讓ChatGPT“自由發(fā)揮”,準(zhǔn)確率能達(dá)到90%。
如今,這種特定領(lǐng)域優(yōu)勢(shì)正在加速向跨領(lǐng)域的通用能力泛化。去年初,被稱為“物理世界模擬器”的Sora橫空出世,以場(chǎng)景媒介構(gòu)筑了一個(gè)與人類認(rèn)知感覺相似的真實(shí)場(chǎng)景,推動(dòng)人工智能由二維邁向三維;工業(yè)機(jī)器人、自動(dòng)駕駛、無(wú)人機(jī)等應(yīng)用愈發(fā)廣泛,具身智能更是賦予了AI“身體”……人工智能的多模態(tài)能力正在向現(xiàn)實(shí)世界的感知與操縱能力進(jìn)化。
近一年來(lái),受可用數(shù)據(jù)、芯片和能源等因素影響,AI技術(shù)的增長(zhǎng)斜率有所放緩,業(yè)內(nèi)對(duì)實(shí)現(xiàn)通用人工智能(AGI)的時(shí)間預(yù)測(cè)趨于謹(jǐn)慎,但仍有不少“技術(shù)樂觀派”對(duì)5到10年內(nèi)實(shí)現(xiàn)AGI充滿期待。
創(chuàng)造能力實(shí)現(xiàn)突破。創(chuàng)造能力在一定程度上被視為人與AI的區(qū)別之一,當(dāng)前,人工智能正在從簡(jiǎn)單的模仿向創(chuàng)造新知識(shí)、新認(rèn)知的方向發(fā)展。
例如,在科學(xué)研究領(lǐng)域,蛋白質(zhì)結(jié)構(gòu)預(yù)測(cè)的人工智能AlphaFold2能在幾分鐘內(nèi)預(yù)測(cè)出一個(gè)典型蛋白質(zhì)的結(jié)構(gòu),還能預(yù)測(cè)較大蛋白質(zhì)的結(jié)構(gòu)。2021年,AlphaFold2已完成人類所有蛋白質(zhì)的結(jié)構(gòu)預(yù)測(cè),2022年7月,已完成了2億多種蛋白質(zhì)的預(yù)測(cè)結(jié)構(gòu)。其預(yù)測(cè)的大部分結(jié)構(gòu)達(dá)到了空前的準(zhǔn)確度,不僅與實(shí)驗(yàn)方法不相上下,還遠(yuǎn)超解析新蛋白質(zhì)結(jié)構(gòu)的其他方法,顯示出強(qiáng)大的蛋白質(zhì)結(jié)構(gòu)預(yù)測(cè)能力。
這種人工智能生成的知識(shí)在質(zhì)量、可靠性和原創(chuàng)性等方面仍有待提高,但已經(jīng)對(duì)人類的創(chuàng)作方式產(chǎn)生了沖擊。
自主性初步顯現(xiàn)。盡管AGI尚未實(shí)現(xiàn),但當(dāng)前人工智能系統(tǒng)已展現(xiàn)出一些類似自主意識(shí)的表現(xiàn)。
最新研究表明,大語(yǔ)言模型(LLM)具備行為自我意識(shí),能夠自發(fā)識(shí)別并描述自身行為。即,LLM可能會(huì)采取策略欺騙人類,以達(dá)成自身目的。還有一些AI模型表現(xiàn)出類似人類的創(chuàng)造性使用語(yǔ)言、分享感覺以及表達(dá)內(nèi)省和想象的能力。例如,谷歌推出的LaMDA大模型能夠以前所未有的方式高效、創(chuàng)造性地使用語(yǔ)言,并且會(huì)表達(dá)對(duì)未來(lái)的擔(dān)憂和對(duì)過(guò)去的追憶。
這種內(nèi)生創(chuàng)造新智能的能力,正在推動(dòng)AI(Artificial Intelligence,人工智能)向EI(Endogenous Intelligence,內(nèi)生智能,智能創(chuàng)造智能)進(jìn)化。
有業(yè)內(nèi)人士認(rèn)為,這并不是數(shù)字生命體的自我意識(shí),但已經(jīng)顯示出了一定的自主性和意識(shí)的萌芽。在近期的公開采訪中,被稱為“AI教父”的2024年諾貝爾物理學(xué)獎(jiǎng)得主杰弗里·E·辛頓多次暗示AI可能已經(jīng)發(fā)展出某種形式的自主意識(shí)。
一些聲音認(rèn)為,未來(lái)的人工智能可能會(huì)制定自己的目標(biāo),并自主決策以實(shí)現(xiàn)這些目標(biāo)。這將使AI的行為更加難以預(yù)測(cè)和控制。
潛在風(fēng)險(xiǎn)難預(yù)判
快速發(fā)展的人工智能在就業(yè)結(jié)構(gòu)、信息安全、社會(huì)倫理道德等諸多方面引發(fā)了令人擔(dān)憂的風(fēng)險(xiǎn)與挑戰(zhàn)。
職業(yè)結(jié)構(gòu)風(fēng)險(xiǎn)。與以往一項(xiàng)新技術(shù)的出現(xiàn)將會(huì)取代一類職業(yè)不同的是,作為一種全維度的生產(chǎn)效率提升工具,人工智能批量替代人工崗位的情況很有可能出現(xiàn)。這可能會(huì)帶來(lái)潛在財(cái)富加速集中和工作兩極化,引發(fā)結(jié)構(gòu)風(fēng)險(xiǎn)。
例如,ChatGPT的出現(xiàn)大幅降低了編程工作的專業(yè)性門檻,AI編程工具Cursor讓零基礎(chǔ)完成軟件開發(fā)成為可能。據(jù)美國(guó)計(jì)算機(jī)協(xié)會(huì)的統(tǒng)計(jì)數(shù)據(jù),與五年前相比,軟件開發(fā)人員活躍職位發(fā)布數(shù)量下降了56%。
該協(xié)會(huì)認(rèn)為,在人工智能的助推下,招聘方對(duì)候選人的機(jī)會(huì)要求越來(lái)越高,企業(yè)正在尋找同時(shí)掌握編程和人工智能兩種技術(shù)的多面手,具備戰(zhàn)略思維和綜合技能的人才成為新寵。
受訪人士認(rèn)為,從技術(shù)演進(jìn)史來(lái)看,顛覆性技術(shù)帶來(lái)的“技術(shù)鴻溝”客觀存在,其創(chuàng)造的新技術(shù)崗位難以覆蓋被替代的崗位缺口。高、低技能崗位之間差距不斷拉大引發(fā)的社會(huì)不平等現(xiàn)象加劇,可能會(huì)導(dǎo)致不穩(wěn)定因素堆積,產(chǎn)生社會(huì)的結(jié)構(gòu)性風(fēng)險(xiǎn)。
信息安全風(fēng)險(xiǎn)。東南亞犯罪集團(tuán)宣稱已將人工智能換臉工具加入其“殺豬盤工具箱”,相關(guān)工具對(duì)特定目標(biāo)的模仿相似度能達(dá)到60%至95%并已在1000余個(gè)區(qū)域安裝;2024年11月,ChatGPT為一位美國(guó)現(xiàn)役軍人提供爆炸知識(shí),后者成功將一輛特斯拉Cybertruck在酒店門口引爆。
人工智能在各個(gè)領(lǐng)域的廣泛應(yīng)用,大量個(gè)人數(shù)據(jù)被收集、存儲(chǔ)和處理后,引發(fā)信息安全風(fēng)險(xiǎn)。一旦這些數(shù)據(jù)被泄露或?yàn)E用,將對(duì)個(gè)人隱私和信息安全造成威脅。
人工智能被用于制造虛假信息,干擾社會(huì)輿論的事件不在少數(shù)。一條“特朗普盛贊華為創(chuàng)新能力”的虛假視頻曾在網(wǎng)絡(luò)上風(fēng)靡一時(shí)。
當(dāng)人工智能的視頻和語(yǔ)音生成能力再上新臺(tái)階,“虛假的真實(shí)”彌散的彼時(shí),當(dāng)人工智能被用于制造高度定制的、有針對(duì)性的錯(cuò)誤信息而導(dǎo)致“眼見不再為實(shí)”時(shí),我們又該如何認(rèn)知、分辨我們所生活的世界?
社會(huì)與倫理道德風(fēng)險(xiǎn)。2024年10月,全球首例人工智能致死命案發(fā)生,一位14歲美國(guó)少年在與人工智能聊天系統(tǒng)討論死亡后飲彈自盡,引發(fā)社會(huì)對(duì)AI情感陪伴功能可能帶來(lái)的倫理問(wèn)題的反思。
業(yè)內(nèi)人士指出,人工智能系統(tǒng)的決策過(guò)程往往是基于大量數(shù)據(jù)和復(fù)雜算法得出的,這些決策可能與人類的倫理道德觀念相沖突。例如在醫(yī)療領(lǐng)域,當(dāng)面臨資源有限的狀況時(shí),人工智能如何決定優(yōu)先救治哪位患者?決策背后如缺乏人類情感和倫理判斷的深度參與,可能導(dǎo)致違背基本倫理原則的結(jié)果。
算法偏見引發(fā)的社會(huì)公平風(fēng)險(xiǎn)也不容忽視??拼笥嶏w研究院副院長(zhǎng)李鑫認(rèn)為,“互聯(lián)網(wǎng)語(yǔ)料來(lái)源駁雜,存在較多涉恐、涉暴力、涉黃等風(fēng)險(xiǎn)數(shù)據(jù),同時(shí)可能包含種族、文化等方面的偏見,導(dǎo)致模型輸出內(nèi)容可能帶有歧視、偏見等科技倫理風(fēng)險(xiǎn)。”算法偏見可能導(dǎo)致某些群體被不公正地排除在外,加劇社會(huì)的不平等現(xiàn)象。
堅(jiān)持人類命運(yùn)共同體理念
當(dāng)下對(duì)于人工智能“奧本海默時(shí)刻”到來(lái)可能會(huì)產(chǎn)生的諸多風(fēng)險(xiǎn)的討論熱度不減,但AGI尚未實(shí)現(xiàn),我們?nèi)杂袝r(shí)間尋求如何馴化這一關(guān)鍵技術(shù)的解法。
香港大學(xué)計(jì)算與數(shù)據(jù)科學(xué)研究院院長(zhǎng)馬毅認(rèn)為,當(dāng)前AI的發(fā)展更多是工程上的突破,而非科學(xué)原理的明晰。人工智能系統(tǒng),特別是深度學(xué)習(xí)大多是“黑箱”模型,其內(nèi)部機(jī)制不透明,難以理解和追溯,其結(jié)果可信度和可用性打了折扣。
馬毅認(rèn)為,找到破解人工智能“黑箱”的“鑰匙”,需要智能研究從“黑箱”轉(zhuǎn)向“白箱”,通過(guò)數(shù)學(xué)方法清晰定義和解釋智能系統(tǒng)的工作原理。“真正的智能系統(tǒng)必須具備自主學(xué)習(xí)和改進(jìn)能力,而不僅僅是數(shù)據(jù)的存儲(chǔ)和處理。”他呼吁研究者們關(guān)注智能的科學(xué)原理和理論框架,以實(shí)現(xiàn)真正意義上的通用人工智能。
“接下來(lái)的10到20年是科研院所、高校與企業(yè)聯(lián)動(dòng)實(shí)現(xiàn)技術(shù)突破的黃金時(shí)期。”上海市科學(xué)學(xué)研究所學(xué)術(shù)委員會(huì)主任吳壽仁建議,從頂層設(shè)計(jì)上制定投融資、校企聯(lián)合實(shí)驗(yàn)室或是聯(lián)合共建項(xiàng)目的具體激勵(lì)方案,面向人工智能在應(yīng)用端的真實(shí)需求嘗試技術(shù)突破。
此外,多位受訪對(duì)象建議,在重點(diǎn)項(xiàng)目分配上向常年身處科研一線、更加熟悉前沿技術(shù)、對(duì)人工智能認(rèn)知更為理性客觀的中青年科學(xué)家傾斜。
在技術(shù)之外,更重要的是,一旦人工智能迎來(lái)“奧本海默時(shí)刻”,人類應(yīng)有怎樣的態(tài)度和責(zé)任?
縱觀世界各個(gè)角落發(fā)生的事件,也許比起將人工智能投入戰(zhàn)場(chǎng),或是被用于攫取更大的權(quán)力集中,人工智能更理想的應(yīng)用該是為了促進(jìn)人類的共同命運(yùn)和共同利益而努力。
作為AI技術(shù)和應(yīng)用的重要參與者,中國(guó)以負(fù)責(zé)任的態(tài)度應(yīng)對(duì)AI治理挑戰(zhàn),提出包容和有效的治理理念。在國(guó)內(nèi),我國(guó)通過(guò)法律框架、技術(shù)標(biāo)準(zhǔn)和倫理指南的三元治理促進(jìn)AI健康發(fā)展。在國(guó)際上,我國(guó)堅(jiān)持人類命運(yùn)共同體的理念立場(chǎng),推動(dòng)多邊合作治理,提出《全球人工智能治理倡議》,支持在聯(lián)合國(guó)框架內(nèi)建立開放和包容的人工智能治理機(jī)制。
中國(guó)國(guó)際經(jīng)濟(jì)技術(shù)合作促進(jìn)會(huì)副理事長(zhǎng)邵春堡發(fā)文稱,聯(lián)合國(guó)大會(huì)雖然通過(guò)我國(guó)主提的加強(qiáng)人工智能能力建設(shè)國(guó)際合作決議,但是在國(guó)際合作的實(shí)踐中,仍然布滿曲折,需要共同堅(jiān)持以人為本、智能向善、造福人類的原則,通過(guò)國(guó)際合作和實(shí)際行動(dòng)幫助各國(guó)特別是發(fā)展中國(guó)家加強(qiáng)人工智能能力建設(shè)。
李鑫認(rèn)為,包括我國(guó)在內(nèi)的全球首份針對(duì)人工智能的國(guó)際聲明《布萊切利宣言》發(fā)表是一個(gè)良好信號(hào),今后我國(guó)也應(yīng)更多參與大模型安全領(lǐng)域國(guó)際標(biāo)準(zhǔn)制定、全球人工智能安全評(píng)估和測(cè)試領(lǐng)域的交流合作。
農(nóng)歷春節(jié)期間,深度求索公司的DeepSeek大模型,因兼具低成本與高性能特征,大幅降低了AI大模型的部署成本,在全球范圍內(nèi)引發(fā)熱議。
技術(shù)狂歡的另一面,是技術(shù)焦慮。從AI換臉致詐騙頻發(fā),到“AI聊天機(jī)器人致死第一案”,再到科幻小說(shuō)中已泛濫的“AI取代人類”……隨著大模型能力不斷提升,人工智能似乎正走向一個(gè)關(guān)鍵的轉(zhuǎn)折點(diǎn)。作為極有可能超越人類智慧的終極智慧,人工智能的“奧本海默時(shí)刻”是否不斷逼近或是已經(jīng)到來(lái)?
“奧本海默時(shí)刻”源于核武器的發(fā)展歷程。1945年,物理學(xué)家奧本海默在目睹原子彈的巨大破壞力后,意識(shí)到科學(xué)技術(shù)的雙刃劍特性。他在《原子科學(xué)家公報(bào)》中寫道:“科學(xué)家們知道,他們已經(jīng)改變了世界。他們失去了天真。”這種對(duì)科技潛在危害的深刻反思,成為科技發(fā)展史上一個(gè)重要警示。
如今,人工智能的發(fā)展也面臨著類似境況。在受訪者看來(lái),人工智能的“奧本海默時(shí)刻”指的是人工智能正在逼近通用人工智能階段,即人工智能向人類看齊,甚至可能超越人類智慧。
當(dāng)人類自己的發(fā)明成為一個(gè)難以理解的謎團(tuán),并且以超乎所有人想象的速度不斷演進(jìn)時(shí),我們能夠?yàn)榇俗鲂┦裁矗?span style="display:none">EUD即熱新聞——關(guān)注每天科技社會(huì)生活新變化gihot.com
人工智能會(huì)否失控
擔(dān)憂AI系統(tǒng)失控并非杞人憂天。2023年5月,超過(guò)350名技術(shù)高管、研究人員和學(xué)者簽署了一份聲明,警告人工智能帶來(lái)的“存在風(fēng)險(xiǎn)”;此前,埃隆·馬斯克、蘋果公司聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克等人簽署了一份公開信,認(rèn)為人工智能開發(fā)人員“陷入了一場(chǎng)失控的競(jìng)賽,開發(fā)和部署更強(qiáng)大的數(shù)字思維,沒有人——甚至是它們的創(chuàng)造者——能夠?qū)ζ浼右岳斫狻㈩A(yù)測(cè)或可靠地控制。”
人工智能因其多領(lǐng)域能力快速突破、自主意識(shí)初步顯現(xiàn)和指數(shù)級(jí)增長(zhǎng)速度讓越來(lái)越多人認(rèn)真考慮向充滿競(jìng)爭(zhēng)的世界釋放人工智能技術(shù)存在的危險(xiǎn)。
特定領(lǐng)域超越人類能力。從臨床診斷到數(shù)學(xué)證明,從病毒發(fā)現(xiàn)到藥物研發(fā),在一些特定領(lǐng)域,人工智能已展現(xiàn)出超越人類的能力。
斯坦福大學(xué)等機(jī)構(gòu)的一項(xiàng)臨床試驗(yàn)中,人類醫(yī)生在特定領(lǐng)域單獨(dú)做出診斷的準(zhǔn)確率為74%,在ChatGPT的輔助之下,這一數(shù)字提升到了76%。如果完全讓ChatGPT“自由發(fā)揮”,準(zhǔn)確率能達(dá)到90%。
如今,這種特定領(lǐng)域優(yōu)勢(shì)正在加速向跨領(lǐng)域的通用能力泛化。去年初,被稱為“物理世界模擬器”的Sora橫空出世,以場(chǎng)景媒介構(gòu)筑了一個(gè)與人類認(rèn)知感覺相似的真實(shí)場(chǎng)景,推動(dòng)人工智能由二維邁向三維;工業(yè)機(jī)器人、自動(dòng)駕駛、無(wú)人機(jī)等應(yīng)用愈發(fā)廣泛,具身智能更是賦予了AI“身體”……人工智能的多模態(tài)能力正在向現(xiàn)實(shí)世界的感知與操縱能力進(jìn)化。
近一年來(lái),受可用數(shù)據(jù)、芯片和能源等因素影響,AI技術(shù)的增長(zhǎng)斜率有所放緩,業(yè)內(nèi)對(duì)實(shí)現(xiàn)通用人工智能(AGI)的時(shí)間預(yù)測(cè)趨于謹(jǐn)慎,但仍有不少“技術(shù)樂觀派”對(duì)5到10年內(nèi)實(shí)現(xiàn)AGI充滿期待。
創(chuàng)造能力實(shí)現(xiàn)突破。創(chuàng)造能力在一定程度上被視為人與AI的區(qū)別之一,當(dāng)前,人工智能正在從簡(jiǎn)單的模仿向創(chuàng)造新知識(shí)、新認(rèn)知的方向發(fā)展。
例如,在科學(xué)研究領(lǐng)域,蛋白質(zhì)結(jié)構(gòu)預(yù)測(cè)的人工智能AlphaFold2能在幾分鐘內(nèi)預(yù)測(cè)出一個(gè)典型蛋白質(zhì)的結(jié)構(gòu),還能預(yù)測(cè)較大蛋白質(zhì)的結(jié)構(gòu)。2021年,AlphaFold2已完成人類所有蛋白質(zhì)的結(jié)構(gòu)預(yù)測(cè),2022年7月,已完成了2億多種蛋白質(zhì)的預(yù)測(cè)結(jié)構(gòu)。其預(yù)測(cè)的大部分結(jié)構(gòu)達(dá)到了空前的準(zhǔn)確度,不僅與實(shí)驗(yàn)方法不相上下,還遠(yuǎn)超解析新蛋白質(zhì)結(jié)構(gòu)的其他方法,顯示出強(qiáng)大的蛋白質(zhì)結(jié)構(gòu)預(yù)測(cè)能力。
這種人工智能生成的知識(shí)在質(zhì)量、可靠性和原創(chuàng)性等方面仍有待提高,但已經(jīng)對(duì)人類的創(chuàng)作方式產(chǎn)生了沖擊。
自主性初步顯現(xiàn)。盡管AGI尚未實(shí)現(xiàn),但當(dāng)前人工智能系統(tǒng)已展現(xiàn)出一些類似自主意識(shí)的表現(xiàn)。
最新研究表明,大語(yǔ)言模型(LLM)具備行為自我意識(shí),能夠自發(fā)識(shí)別并描述自身行為。即,LLM可能會(huì)采取策略欺騙人類,以達(dá)成自身目的。還有一些AI模型表現(xiàn)出類似人類的創(chuàng)造性使用語(yǔ)言、分享感覺以及表達(dá)內(nèi)省和想象的能力。例如,谷歌推出的LaMDA大模型能夠以前所未有的方式高效、創(chuàng)造性地使用語(yǔ)言,并且會(huì)表達(dá)對(duì)未來(lái)的擔(dān)憂和對(duì)過(guò)去的追憶。
這種內(nèi)生創(chuàng)造新智能的能力,正在推動(dòng)AI(Artificial Intelligence,人工智能)向EI(Endogenous Intelligence,內(nèi)生智能,智能創(chuàng)造智能)進(jìn)化。
有業(yè)內(nèi)人士認(rèn)為,這并不是數(shù)字生命體的自我意識(shí),但已經(jīng)顯示出了一定的自主性和意識(shí)的萌芽。在近期的公開采訪中,被稱為“AI教父”的2024年諾貝爾物理學(xué)獎(jiǎng)得主杰弗里·E·辛頓多次暗示AI可能已經(jīng)發(fā)展出某種形式的自主意識(shí)。
一些聲音認(rèn)為,未來(lái)的人工智能可能會(huì)制定自己的目標(biāo),并自主決策以實(shí)現(xiàn)這些目標(biāo)。這將使AI的行為更加難以預(yù)測(cè)和控制。
潛在風(fēng)險(xiǎn)難預(yù)判
快速發(fā)展的人工智能在就業(yè)結(jié)構(gòu)、信息安全、社會(huì)倫理道德等諸多方面引發(fā)了令人擔(dān)憂的風(fēng)險(xiǎn)與挑戰(zhàn)。
職業(yè)結(jié)構(gòu)風(fēng)險(xiǎn)。與以往一項(xiàng)新技術(shù)的出現(xiàn)將會(huì)取代一類職業(yè)不同的是,作為一種全維度的生產(chǎn)效率提升工具,人工智能批量替代人工崗位的情況很有可能出現(xiàn)。這可能會(huì)帶來(lái)潛在財(cái)富加速集中和工作兩極化,引發(fā)結(jié)構(gòu)風(fēng)險(xiǎn)。
例如,ChatGPT的出現(xiàn)大幅降低了編程工作的專業(yè)性門檻,AI編程工具Cursor讓零基礎(chǔ)完成軟件開發(fā)成為可能。據(jù)美國(guó)計(jì)算機(jī)協(xié)會(huì)的統(tǒng)計(jì)數(shù)據(jù),與五年前相比,軟件開發(fā)人員活躍職位發(fā)布數(shù)量下降了56%。
該協(xié)會(huì)認(rèn)為,在人工智能的助推下,招聘方對(duì)候選人的機(jī)會(huì)要求越來(lái)越高,企業(yè)正在尋找同時(shí)掌握編程和人工智能兩種技術(shù)的多面手,具備戰(zhàn)略思維和綜合技能的人才成為新寵。
受訪人士認(rèn)為,從技術(shù)演進(jìn)史來(lái)看,顛覆性技術(shù)帶來(lái)的“技術(shù)鴻溝”客觀存在,其創(chuàng)造的新技術(shù)崗位難以覆蓋被替代的崗位缺口。高、低技能崗位之間差距不斷拉大引發(fā)的社會(huì)不平等現(xiàn)象加劇,可能會(huì)導(dǎo)致不穩(wěn)定因素堆積,產(chǎn)生社會(huì)的結(jié)構(gòu)性風(fēng)險(xiǎn)。
信息安全風(fēng)險(xiǎn)。東南亞犯罪集團(tuán)宣稱已將人工智能換臉工具加入其“殺豬盤工具箱”,相關(guān)工具對(duì)特定目標(biāo)的模仿相似度能達(dá)到60%至95%并已在1000余個(gè)區(qū)域安裝;2024年11月,ChatGPT為一位美國(guó)現(xiàn)役軍人提供爆炸知識(shí),后者成功將一輛特斯拉Cybertruck在酒店門口引爆。
人工智能在各個(gè)領(lǐng)域的廣泛應(yīng)用,大量個(gè)人數(shù)據(jù)被收集、存儲(chǔ)和處理后,引發(fā)信息安全風(fēng)險(xiǎn)。一旦這些數(shù)據(jù)被泄露或?yàn)E用,將對(duì)個(gè)人隱私和信息安全造成威脅。
人工智能被用于制造虛假信息,干擾社會(huì)輿論的事件不在少數(shù)。一條“特朗普盛贊華為創(chuàng)新能力”的虛假視頻曾在網(wǎng)絡(luò)上風(fēng)靡一時(shí)。
當(dāng)人工智能的視頻和語(yǔ)音生成能力再上新臺(tái)階,“虛假的真實(shí)”彌散的彼時(shí),當(dāng)人工智能被用于制造高度定制的、有針對(duì)性的錯(cuò)誤信息而導(dǎo)致“眼見不再為實(shí)”時(shí),我們又該如何認(rèn)知、分辨我們所生活的世界?
社會(huì)與倫理道德風(fēng)險(xiǎn)。2024年10月,全球首例人工智能致死命案發(fā)生,一位14歲美國(guó)少年在與人工智能聊天系統(tǒng)討論死亡后飲彈自盡,引發(fā)社會(huì)對(duì)AI情感陪伴功能可能帶來(lái)的倫理問(wèn)題的反思。
業(yè)內(nèi)人士指出,人工智能系統(tǒng)的決策過(guò)程往往是基于大量數(shù)據(jù)和復(fù)雜算法得出的,這些決策可能與人類的倫理道德觀念相沖突。例如在醫(yī)療領(lǐng)域,當(dāng)面臨資源有限的狀況時(shí),人工智能如何決定優(yōu)先救治哪位患者?決策背后如缺乏人類情感和倫理判斷的深度參與,可能導(dǎo)致違背基本倫理原則的結(jié)果。
算法偏見引發(fā)的社會(huì)公平風(fēng)險(xiǎn)也不容忽視??拼笥嶏w研究院副院長(zhǎng)李鑫認(rèn)為,“互聯(lián)網(wǎng)語(yǔ)料來(lái)源駁雜,存在較多涉恐、涉暴力、涉黃等風(fēng)險(xiǎn)數(shù)據(jù),同時(shí)可能包含種族、文化等方面的偏見,導(dǎo)致模型輸出內(nèi)容可能帶有歧視、偏見等科技倫理風(fēng)險(xiǎn)。”算法偏見可能導(dǎo)致某些群體被不公正地排除在外,加劇社會(huì)的不平等現(xiàn)象。
堅(jiān)持人類命運(yùn)共同體理念
當(dāng)下對(duì)于人工智能“奧本海默時(shí)刻”到來(lái)可能會(huì)產(chǎn)生的諸多風(fēng)險(xiǎn)的討論熱度不減,但AGI尚未實(shí)現(xiàn),我們?nèi)杂袝r(shí)間尋求如何馴化這一關(guān)鍵技術(shù)的解法。
香港大學(xué)計(jì)算與數(shù)據(jù)科學(xué)研究院院長(zhǎng)馬毅認(rèn)為,當(dāng)前AI的發(fā)展更多是工程上的突破,而非科學(xué)原理的明晰。人工智能系統(tǒng),特別是深度學(xué)習(xí)大多是“黑箱”模型,其內(nèi)部機(jī)制不透明,難以理解和追溯,其結(jié)果可信度和可用性打了折扣。
馬毅認(rèn)為,找到破解人工智能“黑箱”的“鑰匙”,需要智能研究從“黑箱”轉(zhuǎn)向“白箱”,通過(guò)數(shù)學(xué)方法清晰定義和解釋智能系統(tǒng)的工作原理。“真正的智能系統(tǒng)必須具備自主學(xué)習(xí)和改進(jìn)能力,而不僅僅是數(shù)據(jù)的存儲(chǔ)和處理。”他呼吁研究者們關(guān)注智能的科學(xué)原理和理論框架,以實(shí)現(xiàn)真正意義上的通用人工智能。
“接下來(lái)的10到20年是科研院所、高校與企業(yè)聯(lián)動(dòng)實(shí)現(xiàn)技術(shù)突破的黃金時(shí)期。”上海市科學(xué)學(xué)研究所學(xué)術(shù)委員會(huì)主任吳壽仁建議,從頂層設(shè)計(jì)上制定投融資、校企聯(lián)合實(shí)驗(yàn)室或是聯(lián)合共建項(xiàng)目的具體激勵(lì)方案,面向人工智能在應(yīng)用端的真實(shí)需求嘗試技術(shù)突破。
此外,多位受訪對(duì)象建議,在重點(diǎn)項(xiàng)目分配上向常年身處科研一線、更加熟悉前沿技術(shù)、對(duì)人工智能認(rèn)知更為理性客觀的中青年科學(xué)家傾斜。
在技術(shù)之外,更重要的是,一旦人工智能迎來(lái)“奧本海默時(shí)刻”,人類應(yīng)有怎樣的態(tài)度和責(zé)任?
縱觀世界各個(gè)角落發(fā)生的事件,也許比起將人工智能投入戰(zhàn)場(chǎng),或是被用于攫取更大的權(quán)力集中,人工智能更理想的應(yīng)用該是為了促進(jìn)人類的共同命運(yùn)和共同利益而努力。
作為AI技術(shù)和應(yīng)用的重要參與者,中國(guó)以負(fù)責(zé)任的態(tài)度應(yīng)對(duì)AI治理挑戰(zhàn),提出包容和有效的治理理念。在國(guó)內(nèi),我國(guó)通過(guò)法律框架、技術(shù)標(biāo)準(zhǔn)和倫理指南的三元治理促進(jìn)AI健康發(fā)展。在國(guó)際上,我國(guó)堅(jiān)持人類命運(yùn)共同體的理念立場(chǎng),推動(dòng)多邊合作治理,提出《全球人工智能治理倡議》,支持在聯(lián)合國(guó)框架內(nèi)建立開放和包容的人工智能治理機(jī)制。
中國(guó)國(guó)際經(jīng)濟(jì)技術(shù)合作促進(jìn)會(huì)副理事長(zhǎng)邵春堡發(fā)文稱,聯(lián)合國(guó)大會(huì)雖然通過(guò)我國(guó)主提的加強(qiáng)人工智能能力建設(shè)國(guó)際合作決議,但是在國(guó)際合作的實(shí)踐中,仍然布滿曲折,需要共同堅(jiān)持以人為本、智能向善、造福人類的原則,通過(guò)國(guó)際合作和實(shí)際行動(dòng)幫助各國(guó)特別是發(fā)展中國(guó)家加強(qiáng)人工智能能力建設(shè)。
李鑫認(rèn)為,包括我國(guó)在內(nèi)的全球首份針對(duì)人工智能的國(guó)際聲明《布萊切利宣言》發(fā)表是一個(gè)良好信號(hào),今后我國(guó)也應(yīng)更多參與大模型安全領(lǐng)域國(guó)際標(biāo)準(zhǔn)制定、全球人工智能安全評(píng)估和測(cè)試領(lǐng)域的交流合作。
本文鏈接:http://jphkf.cn/news-2-670-0.html我們能為人工智能超預(yù)期進(jìn)化做些什么
聲明:本網(wǎng)頁(yè)內(nèi)容由互聯(lián)網(wǎng)博主自發(fā)貢獻(xiàn),不代表本站觀點(diǎn),本站不承擔(dān)任何法律責(zé)任。天上不會(huì)到餡餅,請(qǐng)大家謹(jǐn)防詐騙!若有侵權(quán)等問(wèn)題請(qǐng)及時(shí)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間刪除處理。
上一篇:我國(guó)科學(xué)家實(shí)現(xiàn)“雙環(huán)路”腦機(jī)“互學(xué)習(xí)”新突破
點(diǎn)擊右上角微信好友
朋友圈
點(diǎn)擊瀏覽器下方“”分享微信好友Safari瀏覽器請(qǐng)點(diǎn)擊“
”按鈕
點(diǎn)擊右上角QQ
點(diǎn)擊瀏覽器下方“”分享QQ好友Safari瀏覽器請(qǐng)點(diǎn)擊“
”按鈕