- +1
OpenClaw火爆,AI治理如何穿越“科林格里奇困境”
“在技術(shù)發(fā)展的早期,我們往往不知道該不該管;等到看清楚問題,又已經(jīng)很難再改?!監(jiān)penClaw的火爆,引發(fā)了學(xué)界對于人工智能監(jiān)管的新思考。3月29日,在復(fù)旦大學(xué) “科林格里奇困境與人工智能治理創(chuàng)新”跨學(xué)科論壇上,多位參會人員表示,隨著Agentic AI的加速落地,人工智能治理正更加集中地暴露出“科林格里奇困境”:一方面,技術(shù)迭代過快,治理往往跟不上;另一方面,一旦智能體真正進(jìn)入工作流和社會系統(tǒng),責(zé)任界定、風(fēng)險測評和監(jiān)管落地的難度都會明顯上升。
Agent把治理難題往前推了一步
清華大學(xué)新聞與傳播學(xué)院教授、博士生導(dǎo)師陳昌鳳在題為《OpenClaw之后:AgenticAI的入口之爭與治理節(jié)奏》的演講中指出,當(dāng)前信息獲取與分發(fā)的邏輯正在經(jīng)歷變化:以O(shè)penClaw為代表的智能體出現(xiàn)后,新的流量入口正逐步轉(zhuǎn)向以“智能體”為中心的任務(wù)驅(qū)動方式。
在她看來,這一變化的關(guān)鍵更在于“行動主體”正在發(fā)生改變。
陳昌鳳指出,在智能體時代,一項(xiàng)任務(wù)的完成往往不再是單一主體的結(jié)果,而是模型、工具、平臺、部署者、使用者等多方共同作用的產(chǎn)物。過去那種相對清晰、可識別、可追責(zé)的單一責(zé)任主體結(jié)構(gòu),正受到?jīng)_擊。
Agent已經(jīng)不再只是被動執(zhí)行指令的工具,而是能夠自主拆解任務(wù)、調(diào)用工具并協(xié)調(diào)流程的“行動參與者”。一旦執(zhí)行中出現(xiàn)偏差或錯誤,責(zé)任往往不是某一個單點(diǎn)失靈,而是由模型、工具、平臺及相關(guān)參與主體共同構(gòu)成的鏈條所導(dǎo)致。傳統(tǒng)責(zé)任歸屬框架,在這種多主體協(xié)同、責(zé)任分散的結(jié)構(gòu)中,開始顯得不夠用。
“治理的實(shí)質(zhì)是規(guī)范設(shè)定權(quán),這是最核心的方向。權(quán)力責(zé)任的變化怎么歸屬,治理總是滯后,這是為什么?!标惒P說。
智能體不只會“說”,還會“做”,測評難度陡增
如果說責(zé)任歸屬的變化,是智能體時代帶來的制度性新問題,那么測評難度的上升,則是治理落地層面的直接挑戰(zhàn)。
上海計算機(jī)軟件技術(shù)開發(fā)中心AI治理研究所、上海生成式人工智能質(zhì)量檢驗(yàn)檢測中心的陳敏剛表示,人工智能快速發(fā)展帶來了更嚴(yán)峻的安全與治理挑戰(zhàn),包括幻覺、安全攻擊、數(shù)據(jù)泄露以及大模型濫用等風(fēng)險。而在OpenClaw火爆后,智能體的測評難度比傳統(tǒng)大模型測評高出“不止一個量級”,甚至可能是指數(shù)級提升。
原因在于智能體不僅能生成內(nèi)容,還能執(zhí)行任務(wù)。在實(shí)際運(yùn)行中,它可能調(diào)用多種工具,也可能出現(xiàn)多智能體協(xié)作、分身執(zhí)行等復(fù)雜情形。測評因此不再只是看“答得對不對”,而要同時關(guān)注任務(wù)是否完成、過程是否連續(xù)、遇到異常時能否恢復(fù),以及失敗究竟發(fā)生在哪個環(huán)節(jié)。
“它不僅能‘說’,還能‘做’?!标惷魟傉f,在這種情況下,測評需要跟蹤任務(wù)執(zhí)行過程,進(jìn)行Case級別的過程追蹤和失敗定位,難度明顯提高。
陳敏剛以北京大學(xué)與香港大學(xué)團(tuán)隊(duì)基于OpenClaw場景開源真實(shí)測評框架ClawEval為例,認(rèn)為這或許是智能體測評方向的新進(jìn)展。公開信息顯示,ClawEval構(gòu)建了接近企業(yè)日常運(yùn)行的模擬環(huán)境,涵蓋郵件、日歷、待辦事項(xiàng)、財務(wù)系統(tǒng)、工單系統(tǒng)等15類典型業(yè)務(wù)系統(tǒng),并納入網(wǎng)頁瀏覽和終端操作場景,形成多系統(tǒng)協(xié)同測試環(huán)境。
要前移到“技術(shù)設(shè)計階段的嵌入式”治理
面對AI治理滯后于技術(shù)發(fā)展的現(xiàn)實(shí),不少與會者都提到,治理需要進(jìn)一步前移。
東南大學(xué)人文學(xué)院教授、AI倫理實(shí)驗(yàn)室主任王玨在論壇上介紹了東南大學(xué)發(fā)布的系統(tǒng)級倫理垂域大模型“問道”的實(shí)踐。2025年11月,東南大學(xué)發(fā)布“問道”模型,嘗試將中國傳統(tǒng)哲學(xué)智慧與西方倫理框架結(jié)合,形成面向人工智能倫理分析與應(yīng)答的模型體系。
據(jù)介紹,“問道”在輸出建議時,會標(biāo)注推理依據(jù)與倫理原則來源,并提示結(jié)論的不確定性,以增強(qiáng)可解釋性。研發(fā)團(tuán)隊(duì)由文、理、工、醫(yī)等多學(xué)科背景成員組成:工科負(fù)責(zé)將倫理原則轉(zhuǎn)化為可執(zhí)行的工程代碼,文科則提供倫理學(xué)、哲學(xué)、法學(xué)等價值判斷基礎(chǔ)。
王玨表示,團(tuán)隊(duì)希望將“問道”定位為一種“倫理基礎(chǔ)設(shè)施”,應(yīng)用于風(fēng)險評估、審計、模擬決策推演、輔助設(shè)計和知識庫構(gòu)建等環(huán)節(jié),并在此基礎(chǔ)上衍生不同場景下的Agentic AI應(yīng)用。目前,該模型已開始與政府及企業(yè)對接,參與地方數(shù)據(jù)治理和模型備案等討論,并在教育、政務(wù)等場景中探索落地,團(tuán)隊(duì)也正在推進(jìn)2.0版本升級。
在她看來,這項(xiàng)實(shí)踐的意義,正在于推動治理邏輯前移——從“技術(shù)完成后的審查”,轉(zhuǎn)向“技術(shù)設(shè)計階段的嵌入式治理”。
“隨著人工智能逐步深入數(shù)據(jù)、算法乃至系統(tǒng)入口層面,倫理問題不再只體現(xiàn)在結(jié)果上,而是貫穿整個技術(shù)鏈條?!蓖醌k說,因此有必要在數(shù)據(jù)、算法與系統(tǒng)設(shè)計階段就引入倫理約束,實(shí)現(xiàn)全流程治理。
不過,她也坦言,這一方向目前仍處在探索中,尤其如何進(jìn)一步打通傳統(tǒng)倫理與現(xiàn)代技術(shù)之間的銜接,仍有待深化。
企業(yè)期待更動態(tài)、更可執(zhí)行的規(guī)定
相比學(xué)界更強(qiáng)調(diào)治理前移,企業(yè)更關(guān)注的是規(guī)則如何真正可執(zhí)行,并在安全、創(chuàng)新與公平之間形成平衡。
脫胎于復(fù)旦大學(xué)未來信息創(chuàng)新學(xué)院的具身智能公司眸深智能聯(lián)合創(chuàng)始人胡斐表示,從企業(yè)視角看,當(dāng)前人工智能監(jiān)管確實(shí)存在一定滯后性,但企業(yè)并不排斥監(jiān)管。相反,一旦有明確規(guī)范,不僅有助于提升技術(shù)壁壘,也能讓企業(yè)在發(fā)展過程中獲得更強(qiáng)的安全感。
他認(rèn)為,企業(yè)對AI治理的核心訴求主要有三點(diǎn):安全可控、促進(jìn)創(chuàng)新、保障公平。其中,促進(jìn)創(chuàng)新尤其關(guān)鍵。治理框架、約束條款和可控機(jī)制,應(yīng)該盡量兼顧公平性,避免形成對部分企業(yè)不利的偏向。
基于企業(yè)實(shí)踐,胡斐提出兩點(diǎn)建議:一是推動AI治理的分類分級,二是探索“沙盒監(jiān)督”。
在分類分級方面,他認(rèn)為,可以借鑒食品安全、影視審核等領(lǐng)域的經(jīng)驗(yàn),按照“識別風(fēng)險—分類分級—差異化監(jiān)管”的思路推進(jìn)更精準(zhǔn)的AI治理。企業(yè)內(nèi)部目前也在用類似方式管理項(xiàng)目,對不同項(xiàng)目進(jìn)行S級、A級、B級、C級分級,以判斷可行性、投入人力和優(yōu)先級。
他同時提到,AI治理規(guī)則不應(yīng)被視為一套長期不變的靜態(tài)制度,而應(yīng)隨著技術(shù)演進(jìn)持續(xù)增補(bǔ)和優(yōu)化。尤其在全球尚未形成統(tǒng)一AI立法、處罰標(biāo)準(zhǔn)也不清晰的背景下,動態(tài)調(diào)整將更符合行業(yè)實(shí)際。
在沙盒監(jiān)督方面,胡斐認(rèn)為,可以借鑒英國金融監(jiān)管中的“監(jiān)管沙盒”理念,為企業(yè)劃定一條可控的創(chuàng)新邊界:在邊界內(nèi),企業(yè)可以進(jìn)行技術(shù)探索與試錯;邊界之外,則必須遵守明確監(jiān)管規(guī)則,以確保風(fēng)險始終處于可控狀態(tài)。
在他看來,這種機(jī)制既能給創(chuàng)新留出空間,也有助于降低技術(shù)快速推進(jìn)帶來的外溢風(fēng)險。
據(jù)了解,這次跨學(xué)科論壇同時也是復(fù)旦大學(xué)兩大工程三期“人工智能倫理的中國之治研究”項(xiàng)目開題會。本項(xiàng)目以人工智能倫理的“中國之治”作為核心概念,將在比較研究、實(shí)證研究基礎(chǔ)上,進(jìn)一步探討論證兼具敏捷治理、軟法治理、柔性治理、人本治理與協(xié)同治理的“中國之治”如何更好地實(shí)現(xiàn)技術(shù)創(chuàng)新與風(fēng)險規(guī)避的平衡。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006
增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116
? 2014-2026 上海東方報業(yè)有限公司




