- +1
OpenClaw火爆,AI治理如何穿越“科林格里奇困境”
“在技術(shù)發(fā)展的早期,我們往往不知道該不該管;等到看清楚問(wèn)題,又已經(jīng)很難再改?!監(jiān)penClaw的火爆,引發(fā)了學(xué)界對(duì)于人工智能監(jiān)管的新思考。3月29日,在復(fù)旦大學(xué) “科林格里奇困境與人工智能治理創(chuàng)新”跨學(xué)科論壇上,多位參會(huì)人員表示,隨著Agentic AI的加速落地,人工智能治理正更加集中地暴露出“科林格里奇困境”:一方面,技術(shù)迭代過(guò)快,治理往往跟不上;另一方面,一旦智能體真正進(jìn)入工作流和社會(huì)系統(tǒng),責(zé)任界定、風(fēng)險(xiǎn)測(cè)評(píng)和監(jiān)管落地的難度都會(huì)明顯上升。
Agent把治理難題往前推了一步
清華大學(xué)新聞與傳播學(xué)院教授、博士生導(dǎo)師陳昌鳳在題為《OpenClaw之后:AgenticAI的入口之爭(zhēng)與治理節(jié)奏》的演講中指出,當(dāng)前信息獲取與分發(fā)的邏輯正在經(jīng)歷變化:以O(shè)penClaw為代表的智能體出現(xiàn)后,新的流量入口正逐步轉(zhuǎn)向以“智能體”為中心的任務(wù)驅(qū)動(dòng)方式。
在她看來(lái),這一變化的關(guān)鍵更在于“行動(dòng)主體”正在發(fā)生改變。
陳昌鳳指出,在智能體時(shí)代,一項(xiàng)任務(wù)的完成往往不再是單一主體的結(jié)果,而是模型、工具、平臺(tái)、部署者、使用者等多方共同作用的產(chǎn)物。過(guò)去那種相對(duì)清晰、可識(shí)別、可追責(zé)的單一責(zé)任主體結(jié)構(gòu),正受到?jīng)_擊。
Agent已經(jīng)不再只是被動(dòng)執(zhí)行指令的工具,而是能夠自主拆解任務(wù)、調(diào)用工具并協(xié)調(diào)流程的“行動(dòng)參與者”。一旦執(zhí)行中出現(xiàn)偏差或錯(cuò)誤,責(zé)任往往不是某一個(gè)單點(diǎn)失靈,而是由模型、工具、平臺(tái)及相關(guān)參與主體共同構(gòu)成的鏈條所導(dǎo)致。傳統(tǒng)責(zé)任歸屬框架,在這種多主體協(xié)同、責(zé)任分散的結(jié)構(gòu)中,開(kāi)始顯得不夠用。
“治理的實(shí)質(zhì)是規(guī)范設(shè)定權(quán),這是最核心的方向。權(quán)力責(zé)任的變化怎么歸屬,治理總是滯后,這是為什么?!标惒P說(shuō)。
智能體不只會(huì)“說(shuō)”,還會(huì)“做”,測(cè)評(píng)難度陡增
如果說(shuō)責(zé)任歸屬的變化,是智能體時(shí)代帶來(lái)的制度性新問(wèn)題,那么測(cè)評(píng)難度的上升,則是治理落地層面的直接挑戰(zhàn)。
上海計(jì)算機(jī)軟件技術(shù)開(kāi)發(fā)中心AI治理研究所、上海生成式人工智能質(zhì)量檢驗(yàn)檢測(cè)中心的陳敏剛表示,人工智能快速發(fā)展帶來(lái)了更嚴(yán)峻的安全與治理挑戰(zhàn),包括幻覺(jué)、安全攻擊、數(shù)據(jù)泄露以及大模型濫用等風(fēng)險(xiǎn)。而在OpenClaw火爆后,智能體的測(cè)評(píng)難度比傳統(tǒng)大模型測(cè)評(píng)高出“不止一個(gè)量級(jí)”,甚至可能是指數(shù)級(jí)提升。
原因在于智能體不僅能生成內(nèi)容,還能執(zhí)行任務(wù)。在實(shí)際運(yùn)行中,它可能調(diào)用多種工具,也可能出現(xiàn)多智能體協(xié)作、分身執(zhí)行等復(fù)雜情形。測(cè)評(píng)因此不再只是看“答得對(duì)不對(duì)”,而要同時(shí)關(guān)注任務(wù)是否完成、過(guò)程是否連續(xù)、遇到異常時(shí)能否恢復(fù),以及失敗究竟發(fā)生在哪個(gè)環(huán)節(jié)。
“它不僅能‘說(shuō)’,還能‘做’?!标惷魟傉f(shuō),在這種情況下,測(cè)評(píng)需要跟蹤任務(wù)執(zhí)行過(guò)程,進(jìn)行Case級(jí)別的過(guò)程追蹤和失敗定位,難度明顯提高。
陳敏剛以北京大學(xué)與香港大學(xué)團(tuán)隊(duì)基于OpenClaw場(chǎng)景開(kāi)源真實(shí)測(cè)評(píng)框架ClawEval為例,認(rèn)為這或許是智能體測(cè)評(píng)方向的新進(jìn)展。公開(kāi)信息顯示,ClawEval構(gòu)建了接近企業(yè)日常運(yùn)行的模擬環(huán)境,涵蓋郵件、日歷、待辦事項(xiàng)、財(cái)務(wù)系統(tǒng)、工單系統(tǒng)等15類典型業(yè)務(wù)系統(tǒng),并納入網(wǎng)頁(yè)瀏覽和終端操作場(chǎng)景,形成多系統(tǒng)協(xié)同測(cè)試環(huán)境。
要前移到“技術(shù)設(shè)計(jì)階段的嵌入式”治理
面對(duì)AI治理滯后于技術(shù)發(fā)展的現(xiàn)實(shí),不少與會(huì)者都提到,治理需要進(jìn)一步前移。
東南大學(xué)人文學(xué)院教授、AI倫理實(shí)驗(yàn)室主任王玨在論壇上介紹了東南大學(xué)發(fā)布的系統(tǒng)級(jí)倫理垂域大模型“問(wèn)道”的實(shí)踐。2025年11月,東南大學(xué)發(fā)布“問(wèn)道”模型,嘗試將中國(guó)傳統(tǒng)哲學(xué)智慧與西方倫理框架結(jié)合,形成面向人工智能倫理分析與應(yīng)答的模型體系。
據(jù)介紹,“問(wèn)道”在輸出建議時(shí),會(huì)標(biāo)注推理依據(jù)與倫理原則來(lái)源,并提示結(jié)論的不確定性,以增強(qiáng)可解釋性。研發(fā)團(tuán)隊(duì)由文、理、工、醫(yī)等多學(xué)科背景成員組成:工科負(fù)責(zé)將倫理原則轉(zhuǎn)化為可執(zhí)行的工程代碼,文科則提供倫理學(xué)、哲學(xué)、法學(xué)等價(jià)值判斷基礎(chǔ)。
王玨表示,團(tuán)隊(duì)希望將“問(wèn)道”定位為一種“倫理基礎(chǔ)設(shè)施”,應(yīng)用于風(fēng)險(xiǎn)評(píng)估、審計(jì)、模擬決策推演、輔助設(shè)計(jì)和知識(shí)庫(kù)構(gòu)建等環(huán)節(jié),并在此基礎(chǔ)上衍生不同場(chǎng)景下的Agentic AI應(yīng)用。目前,該模型已開(kāi)始與政府及企業(yè)對(duì)接,參與地方數(shù)據(jù)治理和模型備案等討論,并在教育、政務(wù)等場(chǎng)景中探索落地,團(tuán)隊(duì)也正在推進(jìn)2.0版本升級(jí)。
在她看來(lái),這項(xiàng)實(shí)踐的意義,正在于推動(dòng)治理邏輯前移——從“技術(shù)完成后的審查”,轉(zhuǎn)向“技術(shù)設(shè)計(jì)階段的嵌入式治理”。
“隨著人工智能逐步深入數(shù)據(jù)、算法乃至系統(tǒng)入口層面,倫理問(wèn)題不再只體現(xiàn)在結(jié)果上,而是貫穿整個(gè)技術(shù)鏈條?!蓖醌k說(shuō),因此有必要在數(shù)據(jù)、算法與系統(tǒng)設(shè)計(jì)階段就引入倫理約束,實(shí)現(xiàn)全流程治理。
不過(guò),她也坦言,這一方向目前仍處在探索中,尤其如何進(jìn)一步打通傳統(tǒng)倫理與現(xiàn)代技術(shù)之間的銜接,仍有待深化。
企業(yè)期待更動(dòng)態(tài)、更可執(zhí)行的規(guī)定
相比學(xué)界更強(qiáng)調(diào)治理前移,企業(yè)更關(guān)注的是規(guī)則如何真正可執(zhí)行,并在安全、創(chuàng)新與公平之間形成平衡。
脫胎于復(fù)旦大學(xué)未來(lái)信息創(chuàng)新學(xué)院的具身智能公司眸深智能聯(lián)合創(chuàng)始人胡斐表示,從企業(yè)視角看,當(dāng)前人工智能監(jiān)管確實(shí)存在一定滯后性,但企業(yè)并不排斥監(jiān)管。相反,一旦有明確規(guī)范,不僅有助于提升技術(shù)壁壘,也能讓企業(yè)在發(fā)展過(guò)程中獲得更強(qiáng)的安全感。
他認(rèn)為,企業(yè)對(duì)AI治理的核心訴求主要有三點(diǎn):安全可控、促進(jìn)創(chuàng)新、保障公平。其中,促進(jìn)創(chuàng)新尤其關(guān)鍵。治理框架、約束條款和可控機(jī)制,應(yīng)該盡量兼顧公平性,避免形成對(duì)部分企業(yè)不利的偏向。
基于企業(yè)實(shí)踐,胡斐提出兩點(diǎn)建議:一是推動(dòng)AI治理的分類分級(jí),二是探索“沙盒監(jiān)督”。
在分類分級(jí)方面,他認(rèn)為,可以借鑒食品安全、影視審核等領(lǐng)域的經(jīng)驗(yàn),按照“識(shí)別風(fēng)險(xiǎn)—分類分級(jí)—差異化監(jiān)管”的思路推進(jìn)更精準(zhǔn)的AI治理。企業(yè)內(nèi)部目前也在用類似方式管理項(xiàng)目,對(duì)不同項(xiàng)目進(jìn)行S級(jí)、A級(jí)、B級(jí)、C級(jí)分級(jí),以判斷可行性、投入人力和優(yōu)先級(jí)。
他同時(shí)提到,AI治理規(guī)則不應(yīng)被視為一套長(zhǎng)期不變的靜態(tài)制度,而應(yīng)隨著技術(shù)演進(jìn)持續(xù)增補(bǔ)和優(yōu)化。尤其在全球尚未形成統(tǒng)一AI立法、處罰標(biāo)準(zhǔn)也不清晰的背景下,動(dòng)態(tài)調(diào)整將更符合行業(yè)實(shí)際。
在沙盒監(jiān)督方面,胡斐認(rèn)為,可以借鑒英國(guó)金融監(jiān)管中的“監(jiān)管沙盒”理念,為企業(yè)劃定一條可控的創(chuàng)新邊界:在邊界內(nèi),企業(yè)可以進(jìn)行技術(shù)探索與試錯(cuò);邊界之外,則必須遵守明確監(jiān)管規(guī)則,以確保風(fēng)險(xiǎn)始終處于可控狀態(tài)。
在他看來(lái),這種機(jī)制既能給創(chuàng)新留出空間,也有助于降低技術(shù)快速推進(jìn)帶來(lái)的外溢風(fēng)險(xiǎn)。
據(jù)了解,這次跨學(xué)科論壇同時(shí)也是復(fù)旦大學(xué)兩大工程三期“人工智能倫理的中國(guó)之治研究”項(xiàng)目開(kāi)題會(huì)。本項(xiàng)目以人工智能倫理的“中國(guó)之治”作為核心概念,將在比較研究、實(shí)證研究基礎(chǔ)上,進(jìn)一步探討論證兼具敏捷治理、軟法治理、柔性治理、人本治理與協(xié)同治理的“中國(guó)之治”如何更好地實(shí)現(xiàn)技術(shù)創(chuàng)新與風(fēng)險(xiǎn)規(guī)避的平衡。





- 報(bào)料熱線: 021-962866
- 報(bào)料郵箱: news@thepaper.cn
滬公網(wǎng)安備31010602000299號(hào)
互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006
增值電信業(yè)務(wù)經(jīng)營(yíng)許可證:滬B2-2017116
? 2014-2026 上海東方報(bào)業(yè)有限公司




