繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

「養蝦先剪腳」 多方發力佈局智能體安全

2026-05-07 04:39

(來源:經濟參考報)

智能體「龍蝦」(OpenClaw)高危漏洞集中暴露、技能包投毒攻擊活躍……近期,AI智能體安全引發全行業高度關注。多位人工智能行業專家與安全業界人士表示,「養蝦须先剪腳」,防患於未然,已成為推動AI產業健康有序發展的關鍵,政府、行業、企業等多方力量已同步發力,展開對智能體安全全方位佈局。

根據國家信息安全漏洞庫(CNNVD)統計,4月14日至28日共採集OpenClaw漏洞111個,其中超危漏洞2個、高危漏洞38個,包含了訪問控制錯誤、代碼問題、路徑遍歷等多個漏洞類型。此前,OpenClaw已因多項高中危安全漏洞被國家互聯網應急中心、工信部網絡安全威脅和漏洞信息共享平臺連續發佈風險預警;國家計算機病毒應急處理中心也監測到大量內含木馬病毒的仿冒「龍蝦」技能包,給用戶數據安全和系統穩定帶來嚴重隱患。

智能體的安全風險已成為全球行業共識。OWASP基金會此前發佈的《智能體應用十大安全威脅》將智能體目標劫持、工具濫用等列為核心威脅;機構Gartner在《應用安全策略2026》中更是預測,到2028年,25%的企業數據泄露事件將可追溯至智能體濫用,涉及外部攻擊者的惡意滲透和內部人員的違規操作。

「OpenClaw這類智能體,未來有望成為新一代操作系統。」亞信聯合創始人田溯寧表示,企業核心資產正從傳統的人員、軟件、代碼,逐步轉向數據、智能體及相關技能,「未來企業的核心資產大多存儲在電腦和服務器中,這些資產的歸屬權與安全防護,已成為亟待解決的重要課題。」

面對智能體的安全痛點,不同領域企業紛紛發力,構建起多元化安全防護體系。塗鴉智能CSO劉龍威透露,塗鴉智能已為全員配備基於OpenClaw改造的「數字員工」,去年公司70%的代碼由AI完成撰寫。但他也坦言,企業面臨的安全壓力也隨之劇增。為此,塗鴉智能構建了六道安全防線,包括系統加固、安全管理流程、身份安全、運行時檢測、供應鏈安全、自動化安檢等。

「切勿讓員工在企業工作環境中‘散養蝦’,這難以管控安全風險和數據泄露隱患。」阿里雲運營商行業線首席架構師梁洪偉建議,企業應採用彈性雲端部署模式,並遵循三大行動準則:堅持安全合規先行,嚴格落實最小權限原則;優先試點個人場景,鼓勵內部創新探索;推動生態共建共享,聯合合作伙伴打造安全可控的工具市場。

安全廠商也積極發揮技術優勢,助力AI智能體安全防護。面對AI智能體頻繁出現的「幻覺」越權與權限失控難題,亞信安全智能體安全專家焦正新指出,智能體風險的根源在於其「智能涌現」的同時帶來原生不確定性,這導致了身份體系和授權平面的崩塌。他表示,為此亞信安全推出了智能體信任框架ATF,將「智能體意圖對齊+人機共治」的理念融入安全治理。「企業不能沿用‘一次認證,永久信任’的舊模式,而是要將智能體作為‘數字員工’進行全生命周期管理,遵循‘權柄代持、意圖對齊’原則。」從而將隨機性引發的風險置於可控範圍,在釋放AI生產力的同時守住合規底線。

在企業積極探索實踐的同時,政府監管與行業標準也在加速完善,為智能體安全保駕護航。今年4月,國家網信辦等五部門聯合公佈《人工智能擬人化互動服務管理暫行辦法》,明確對人工智能服務實行包容審慎、分類分級監管,提出安全評估、算法備案、推動人工智能沙箱安全服務平臺建設等制度,這也是我國首次在人工智能專門立法層面,明確提出「人工智能沙箱」治理理念。與此同時,工信部等十部門聯合印發《人工智能科技倫理審查與服務辦法(試行)》,將科技倫理審查程序規範化,明確要求保障模型系統的魯棒性、可控可信、透明可解釋及責任可追溯。

行業標準建設方面,人工智能安全標準體系正加速構建。今年3月,工信部公開徵求《人工智能安全治理模型上下文協議應用安全要求》等行業標準意見;4月,全國網絡安全標準化技術委員會下設的人工智能安全標準工作組明確表示,將重點推動《網絡安全技術 人工智能安全能力成熟度評估方法》《網絡安全技術 人工智能應用安全分類分級方法》等核心標準的制定與落地,為行業安全發展劃定清晰邊界。

「養蝦先剪腳,關起籠子再上崗。」一位業內人士形象地概括AI智能體的安全發展路徑:先為智能體賦予最小權限,通過網絡隔離、沙箱限制、合法身份認證等方式築牢安全防線,當前優先做好「蝦片/蝦餅」式的能力裁剪,待安全體系成熟后,再逐步放開其功能權限,實現安全與效率的雙向提升。

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。