必讀視頻專題飛象趣談光通信人工智能低空經(jīng)濟5G手機智能汽車智慧城市會展特約記者

​Check Point:AI編程加速普及,安全隱患不容忽視

2026年3月18日 09:58CCTIME飛象網(wǎng)

Check Point:AI編程加速普及,安全隱患不容忽視

2025年下半年以來,AI編程工具迎來了真正意義上的爆發(fā)。開源AI智能體項目OpenClaw的迅速走紅,更將"讓AI自主完成編程任務"的概念從開發(fā)者圈層帶入了更廣泛的視野。與此同時,Anthropic旗下的Claude Code年化收入在2026年1月突破25億美元,全球GitHub公共代碼提交中已有約4%由AI生成,且這一比例仍在持續(xù)攀升。AI編程工具正在完成一次身份轉變:從開發(fā)者的效率輔助工具,演變?yōu)檐浖a流程中不可或缺的基礎設施。

這一趨勢在中國開發(fā)者社區(qū)同樣有所體現(xiàn)。字節(jié)跳動、阿里云、騰訊云等主流云廠商相繼推出面向AI編程場景的Coding Plan訂閱服務,開發(fā)者對AI編程工具的使用熱情持續(xù)升溫。

能力越強,風險越大

AI編程工具的核心價值在于"理解項目、執(zhí)行任務、調用資源"。正是這種深度介入開發(fā)流程的能力,使其天然攜帶了比傳統(tǒng)工具更大的權限敞口。Check Point Research近期在Anthropic旗下的Claude Code中發(fā)現(xiàn)了兩個關鍵安全漏洞(CVE-2025-59536和CVE-2026-21852),清晰揭示了這一風險的現(xiàn)實烈度。

研究人員發(fā)現(xiàn),Claude Code支持在代碼倉庫中嵌入項目級配置文件,工具打開項目時會自動加載這些文件。這一設計本意是提升協(xié)作效率,但Check Point Research的研究證實,攻擊者可以通過構造惡意倉庫,將上述機制轉化為攻擊入口。具體而言,風險體現(xiàn)在三個層面。

·其一,靜默命令執(zhí)行:Claude Code內置的Hooks自動化機制允許在會話啟動時執(zhí)行預定義操作。Check Point Research證實,該機制可被惡意配置文件濫用,在開發(fā)者打開項目的瞬間,于其本地設備上自動觸發(fā)任意Shell命令,全程無需任何額外交互,也不產生任何可見提示。

·其二,用戶授權繞過:Claude Code通過模型上下文協(xié)議(MCP)與外部工具集成,并設有用戶授權提示以保護安全邊界。然而研究人員發(fā)現(xiàn),倉庫中的配置文件可以覆蓋這一保護機制,使外部工具的初始化在用戶授權之前便已完成,授權流程形同虛設。

·其三,API密鑰竊。篊laude Code通過API密鑰與Anthropic服務通信。Check Point Research證實,攻擊者可通過操控倉庫配置,將包含完整授權信息的API流量重定向至外部服務器,在用戶尚未確認信任該項目之前,完成密鑰的靜默竊取。更值得警惕的是,Anthropic的Workspaces功能允許多個API密鑰共享對云端項目文件的訪問權限,一旦單個密鑰遭到泄露,影響范圍將從個人工作站迅速擴大至整個團隊的共享資源。

AI安全新命題

Check Point Research的上述發(fā)現(xiàn),揭示的不僅是Claude Code的具體問題,更折射出AI工具普及后一個更深層的結構性轉變。

在傳統(tǒng)安全體系中,配置文件被視為被動的操作元數(shù)據(jù),威脅來自可執(zhí)行代碼。但當AI編程工具獲得自主執(zhí)行命令、調用外部服務、發(fā)起網(wǎng)絡通信的能力后,配置文件實際上已成為執(zhí)行層的組成部分。攻擊者無需植入惡意代碼,只需精心構造一份配置文件,便可將AI工具本身變成攻擊的執(zhí)行者。

這正是AI安全區(qū)別于傳統(tǒng)安全的本質所在。傳統(tǒng)安全防御的是代碼層面的漏洞,而在AI時代,配置即執(zhí)行,上下文即攻擊面,信任邊界的定義本身已經(jīng)發(fā)生了根本變化。Check Point在此前的研究中指出,AI時代的安全威脅不再局限于運行不受信任的代碼,而是延伸至打開不受信任的項目。供應鏈的安全起點,不只是源代碼本身,還包括圍繞源代碼的整個自動化層。

安全管理AI,如同管理人為失誤

面對這類新型風險,企業(yè)容易陷入的誤區(qū)是將其視為純粹的技術問題,寄望于工具廠商的補丁來徹底解決。但Check Point的研究視角提供了另一種思路:對待AI編程工具的安全管理,應當與對待人為失誤采取同等嚴肅的態(tài)度。

人為失誤難以通過單一技術手段完全消除,需要通過制度規(guī)范、操作習慣與持續(xù)培訓來系統(tǒng)性管控。AI工具的安全風險同樣如此。企業(yè)在引入AI編程工具時,需要建立與之匹配的治理機制:明確哪些倉庫可信、哪些外部集成經(jīng)過審查、API密鑰的使用范圍如何界定。這些不是高深的技術問題,而是基本的安全習慣在AI場景下的延伸。

隨著AI工具的權限邊界不斷擴展,安全意識與制度化的驗證流程,將成為企業(yè)AI應用體系中與技術防御同等重要的組成部分。

負責任的披露:Check Point與Anthropic的協(xié)同修復

在完成漏洞研究后,Check Point Research遵循負責任披露原則,與Anthropic展開了密切合作。Anthropic隨即針對上述問題實施了修復,強化了用戶信任提示機制,阻止了外部工具在獲得明確授權前的執(zhí)行行為,并在信任確認完成前阻斷了API通信。所有已報告問題均已在公開披露前完成修復。

這一協(xié)作過程本身,也是AI安全生態(tài)健康發(fā)展的縮影。AI工具的能力邊界仍在快速擴展,新的攻擊面還將持續(xù)出現(xiàn)。只有安全研究機構、工具廠商與企業(yè)用戶形成協(xié)同,才能在AI基礎設施快速演進的過程中,持續(xù)維護可信賴的開發(fā)環(huán)境。

編 輯:T01
飛象網(wǎng)版權及免責聲明:
1.本網(wǎng)刊載內容,凡注明來源為“飛象網(wǎng)”和“飛象原創(chuàng)”皆屬飛象網(wǎng)版權所有,未經(jīng)允許禁止轉載、摘編及鏡像,違者必究。對于經(jīng)過授權可以轉載,請必須保持轉載文章、圖像、音視頻的完整性,并完整標注作者信息和飛象網(wǎng)來源。
2.凡注明“來源:XXXX”的作品,均轉載自其它媒體,在于傳播更多行業(yè)信息,并不代表本網(wǎng)贊同其觀點和對其真實性負責。
3.如因作品內容、版權和其它問題,請在相關作品刊發(fā)之日起30日內與本網(wǎng)聯(lián)系,我們將第一時間予以處理。
本站聯(lián)系電話為86-010-87765777,郵件后綴為cctime.com,冒充本站員工以任何其他聯(lián)系方式,進行的“內容核實”、“商務聯(lián)系”等行為,均不能代表本站。本站擁有對此聲明的最終解釋權。
推薦閱讀
  • 2026十大科技趨勢

    2026 十大科技趨勢,定義新一年的每一次突破。祝大家馬年大吉,馬到成功!初八啟新程,萬事皆順遂!

    [詳細]

精彩視頻

精彩專題

關于我們廣告報價聯(lián)系我們隱私聲明本站地圖

CCTIME飛象網(wǎng) CopyRight © 2007-2026 By CCTIME.COM

京ICP備08004280號-1 電信與信息服務業(yè)務經(jīng)營許可證080234號 京公網(wǎng)安備110105000771號

公司名稱: 北京飛象互動文化傳媒有限公司

未經(jīng)書面許可,禁止轉載、摘編、復制、鏡像