人工智能(AI)正成為推動機密計算大規(guī)模普及的主力。谷歌和 Anthropic 等領先的 AI 提供商近期更加重視這一技術,以防止 AI 模型和敏感數(shù)據(jù)被泄露。但這一轉變也面臨挑戰(zhàn):AI 公司需依賴硬件廠商提供底層技術,而每家芯片廠商的實現(xiàn)方式并不相同。
“AI 模型已進入生產(chǎn)階段,機密計算正成為解決數(shù)據(jù)安全和網(wǎng)絡安全問題的重要手段,” ——HyperFrame Research 首席分析師 Steven Dickens
這與諸如醫(yī)療和金融等高度監(jiān)管行業(yè)對“安全 AI”的日益需求高度契合,這些行業(yè)對數(shù)據(jù)合規(guī)性和本地化管理要求極高。
機密計算是通過基于硬件的可信執(zhí)行環(huán)境(TEE) 保護使用中的數(shù)據(jù)的方法。TEE 是安全且獨立的環(huán)境,可防止對使用中的應用和數(shù)據(jù)進行未經(jīng)授權的訪問或修改。
“企業(yè)對于 AI 安全普遍高度關注,AI 提供商正加速在關鍵位置部署機密計算,” ——Futuriom 分析師 Craig Matsumoto
AI 推理(Inference)日益復雜,涉及的組件越多,潛在的安全漏洞也越多。同時,AI 代理(Agent)系統(tǒng)帶動了更多數(shù)據(jù)在多個來源之間流動,引發(fā)新的隱私與合規(guī)風險。
Matsumoto 指出,機密計算提供了一條安全的數(shù)據(jù)處理管道,對金融和醫(yī)療等依賴 AI 做決策的行業(yè)來說,是極具吸引力的技術選擇。
谷歌目前推出了其自研 Gemini 模型的定制版本,企業(yè)客戶可在“斷網(wǎng)”的本地服務器上運行該模型。模型運行依賴 Nvidia GPU,這些 GPU 構建了安全的執(zhí)行環(huán)境,用以“鎖住”模型自身。
“我們部署在本地的最大需求,就是能確保模型本身的安全。” ——谷歌云副總裁 Sachin Gupta
Anthropic(Claude 模型提供商)則在 6 月宣布推出“Confidential Inference”(保密推理)環(huán)境,用于確保用戶數(shù)據(jù)和模型權重的私密性。目標是在內(nèi)存中對 AI 數(shù)據(jù)進行加密與隔離,防止遭到竊取或攻擊。
Fortanix 首席 AI 官 Richard Searle 表示,Anthropic 此舉不僅是產(chǎn)品差異化策略,更是對模型可信性的背書。
“隨著監(jiān)管機構加強對 AI 在醫(yī)療、金融等領域使用的審查,部署的 AI 模型或代理系統(tǒng)需要具備可審計性?!?/span>
機密計算提供了這種審計能力,確保模型未被篡改,通過“安全驗證機制”證明完整性。
英特爾和 AMD 率先在其 CPU 中構建了機密計算模塊。但業(yè)內(nèi)專家指出,隨著 AI 模型的主要計算平臺轉向 GPU,Nvidia 正成為推動機密計算落地的主力。
相比 CPU,GPU 可同時運行更多應用,因此在加速計算方面的需求也帶動了對 GPU 級機密計算的依賴。
“現(xiàn)在推動機密計算發(fā)展的,其實是那些必須運行在 GPU 上的大模型?!? ——Nvidia 企業(yè) AI 副總裁 Justin Boitano
目前,機密計算技術在行業(yè)內(nèi)尚無統(tǒng)一標準,不同廠商的實現(xiàn)方式彼此孤立,導致在多節(jié)點、多平臺間遷移任務時,驗證信任關系的復雜度增加,也可能引入新的漏洞。
“我們目前面臨的現(xiàn)實是:缺乏在多廠商計算棧之間無縫傳遞信任的能力?!? ——安全公司 Binarly CEO Alex Matrosov
當前 GPU 的機密計算方案大多依賴 AMD 的 EPYC CPU 提供“可信環(huán)境”,而 Nvidia 的 H100 GPU 則負責數(shù)據(jù)認證。問題在于,CPU 與 GPU 間的任務切換和認證過程頻繁,可能暴露出更多攻擊面。
“在這種架構下,機密計算的可靠性和驗證能力就變得極為脆弱。” ——Matrosov
Nvidia 的 Boitano 表示,公司并不打算成為一家安全公司,而是專注于 AI,與合作伙伴協(xié)同構建完整的機密計算棧。例如,谷歌已自行開發(fā)了可信驗證服務,可在虛擬機解密前同時驗證 CPU 和 GPU 的安全性。
“我們認為,從長遠看,AI 計算中所有數(shù)據(jù)都應在傳輸和存儲過程中加密,并在保密環(huán)境中執(zhí)行。”
Fortanix 的 Searle 提出,行業(yè)組織或政府機構(如美國國家標準與技術研究院 NIST)可主導制定機密計算標準,以減少當前的技術碎片化。
“但需要注意的是:這需要耗費時間來定義、驗證,并且需要經(jīng)歷冗長的產(chǎn)品開發(fā)周期才能真正落地?!?/span>
總結
機密計算正成為 AI 安全領域的重要基石,尤其在高度監(jiān)管行業(yè)中應用廣泛。然而,芯片廠商之間技術壁壘、標準缺失和生態(tài)不統(tǒng)一仍是推廣的主要障礙。隨著 Nvidia、谷歌、Anthropic 等巨頭不斷推動落地,機密計算有望成為未來 AI 基礎架構的“默認選項”。
國內(nèi)《數(shù)據(jù)安全技術 機密計算通用框架》將于2025年8月1日正式實施,詳情見:
http://c.gb688.cn/bzgk/gb/showGb?type=online&hcno=3EEE43349494EC27FC87B5EDA7468FB0