機密容器是 CNCF 的 一個 Sandbox 項目,用于解決云原生場景下的數(shù)據(jù)安全問題,滿足數(shù)據(jù)合規(guī)、數(shù)據(jù)隱私保護、算法和模型等創(chuàng)新 IP 保護,數(shù)據(jù)可用但是不可見等使用需求,以及解決云廠商的信任依賴問題。
機密容器具備以下幾個特性:
安全性。機密容器基于硬件可信執(zhí)行環(huán)境來保護容器中數(shù)據(jù)安全,云廠商以及具備高權限的第三方均無法直接竊取和篡改容器中的數(shù)據(jù)。
易用性。用戶應用無需進行任何改造,即可從傳統(tǒng)容器環(huán)境中遷移到機密容器環(huán)境中。
能夠解決租戶和云廠商之間的信任依賴問題。租戶數(shù)據(jù)對于云廠商而言不再透明。
可自證性。用戶可以通過遠程證明等手段證實當前使用的容器環(huán)境是真實可信的。
機密容器的安全性很大程度上依賴于硬件的可信執(zhí)行環(huán)境,基于硬件實現(xiàn)對于運行態(tài)數(shù)據(jù)機密性、完整性和安全性的保護。
近年來很多硬件廠商也推出了自己的 TEE 技術解決方案,比如英特爾 SGX 和 TDX 等,這意味著我們可以基于多種硬件平臺構建機密容器技術。
龍蜥社區(qū)理事單位之一的阿里云是機密容器(Confidential Containers)項目的核心參與者,在參與開源項目開發(fā)的同時,也一直在推動機密容器的商用解決方案,目前已經完成了兩種機密容器的解決方案構建:
一種為 POD 級機密容器,指將容器 POD 中的內容放到 TEE 中進行保護。
一種為進程級機密容器,指將運行有敏感業(yè)務的容器進程放到 TEE 中進行保護。
在使用 CPU TEE 保護運行態(tài)數(shù)據(jù)安全的同時,我們也結合鏡像安全、存儲安全,遠程認證、網絡安全等一系列安全技術,為用戶提供從應用部署到執(zhí)行的全鏈路的安全保證。
同時,我們將機密容器引入到龍蜥社區(qū),基于龍蜥開源生態(tài)構建開源的、開箱即用的解決方案。目前我們已經完成了 ANCK、KVM、Rund 安全容器等組件對于機密容器的適配工作。構建開源解決方案,是希望能夠借助開源社區(qū)與合作伙伴達成更便捷深入的合作,為機密容器尋找更多落地場景。
英特爾和阿里云都充分意識到,除了關注基礎軟件之外,為了促進機密容器的技術發(fā)展和普及,應用和生態(tài)也是非常關鍵的一環(huán)。機密計算的核心價值和能力在于能夠對于高價值業(yè)務或敏感數(shù)據(jù)提供保護,BigDL PPML 就是這樣一個典型應用。
BigDL 是英特爾開源的一款人工智能解決方案平臺,能夠方便數(shù)據(jù)科學家和數(shù)據(jù)工程師便捷地開發(fā)出一套端到端的分布式人工智能的應用。另外,BigDL 特別針對機密計算推出了 PPML (隱私保護機器學習),能夠對分布式人工智能應用實現(xiàn)端到端的全鏈路保護。
PPML 架構如上圖所示。最底層在 K8s 集群中提供的英特爾 TDX 和英特爾 SGX 可信執(zhí)行環(huán)境。再通過一系列軟硬件底層安全技術加持,使得用戶能夠在不暴露隱私數(shù)據(jù)的前提下,使用標準的人工智能和大數(shù)據(jù)處理軟件比如 Apache Spark、 Apache Flink、TensorFlow、PyTorch 等熟悉的工具開發(fā)自己的應用。
在此之上,PPML 還提供了 Orca 和 DLlib 兩個分布式流水線。Orca 是在 AI 框架 API 之上,增強了分布式大數(shù)據(jù)的處理能力,而 DLlib 則能夠幫助程序員將分布式深度學習應用轉化成 Spark 應用。另外,BigDL 還提供了可信大數(shù)據(jù)分析、可信機器學習、深度學習以及聯(lián)邦學習應用。
如上圖所示,BigDL PPML 基于可信的 Kubernetes 集群環(huán)境,通過機密容器技術能夠構建出基于 TDX 的分布式可執(zhí)行環(huán)境,從而確保業(yè)務、數(shù)據(jù)和模型在使用和計算過程中的安全性,包括不可見以及不可更改性。
從數(shù)據(jù)流角度,所有數(shù)據(jù)均以加密方式存儲在數(shù)據(jù)湖和數(shù)據(jù)倉庫中。BigDL PPML 加載這些機密數(shù)據(jù),通過遠程證明以及密鑰管理系統(tǒng)獲取數(shù)據(jù)密鑰,置于可信執(zhí)行環(huán)境中進行解密,再使用大數(shù)據(jù)和人工智能的計算框架, 對數(shù)據(jù)進行分布式預處理,模型訓練以及模型推理等。最后,再把最終結果、數(shù)據(jù)或者模型,以安全或加密方式寫回到分布式存儲中。另外數(shù)據(jù)在節(jié)點之間, 容器之間的數(shù)據(jù)均以 TLS 方式進行傳輸,從而做到全鏈路的隱私保護和數(shù)據(jù)安全。
使用 TDX 機密容器運行 BigDL PPML workload 只需簡單兩步:
首先,構建 PPML 的鏡像并對其進行加密,然后把加密后的鏡像推送到鏡像倉庫之中。
其次,在 Kubernetes 中部署 PPML workload ,開發(fā)者只需在標準 YAML 文件中指定所需機密容器運行時以及配置好的高性能存儲卷,然后使用標準 Kubernetes 命令拉起即可。
如果更深入一點看,Kubernetes 將 workload 調度到具有運行機密容器能力的目標主機:
首先,主機上的機密容器運行時啟動 TDX TEE。
其次,在 TDX 可信執(zhí)行環(huán)境里,執(zhí)行遠程證明并獲取驗證 / 解密容器鏡像所需的密鑰,鏡像服務下載容器鏡像,使用密鑰驗證及解密容器鏡像;在數(shù)據(jù)方面,用戶使用標準的 K8s CSI driver 比如 open-local 為容器掛載高性能本地 LVM 卷,機密容器會自動進行透明的加密存儲來保護用戶輸入輸出數(shù)據(jù)。
最后,啟動 BigDL PPML workload 相關容器,一個 BigDL PPML Driver 和多個 Worker 以分布式的方式運行于 K8s 集群之上,這樣可以基于 TDX 進行的可信的云原生大數(shù)據(jù)分析和人工智能應用了。
英特爾和阿里云一直保持著緊密合作,兩家都是 CoCo 上游社區(qū)的發(fā)起人,共同定義、設計和實現(xiàn)了 CoCo 軟件棧的諸多關鍵特性,比如 TEE 內鏡像下載,鏡像的驗簽和解密,可信臨時存儲和可度量運行時環(huán)境,所有這一切都確保了 CoCo 這個項目的強安全屬性。
另外,我們在龍蜥社區(qū)也有緊密的合作,包括共同實現(xiàn)了基于 TDX 的機密容器端到端的解決方案,包括遠程證明以及參考應用。又比如我們選擇了龍蜥社區(qū)的 open-local driver ,第一個支持了可信存儲,一個支持了 kata 的 directvolume 新特性等等。歡迎感興趣的各位參與到云原生機密計算 SIG(Special Interest Group )中來,一起推動云原生場景下的機密計算技術的發(fā)展。
編輯:黃飛
-
容器
+關注
關注
0文章
507瀏覽量
22373 -
機器學習
+關注
關注
66文章
8493瀏覽量
134161 -
阿里云
+關注
關注
3文章
1006瀏覽量
43906
原文標題:?一文解讀機密容器的崛起和發(fā)展
文章出處:【微信號:AI前線,微信公眾號:AI前線】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
ARM平臺實現(xiàn)Docker容器技術
ARM平臺實現(xiàn)Docker容器技術
如何讓員工高效地分享企業(yè)知識的同時又能保護機密文件的
如何使用靈活的PXI硬件和軟件平臺
求一種在Arm服務器上Robox安卓容器的構建與使用方案
如何在Arm計算平臺中實現(xiàn)機密計算
Arm機密計算架構用戶指南
開源機密計算平臺:蓬萊-OpenHarmony
容器在科學技術中的應用及多種技術

Arm如何讓構建支持機密計算的平臺變得更容易

評論