DPU技術簡介(轉)
日期:2021-10-18 / 人氣: / 來源:
[概要說明]DPU(Data Processing Unit)是以數據為中心構造的專用處理器,采用軟件 定義技術路線支撐基礎設施層資源虛擬化,支持存儲、安全、服務質量管理等 基礎設施層服務。
DPU(Data Processing Unit)是以數據為中心構造的專用處理器,采用軟件 定義技術路線支撐基礎設施層資源虛擬化,支持存儲、安全、服務質量管理等 基礎設施層服務。2020年NVIDIA公司發布的DPU產品戰略中將其定位為數據中 心繼CPU和GPU之后的“第三顆主力芯片”,掀起了一波行業熱潮。DPU的出 現是異構計算的一個階段性標志。與GPU的發展類似,DPU是應用驅動的體系 結構設計的又一典型案例;但與GPU不同的是,DPU面向的應用更加底層。DPU要解決的核心問題是基礎設施的“降本增效”,即將“CPU處理效率低 下、GPU處理不了”的負載卸載到專用DPU,提升整個計算系統的效率、降低 整體系統的總體擁有成本(TCO)。DPU的出現也許是體系結構朝著專用化路 線發展的又一個里程碑。
關于DPU中“D”的解釋
DPU中的“D”有三種解釋:
(1)Data Processing Unit,即數據處理器。這種解釋把“數據”放在核心 位置,區別于信號處理器、基帶處理器等通信相關的處理器對應的“信號”, 也區別于GPU對應的圖形圖像類數據,這里的“數據”主要指數字化以后的各 種信息,特別是各種時序化、結構化的數據,比如大型的結構化表格,網絡流 中的數據包,海量的文本等等。DPU就是處理這類數據的專用引擎。
(2)Datacenter Processing Unit,即數據中心處理器。這種解釋把數據中心 作為DPU的應用場景,特別是隨著WSC(Warehouse-scale Computer)的興起, 不同規模的數據中心成為了IT核心基礎設施。目前來看,DPU確實在數據中心 中使用前景非常廣闊。但是計算中心的三大部分:計算、網絡、存儲,計算部分是CPU占主導,GPU輔助;網絡部分是路由器和交換機,存儲部分是高密度 磁盤構成的的RAID系統和SSD為代表非易失性存儲系統。在計算和網絡中扮演 數據處理的芯片都可以稱之為Datacenter Processing Unit,所以這種說法相對比 較片面。
(3)Data-centric Processing Unit,即以數據為中心的處理器。Data-centric, 即數據為中心,是處理器設計的一種理念,相對于“Control-centric”即控制為 中心。經典的馮諾依曼體系結構就是典型的控制為中心的結構,在馮諾依曼經 典計算模型中有控制器、計算器、存儲器、輸入和輸出,在指令系統中的表現 是具有一系列非常復雜的條件跳轉和尋址指令。而數據為中心的理念與數據流 (Data Flow)計算一脈相承,是一種實現高效計算的方法。同時,現在試圖打 破訪存墻(Memory Wall)的各種近存(Near-memory)計算、存內(Inmemory)計算、存算一體等技術路線,也符合數據為中心的設計理念。
以上三種關于“D”的解釋,從不同角度反映DPU的特征,都有一定的可 取之處,筆者認為可以作為不同的三個維度來理解DPU的內涵。
DPU的作用
DPU最直接的作用是作為CPU的卸載引擎,接管網絡虛擬化、硬件資源池 化等基礎設施層服務,釋放CPU的算力到上層應用。以網絡協議處理為例,要 線速處理10G的網絡需要的大約4個Xeon CPU的核,也就是說,單是做網絡數據 包處理,就可以占去一個8核高端CPU一半的算力。如果考慮40G、100G的高速 網絡,性能的 開銷就 更 加 難 以 承 受 了。A m a z o n 把這些開銷都稱 之 為 “Datacenter Tax”,即還未運行業務程序,先接入網絡數據就要占去的計算資 源。AWS Nitro產品家族旨在將數據中心開銷(為虛擬機提供遠程資源,加密解 密,故障跟蹤,安全策略等服務程序)全部從CPU卸載到Nitro加速卡上,將給 上層應用釋放30%的原本用于支付“Tax” 的算力!
DPU可以成為新的數據網關,將安全隱私提升到一個新的高度。在網絡環 境下,網絡接口是理想的隱私的邊界,但是加密、解密算法開銷都很大,例如 國密標準的非對稱加密算法SM2、哈希算法SM3和對稱分組密碼算法SM4。如果 用CPU來處理,就只能做少部分數據量的加密。在未來,隨著區塊鏈承載的業 務的逐漸成熟,運行共識算法POW,驗簽等也會消耗掉大量的CPU算力。而這 些都可以通過將其固化在DPU中來實現,甚至DPU將成為一個可信根。
DPU也可以成為存儲的入口,將分布式的存儲和遠程訪問本地化。隨著 SSD性價比逐漸可接受,部分存儲遷移到SSD器件上已經成為可能,傳統的面向 機械硬盤的SATA協議并不適用于SSD存儲,所以,將SSD通過本地PCIe或高速 網絡接入系統就成為必選的技術路線。NVMe(Non Volatile Memory Express) 就是用于接入SSD存儲的高速接口標準協議,可以通過PCIe作為底層傳輸協 議,將SSD的帶寬優勢充分發揮出來。同時,在分布式系統中,還可通過 NVMe over Fabrics(NVMe-oF)協議擴展到InfiniBand、Ethernet、或Fibre channel節點中,以RDMA的形式實現存儲的共享和遠程訪問。這些新的協議處 理都可以集成在DPU中以實現對CPU的透明處理。進而,DPU將可能承接各種 互連協議控制器的角色,在靈活性和性能方面達到一個更優的平衡點。
DPU將成為算法加速的沙盒,成為最靈活的加速器載體。DPU不完全是一 顆固化的ASIC,在CXL、CCIX等標準組織所倡導CPU、GPU與DPU等數據一致 性訪問協議的鋪墊下,將更進一步掃清DPU編程障礙,結合FPGA等可編程器 件,可定制硬件將有更大的發揮空間,“軟件硬件化”將成為常態,異構計算 的潛能將因各種DPU的普及而徹底發揮出來。在出現“Killer Application”的領 域都有可能出現與之相對應的DPU,諸如傳統數據庫應用如OLAP、OLTP, 5G 邊緣計算,智能駕駛V2X等等。
推薦內容 Recommended
- 5G+智能制造 PCB大廠...04-10
- 缺貨漲價!全球知名MLCC...03-06
- 重磅!富士康落戶濟南...09-30
- FPGA芯片擴大應用領域...12-29
- 2018年中國十大IC設計...02-26
- 瘋狂買買買,國巨已經...05-31