中文字幕 另类精品,亚洲欧美一区二区蜜桃,日本在线精品视频免费,孩交精品乱子片免费

<sup id="3hn2b"></sup>

    1. <sub id="3hn2b"><ol id="3hn2b"></ol></sub><legend id="3hn2b"></legend>

      1. <xmp id="3hn2b"></xmp>

      2. 新聞中心

        EEPW首頁 > 智能計(jì)算 > 設(shè)計(jì)應(yīng)用 > UALink規(guī)范推出打響撼動英偉達(dá)AI統(tǒng)治的第一槍

        UALink規(guī)范推出打響撼動英偉達(dá)AI統(tǒng)治的第一槍

        —— UALink? 將 Nvidia 的 NVLink 作為目標(biāo) — 最終規(guī)格支持多達(dá) 1,024 個 GPU,帶寬為 200 GT/s
        作者: 時間:2025-04-09 來源: 收藏

        的主要目標(biāo)之一是為 AI 加速器提供有競爭力的連接生態(tài)系統(tǒng),該技術(shù)將與 Nvidia 成熟的 技術(shù)相媲美,該技術(shù)使這家綠色公司能夠構(gòu)建機(jī)架級 AI 優(yōu)化解決方案,例如 Blackwell NVL72。隨著 1.0 的出現(xiàn),AMD、Broadcom、Google 和 Intel 等公司也將能夠使用行業(yè)標(biāo)準(zhǔn)技術(shù)而不是 Nvidia 的專有解決方案來構(gòu)建類似的解決方案,這意味著成本更低。

        Ultra Accelerator Link Consortium 周二正式發(fā)布了最終的 1.0 規(guī)范,這意味著該小組的成員現(xiàn)在可以繼續(xù)對支持新技術(shù)的實(shí)際芯片進(jìn)行流片。新的互連技術(shù)面向 AI 和 HPC 加速器,并得到包括 AMD、Apple、Broadcom 和 Intel 在內(nèi)的眾多行業(yè)參與者的支持。它有望成為連接此類硬件的事實(shí)標(biāo)準(zhǔn)。

        UALink 1.0 規(guī)范為加速器定義了高速、低延遲的互連,支持每通道 200 GT/s 的最大雙向數(shù)據(jù)速率,信號速率為 212.5 GT/s,以適應(yīng)前向糾錯和編碼開銷。UALink 可以配置為 x1、x2 或 x4,四通道鏈路在發(fā)射和接收方向上都能實(shí)現(xiàn)高達(dá) 800 GT/s。

        一個 UALink 系統(tǒng)支持多達(dá) 1,024 個加速器(GPU 或其他),通過 UALink 交換機(jī)連接,每個加速器分配一個端口和一個 10 位唯一標(biāo)識符,以實(shí)現(xiàn)精確路由。UALink 電纜長度針對 <4 米進(jìn)行了優(yōu)化,可在 64B/640B 有效載荷下實(shí)現(xiàn) <1 μs 的往返延遲。這些鏈路支持跨 1 到 4 個機(jī)架的確定性性能。

        本文引用地址:http://www.antipu.com.cn/article/202504/469208.htm


        UALink


        (圖片來源:UALink)

        UALink 協(xié)議棧包括四個硬件優(yōu)化層:物理層、數(shù)據(jù)鏈路層、事務(wù)層和協(xié)議層。物理層使用標(biāo)準(zhǔn)以太網(wǎng)組件(例如 200GBASE-KR1/CR1),并包括使用 FEC 減少延遲的修改。數(shù)據(jù)鏈路層將來自事務(wù)層的 64 字節(jié) fit 打包成 640 字節(jié)的單元,應(yīng)用 CRC 和可選的重試邏輯。此層還處理設(shè)備間消息傳遞,并支持 UART 樣式的固件通信。

        事務(wù)層實(shí)現(xiàn)壓縮尋址,在實(shí)際工作負(fù)載下以高達(dá) 95% 的協(xié)議效率簡化數(shù)據(jù)傳輸。它還支持直接內(nèi)存作,例如加速器之間的讀取、寫入和原子事務(wù),從而保持本地和遠(yuǎn)程內(nèi)存空間的順序。

        由于 UALink 協(xié)議針對現(xiàn)代數(shù)據(jù)中心,因此支持集成的安全和管理功能。例如,UALinkSec 為所有流量提供硬件級加密和身份驗(yàn)證,防止物理篡改,并通過租戶控制的可信執(zhí)行環(huán)境(如 AMD SEV、Arm CCA 和 Intel TDX)支持機(jī)密計(jì)算。該規(guī)范允許虛擬 Pod 分區(qū),其中加速器組通過交換機(jī)級配置在單個 Pod 中隔離,以在共享基礎(chǔ)設(shè)施上啟用并發(fā)多租戶工作負(fù)載。

        UALink Pods 將通過專用控制軟件和固件代理使用 PCIe 和以太網(wǎng)等標(biāo)準(zhǔn)接口進(jìn)行管理。通過 REST API、遙測、工作負(fù)載控制和故障隔離支持完全可管理性。

        UALink 聯(lián)盟主席 Peter Onufryk 表示:“隨著 UALink 200G 1.0 規(guī)范的發(fā)布,UALink 聯(lián)盟的成員公司正在積極構(gòu)建一個用于縱向擴(kuò)展加速器連接的開放生態(tài)系統(tǒng)。我們很高興見證即將進(jìn)入市場并支持未來 AI 應(yīng)用的各種解決方案。

        Nvidia 目前在 AI 加速器市場占據(jù)主導(dǎo)地位,這要?dú)w功于其強(qiáng)大的生態(tài)系統(tǒng)和縱向擴(kuò)展解決方案。它目前正在發(fā)貨 Blackwell NVL72 機(jī)架,這些機(jī)架使用 在單個機(jī)架中連接多達(dá) 72 個 GPU,機(jī)架間 Pod 允許在單個 Pod 中連接多達(dá) 576 個 Blackwell B200 GPU。隨著明年即將推出的 Vera Rubin 平臺,Nvidia 打算在單個機(jī)架中擴(kuò)展到 144 個 GPU,而 Rubin Ultra 將在 2027 年擴(kuò)展到單個機(jī)架中高達(dá) 576 個 GPU。



        關(guān)鍵詞: UALink 英偉達(dá) NVLink

        評論


        相關(guān)推薦

        技術(shù)專區(qū)

        關(guān)閉