大幅提升GPU可用顯存量,螞蟻、上海交大技術(shù)成果GMLake入選國際頂會
近日,從螞蟻集團獲悉,螞蟻集團和上海交通大學(xué)合作的技術(shù)成果GMLake被計算機體系結(jié)構(gòu)四大頂級會議之一的ASPLOS 24接收。
據(jù)悉,這篇名為《GMLake: Efficient and Transparent GPU Memory Defragmentation for Large-scale DNN Training with Virtual Memory Stitching》的研究成果,針對業(yè)界普遍存在的大模型訓(xùn)練顯存效率問題,提出了一種高效的動態(tài)顯存組合技術(shù)VMS(Virtual Memory Stitching),最高提高33%的GPU可用顯存,使顯存使用更為高效,進而緩解了“內(nèi)存墻”問題。ASPLOS會議曾推動了多核處理器、深度學(xué)習處理器等計算機系統(tǒng)領(lǐng)域的核心創(chuàng)新,在學(xué)術(shù)界和工業(yè)界擁有顯著的影響力。

以ChatGPT為代表的生成式大模型正在引領(lǐng)當前AI發(fā)展。為了訓(xùn)練得到如此高效的大模型,需要強大和昂貴的基礎(chǔ)算力支撐。而當前制約高效訓(xùn)練的因素中,除了算力,顯存容量也非常關(guān)鍵,即“內(nèi)存墻”問題。
業(yè)界已有很多優(yōu)化工作,包括模型、框架層的改造,甚至為之犧牲模型精度。且業(yè)界廣泛使用的訓(xùn)練框架如PyTorch存在顯存管理效率不高,顯存資源碎片化的現(xiàn)象,即顯存中出現(xiàn)了很多的空洞,使得零散的顯存資源難以有效利用起來,特別是當使用了業(yè)界多種優(yōu)化手段之后,碎片化問題反而更為突出,使得本就緊缺的顯存資源浪費嚴重。
對此,螞蟻集團和上海交通大學(xué)提出了一種高效的動態(tài)顯存組合技術(shù)框架,稱為GMLake。該框架采用虛擬、物理兩層指針,將碎片化的顯存靈活地拼接起來,從而實現(xiàn)了聚零為整。GMLake對典型大模型如GPT、GLM、Vicuna等進行了詳細評測,最高擴大了約33%的可用顯存,即在80GB的A100 GPU上節(jié)省約25GB的顯存,訓(xùn)練吞吐提高最多4倍。
據(jù)了解,GMLake的使用非常友好,目前已在PyTorch框架上完成集成,對上層模型代碼和框架代碼完全透明,也就是說模型不需要修改任何代碼即可使用,真正做到了開箱即用。
目前,GMLake的代碼已經(jīng)開源到了GLake項目中。GLake是螞蟻集團自研的GPU顯存+傳輸優(yōu)化開源項目,在訓(xùn)練、推理框架底層以及系統(tǒng)層對顯存和傳輸進行一體優(yōu)化,更好應(yīng)對“內(nèi)存墻”和“傳輸墻”挑戰(zhàn)。
免責聲明:本網(wǎng)站所有文章僅作為資訊傳播使用,既不代表任何觀點導(dǎo)向,也不構(gòu)成任何投資建議。】
猜你喜歡
螞蟻國際、螞蟻數(shù)科雙雙表態(tài)!螞蟻集團“雙線競速”香港穩(wěn)定幣
雙線布局!螞蟻國際、螞蟻數(shù)科均將申請香港穩(wěn)定幣牌照8億用戶的智能診療革命:螞蟻用AI重構(gòu)“機構(gòu)—醫(yī)生—患者”全鏈路
AI醫(yī)療再進化!螞蟻集團發(fā)布醫(yī)療大模型一體機螞蟻集團發(fā)布2024年消費者權(quán)益保護年報:金融普惠教育系列行動覆蓋1.2億人次
2月13日,螞蟻集團在官網(wǎng)發(fā)布《2024年消費者權(quán)益保護年報》。