亚洲精品一区二区三区精品,伊人久久大香线蕉av最新午夜,亚洲乱码日产精品bd在,一本久久综合亚洲鲁鲁五月天,在线天堂新版最新版在线8

下載app

掃碼下載

掃碼關(guān)注

新華報業(yè)網(wǎng)  > 商業(yè)/科技 > 正文
北大團(tuán)隊提出2比特復(fù)數(shù)模型iFairy{±1, ±i},精度反超量化前,可手機(jī)部署

來源標(biāo)題:北大團(tuán)隊提出2比特復(fù)數(shù)模型iFairy{±1, ±i},精度反超量化前,可手機(jī)部署

version 8.14

摘要:為破解大模型部署與推理成本高昂的困境,北京大學(xué)楊仝老師團(tuán)隊首次提出名為iFairy的超低比特量化方案。該方案創(chuàng)新性地利用復(fù)數(shù){±1,±i}對模型權(quán)重進(jìn)行2-bit量化,在實(shí)現(xiàn)1/8極致壓縮與“無乘法”推理加速的同時,語言建模能力和下游任務(wù)表現(xiàn)甚至反超了其全精度的LLaMA基座模型。

當(dāng)下,大語言模型(LLM)的研究熱潮席卷全球,技術(shù)迭代日新月異。然而,在這片繁榮之下,一個嚴(yán)峻的現(xiàn)實(shí)不容忽視:LLM在真實(shí)世界中產(chǎn)生的商業(yè)價值,很大程度上仍無法覆蓋其高昂的訓(xùn)練與推理成本。

究其根源,大模型走向產(chǎn)業(yè)落地的道路上,橫亙著兩大“攔路虎”:空間瓶頸和時間瓶頸。

為了追求更高的模型性能,業(yè)界普遍的策略是不斷堆疊參數(shù)量,這使得模型部署成本高昂。

同時,龐大的參數(shù)量帶來了計算量的激增,盡管學(xué)界和業(yè)界已涌現(xiàn)出如gpt-oss的MXFP4訓(xùn)練等優(yōu)秀的量化方案,但其核心計算邏輯依然沒有消除對硬件資源消耗巨大的“乘法”運(yùn)算的依賴,推理延遲沒有實(shí)現(xiàn)根本性的降低。

能否同時攻克這兩大瓶頸,實(shí)現(xiàn)模型的輕量化和推理加速,已成為推動大模型發(fā)展從“技術(shù)奇觀”邁向“生產(chǎn)力工具”新階段的關(guān)鍵。

為解決這一難題,北京大學(xué)楊仝老師團(tuán)隊在一篇名為“iFairy: the First 2-bit Complex LLM with AllParameters in {±1,±i}”的論文中,提出了一個腦洞大開的方案:跳出實(shí)數(shù)軸的束縛,進(jìn)入復(fù)數(shù)平面!

這看似簡單的維度提升,卻蘊(yùn)含著破解瓶頸的深刻智慧。

一、空間魔法:極致壓縮,體積僅為1/8

在“空間”上,iFairy實(shí)現(xiàn)了極致的壓縮。

傳統(tǒng)的全精度(FP16)權(quán)重需要16比特,而iFairy方案僅用2比特,就完成了對一個權(quán)重信息的編碼。

這意味著,相較于流行的FP16模型,其模型體積可以直接壓縮至原來的1/8。這種“史詩級”的壓縮率,為大模型在手機(jī)、汽車等邊緣設(shè)備上的部署掃清了最大的存儲障礙。

二、時間魔法:“無乘法”計算的革命

在“時間”上,iFairy實(shí)現(xiàn)了“無乘法”計算的革命。這個魔法是如何實(shí)現(xiàn)的呢?

1. PhaseQuant算法的神來之筆

這一切,都源于團(tuán)隊提出的全新量化算法PhaseQuant。它不再將權(quán)重映射到實(shí)數(shù)軸上的點(diǎn),而是基于參數(shù)的相位將其映射到復(fù)平面上的四個單位根{±1,±i}。

這一操作堪稱神來之筆,一舉多得:

信息密度拉滿:用

{±1, ±i} 四個值,徹底利用了2-bit的全部信息容量,信息熵從傳統(tǒng)三元量化(如BitNetb1.58)的log?(3)≈1.58-bit,提升到滿格的log?(4)=2-bit。

優(yōu)雅的對稱性:這四個點(diǎn)在復(fù)平面上關(guān)于原點(diǎn)中心對稱,保持了模型訓(xùn)練所需的良好性質(zhì)。

隱含的稀疏性:每個量化后的復(fù)數(shù)權(quán)重,其實(shí)部或虛部必有一個為零,這在高維度上保留了稀疏性的優(yōu)勢。

2. 驚艷的“無乘法”運(yùn)算

最令人拍案叫絕的是,引入復(fù)數(shù),計算仍然高效!一個標(biāo)準(zhǔn)的復(fù)數(shù)乘法 (a+ib)(c+id) 需要4次實(shí)數(shù)乘法和2次加法,計算量不小。

但在iFairy模型中,當(dāng)一個復(fù)數(shù)激活值與量化后的權(quán)重 {±1, ±i} 相乘時,運(yùn)算發(fā)生了奇妙的“退化”:所有乘法都消失了。

看!整個模型中最核心、最龐大的矩陣乘法(GEMM),被徹底重構(gòu)了!原本昂貴的浮點(diǎn)乘法運(yùn)算,被完全替換為硬件成本幾乎為零的加法、減法和數(shù)據(jù)交換(shuffle)操作。這從根本上消除了計算瓶頸,為實(shí)現(xiàn)數(shù)量級的推理加速提供了可能。

三、架構(gòu)革新:一個全面“復(fù)數(shù)化”的Transformer

為了讓這個魔法完美落地,研究團(tuán)隊還將整個Transformer架構(gòu)都進(jìn)行了“復(fù)數(shù)化”改造。

復(fù)數(shù)注意力機(jī)制:傳統(tǒng)注意力計算Q和K的點(diǎn)積,這里則巧妙地使用了Hermitian內(nèi)積的實(shí)部作為相似度分?jǐn)?shù),既利用了所有復(fù)數(shù)信息,又自然地得到了實(shí)數(shù)分?jǐn)?shù)用于Softmax。

復(fù)數(shù)旋轉(zhuǎn)位置編碼(RoPE):在復(fù)數(shù)域,位置編碼的旋轉(zhuǎn)操作變得異常簡潔和統(tǒng)一,一個簡單的復(fù)數(shù)乘法即可實(shí)現(xiàn)。

四、驚艷成果:PPL降低10%,性能反超全精度!

理論如此優(yōu)雅,實(shí)踐效果如何呢?結(jié)果同樣令人矚目。

iFairy 不僅沒有出現(xiàn)超低比特量化常見的性能懸崖,反而實(shí)現(xiàn)了驚人的性能反超。

在LLM的語言建模能力方面,模型的困惑度(PPL)越低,代表模型對文本的理解和預(yù)測能力越強(qiáng)。在對PPL的測試中,基于相同數(shù)據(jù)集訓(xùn)練(注:為保證對比的嚴(yán)謹(jǐn)性,所有對比模型的訓(xùn)練數(shù)據(jù)均保持一致,具體信息可參見論文)的2-bit的iFairy模型取得了比全精度(FP16)模型更低的困惑度(PPL),降幅高達(dá) 10%。

而在下游任務(wù)評測方面,iFairy 模型更是在多個任務(wù)的評分反超了全精度的Llama基座模型。

這意味著,一個體積只有原來1/8、計算幾乎“零”乘法的模型,其能力反而更強(qiáng)了。這徹底顛覆了我們的傳統(tǒng)認(rèn)知。

對量化后權(quán)重的分析還發(fā)現(xiàn),模型在訓(xùn)練后,這四個復(fù)數(shù)值 {±1, ±i} 的分布非常均勻,證明模型確實(shí)學(xué)會了充分利用這套全新的“編碼系統(tǒng)”。

總而言之,這項工作開創(chuàng)性地將復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)的思想與超低比特量化相結(jié)合,通過利用“相位”這一被忽略的信息維度,在不增加任何存儲成本的前提下,顯著提升了模型的表達(dá)能力和最終性能,真正實(shí)現(xiàn)了“魚與熊掌兼得”。

它為設(shè)計下一代超高效、高性能的大語言模型,打開了一扇全新的大門?;蛟S,我們離在普通手機(jī)上流暢運(yùn)行GPT-5級別的模型,又近了一步。相關(guān)論文、訓(xùn)練代碼、模型權(quán)重與實(shí)驗(yàn)?zāi)_本已全部開源,配套提供從訓(xùn)練、評測到可復(fù)現(xiàn)實(shí)驗(yàn)的完整流程,人人皆可復(fù)現(xiàn)訓(xùn)練。

責(zé)編:徐潔
版權(quán)和免責(zé)聲明

版權(quán)聲明: 凡來源為"交匯點(diǎn)、新華日報及其子報"或電頭為"新華報業(yè)網(wǎng)"的稿件,均為新華報業(yè)網(wǎng)獨(dú)家版權(quán)所有,未經(jīng)許可不得轉(zhuǎn)載或鏡像;授權(quán)轉(zhuǎn)載必須注明來源為"新華報業(yè)網(wǎng)",并保留"新華報業(yè)網(wǎng)"的電頭。

免責(zé)聲明: 本站轉(zhuǎn)載稿件僅代表作者個人觀點(diǎn),與新華報業(yè)網(wǎng)無關(guān)。其原創(chuàng)性以及文中陳述文字和內(nèi)容未經(jīng)本站證實(shí),對本文以及其中全部或者部分內(nèi)容、文字的真實(shí)性、完整性、及時性本站不作任何保證或者承諾,請讀者僅作參考,并請自行核實(shí)相關(guān)內(nèi)容。

專題
視頻

掃碼下載

交匯點(diǎn)新聞APP

Android版

iPhone版

分享到微信朋友圈
打開微信,點(diǎn)擊底部的“發(fā)現(xiàn)”,使用 “掃一掃” 即可將網(wǎng)頁分享到我的朋友圈。
分享到QQ
手機(jī)QQ掃描二維碼,點(diǎn)擊右上角 ··· 按鈕分享到QQ好友或QQ空間