搜索
APP下载
扫码下载APP
关注我们
XHS
小红书
抖音
Facebook
X
YouTube
登录
注册
首页
热点资讯
互动论坛
同城服务
人才网
实用工具
搜索
每日签到
本地新闻
时事评论
华人世界
斯里兰卡资讯
中国新闻
新闻视频
国际新闻
娱乐新闻
科技新闻
菲龙广场
本地新闻
全网热搜
华人世界
时事评论
中外新闻
斯里兰卡资讯
房产网
菲龙速聘
二手交易
便民电话
美食餐厅
旅游签证
物流速运
商品买卖
二手车市场
支票转换
便民电话
话费充值
实时汇率
每日签到
我的任务
道具商店
菲龙网
»
论坛
›
新闻频道
›
科技新闻
›
微软开源爆火1bit大模型推理框架!千亿参数模型量化后单 ...
菲龙网编辑部7
有 745 人收听 TA
157937
主题
157954
回复
184624
积分
收听TA
发消息
加好友
本文来自
科技新闻
订阅
|
收藏
(
2953
)
菲龙网编辑部7发布过的帖子
0/93
东西问|马合木提·阿布都外力:唐王城遗址何以实证屯垦戍边是国家疆域治理千年之策?
0/87
东西问|无论升级还是停火,美伊博弈的重点都是海峡
0/79
巴基斯坦:伊美停火立即生效 还包括黎巴嫩及其他地区
0/102
伊朗外长:若袭击停止,霍尔木兹海峡两周内将实现安全通航
0/82
伊朗公布10项停战条款主要内容
0/91
距离最后通牒不到一个半小时,“特朗普从悬崖边退回”
0/84
(寻味中华|艺林)从“手上功夫”到跨界融合 千年夏布焕新生
0/85
北京侨商会会长陈丽华去世 享年85岁
0/80
(经济观察)春假遇清明 中国假日经济显活力
查看TA的全部帖子>>
微软开源爆火1bit大模型推理框架!千亿参数模型量化后单CPU可跑
时间:2024-10-23 09:55
0
603
|
复制链接
|
互动交流
显示全部楼层
阅读模式
直达楼层
马上注册,结交更多好友
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
西风 发自 凹非寺
量子位 | 公众号 QbitAI
微软开源1bit大模型推理框架!
现在1000亿参数大模型量化后单CPU可跑,速度可达每秒5-7个token。
就是今年爆火论文
The Era of 1-bit LLMs
的官方代码实现,开源不到一周GitHub已揽获
7.9k Star
。
传统大模型参数以16位浮点数(如FP16或BF16)形式的存储,而BitNet b1.58将其统统变成了
三进制
,也就是
{-1, 0, 1}
。
这里的“1.58 bit”指每个参数可以用1.58位的信息来表示。
转换之后,
矩阵中的计算就只会涉及到加法
,因此会让大模型在保持一定精度的同时,显著减少所需的存储空间和计算资源,也显著提升了在本地设备上运行LLM的可能性。
这个项目开源后,在X上也受到了一波高度关注。
千亿参数模型量化后单CPU可跑
bitnet.cpp
是1bit LLM(例如 BitNet b1.58)的官方推理框架。
该框架配备了一系列优化内核,支持在CPU上进行快速且无损的1.58bit模型推理,未来将扩展支持NPU和GPU。
bitnet.cpp的
首版主要支持CPU推理
。
具体性能改进方面,在ARM CPU上,该框架可实现
1.37至5.07倍的加速
,而且更大的模型将有更显著的性能提升。
同时,它能将
能耗降低55.4%至70.0%
,进一步增强效率。
在x86 CPU上,
加速效果介于2.37至6.17倍
之间,
能耗减少71.9%至82.2%
。
网友们也发现了华点,在x86上的性能增益量比ARM更大。
此外,bitnet.cpp能使千亿参数模型量化后单CPU可跑,速度可达每秒5-7个token,接近人类阅读速度。
微软还展示了使用bitnet.cpp推理框架支持的不同1 bit LLM。
6页论文,引入1 bit LLM
1 bit LLM的实现方法,微软在一年前就有相关研究,称为BitNet(一种Transformer),用
BitLinear
替换了nn.Linear。
今年二月,BitNet原班人马在上一篇论文的基础之上做了优化,提出BitNet b1.58,在原始BitNet的基础上增加了一个额外的
0值
。
然后这篇内容只有6页的论文引发热议:
BitNet b1.58模型的权重被量化为三元值{-1, 0, 1},
相当于在二进制系统中使用了1.58 bit来表示每个权重
。
采用了absmean量化函数来约束权重,将权重矩阵通过其平均绝对值进行缩放,然后四舍五入到最接近的整数值(-1、0或1)。
激活量化中,激活值被缩放到[−Qb, Qb]的范围,以此来消除零点量化。
在架构设计上,BitNet b1.58借鉴了Llama,使用了RMSNorm、SwiGLU、旋转位置编码等组件,并移除了所有偏置项。这种设计使其能够轻松集成到主流的开源框架中。
实验中,与Llama相比,BitNet b1.58
在矩阵乘法方面节省了71.4倍的计算能耗。
这种方法发布后,也有不少人在这项研究的基础之上进行探索。
其中一个问题是,BitNet b1.58将每个参数仅用三元值表示,但是所有这些都需要从头开始训练模型,并不是谁都有预算来进行LLM预训练。
而Huggingface Transformers最近整合了BitNet b1.58,运用了一些技巧,使得
现有模型可以直接微调到1.58bit
。
感兴趣的童鞋可以自行查阅。
不过也有网友指出了这种方法的局限:
总之,1 bit LLM具有巨大的潜力。
但也正如网友所言,1 bit LLM关键还得是能在实践中证明自己。
参考链接:
[1]https://github.com/microsoft/BitNet
[2]https://x.com/rohanpaul_ai/status/1847814379657462201
[3]https://x.com/rohanpaul_ai/status/1848172443258728860?s=46&t=iTysI4vQLQqCNJjSmBODPw
[4]https://huggingface.co/blog/zh/1_58_llm_extreme_quantization
回复
举报
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
立即注册
点我进行验证
本版积分规则
发表回复
回帖后跳转到最后一页
扫码添加微信客服
快速回复
返回列表
返回顶部