切换到宽版
开启辅助访问
登录
立即注册
搜索
搜索
搜索
首页
Portal
论坛
同城
人才网
工具
菲龙网工具
个人中心
关于我们
每日签到
本地新闻
时事评论
华人世界
中国新闻
新闻视频
国际新闻
娱乐新闻
科技新闻
菲龙广场
房产网
菲龙速聘
二手交易
便民电话
美食餐厅
旅游签证
物流速运
商品买卖
二手车市场
严选
话费充值
便民电话
贺词页面
瀑布流页
汇率查询
APP下载
每日签到
我的任务
道具商店
每日签到
我的任务
道具商店
更改用户名
关于菲龙网
About US
联系菲龙网
活动回顾
加入我们
本版
用户
菲龙网
»
论坛
›
新闻频道
›
科技新闻
›
微软开源爆火1bit大模型推理框架!千亿参数模型量化后单 ...
菲龙网编辑部7
有 744 人收听 TA
146961
主题
146978
回复
173066
积分
收听TA
发消息
加好友
本文来自
科技新闻
订阅
|
收藏
(
2953
)
菲龙网编辑部7发布过的帖子
0/28
李云泽:保险业要加快由追求速度和规模向以价值和效益为中心转变
0/26
从4.5%降至3.5%!振兴银行存量存款利率下调,**能否单方面暂停“加息”
0/29
央行科技司:正在加紧出台金融业数据跨境流动合规指南
0/30
厦门国际银行北京分行助力北京市银行业协会举办声誉风险管理培训
0/21
理财公司掀起降费大战,部分产品费率低至0
0/22
回应被罚50万元,国开行:将严格按照监管要求落实整改措施
0/29
东莞万江举行2024年“百千万工程”政策宣讲会,搭建政企交流桥梁
0/19
21理财私房课丨市场涨、投资亏,这一导致逆势亏损的“理财刺客”需警惕
0/21
大家财险因财务数据不实再领罚单,今年前三季度亏损1.7亿
查看TA的全部帖子>>
微软开源爆火1bit大模型推理框架!千亿参数模型量化后单CPU可跑
时间:2024-10-23 09:55
0
97
|
复制链接
|
互动交流
显示全部楼层
阅读模式
直达楼层
马上注册,结交更多好友
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
西风 发自 凹非寺
量子位 | 公众号 QbitAI
微软开源1bit大模型推理框架!
现在1000亿参数大模型量化后单CPU可跑,速度可达每秒5-7个token。
就是今年爆火论文
The Era of 1-bit LLMs
的官方代码实现,开源不到一周GitHub已揽获
7.9k Star
。
传统大模型参数以16位浮点数(如FP16或BF16)形式的存储,而BitNet b1.58将其统统变成了
三进制
,也就是
{-1, 0, 1}
。
这里的“1.58 bit”指每个参数可以用1.58位的信息来表示。
转换之后,
矩阵中的计算就只会涉及到加法
,因此会让大模型在保持一定精度的同时,显著减少所需的存储空间和计算资源,也显著提升了在本地设备上运行LLM的可能性。
这个项目开源后,在X上也受到了一波高度关注。
千亿参数模型量化后单CPU可跑
bitnet.cpp
是1bit LLM(例如 BitNet b1.58)的官方推理框架。
该框架配备了一系列优化内核,支持在CPU上进行快速且无损的1.58bit模型推理,未来将扩展支持NPU和GPU。
bitnet.cpp的
首版主要支持CPU推理
。
具体性能改进方面,在ARM CPU上,该框架可实现
1.37至5.07倍的加速
,而且更大的模型将有更显著的性能提升。
同时,它能将
能耗降低55.4%至70.0%
,进一步增强效率。
在x86 CPU上,
加速效果介于2.37至6.17倍
之间,
能耗减少71.9%至82.2%
。
网友们也发现了华点,在x86上的性能增益量比ARM更大。
此外,bitnet.cpp能使千亿参数模型量化后单CPU可跑,速度可达每秒5-7个token,接近人类阅读速度。
微软还展示了使用bitnet.cpp推理框架支持的不同1 bit LLM。
6页论文,引入1 bit LLM
1 bit LLM的实现方法,微软在一年前就有相关研究,称为BitNet(一种Transformer),用
BitLinear
替换了nn.Linear。
今年二月,BitNet原班人马在上一篇论文的基础之上做了优化,提出BitNet b1.58,在原始BitNet的基础上增加了一个额外的
0值
。
然后这篇内容只有6页的论文引发热议:
BitNet b1.58模型的权重被量化为三元值{-1, 0, 1},
相当于在二进制系统中使用了1.58 bit来表示每个权重
。
采用了absmean量化函数来约束权重,将权重矩阵通过其平均绝对值进行缩放,然后四舍五入到最接近的整数值(-1、0或1)。
激活量化中,激活值被缩放到[−Qb, Qb]的范围,以此来消除零点量化。
在架构设计上,BitNet b1.58借鉴了Llama,使用了RMSNorm、SwiGLU、旋转位置编码等组件,并移除了所有偏置项。这种设计使其能够轻松集成到主流的开源框架中。
实验中,与Llama相比,BitNet b1.58
在矩阵乘法方面节省了71.4倍的计算能耗。
这种方法发布后,也有不少人在这项研究的基础之上进行探索。
其中一个问题是,BitNet b1.58将每个参数仅用三元值表示,但是所有这些都需要从头开始训练模型,并不是谁都有预算来进行LLM预训练。
而Huggingface Transformers最近整合了BitNet b1.58,运用了一些技巧,使得
现有模型可以直接微调到1.58bit
。
感兴趣的童鞋可以自行查阅。
不过也有网友指出了这种方法的局限:
总之,1 bit LLM具有巨大的潜力。
但也正如网友所言,1 bit LLM关键还得是能在实践中证明自己。
参考链接:
[1]https://github.com/microsoft/BitNet
[2]https://x.com/rohanpaul_ai/status/1847814379657462201
[3]https://x.com/rohanpaul_ai/status/1848172443258728860?s=46&t=iTysI4vQLQqCNJjSmBODPw
[4]https://huggingface.co/blog/zh/1_58_llm_extreme_quantization
回复
举报
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
立即注册
点我进行验证
本版积分规则
发表回复
回帖后跳转到最后一页
关闭
站长推荐
/1
【点击免费下载】菲龙网移动APP客户端
【点击免费下载】菲龙网移动APP客户端,新闻/娱乐/生活资讯生活通,带你了解菲律宾多一点!
查看 »
扫码添加微信客服
快速回复
返回列表
返回顶部