切换到宽版
开启辅助访问
登录
立即注册
搜索
搜索
搜索
首页
Portal
论坛
同城
人才网
工具
菲龙网工具
个人中心
关于我们
每日签到
本地新闻
时事评论
华人世界
中国新闻
新闻视频
国际新闻
娱乐新闻
科技新闻
菲龙广场
房产网
菲龙速聘
二手交易
便民电话
美食餐厅
旅游签证
物流速运
商品买卖
二手车市场
严选
话费充值
便民电话
贺词页面
瀑布流页
汇率查询
APP下载
每日签到
我的任务
道具商店
每日签到
我的任务
道具商店
更改用户名
关于菲龙网
About US
联系菲龙网
活动回顾
加入我们
本版
用户
菲龙网
»
论坛
›
新闻频道
›
科技新闻
›
刚刚,Kimi开源底层推理框架,1小时GitHub揽星1.2k ...
菲龙网编辑部7
有 744 人收听 TA
147321
主题
147338
回复
173438
积分
收听TA
发消息
加好友
本文来自
科技新闻
订阅
|
收藏
(
2953
)
菲龙网编辑部7发布过的帖子
0/31
人福医药控股子公司三款产品纳入国家医保目录
0/22
融侨集团:子公司债务违约遭农行蜀山支行诉讼,涉及本金约1.53亿元
0/27
四部门:支持各地建立农业保险预赔付机制
0/25
支持资本市场两项新工具落实不佳?中行:客观看待,稳定器功能是本质
0/27
以“微实事”托举起“大民生” 招商银行适老化服务水平再升级
0/18
银行存款利率,进入1时代!息差再创新低
0/24
今日辟谣(2024年11月28日)
0/18
王国军:保险行业如何向以价值和效益为中心转变?
0/18
中行报告:大行资本补充,注资规模、方式、节奏有哪些可能?
查看TA的全部帖子>>
刚刚,Kimi开源底层推理框架,1小时GitHub揽星1.2k
时间:2024-11-29 09:56
0
37
|
复制链接
|
互动交流
显示全部楼层
阅读模式
直达楼层
马上注册,结交更多好友
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
什么?
Kimi底层推理架构刚刚宣布:开!源!了!
你没听错,就是那个承载了Kimi线上
80%以上
流量的架构。
大约几小时前,月之暗面Kimi联合清华大学等机构,开源了大模型推理架构
Mooncake
。
根据官方介绍,本次开源将采用
分阶段的方式
:
逐步开源高性能KVCache多级缓存Mooncake Store的实现,同时针对各类推理引擎和底层存储/传输资源进行兼容。
其中
传输引擎Transfer Engine
现在已经在GitHub全球开源。
可以看到,Mooncake一经开源,已在GitHub狂揽1.2k star。
其最终开源目标是,为大模型时代打造一种新型高性能内存语义存储的标准接口,并提供参考实现方案。
月之暗面Kimi工程副总裁许欣然表示:
通过与清华大学MADSys实验室紧密合作,我们
共同打造了分离式大模型推理架构Mooncake,实现推理资源的极致优化
。
Mooncake不仅提升了Kimi的用户体验,降低了成本,还为处理长文本和高并发需求提供了有效的解决方案。
我们相信,通过与产学研机构开源合作,可以推动整个行业向更高效的推理平台方向发展。
实际上,这个项目早在今年6月就已启动,当时已受到业内广泛关注——
大模型推理架构Mooncake
今年6月,月之暗面和清华大学MADSys实验室联合发布了Kimi底层的
Mooncake推理系统设计方案
。
在这篇名为《Mooncake: A KVCache-centric Disaggregated Architecture for LLM Serving》的论文中,作者详细介绍了Mooncake这种系统架构。
该系统基于以KVCache为中心的PD分离和以存换算架构,大幅度提升了推理吞吐。
具体而言,Mooncake采用以KVCache为中心的解耦架构,将预填充集群与解码集群分离,并充分利用GPU集群中未充分利用的CPU、DRAM和SSD资源,实现KVCache的解耦缓存。
其核心在于
以KVCache为中心
的调度程序:
在最大化整体有效吞吐量和满足与延迟相关的服务级别目标 (SLO) 要求之间取得平衡
当面对流量高峰期时,Mooncake通过早期拒绝策略和预测未来负载的方法,来处理超载问题。
早期拒绝策略(Early Rejection Policy)
简单说,其核心思想是在请求实际开始处理之前,根据当前系统的负载情况预测是否有足够的资源来处理新的请求。
如果预测结果表明系统资源不足以保证请求的及时处理,系统就会在请求到达之前予以拒绝,从而避免了无效的资源占用和不必要的延迟。
预测未来负载(Predicting Future Load)
在Mooncake中,系统需要能够预测在未来一段时间内的负载情况,以便做出更准确的接受或拒绝请求的决策。
如何实现呢??
通常来说,这种预测会基于当前的请求模式、系统的资源使用情况以及历史数据等信息。
再通过对信息的进一步
分析建模
,Mooncake就能够估计接下来的请求处理需求,并据此调整其调度策略。
论文实验结果显示,与基线方法相比,Mooncake在某些模拟场景中可以实现
高达525%
的吞吐量提升,同时遵守SLO(与延迟相关的服务级别目标)。
在实际工作负载下,Mooncake使Kimi能够处理
75%以上
的请求。
而且据许欣然在其他场合透露:
目前这套系统承载了Kimi线上
80%以上
的流量。
而现在,为了进一步加速该技术框架的应用与推广,Kimi联合清华大学等机构共同发布开源项目Mooncake。
参与开源的首批阵容包括:
AISoft、阿里云、华为存储、面壁智能、趋境科技等。
可以说,
云计算、存储、AI模型玩家等产学研力量
都聚齐了。
据悉,Mooncake开源项目从论文延伸,以超大规模KVCache缓存池为中心,通过以存换算的创新理念大幅度减少算力开销,显著提升了推理吞吐量。
目前Mooncake技术框架已正式开源上线,官方还表示:
欢迎更多企业和研究机构加入Mooncake项目共建
,共同探索更加高效和先进的模型推理系统架构创新,让基于大模型技术的AI助手等产品,持续惠及更广泛人群。
回复
举报
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
立即注册
点我进行验证
本版积分规则
发表回复
回帖后跳转到最后一页
关闭
站长推荐
/1
【点击免费下载】菲龙网移动APP客户端
【点击免费下载】菲龙网移动APP客户端,新闻/娱乐/生活资讯生活通,带你了解菲律宾多一点!
查看 »
扫码添加微信客服
快速回复
返回列表
返回顶部