搜索
APP下载
扫码下载APP
关注我们
XHS
小红书
抖音
Facebook
X
YouTube
登录
注册
首页
热点资讯
互动论坛
同城服务
人才网
实用工具
搜索
每日签到
本地新闻
时事评论
华人世界
斯里兰卡资讯
中国新闻
新闻视频
国际新闻
娱乐新闻
科技新闻
菲龙广场
本地新闻
全网热搜
华人世界
时事评论
中外新闻
斯里兰卡资讯
房产网
菲龙速聘
二手交易
便民电话
美食餐厅
旅游签证
物流速运
商品买卖
二手车市场
支票转换
便民电话
话费充值
实时汇率
每日签到
我的任务
道具商店
菲龙网
»
论坛
›
新闻频道
›
科技新闻
›
MiniMax发布新一代开源模型,首次大规模实现线性注意力 ...
菲龙网编辑部7
有 745 人收听 TA
157924
主题
157941
回复
184609
积分
收听TA
发消息
加好友
本文来自
科技新闻
订阅
|
收藏
(
2953
)
菲龙网编辑部7发布过的帖子
0/191
清明寻根:华侨华人的“精神归途”
0/164
清明,他们在烈士陵园守护一段长征记忆
0/158
清明假期全社会跨区域人员流动量预计超8.4亿人次
0/173
中国驻阿联酋使领馆再次提醒在阿中国公民进一步加强安全防范
0/158
东西问|赵永升:欧盟被困“双重地缘风险”,会发生能源危机吗?
0/172
东西问丨从文学到现实:一位哈萨克斯坦汉学家30余年的中国观察
0/173
东西问丨美国拯救大兵“罗生门” 真相远比看到的复杂
0/167
特朗普公布营救细节:“数百人”参与 出动155架飞机
0/197
两大“咽喉”同时承压?伊朗警告美国或封锁曼德海峡
查看TA的全部帖子>>
MiniMax发布新一代开源模型,首次大规模实现线性注意力机制
时间:2025-1-16 09:28
0
821
|
复制链接
|
互动交流
显示全部楼层
阅读模式
直达楼层
马上注册,结交更多好友
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
1月15日,澎湃科技(www.thepaper.cn)获悉,AI独角兽企业MiniMax上海稀宇科技有限公司(以下简称“MiniMax”)发布并开源新一代01全新系列模型。该系列模型包含基础语言大模型MiniMax-Text-01和视觉多模态大模型MiniMax-VL-01。MiniMax称该系列模型可以实现高效超长文本输入。MiniMax认为,2025年将是Agent高速发展的关键年份,无论是单Agent系统还是多Agent系统,都需要更长的上下文来支持持续记忆和大量通信。
据了解,MiniMax-01系列模型首次大规模实现线性注意力机制,传统Transformer架构不再是唯一的选择。
MiniMax-01系列模型核心性能在多项任务评测结果显示结果
目前领先的大语言模型大都基于Transformer架构,而Transformer核心的自注意力机制是其计算成本的重要来源。为了优化计算效率,MiniMax研究社区提出了稀疏注意力、低秩分解和线性注意力等许多技术。通过使用线性注意力,原生Transformer的计算复杂度可从二次复杂度大幅下降到线性复杂度,在处理长输入的时候具有非常高的效率。
据了解,该模型的参数量高达4560亿,其中单次激活459亿。模型综合性能比肩海外顶尖模型,同时能够高效处理全球最长400万token的上下文,是GPT-4o的32倍,Claude-3.5-Sonnet的20倍。
MiniMax认为,2025年将是Agent高速发展的关键年份,无论是单Agent系统还是多Agent系统,都需要更长的上下文来支持持续记忆和大量通信。MiniMax-01系列模型的推出,正是为了满足这一需求,迈出建立复杂Agent基础能力的第一步。
此外,MiniMax声称受益于架构的创新、效率的优化、集群训推一体的设计以及内部大量并发算力复用,得以用业内最低的价格区间提供文本和多模态理解的API,标准定价是输入token1元/百万token,输出token8元/百万token。
目前,MiniMax-01系列开源模型已应用于MiniMax旗下产品海螺AI,并在全球范围内上线,企业与个人开发者可前往MiniMax开放平台使用API。
回复
举报
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
立即注册
点我进行验证
本版积分规则
发表回复
回帖后跳转到最后一页
扫码添加微信客服
快速回复
返回列表
返回顶部