全球开源大模型新王!阿里Qwen2.5来了,性能跨量级超Llama3.1
智东西
作者 三北
编辑 漠影
云计算“春晚”云栖大会开幕,通义千问大模型再次燃爆全场!
智东西9月19日杭州报道,今日,阿里云推出全球最强开源大模型Qwen2.5-72B,性能“跨量级”超越Llama3.1-405B,再登全球开源大模型王座。
▲Qwen2.5-72B在多项权威测试中超越Llama-405B
同时,一大串Qwen2.5系列模型随之开源,包括:语言模型Qwen2.5、视觉语言模型Qwen2-VL-72B、编程模型Qwen2.5-Coder、数学模型Qwen2.5-Math等,累计上架超100个,部分性能赶超GPT-4o,刷新世界纪录。
“今天是疯狂星期四”、“史诗级产品”……发布几个小时里,Qwen2.5在海内外社交媒体上掀起讨论热潮,全球开发者纷纷加入试用测试队伍。
▲Qwen2.5在海内外社交媒体上掀起讨论热潮
智东西也第一时间在魔搭平台上试用了Qwen2.5,以结合视觉识别的Qwen2.5-Math为例,当输入一张几何相似选择题截图,Qwen2.5-Math快速识别题意,并给出了正确的解题过程和答案“B”,准确与速度都不错。
▲智东西试用Qwen2.5-Math
自2023年4月以来短短一年半时间,通义千问Qwen已长成仅次于Llama的世界级模型群。
根据阿里云CTO周靖人公布的最新数据,截至2024年9月中旬,通义千问开源模型累计下载量已突破4000万,衍生大模型超5万个。
▲Qwen系列衍生大模型超5万个
Qwen2.5在性能上具体有哪些提升?超100个新上架开源模型有哪些亮点?智东西抵达杭州云栖大会现场为大家揭秘。
博客地址:https://qwenlm.github.io/blog/qwen2.5/
项目地址:https://huggingface.co/spaces/Qwen/Qwen2.5
▲官方博客发布阿里云Qwen2.5模型族群
一、再登全球榜首,Qwen2.5跨量级赶超Llama3.1-405B
具体来看看Qwen2.5的性能。
Qwen2.5模型支持高达128K的上下文长度,可生成最多8K内容,支持超29种语言,这意味着能帮用户胜任万字文章撰写。
不仅如此,基于18T token数据预训练,相比Qwen2,Qwen2.5整体性能提升18%以上,拥有更多的知识、更强的编程和数学能力。
▲阿里云CTO周靖人在讲解Qwen2.5
据悉,旗舰模型Qwen2.5-72B模型在MMLU-rudex基准(考察通用知识)、MBPP 基准(考察代码能力)和MATH基准(考察数学能力)的得分高达86.8、88.2、83.1。
720亿参数的Qwen2.5,甚至“跨数量级”超越4050亿巨量参数的Llama3.1-405B。
Llama3.1-405B由Meta于2024年7月发布,在150多个基准测试集中追平甚至超越了当时SOTA(业界最佳)模型GPT-4o,引发“最强开源模型即最强模型”论断。
Qwen2.5指令跟随版本Qwen2.5-72B-Instruct在MMLU-redux、MATH、MBPP、LiveCodeBench、Arena-Hard、AlignBench、MT-Bench、MultiPL-E等权威测评中,超越Llama3.1-405B。
▲Qwen2.5-72B模型测评情况
Qwen2.5再次坐稳全球最强开源大模型位置,助推“开源超闭源”行业趋势。
这是阿里云继今年6月开源通义千问Qwen2系列、赶超当时的最强开源模型Llama3-70B后,再次推出开源系列版本。
每一个新王出现后,很快就会被通义新版本超越,这已成为AI开发者圈熟悉的节奏。
9月18日晚间Qwen2.5开放后,不少开发者激动地觉都不睡了,先试再说。
▲海内外开发者热议Qwen2.5
二、史上最大模型族群诞生,开源模型上架超百个
Qwen2.5开源模型数量史无前例。
阿里云CTO周靖人在云栖大会上宣布,Qwen2.5系列总计上架开源模型超过100个,充分适配各种场景的开发者和中小企业需求。
这响应了众多开发者的呼声,他们已经在各大社交媒体“催更”多时。
▲海内外开发者催更Qwen2.5
1、语言模型:从0.5B到72B七个尺寸,从端侧到工业级场景全覆盖
Qwen2.5开源了7个尺寸语言模型,包括0.5B、1.5B、3B、7B、14B、32B、72B,均在对应赛道实现了SOTA成绩。
▲多个尺寸Qwen2.5满足多样化场景需求
这些版本助开发者兼顾模型能力和成本,适配多种场景需求,比如,3B是适配手机等端侧设备的黄金尺寸,32B是最受开发者期待的“性价比之王”,72B是足够用于工业级、科研级场景的性能王者。
博客地址:
https://qwenlm.github.io/zh/blog/qwen2.5-llm/
2、多模态模型:视觉模型理解20分钟视频,音语言模型支持8种语言
备受期待的大规模视觉语言模型Qwen2-VL-72B,今日正式开源。
Qwen2-VL能识别不同分辨率和长宽比的图片,理解20分钟以上长视频,具备调节手机和设备的视觉智能体能力,视觉理解能力超越GPT-4o水平。
▲大规模视觉语言模型Qwen2-VL-72B开源
在全球权威测评LMSYS Chatbot Arena Leaderboard上,Qwen2-VL-72B成为得分最高的开源视觉理解模型。
▲Qwen2-VL-72B成为得分最高的开源视觉理解模型
Qwen2-Audio大规模音频语言模型则是一款能听懂人声、音乐、自然声音的开源模型,支持语音聊天、音频信息分析,支持超8种语言和方言,在主流测评指标上全球领先。
博客地址:
http://qwenlm.github.io/blog/qwen2-vl/
3、专项模型:最先进开源数学模型亮相,赶超GPT-4o
用于编程的Qwen2.5-Coder、用于数学的Qwen2.5-Math,也于本次云栖大会宣告开源。
其中,Qwen2.5-Math是迄今为止最先进的开源数学模型系列,本次开源了1.5B、7B、72B三个尺寸和数学奖励模型Qwen2.5-Math-RM。
▲Qwen2.5-Math开源
旗舰模型Qwen2-Math-72B-Instruct在数学相关的下游任务中,表现优于GPT-4o和Claude 3.5等专有模型。
Qwen2.5-Coder在多达5.5T tokens的编程相关数据上作了训练,当天开源1.5B和7B版本,未来还将开源32B版本。
▲Qwen2.5-Coder开源
博客地址:
https://qwenlm.github.io/zh/blog/qwen2.5-math/
https://qwenlm.github.io/zh/blog/qwen2.5-coder/
此外值得一提的是,通义千问旗舰模型Qwen-Max也实现了全面升级,在MMLU-Pro、MATH等十多个权威基准上接近甚至赶超GPT-4o,上线通义千问官网和通义APP。用户也可通过阿里云百炼平台调用Qwen-Max的API。
▲Qwen-Max实现全面升级
自2023年4月初代通义千问大模型发布以来,阿里云让中国企业低成本用上大模型,反过来也推动今天的Qwen2.5系列“越用越好用”。
Qwen2.5系列模型涵盖基础版本、指令跟随版本、量化版本,正是在实战场景中迭代而来。
三、通义千问Qwen下载破4000万,“产仔”超5万个
狂飙一年半,通义千问已成为仅次于Llama的世界级模型群。
周靖人公布的两组最新数据对此进行了印证:
一是模型下载量,截至2024年9月初,通义千问开源模型累计下载量已经突破4000万,这是开发者和中小企业用脚投票的结果;
二是衍生模型数量,截至9月初,通义原生模型和衍生模型总数超过5万个,仅次于Llama。
▲通义千问开源模型累计下载量突破4000万
至此,“万模同源”已成为中国大模型产业发展的显著趋势。
什么概念?国产开源不仅在性能上稳居全球榜首,并且在生态上开疆扩土。海内外的开源社区、生态伙伴、开发者成为通义千问的“自来水”,通义千问成为很多企业采用的第一款大模型,也是用得最久的大模型。
早在2023年8月,阿里云就开源通义千问70亿参数模型至免费可商用,再到今年的Qwen1.5、Qwen2、Qwen2.5接连发布,让开发者快速用上最先进模型的同时,获得更大控制权和调优空间,从而成为更多企业的首选。
7月初,全球最大开源社区Hugging Face的工程师曾发推认证,通义是中国最卷的大模型。而通过阿里云,通义大模型已经服务了各行各业的30多万客户。在刚刚过去的2024年第二季度(对应阿里巴巴2025财年Q1),阿里云AI相关产品收入实现三位数增长。
▲通义大模型服务超30万客户
阿里云做对了什么?
笔者认为,不同于国外大厂微软与ChatGPT强绑定、亚马逊AWS汇聚三方模型做底层基础设施,阿里云综合两者优势,一开始就选择了AI基础设施服务和自研大模型两手抓。
聚焦自研模型方面,阿里云是国内唯一坚定明确模型开源开放的云巨头,在模型突破、生态兼容、开发者服务等方面都不遗余力地做出了巨大投入,从而让通义大模型一步步走进世界AI竞争的核心圈。
结语:万模同源,行业分水岭时刻
开源模型正追平甚至赶超闭源模型。从7月Meta的Llama-405B到今天阿里云的Qwen2.5-72B,“万源同模”景观正在形成。通义千问大模型的一年半狂飙,让众多行业和企业实现更低成本AI规模化落地,行业正进入新的分水岭时刻。
页:
[1]