左边模型是LongCat-Flash网页端,右边是 kimi 1.5(根据官网描述,响应更快),可以看到同样的提示词,LongCat-Flash没有怎么思考,一行行内容直接飞出来,而 kimi 1.5 经过短暂思考后,(和LongCat-Flash相比)慢悠悠的把内容写出来。
在核心代码部分,二者也没差别,可以说LongCat-Flash又快又好。
LongCat-Flash 的速度和价格优势,未必能立刻改写行业格局。毕竟在大模型市场,生态和用户习惯往往比性能参数更具粘性。但它却透露出一个信号:美团依然习惯用自己最擅长的打法,把复杂的科技问题翻译成“调度运力”的逻辑,再用价格杠杆撬开市场。
这让问题变得更有趣:
当 AI 巨头们在谈模型规模、参数精度时,美团却在谈派单效率和成本曲线。它看似“接地气”的切入点,反而可能成为搅动格局的变量,就像曾经的 DeepSeek 那样。
十年前,美团用补贴烧出了外卖帝国。十年后,它是否能靠另一场价格战,把自己送进大模型的牌桌?没人能给出答案,但至少可以确定的是,美团已经递出了第一张筹码。