当整个AI行业陷入“参数竞赛”的狂热时,微博AI交出了一份出乎意料的答卷,为沸腾的大模型战场开辟了一条充满想象力的新路径。
近日,微博正式发布首个自研开源大模型VibeThinker,这个仅拥有15亿参数的“轻量级选手”,在国际顶级数学竞赛基准测试上击败了参数量是其数百倍的,高达6710亿的DeepSeek R1模型。
更令人瞩目的是,其单次“后训练”的成本仅7800美元,对比DeepSeek-R1和MiniMax-M1等成本直接降低了几十倍。这一突破不仅重新定义了大模型的技术评价标准,更有望推动AI产业从“规模竞赛”转向“效率革命”。

行业黑马:小模型打破参数崇拜
在AI发展史上,参数量曾被视为衡量模型能力的核心指标。行业普遍认为,复杂推理能力需要1000亿以上参数才能涌现,而小模型则因无法处理高难度问题被视为“天生不足”。
但如果从小模型入手,通过巧妙的训练策略,能否挖掘出隐藏的推理能力?微博自研开源大模型VibeThinker,给出了行业一个肯定的答案。
当大多数AI厂商仍遵循着“规模扩大即智能提升”的 Scaling Law法则时,微博AI研发人员转而优化模型结构和训练范式,并创新提出了“频谱到信号原理”(SSP)方法训练,创造出了一个仅拥有15亿参数的“轻量级选手”,但在AI竞技场上战胜了超越其数百倍体量的“巨人”。
VibeThinker一经发布,立即引起了全球AI研究界的广泛关注,因其在一系列涵盖数学、编码的权威基准测试中,交出了一份出乎意料的答卷:
