近日宣布开源其最新多模态视觉语言模型。该模型仅凭10B 的参数规模,在多项基准测试中展现出了跨级别的竞技状态,成功解决了小参数量模型难以兼顾高智能水平的行业痛点。

image.png

在核心性能测试中,顶级闭源旗舰模型的媲美甚至超越。依托全参数端到端多模态联合预训练和大规模强化学习迭代,该模型在 AIME 等高难度数学竞赛测试中已步入世界第一梯队。

此次开源涵盖了 Base 和 Thinking 两个版本。得益于创新的并行协调推理机制(PaCoRe),模型在处理高精度 OCR、复杂计数及空间拓扑理解等任务时表现尤为稳健。这意味着原本依赖云端运行的复杂多模态推理能力,现在可以更低成本地部署在手机、电脑等端侧设备上,大幅提升了端侧 Agent 的交互效率。

  • 项目主页:https://stepfun-ai.github.io/Step3-VL-10B/

  • 论文链接:https://arxiv.org/abs/2601.09668

  • HuggingFace:https://huggingface.co/collections/stepfun-ai/step3-vl-10b

  • ModelScope:https://modelscope.cn/collections/stepfun-ai/Step3-VL-10B

划重点:

  • ???? 小参数跨级反超:极致杠杆比。

  • ???? 深层逻辑与感知:引入 PaCoRe 机制及大规模强化学习,在竞赛级数学、复杂 GUI 感知及3D 空间推理等领域达到世界顶尖水平。

  • ???? 端侧智能下沉:支持高性能多模态能力在低算力设备运行,为手机和工业嵌入式设备的“主动理解与交互”提供了强力底座。

点赞(10)

评论列表共有 0 条评论

立即
投稿
返回
顶部