近日,Liquid AI 正式推出了其 Liquid 基础模型系列的新成员——。这款拥有12亿参数的推理模型在端侧设备部署上取得了显著突破。令人印象深刻的是,该模型在现代手机上的运行占用仅约900MB,这意味着两年前还需要数据中心支撑的推理能力,现在已能完全离线运行在个人移动设备上。

image.png

与侧重于日常对话的通用模型不同,极高的效率。它在 AMD CPU 上的解码速度可达每秒239个字符,而在移动 NPU 上的运行速度也达到了每秒82个字符。通过引入多阶段强化学习(RLVR)等先进训练技术,研发团队成功将推理模型中常见的“循环死机”率从15.74% 降低至0.36%,确保了端侧用户体验的流畅与稳定。

点赞(4)

评论列表共有 0 条评论

立即
投稿
返回
顶部