币界网消息,小米团队发布Mimo-v2.5系列大模型,包含两款模型,均采用MIT许可,支持商用部署和微调,窗口达100万token。Mimo-v2.5-pro为纯文本MOE模型,总参数1.02T、激活参数420亿,主攻复杂agent和编程任务。在ClawEval评测中,v2.5-pro以64% pass^3达到同等水平,每条任务轨迹消耗约7万token,比Claude Opus 4.6、Gemini 3.1 Pro和GPT-5.4少40%至60%。Mimo团队还启动「Orbit百万亿token创造者激励计划」,30天内向全球用户免费发放100万亿token额度,个人开发者、团队和企业可申请,评估周期约3个工作日。
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。
