GPT OSS 开源的精准卡位:
- 大杯总参数量120B, 刚好可以放在一张H100上。比qwen的235B和deepseek的671B等需要几张卡的更好部署,智谱 kimi minimax的大杯等也都是几百B,卡了一个很舒服的位置,对开源模型使用者来说很容易部署
- 大杯激活参数仅仅5.1B,横向对比qwen的22B和deepseek的37B, 以及其他几个开源的大杯也是几十B,小了一大圈,这意味非常低的成本,图1和图2都是反映这个点
- 小杯的竞争力倒是基本上和国产差距不大
- 闭源模型的旗舰往往没有平替,比如Claude的代码能力,你为了效果,再贵,捏着鼻子也要用,但是大多数开源模型的核心竞争力还是性价比
- gpt oss在部署难度和推理消耗上面,比市面上同等级模型低一个档次,卡位了,在模型能力差别不大的情况下,开发者没理由不用更便宜的
- 这个卡位未来可能会持续存在。OpenAI 开源这个模型对他自己的商业价值可能不大,但是对国产一众开源模型比较麻烦
- Anthropic不太可能会做这事,但Grok和Google会不会也跟进?
- P3是最新是一张发展进程图,战争越发白热化,先发者能维持优势的时间越来越短,这可能也是OpenAI焦虑的原因