感觉 OpenAI 最近开源的 gpt-oss 真的被严重低估了。它虽然不是最聪明的,但在使用场景和定位上是非常成功的(服了 Sam 老六)。
首先最小尺寸的 gpt-oss:20b 绝对是你在 Mac 或者家用电脑上就能跑的最好模型之一(对我来说是“唯一”)。它是那种少有的“真正能用”的本地模型,对话体验非常好,持续对话下来非常稳定、不会出现输出混乱崩溃的问题。大部分早期能跑的本地模型是不具备的。
它的尺寸刚刚好,不管是模型文件还是运行显/内存都非常小(大约是 12~16GB),大部分电脑都能使用。在我的 M4 Mac 上能做到 70token/秒 的输出,在我的 19 年老 Intel 的 Mac 上能做到大约 1 token/秒的输出。整体性能上非常出色。
最为重要的是,虽然硬件要求非常低,但它的智能表现出乎意外的好。我把个人最近一些非编程类的问题同时发给 gpt-oss:20b 和元宝(DeepSeek R1),不管是回答速度还是回答质量,我更喜欢 gpt-oss:20b 多一点。这不是严谨的对比测试,我也只尝试了五、六个问题,但考虑到硬件要求,这样的回答效果已经让我感到满意了。
如果你的对话需求非常简单,或者想要一个完全离线、隐私自由的本地模型,gpt-oss:20b 绝对是一个简单可靠的选择。
其次是最大尺寸的 gpt-oss:120b,OpenAI 号称接近 o4-mini 的水平。理论上它也能在 Mac 或者家用电脑上运行起来。我记得大约需要 60~80 GB 的显/内存,对我的 Mac 来说非常吃力。如果电脑硬件足够强、或者并行几个 Mac Mini 跑起来问题应该不大,这就能拥有一个接近 o4-mini 水平的离线本地模型了。
gpt-oss:120b 另外一个被低估的意义是在价格上。在 together.ai 上这个模型的价格低至 $0.15 / $0.60,相比之下 DeepSeek V3(注意是 V3 不是 R1)的价格是 $0.27 / $1.10。也就是说,这么一个号称性能接近 o4-mini 的模型,价格只需要 DeepSeek V3 的一半!!据我所知这样的价格已经是 LLM 中的最低档,类似价格的是 gpt-4o-nano 和 gemini 2.5 flash-lite。
我现在非常怀疑 OpenAI 这波就是冲着 DeepSeek 来的……
另外我还发现了 gpt-oss 非常容易破解,比其他开源模型简单很多。容易到什么程度呢,我可以在大约三次对话内让它回答各种非法问题。不过这个话题不适合在这里讨论了……