Gemini低调更新了Gemini-2.5-flash-0520,在付费客户端也同步推送并下架了2.0 flash🎊
还没细测,目前看,主要变化似乎是把之前0417的两个推理/非推理版本合并成了一个混合推理模型。
简单试用了下,感觉在长文总结和文本生成方面比0417微弱提升,在发散联想和思辨能力方面感觉长进不少。
下面是两个模型对同一篇的总结,可以对比下效果。
sumbuddy.appsumbuddy.app2.5-flash其实是我日常阅读、翻译、文档处理的主力模型,这波升级感觉还是蛮爽的。
推测这应该是从2.5 pro preview精简得到的一个flash模型,应该实际能力方面还有提升,坐等明天看各路大佬的详细测评了~
---
Update:
IO大会正在腹泻式更新,2.5 pro还出了个deepthink版本,API可控思考长度。熬不起了,明天起来看总结吧。。。