即刻App年轻人的同好社区
下载
App内打开
莱森LysonOber
510关注9k被关注16夸夸
🔹 Dify 🔸 ex Tripo ♦️ Minimax
🧠 Energy Minimalism
✨ Views are my own
置顶
莱森LysonOber
1月前
📌 2025 年莱森Lyson在用什么产品?持续更新,有什么分类建议大家也可以评论区留言

----------------------------------------
📍 最容易让我同时拿到短期 + 长期成果
----------------------------------------
1️⃣ Cursor ⭐️⭐️⭐️⭐️⭐️
2️⃣ Lovable ⭐️⭐️⭐️⭐️⭐️
3️⃣ Supabase ⭐️⭐️⭐️⭐️
4️⃣ Dify ⭐️⭐️⭐️⭐️
5️⃣ AI SDK ⭐️⭐️⭐️⭐️
6️⃣ Framer ⭐️⭐️⭐️⭐️
7️⃣ Gamma ⭐️⭐️⭐️⭐️(用得不多,但好用)
8️⃣ Superhuman ⭐️⭐️⭐️⭐️
(Claude Code gpt-5-high 出了后暂时弃用)
(还是从 Notion Mail 回到了 Superhuman...)

----------------------------------------
📍 最容易让我好好思考的场域
----------------------------------------
1️⃣ Cursor ⭐️⭐️⭐️⭐️⭐️
2️⃣ ChatGPT & Claude (Web) ⭐️⭐️⭐️⭐️⭐️
3️⃣ Dify ⭐️⭐️⭐️⭐⭐️
4️⃣ Wisprflow AI ⭐️⭐️⭐️⭐️⭐️
5️⃣ Lovable ⭐️⭐️⭐️⭐️
6️⃣ flomo ⭐️⭐️⭐️(需求稳定)
7️⃣ Plaud ⭐️⭐️⭐️(仍需观察)
8️⃣ Heptabase ⭐️⭐️(Obsidian 白板太拉垮了,遂决定续用)

----------------------------------------
📍 拓展移动设备能力
----------------------------------------
1️⃣ Google One ⭐️⭐️⭐️⭐️⭐️
2️⃣ RunPod ⭐️⭐️⭐️⭐️⭐️(看情况租算力)
(primeintellect ai 还在研究中)
3️⃣ AWS EC2 ⭐️⭐️⭐️⭐️⭐️
----------------------------------------
📍 (待补充…)
----------------------------------------
44
莱森LysonOber
5天前
不过没有了英式假笑就像没有了 tap water 一样略不习惯(😄

莱森LysonOber: 个人感觉,伦敦的人文环境和公园不错,但其他任何方面都是成都好 🤡😭

50
莱森LysonOber
5天前
回国拜访朋友听他们讲起过去一两年的经历,才发现变化无处不在,也远超出自己的想象,周期与时间一直在扮演它的角色。

最幸福的还是老朋友总能提醒我不曾注意到的幸福。
72
莱森LysonOber
7天前

阑夕ོ: IDC有个报告是我从去年就开始注意的:中国大模型公有云服务市场分析,这是对国内AI产业「商品化」最客观也是最真实的数据反馈。它直接反映了大模型的应用规模,而不是把IaaS、PaaS打包一起统计,可以说是Tokens经济最核心的指标。 比如去年中国整个公有云的Tokens调用量几乎是从无到有的飙升到了114.2万亿次,已经呈现出了爆发趋势,前天IDC又更新了今年上半年的报告,Tokens的调用总量达到536.7万亿次,半年的时间干了去年全年接近5倍的活儿。 这张环比数据表(图1)的信息量很大,可以看到2个异军突起的增长拐点,分别在2024年7月和2025年2月,这两个时间发生了什么事? 2024年7月,豆包掀起大模型降价风潮的影响出现,因为把旗舰模型的计费标准从「几分钱」降低到「几厘钱」,几乎是以一己之力凭空创造出了大模型公有云这个市场; 2025年2月,DeepSeek-R1全球爆火,不但打响了大模型领域的成本革命,也把AI云的负载压力从预训练切换到了推理,从此开源模型百花齐放,进一步促进了模型商品化的渗透率。 整个连锁反应的结果,就是MaaS(模型即服务)这种商业模式的拔地而起,以及最早布局MaaS的火山引擎,现在拿到了49.2%的市场份额,相当于全行业的半壁江山。注意,这个统计并不包括豆包、抖音等字节内部产品,完全是外部企业客户的调用量。 当然,MaaS只是AI云的赛道之一,基于统计口径的不同,阿里云、百度云也都能在IaaS、PaaS等赛道拿到另外的第一名,但就含金量而言,MaaS是最能证明大模型行业发展情况的晴雨表。 因为MaaS的调用量大,也够直接,模型好不好用、该怎么改的评测集,都是只有通过调用才能得到的信息,卖GPU是拿不到这类数据的,所以火山引擎从一开始就是把MaaS作为AI云的核心目标,这对兄弟部门的豆包也有帮助: 「大的使用量,才能打磨出好模型,并且大幅降低模型推理的单位成本。」 MaaS是一个边缘创新的典型产物,因为营收和利润的起点都很低,传统云厂商都不太看得上,还是卖算力最赚钱,像是甲骨文这种千亿美金级别的锁单带动股价飙涨,才是聚光灯下的主流叙事。 但是对于开发者来说,原生化的AI云才是刚需,去买算力部署模型,门槛天然就高,比如我们都知道,DeepSeek已经是大模型里的价格屠夫了,但要训练一套完整的DeepSeek MoE模型,至少需要320张GPU,这就不是普通开发者能说上就上的。 所以MaaS这种群众路线的服务才越来越受欢迎,它相当于一家模型商店,把市面上的模型都封装到了云上,开发者不必关心技术细节,只需按量付费,直接调用模型的核心能力——文本生成、图像识别、语音转换等——为己所用。 有个对MaaS模式的体验形容特别恰当:拎包入住,丰俭由人。 Quest Mobile在2025中国移动互联网半年大报告里也提到过一个点,在国内的AI应用侧,插件产品的规模要明显高于原生产品(图2),什么意思呢,就是大家期待的杀手级App,可能并没有那么快出现,与此同时,AI又已经变得无处不在了,以新功能的形式。 在这个渗透过程里,MaaS市场就是最大的幕后功臣,一个社交产品的开发者,如果想要新增一个AI头像的绘制功能,完全可以不用重复造轮子,专门训练一个图片模型出来,而是可以像去超市购物那样,在MaaS市场里挑一个价格和性能最适合的,然后用接口的方式加到自己的产品里,即开即用。 美国BI平台Databricks的负责人今年也说过来自业务侧的反馈:「大多数企业并不想成为AI专家,他们只是需要开箱化的AI解决方案,而且微调和管理开源模型的复杂性对他们而言依然是一个难以跨越的门槛。」 所以像是OpenAI和Anthropic在面对免费平替的开源模型时还是非常能打,而拥有企业级服务经验的Salesforce和Oracle也在老树新芽般的高速增长,模型的原始智能水平固然重要,但更值钱的地方在于它驱动产品的质量和可用性。 某种意义上,MaaS才是真正的大模型竞技场,像是火山引擎之所以占有率独一档,就是因为它能汇聚市面上最新、最领先的模型,还是用超市的比喻来理解,就是供应链的竞争力制胜,比如Google的新图片模型nano-banana刷屏之后,唯一能跟上硬刚的,就是字节的Seedream 4.0,刚刚登顶LMArena,而在火山引擎,这些顶级模型都在摆货架上「予取予求」。 而且即便有微调和训推需求,火山引擎的Infra效率也是行业领先的,像是DeepSeek-V3.1这种开源模型在火山引擎上的表现指标也非常漂亮,这些都会最终体现到开发者的体验端,形成用量越多、进步越快的正循环。 前几天看到有条推文,说OpenAI曾经明确表示GPT-4o、o1、o3、o3-mini这样说命名对用户来说太不友好了,要用GPT-5来做统一和简化,现在来看,这话OpenAI只做到了一半,确实只有GPT-5一个模型了,然而我们看到迎面走来的方阵分别是:GPT-5、GPT-5 auto、GPT-5 thinking、GPT-5 pro、GPT-5-mini、GPT-5-nano⋯⋯ 滑稽.jpg 本质上,模型商品化的主要瓶颈,还是Tokens不够用,于是不得不人为设置各种档位,在让大模型变成自来水那样按需取用的生活资源这件事情上,MaaS平台的用武之地和长期价值,一定会与日俱增。 你们也可以参与预测一下,半年后IDC公布2025年全年中国大模型公有云的Tokens调用量时,会出现一个什么量级的数字?

00
莱森LysonOber
7天前
昨天朋友调侃说,上一辈的程序员就算35岁被裁,起码预期是明确可控的。咱们这个节骨眼上的年轻大学生,要是顺着以前的经验做事,可能刚毕业两三年就没了。
20
莱森LysonOber
7天前
最重要的是气味、声音、季节的温度、熟悉的人和无可掩饰的“杂乱”。他们毫无征兆地将我拽回过去的几年,百感交集,无数镜头如电影一样闪回,又变成风一样飘去。就像友人说这一年最大的感触是:「有距离感的词语一个接一个地出现在耳边。」
10
莱森LysonOber
10天前
Dify x Economist
AI in Health Summit
📷 Thanks to my friends!
01
莱森LysonOber
18天前
🔥 Introducing Dify Knowledge Pipeline!

如果你是一家企业,面对这样的问题肯定会觉得头疼 -> 内部知识(PDF、PPT、Excel、图片、网页、扫描件等)散落各处,格式多样而杂乱;你想让大模型(LLM)基于这些非结构化数据做问答或决策支持,但传统的 RAG(Retrieval-Augmented Generation)要把这些杂乱资料转成“上下文”,往往遇到了:
1️⃣ 数据源分散、权限各异、格式不统一,连接成本高;
2️⃣ 在解析 parsing 阶段丢失图表、公式、表格结构,文本 chunk(切片)又破坏文档逻辑,导致最终得到的上下文不完整或误导;
3️⃣ 流程像是一个黑盒子,不清楚哪一步出了问题:是解析失败?切片策略不合适?embedding 出错?这导致调试困难、错误难以复现。

现在,Dify 推出了一个叫 Knowledge Pipeline 的新方案,它就是为了解决以上这些痛点而生,提供一个可视化、可扩展、可观测的数据处理管道,把这些混乱的非结构化数据转成大模型可以可信赖地用的“高质量上下文”。

☝️ 如果你也正为让 AI 看懂你的文件资料、提升知识检索的准确性与效率而发愁,不妨点开了解一下这个解决方案如何从源头、解析、切片、嵌入、索引到调试监控,全流程打造可复制可调优的知识处理线。

介绍博客:dify.ai
完整发布记录:github.com
04