即刻App年轻人的同好社区
下载
App内打开
潦草学者
709关注2k被关注2夸夸
AI 探索者 创作者 产品经理
公众号:潦草学者
Newsle..:草稿拾遗
🖋/📖/📷☕️/🍻/🤘🏻/🏓
关注人工智能&个人管理&互联网商业
置顶
潦草学者
2年前
Readwise Reader 是最好用的阅读软件之一。
但作为一款海外产品,Readwise Reader 在中国有些许水土不服。

为了让你更好地使用 Readwise Reader ,我们做了一款小工具—— wechat 2 reader

这款小工具解决了两个问题:
1. 让收藏文章更加便捷,在微信内转发文章或链接,即可以收藏文章。
2. 解决了Readwise Reader 在收藏中文文章时,图片丢失的问题。
1719
潦草学者
3天前
本南方人在北京的第一场雪❄️
00
潦草学者
3天前
Claude Code 这次的更新还挺命中痛点的

🚀 Async subagents:任务现在可以生成异步子代理,即使主代理完成任务并变为非活跃状态,子代理也会转入后台独立继续工作,适合处理长时间运行的任务。
⏱️ Instant compact:Claude 现在能以指数级速度压缩上下文,压缩只需几秒钟,避免被打断。
📝 Customer session names:用户可以重命名会话,使其更易于查找和稍后继续使用,输入 `/rename` 为任意之前的会话设置自定义名称。
📊 Usage stats:新增 `/stats` 命令,生成每日 Claude Code 使用情况的可视化图表,并提供关于会话、使用连续天数和常用模型的数据。

其中最重要的是 subagent 可以独立地在后台运行,配合 skills 可以相对稳定地完成工作,很棒。

x.com
01
潦草学者
4天前
有哪些 AI 产品/模型,具有自己的品牌调性?

- ChatGPT
- 豆包
(千问就是一个完全没有调性的品牌)
- JINA AI
- Cursor
- Claude
- Deepseek
- Kimi (可能勉强有吧,但感觉定位很不清晰,最开始是长上下文,后来大量投放,现在开始做回技术)
- ...(欢迎补充你喜欢的品牌)

品牌调性如何形成?

首先你得有,得有自己与众不同的产品设计,独特的技术品味。

然后是靠内容进行传播的。
ChatGPT 早期发表的很多 blog,今天 claude,cursor, jina ai 还一直在发 blog 在行业里建立了品牌调性。
豆包在全中文互联网社交媒体做了大量的投放。Deepseek 则是靠去年春节一波大国叙事。

这些内容才让品牌调性深入人心。
10
潦草学者
6天前
Z-image 的论文写的真好!

很详细,6B 的模型图像生成质量就又好又快啊!

arxiv.org

Z-Image: An Efficient Image Generation Foundation Model with Single-Stream Diffusion Transformer

01
潦草学者
6天前
中文互联网到底有多少人
真的靠文字创作在赚钱能糊口的?

整个中国加起来有
13 万人吗?(人口的0.01%)

所以创作真的是一个糟糕的赛道。
20
潦草学者
11天前
Vibe Coding 最好的 PMF 场景——送礼物 🎁

为你的朋友、你的爱人写一个专属于 ta 的网页,是一件很 cool 的事。
22
潦草学者
12天前
被很多产品忽略了的入口,猜猜是哪里
20
潦草学者
12天前
因为自己有大量的 Chat With Page 的寻求。

看文章时,和页面内容聊天,快速进行总结和提问等等。

但市面上的浏览器插件,比如 Monica Sider 等等,动不动就是每月 $10 的订阅费用,根本用不到那么多 token 费用。要么有些插件是限制聊天轮数。要么有些免费的插件 UI 又太丑了。

所以我就 vibe coding 自己手搓做了一个最简单,有禅意的总结插件。准备上架免费开源给大家使用。

有人感兴趣么?
你现在进行 chat with page 是用什么插件?
00:47
50
潦草学者
13天前
Gemini 的深度研究功能真好用。

让他研究了当前的Kimi KDA、Deepseek DSA Qwen-Next GDN,这些高效注意力方案。

生成了一份报告,并且还生成一个可以交互的网站。
---
它们代表了两种核心思路:状态压缩 vs. 精确剪枝。

🧠 线性/递归范式 (KDA & GDN): 核心是状态递推。Kimi KDA 的突破在于通道级细粒度门控,极大增强了状态 的表达力,实现了 1M 上下文下 75% KV Cache 内存缩减和 6倍解码吞吐量提升!Qwen-Next GDN 则结合 MoE 实现了系统级的 10倍吞吐。

✂️ 稀疏化范式 (DSA): Deepseek DSA 走的是另一条路:保留 结构,通过硬件感知的精确剪枝,将复杂度降至 。DSA 的成功关键在于定制内核 FlashMLA,确保理论效率转化为实际的高吞吐,同时保持与稠密模型几乎一致的性能。

总结对比:混合架构(高效层:全注意力层 3:1)是当前平衡效率与性能的共识!
KDA: 极致的内存优化和性能拓展,适合超长上下文(>1M)。
DSA: 性能对齐的计算成本削减,依赖系统工程。
GDN+MoE: 最高的系统吞吐量和经济效益。

https://gemini.google.com/share/d8a67da576af

01
潦草学者
13天前
EvermemOS 是一个新的开源的企业级的 AI 对话记忆系统。
这个系统的大概逻辑:
1. 用户聊天后,LLM 判断是不是断点,如果是的话,从 session 中提取记忆,同时也会保存原文。
2. 记忆会被提取成:
- 核心记忆:用户基础信息,名称部门等
- 画像记忆:用户性格偏好,习惯,动机
- 情景记忆:具体对话事件,时间序列性
- 语义记忆:抽象概念关系,去时间化
- 原子事实:事实记录,细颗粒度数据
3. 这些记忆会按照合适的方式,存储到不同的数据库。包括 mongodb 非关系型数据库,Elastic search BM25 数据库,向量数据库, Redis 缓存数据;这里面的逻辑还是挺复杂的。
4. 使用记忆时:在调用接口时定义检索记忆的方式:包括全文搜索,向量搜索,数据库检索和混合检索。
5. 检索到的信息传给 LLM

> github.com

记忆数据的类图图图如下
01