即刻App年轻人的同好社区
下载
App内打开
歸藏
565关注26k被关注50夸夸
产品设计师、模型设计师、 不会代码的独立开发者。
关注人工智能、LLM 、 Stable Diffusion 和设计。
歸藏
1天前
现在做内容真的方便。

以前更新网页还得有个什么后台之类的东西。

现在我直接把这个网页数据更新做成了一个 skill

我在外面通过飞书连接我的 CodePilot。直接就能更新网站的数据和新闻。
13
歸藏
1天前
Anthropic 又有新的损招了。

龙虾的作者 Peter 发现了一件事,就是你如果用的是 Claude Code 或者是其他官方的 Anthropic 工具。

但是你一旦更改了系统提示词,比如出现了 Openclaw,那么就会拒绝你的请求,返回400这个报错。

感觉这是Claude Code泄露之后的一个补丁。

你现在拿泄露的Claude Code重新打包了一个自己的Claude Code,如果你改了system prompt,也有可能出现这种问题。

现在他们的控制欲有点太强了。
我花了钱,你管我怎么用呢,对吧?
哪怕是在你官方的产品里用,现在你都得管。
12
歸藏
2天前
重新搞了一下网站,不然每年这个 .ai 域名太贵了,不用的话有点浪费
40
歸藏
3天前
早上起来时间线上都在骂。

Anthropic 宣布说,不能用 Claude 账户中的额度使用 OpenClaw 这种三方的产品了。

他们会送你一个月的额度进行过渡,之后就得购买单独额度。

关于 Claude Code 的额度消耗异常问题,昨天也回复了,意思是不存在问题。

真太傻逼了,当大家傻子。

与此同时,Codex 不语,只是一味地重置额度。

Anthropic 也澄清了一下:在 Claude Code Agent SDK 上还是可以用的,只是这些非 Agent SDK 开发的产品不能用。

所以 Codepilot 暂时还安全。
73
歸藏
4天前
可以在 Codepilot 爽用谷歌新的本地模型 Gamma 4 了!

Codepilot 0.46.0 更新了 Ollama 本地模型的接入

启动 Ollama 安装 Gemma 4 就可以在 Codepilot 里面爽用了

但是在终端里很快,然后传输到 Claude Code 就很慢,不知道 Ollama 这个里边是不是有一些问题。
61
歸藏
4天前
阿里昨天发布了 Qwen 3.6 Plus 模型

重点是 Agent 和编码能力有非常大的提升!

最近也是很高产:先是 3.5 Omni、万相2.7、然后就是Qwen 3.6 Plus,而且好像马上 Max 也要发布。

在关于开发和 Agent 的一些测评上,现在 3.6 Plus 的模型相较于 3.5 有显著的提升。

Qwen 3.6 Plus 在图像和文件理解上的能力也获得了加强。

比如在以下方面的表现都非常好:数学图像识别体验、通用的 VQA 真实世界问答、OCR 能力。这也是 Qwen 之前比较强的地方。

更强的是,这次默认支持了 100 万上下文。最长输出接近 991K,输入是 64K。

100 万上下文的表现还是很顶的。在开发体验上,比原来的 256 要强非常多。

价格上,Qwen 3.6 Plus 的输入是 2 / 百万 Token,输出是 12 / 百万 Token。

此外,有些工具(比如网页抽取等)目前还是限时免费的。

现在已经在百炼上线了。后面那个阿里系的qoder、悟空啊都会上,希望他们能快点上一下 code plan 吧。

如果不太确定质量的话,也可以去 OpenRouter 那边免费体验一下,看看效果
11
歸藏
4天前
小米也推出了 MIMO Code Plan

最便宜的 39 每月,最贵套餐 659 每月

统一 Credit 点数体系,没有 5 小时限额这种设置

CodePilot 0.45.1 版本将会支持
64
歸藏
4天前
今天下午 2:00 4:00,在腾讯研究院这边直播
40
歸藏
4天前
Karpathy 分享了他如何构建本地的 AI 知识库,跟我用的方法也很相似。

都是用的 Obsidian,纯本地 MD,然后用一些反向链接、索引的方式把它们连起来。

他构建了一个用大语言模型驱动的个人 Wiki 知识库,然后把原始资料都丢进一个叫 RAW 的目录。

然后让大语言模型把这些原始资料编译成一个 Markdown Wiki,实现以下功能:自动创建摘要、创建索引、创建概念条目、添加相互链接、生成可视化等等。

我是在内容收集的时候就已经做好了,用的是 Obsidian 的那个剪藏插件。
在收集内容的时候,AI 就会自动进行以下处理:打标签、自动总结、翻译、创建摘要,目前就是还没有反向链接。

然后它的 Wiki 构建好以后,就可以在这个 Wiki 上提问,确保数据来源的可置信度。

比如说大语言模型会自己查索引、读相关的文档,写出回答或者报告,不只是在网页上搜。这样的话,它获取的信息基本上都是跟你相关的。

然后它的输出也尽量不是一句话,而是新的文件、新的可视化网页或者是 PPT,然后再回归到知识库里,让知识库越用越厚。

但这个会造成一个问题,就是 Obsidian 的作者也说了,这会污染知识库。所以最好把可靠性来源和 AI 生成的东西分开放。

还有一个比较好的点是,它会让大模型对 Wiki 做健康度检查。比如:找一些自相矛盾的地方、补发一些缺失的信息、发现一些新的关联、提高一致性。

其实现在很多人都是这样做的,我也把这套理念放到了 CodePilot 里。

关于助理文件夹的选择,我一般建议使用 Obsidian 文件夹。

如果你有自己的 Obsidian 文件夹,进去以后 AI 就会直接获取你所有的上下文和知识。

这样一来,你直接就能获得一个拥有完整记忆的 AI 助理。

如果你不知道怎么实践的话,推荐用 Codepilot 的助理试试。

把你的 Obsidian 文件夹放进去,让它帮你整理,同时让它把这些原则写到 Claude.md 里面。

详情:x.com/op7418/status/2039898050697839041
434
歸藏
4天前
谷歌昨天发布了 Gemma 4,这次非常牛逼!
专门用来在本地设备上跑 agent ,还支持多模态。

四个参数大小:
E2B:主打手机 / IoT / 边缘设备。
E4B:为移动端 + Jetson / 树莓派设计。
26B MoE:单次激活 3.8B,有效参数很小,主打高 TPS、低延迟。
31B Dense:全密集 31B,主打桌面工作站 / 单卡 H100 等。

这次他们把 Agency Workflows 的支持作为第一优先级:原生支持 Function Call、JSON 和结构化输出、System Instruction。

更强的是这玩意还是原生多模态模型,支持:图像和视频理解,语音转文本,可以做本地语音助手。

而且它们这次是真正的 Apache 2.0 开源,允许商用、再分发和内嵌产品,以及私有部署,没有额外条款。

谷歌还发布了一个安卓应用,来体验他们这次新发布的 Gemma 4 模型。

我用我现在的小米 17 Ultra 试了一下,在用这个 E4B 模型的时候,推理速度非常快。

而且这个 App 现在还内置了一个 Skills 的体验区域,你可以自己去让它调用工具编写和试用 Skills。

可以在 Google Play 搜索 Google AI Edge Gallery 下载使用。

详情:blog.google
39