即刻App年轻人的同好社区
下载
App内打开
歸藏
565关注26k被关注50夸夸
产品设计师、模型设计师、 不会代码的独立开发者。
关注人工智能、LLM 、 Stable Diffusion 和设计。
歸藏
1天前
微信这次也是急了,第一次这么快的追热点

上线 Openclaw 官方插件,只支持私聊

在“我-设置-插件”中启用微信 Clawbot 插件

然后在 Openclaw 安装后,扫描展示的二维码就能启用

目前正在灰度

我看看能不接到我的 Claude-to-im Skills 里面,让你的 Codex Claude Code 也可以跟微信聊天
128
歸藏
2天前
刚才处理了一个 Codepilot 里面非常典型的服务商配置问题

这也是很多人说自己按官方文档配置却不生效的原因

比如这个,他说他配置完了,也配置对了,但没有反应。

但我检查了一下 Log 发现,他配置的那个链接是错的:

1. 他配置的是 OpenAI 的兼容链接,而不是应该在 Claude Code 的这种 Anthropic 里面填的链接。

2. 他也没有用智谱的、我默认的那套逻辑去填(那个只需要填一个 Token 就没问题)。

他直接在那个三方 Anthropic 里面填的
50
歸藏
2天前
真离谱啊,Cursor 昨天发布的 Composer-2 居然是基于 K2.5 训练的

他们的博客写得感觉像是他们训练从零的一样

而且到底基于 K2.5 做了多少程度的训练,其实也没有说清楚。

不过 Kimi 也解释说,他们给了技术授权。
47
歸藏
3天前
完了,最重要的限制没写:必须使用 Claude 登录,不支持使用 API 和环境变量。

这喵喵喵还得用我的 Skills 啊。

歸藏: Claude Code 推出了官方可以远程连接 Telegram 和 discord 的 MCP 直接设置就可以用手机远程控制 CC 具体的操作方式 - Telegram: 创建机器人: 在 Telegram 中打开 BotFather,创建后复制他给你的 Token 安装插件: /plugin install telegram@claude-plugins-official 配置 Token: /telegram:configure <token> 使用命令启动: claude --channels plugin:telegram@claude-plugins-official Telegram 配对: 打开 Telegram 发送任何信息获取到配对码; 在 Claude Code 里面发送 /telegram:access pair <code> 锁定访问权限: /telegram:access policy allowlist 具体的操作方式 - Discord: 创建 Discord Bot 并加进自己的服务器 ▫ 去  → New Application ▫ 创建 Bot,点「Reset Token」拿到 token ▫ 在 Bot 设置里打开 Message Content Intent ▫ 在 OAuth2 → URL Generator 里勾选 ‎`bot` ▫ 然后给它这些权限:View Channels / Send Messages / Send Messages in Threads / Read Message History / Attach Files / Add Reactions ▫ 打开生成的链接,把 bot 邀请进自己的服务器 安装插件: /plugin install discord@claude-plugins-official 配置 Token: /discord:configure <Discord Bot token> 命令启动 ClaudeCode: claude --channels plugin:discord@claude-plugins-official 配对 Discord 机器人: 私信你的机器人发配对码; 回到 Claude Code 发: /discord:access pair <配对码> /discord:access policy allowlist 详情:code.claude.com/docs/en/channels

00
歸藏
3天前
Claude Code 推出了官方可以远程连接 Telegram discord MCP

直接设置就可以用手机远程控制 CC

具体的操作方式 - Telegram:

创建机器人:
Telegram 中打开 BotFather,创建后复制他给你的 Token

安装插件:
/plugin install telegram@claude-plugins-official

配置 Token:
/telegram:configure <token>

使用命令启动:
claude --channels plugin:telegram@claude-plugins-official

Telegram 配对:
打开 Telegram 发送任何信息获取到配对码;
Claude Code 里面发送 /telegram:access pair <code>

锁定访问权限:
/telegram:access policy allowlist

具体的操作方式 - Discord:

创建 Discord Bot 并加进自己的服务器
New Application
创建 Bot,点「Reset Token」拿到 token
Bot 设置里打开 Message Content Intent
OAuth2 URL Generator 里勾选 ‎`bot`
然后给它这些权限:View Channels / Send Messages / Send Messages in Threads / Read Message History / Attach Files / Add Reactions
打开生成的链接,把 bot 邀请进自己的服务器

安装插件:
/plugin install discord@claude-plugins-official

配置 Token:
/discord:configure <Discord Bot token>

命令启动 ClaudeCode:
claude --channels plugin:discord@claude-plugins-official

配对 Discord 机器人:
私信你的机器人发配对码;

回到 Claude Code 发:
/discord:access pair <配对码>
/discord:access policy allowlist

详情:code.claude.com/docs/en/channels
00:17
915
歸藏
4天前
飞书做了一个超安全且功能更强大的龙虾!

前段时间,龙虾爆火的时候,飞书因为健全的生态和开放的接入方式,成为了大家国内接入龙虾的首选 IM 平台。

但是毕竟 龙虾 有自己的体系,还有很多安全性问题,所以导致飞书服务的 to B 企业其实很多时候很难自己部署,或者是不敢自己部署。

这次飞书直接把他们的 aily 升级了,升级成了一个更安全、跟飞书契合度更高,而且更懂你的企业和你的龙虾。

你可以一键配置,随后它会直接生成一个联系人作为你的助手。你可以直接让他进行回复,或者在飞书中跟他聊天、给他安排任务。

他能读取你飞书里的所有信息,并帮你完成任务。此外,他还可以调用一些常见工具,甚至获取飞书之外的信息。

而且可以自定义 Skills,比如说:你的日报、PPT、安排日程,这些都可以让它去帮你做。

更强的是,他们还有一个专业版的 Aily,在网页上使用,自带了超级多的 Skills。

比如我这里就让他查找了一下对应的一个群,然后让他总结群里的信息,同时写了一个网页可视化的展示这些信息。

这个对于我们日常的企业管理和一些群的维护是非常好用的,而且还可以自动发送到比如说群里,对吧?

同时,它支持更多超长的指令和复杂任务拆解,以及定时任务。他还给这个 Aily 配备了 Agent 电脑,支持更稳定的调用。

我们都知道龙虾强就强在它丰富的生态,也就是那些 Skills。

这次除了官方内置的大量 Skills 以外,你还可以通过 aily 专业版自己创建 Skills,同时支持上传以前自己制作的 Skills。

这个功能非常厉害,可以将很多个人流程直接落地:
比如我之前做的一些“去 AI 味儿”的指令
还有一些视频剪辑或文本生成的 Skills

你完全可以将自己的工作流落地到 Skills 里,Agent 的创建门槛已经变得非常低了。

目前你可以飞书搜索 Aily,就可以开通 Aily 助手;

同时去网页版(aily.feishu. cn)可以使用专业版的 Aily,都有免费额度,可以去玩玩,非常好玩。
734
歸藏
4天前
试了一下 LibLib 发布的这个 LibTV,这个有点厉害啊!

尤其是 Skills,感觉突然开窍了。

他们做了一个 AI 视频创作平台。这个系统是同时面向人类和 Agent 设计的:

人类可以操作、Agent 也可以操作、人类和 Agent 还可以相互协作

具体包括两个部分,网站和 Skills。

首先网站:

它是一个无限画布的创作形式,你能用现在几乎市面上所有的图像模型和视频生成模型去创建视频。

支持五种类型的节点:文本、图片、视频、音频和脚本。

如果你用过 ComfyUI 或者其他同类型的这种无限画布式的产品的话,应该很容易上手。

而且你可以在这里一次性充值,就能用到几乎所有的图像和视频生成模型,非常方便。

我试了一下,这部分优化也挺好的,交互各方面都很方便。你拉过去以后,它就能直接选择节点并出现对应的设置,还能实现自动化批量运行。

第二部分就是 Skills:

它的 Skills 支持它所有的功能。你只需要在你的账号右上角生成一个 API Key,然后把它的开源 Skills 地址发给:你的龙虾或者是你的 Claude Code或者 Codex 其实都可以。

然后你的 agent 就可以去调用 LibTV 里面几乎所有的能力和所有的模型,去帮你自动化地生产:视频、图片、脚本。

比如我就直接给了它我那个项目的 GitHub 地址,然后让它读取信息,帮我生成一个类似高级化妆品广告的,这样一个生活方式的产品广告片。

你原有的 AI Agent 里的所有能力都可以调用,自动生成脚本,然后从脚本变成图片,从图片生成视频和音频。

比如说你可以让你的龙虾收集器在晚上帮你收集好昨天的 AI 新闻,然后调用 LibTV 帮你做成播客,甚至可以调用 LibTV 帮你做成视频。

这样你早上起来就可以“收菜”了,无论是你自己看还是发布出去都可以。

甚至你在 Liblib. tv 上创建了自动化的生成,然后你出去以后如果懒得打开网站,你也可以让你的 AI Agent 查询生成进度。

同时,你的 AI Agent 也可以操作你的微调项目,这样的话在外面不方便打开网页的时候也可以工作。

他们在定价上也非常猛:年卡最低可以到 39 折,订阅用户最高赠送 150 可灵O3 150 可灵 3.0。

感兴趣的话可以来这里试试:liblib.tv
933
歸藏
4天前
早上就发了个小米的新闻,微信公众号那边,喵喵喵,那评论区乌烟瘴气的,都不能看。

很多翻起来还是关注了一年多的老粉。我在想,这帮逼关注了一年,关注点啥呀?我操,真丢人,教这些人

歸藏: 小米这波牛逼啊,一下掏出三个顶级模型! 前几天在 OpenRouter 杀疯了的 Hunter Alpha 就是 MiMo‑V2‑Pro。 MiMo‑V2‑Pro 旗舰模型,主要在 Agent 能力和代码能力上很强。 MiMo‑V2‑Omni:多模态感知模型,负责感知环境为 Agent 模型提供信息。 MiMo‑V2‑TTS:TTS 语音模型负责 Agent 跟人类沟通 而且这几个模型会在接下里的一周提供免费试用,Codepilot 已经支持,填写 Key 就能用。 ------ MiMo‑V2‑Pro 顶级 Agent 编程模型: 总参数超 1T,激活参数 42B,最高支持 100 万上下文 Artificial Analysis 里面中文 LLM 第二,仅次于 GLM-5 测试集成绩来看,成绩非常接近 Sonnet4.6,价格只有 Sonnet 4.6 的 5 分之一。 256K 价格:1/3 美元百万 Token 1M 价格 2/6 美元百万 Token MiMo‑V2‑Omni 全模态理解 LLM: 支持图像、视频和超长音频理解 官方宣称音频理解超过 Gemini3Pro,支持 10 小时以上连续音频理解 图像理解上复杂图表与多学科视觉推理能力 超过 Claude 4.6 Opus 支持音视频联合输入,强调「情景感知 + 未来预测」 原生支持 工具调用、函数执行、UI grounding MiMo‑V2‑TTS 更猛: 支持「自然语言风格指令」,不限于固定标签 支持句中情绪切换、渐变、以及更细粒度的情绪控制 中英双语为主,同时支持多种方言风格 还支持人物化声音,例如孙悟空等 咳嗽、叹气、犹豫填充音等非言语声音建模 会用大小写、重复字符、标点符号作为韵律信号 在同一模型中支持说话与唱歌,能准确捕捉旋律和节奏 详情:mimo.xiaomi.com/zh

182
歸藏
5天前
Codepilot 0.38.3 版本已经支持刚发布的 Xiaomi MiMo-V2-Pro MiniMax M2.7 模型

而且小米这个模型未来一周会免费,各位可以来 Codepilot 玩了

只需要在服务商中填入你的 API Key 就行

歸藏: 小米这波牛逼啊,一下掏出三个顶级模型! 前几天在 OpenRouter 杀疯了的 Hunter Alpha 就是 MiMo‑V2‑Pro。 MiMo‑V2‑Pro 旗舰模型,主要在 Agent 能力和代码能力上很强。 MiMo‑V2‑Omni:多模态感知模型,负责感知环境为 Agent 模型提供信息。 MiMo‑V2‑TTS:TTS 语音模型负责 Agent 跟人类沟通 而且这几个模型会在接下里的一周提供免费试用,Codepilot 已经支持,填写 Key 就能用。 ------ MiMo‑V2‑Pro 顶级 Agent 编程模型: 总参数超 1T,激活参数 42B,最高支持 100 万上下文 Artificial Analysis 里面中文 LLM 第二,仅次于 GLM-5 测试集成绩来看,成绩非常接近 Sonnet4.6,价格只有 Sonnet 4.6 的 5 分之一。 256K 价格:1/3 美元百万 Token 1M 价格 2/6 美元百万 Token MiMo‑V2‑Omni 全模态理解 LLM: 支持图像、视频和超长音频理解 官方宣称音频理解超过 Gemini3Pro,支持 10 小时以上连续音频理解 图像理解上复杂图表与多学科视觉推理能力 超过 Claude 4.6 Opus 支持音视频联合输入,强调「情景感知 + 未来预测」 原生支持 工具调用、函数执行、UI grounding MiMo‑V2‑TTS 更猛: 支持「自然语言风格指令」,不限于固定标签 支持句中情绪切换、渐变、以及更细粒度的情绪控制 中英双语为主,同时支持多种方言风格 还支持人物化声音,例如孙悟空等 咳嗽、叹气、犹豫填充音等非言语声音建模 会用大小写、重复字符、标点符号作为韵律信号 在同一模型中支持说话与唱歌,能准确捕捉旋律和节奏 详情:mimo.xiaomi.com/zh

32
歸藏
5天前
小米这波牛逼啊,一下掏出三个顶级模型!
前几天在 OpenRouter 杀疯了的 Hunter Alpha 就是 MiMo‑V2‑Pro。

MiMo‑V2‑Pro 旗舰模型,主要在 Agent 能力和代码能力上很强。

MiMo‑V2‑Omni:多模态感知模型,负责感知环境为 Agent 模型提供信息。

MiMo‑V2‑TTS:TTS 语音模型负责 Agent 跟人类沟通

而且这几个模型会在接下里的一周提供免费试用,Codepilot 已经支持,填写 Key 就能用。

------

MiMo‑V2‑Pro 顶级 Agent 编程模型:

总参数超 1T,激活参数 42B,最高支持 100 万上下文
Artificial Analysis 里面中文 LLM 第二,仅次于 GLM-5
测试集成绩来看,成绩非常接近 Sonnet4.6,价格只有 Sonnet 4.6 5 分之一。
256K 价格:1/3 美元百万 Token
1M 价格 2/6 美元百万 Token

MiMo‑V2‑Omni 全模态理解 LLM:

支持图像、视频和超长音频理解
官方宣称音频理解超过 Gemini3Pro,支持 10 小时以上连续音频理解
图像理解上复杂图表与多学科视觉推理能力 超过 Claude 4.6 Opus
支持音视频联合输入,强调「情景感知 + 未来预测」
原生支持 工具调用、函数执行、UI grounding

MiMo‑V2‑TTS 更猛:

支持「自然语言风格指令」,不限于固定标签
支持句中情绪切换、渐变、以及更细粒度的情绪控制
中英双语为主,同时支持多种方言风格
还支持人物化声音,例如孙悟空等
咳嗽、叹气、犹豫填充音等非言语声音建模
会用大小写、重复字符、标点符号作为韵律信号
在同一模型中支持说话与唱歌,能准确捕捉旋律和节奏

详情:mimo.xiaomi.com/zh
2415