即刻App
年轻人的同好社区
下载
App内打开
蓝色的信封
36
关注
1
被关注
0
夸夸
蓝色的信封
4月前
谷歌和微软的小模型都是各种刷榜的评分很高,实际没多少使用
orange.ai: Gemma3,仅27B参数拿下开源第二名 仅次于 DeepSeek R1 - 支持 140 种语言 - 支持文本、图像、短视频的理解 - 支持 128k 上下文 - 支持 function calling 和机构化输出 - 支持多种尺寸(1B、4B、12B 和 27B)
0
0
0
蓝色的信封
4月前
这是真牛逼啊,其他软件要都能提供API让AI使用,那是真正的解放生产力
orange.ai: 这个 MCP,可以让 Claude 可以直接控制 Blender 。 使用提示词就能创建漂亮的 3D 场景。 视频是一个“低多边形龙守护宝藏”场景的演示。 用户评价:omg 魔法! 项目地址: https://github.com/ahujasid/blender-mcp
0
0
0
蓝色的信封
5月前
以后人人一个AI老爷爷
Alchian花生: 吴恩达刚刚发了篇文章讲最近的o3-mini、Gemini2.0的进展,以及谈及由此带来的生产力提升的思考,最后得出结论:AI技术正从专业工具转变为工作流的核心组件。效能革命的本质不在于替代人力,而是通过架构革新释放人类专业潜能。保持学习,迎接指数级生产力变革的时代。 然后,我的DeepSeek改写产品1分钟就完成带原版图文的翻译且可以线上分享了,毕竟「翻译」不过是改写的特殊形态罢了。 原文链接:https://www.deeplearning.ai/the-batch/issue-287/ 翻译稿1(普通风格):https://ds.huasheng.ai/article.html?id=j5kuXX322XrJYTIr8Eo1 翻译稿2(理查德费曼风格):https://ds.huasheng.ai/article.html?id=sD711QS12WZo2icg4eWc 翻译稿3(大冰风格):https://ds.huasheng.ai/article.html?id=a9Qvon0GhtH70gcH3qvy 翻译稿4(乔治卡林):https://ds.huasheng.ai/article.html?id=a9Qvon0GhtH70gcH3qvy
0
0
0
蓝色的信封
5月前
我被这个制作效率震惊了
海辛Hyacinth: 年前重大合作发布啦! 和阿文一起帮伊利做了一条 AI TVC 贺岁宣传片~! 这是一个时间上非常极限的项目,差不多三天内做完的初版 😅 祝大家新春愉快!
0
0
0
蓝色的信封
5月前
最后一句没太懂,是说人在宗教和政治环境里有求同的诉求,对吗?
王半城: 离钱远的产品能否让用户付费,也跟「权力关系」有关。看是谁讨好谁。 如果产品是讨好用户的舔狗角色,「猜你喜欢」那种的,就很难求用户付费。 想要用户之主动付费也,需要让用户有求于我也,即「用户具备某些只能求我解决的障碍」 打赏女主播本身就是用户当舔狗不提,更常见的是自己设计障碍卡用户。 比如游戏增加难度再让用户充钱过关。而社区就只能靠去广告这种微不足道的障碍。 但宗教、政治、传销组织也是一种社区,为什么就让人疯狂付费呢? 因为后者凝聚了「化异为同」的权力。
0
0
0
蓝色的信封
5月前
小扎这么说有他自己的政治目的
WST-AI: 扎克伯格点评Deepseek的视频传播了好几天,还真有不少沉溺于“中美在真的在AI领域是很小的竞争”的言论。🫠 一个梅西足以带领中国冲世界杯吗?
0
0
0
蓝色的信封
7月前
近期一直在写工作流的提示词工程,因为现在用的API多数是中转的,Claude sonnet和其他高级API都很不稳定,为了保障AI输出质量稳定,系统提示词经常就到了数百上千行,还好是用cursor,不然手动写不知道写到什么时候去😂
#cursor
#提示词工程
0
2
0
蓝色的信封
7月前
去看官方文档吧,官方明确了几个概念,host,server和client,Claude desktop相当于host,这个host内置开发了client,我们对外数据接口常规情况属于server,server是外部的,所以你需要自己在终端运行server服务,比如mcp sqlite。 //
@钱塘创客
: 请教一下,在你的sqllite查询案例里面,mcp client和server是claude destop内置的还是另外写的符合mcp协议的代码?
艾逗笔: 聊几点我对 Anthropic MCP 的看法: 1. 并没有像自媒体鼓吹的那样夸张,还不至于让 AI 行业变天,依然有很长的路要走; 2. 可以简单理解跟大模型已经支持的 Function Calling 是同一个东西,本质是为了让大模型可以调用外挂的服务,对接更多的数据和能力,再作为补充上下文回答用户的问题; 3. 区别点在于:Function Calling 由大模型通过 HTTP 请求第三方的外挂 API,而 MCP 是由大模型通过 RPC 请求第三方的外挂服务; 4. 从接入方式上看,Function Calling 更简单,第三方只需要写一个 API,再在大模型配置对 API 的请求参数即可。MCP 接入起来要复杂一些,第三方需要写个服务,实现协议里定义的 RPC 方法,再在大模型里面配置服务地址和参数,大模型客户端在启动的时候需要做一次服务发现,再连接到配置的 RPC 服务,才能在后续对话过程调用; 5. Function Calling 和 MCP 的核心和难点都在于大模型侧的意图识别,用户随机提问,如何找到匹配的外挂服务,实现 RAG,这是所有大模型面临的通用难题(比如 ChatGPT 有几百万的 GPTs 应用,如何根据用户提问路由到最匹配的那个 GPTs 来回答问题),MCP 协议并不能解决这个问题。Claude 客户端目前的实现方式,是让用户自己写个配置文件,告诉大模型有哪些可以调用的服务,再由 Claude 在对话时自动识别,跟 ChatGPT 之前让用户选择使用哪些 Plugins 的逻辑一致; 6. MCP 的亮点是定义了一套标准且相对完善的协议,对于大模型和应用的生态协同有很大的指导意义。类似由微软提出并在 VS Code 实现的 LSP 协议一样(定义了编辑器如何与第三方语言服务交互,实现代码补全/类型约束/错误提示等功能)。MCP 协议的适用对象主要是大模型/应用客户端和第三方服务,跟 LSP 不同的是,编程语言的数量相对有限,最多几百个语言服务,社区协同下很快就能全部支持,编辑器可以根据文件的后缀快速定位到要调用的语言服务。MCP 适用的第三方服务是海量的,MCP 的发展取决于有多少第三方服务愿意基于这套协议去实现 RPC 服务,最关键的还是大模型/应用客户端对海量 MCP 服务的路由寻址问题(没有固定的后缀,只能靠意图识别或者人工配置)。 7. OpenAI 最初开放的 API 协议已经成了一个约定俗成的标准,后来的大模型在开放自家 API 时都会选择兼容 OpenAI 的 API,主要原因有两个:一是 OpenAI 的 API 开放的早,很多应用接入了,兼容它对第三方接入友好;二是 OpenAI 的 API 实现的确实很规范,照着模范生抄作业何乐不为。MCP 会不会也跟 OpenAI 的 API 协议一样,成为行业内的新标准,这个问题取决于先有鸡还是先有蛋:如果有足够多的第三方服务基于这套协议开放了自己的服务,其他大模型/应用客户端应该会跟进;如果主流的大模型/应用客户端都支持了这套协议,那么作为一个第三方,也肯定愿意按这套协议开放自己的服务(比起为 GPTs / Coze / Dify 分别写一个 API 给智能体调用,MCP 服务只需要写一次,可以在任意支持 MCP 的客户端调用)。 8. MCP 目前不支持 Remote Server,不能在网页版调用,只能在 Claude 桌面版使用。我写了一个用 Claude 客户端分析群聊记录的程序,结合实例来看 MCP 的应用,很好理解。MCP 的想象空间还是很大的,未来可期。 个人经验之谈,有表达不当之处,欢迎补充讨论。🌚
0
0
0
蓝色的信封
8月前
推荐这个 Recraft.ai 选择风格生成套图后可以直接下载矢量图和其他格式文件,大大减轻美术的工作负担
0
0
0
蓝色的信封
8月前
今天一直在写prompt,对比claude-3.5,gpt-4o和gemini-1.5-pro,测了上百条,结论是最新claude在语义理解和逻辑指令遵循上已经甩gpt几条街了,不知不觉已经把claude作为首选项了
1
1
2