即刻App年轻人的同好社区
下载
App内打开
孙建伟
426关注406被关注1夸夸
关注AIGC
出版行业12年
短视频5年
孙建伟
1天前
1月份开始就建议大家买mac mini,当时对设备的理解,还是停留在希望搭建设备,让机器不断运行自定义的任务,所以买的都是低配的mac mini。

后来因为openclaw爆火,让通过im,在本机器发起任务或者执行定时任务变简单了,包括当前的codex,都可以很方便的远程调用任务时。 大家更多的看到了在家有一台机器能持续工作的价值。以及自己也在这些机器上,跑出了更多的任务。

但当机器可以每天执行100个不同的任务开始的时候,限制机器的就不是人是否在面前,对话和安排任务了,这个机器实际上就是一个要稳定运行,以及更强大的自动化服务器和数字员工平台。

这个时候为了让这些员工运行的更好,系统就应该冲更大内存,和更高质量的cpu,以及更早的购入mac studio了。只是可惜现在购入都要等两个月。

如果只是个人对话,使用openclaw,对绝大多数普通人,飞书妙搭就够了,一般这种云端的都是2核4g或者4核4g的虚拟服务器。但如果自动化及跑任务,后续一定得用m4 max +64g以上的机器持续跑。

内存涨了是因为大模型服务器运转需要大量的告诉内存,实际上,本地执行任务的时候,机器也一样需要更高的配置。
以前是人看着电脑执行的时代,电脑速度和人脑速度匹配就好了。现在变成agent 自动执行的时代,限制产出就变成了,大模型的token速度,token费用和性价比,机器的并行执行速度,机器的内存。

以及最关键的是,找到一条好的商业模式,然后在这个模式上,用ai 的能力持续降本增效。
--------
chatgpt 一次出图,真的强!
20
孙建伟
4天前
gpt-images-2 的api 接口这么便宜吗,
太感人了。4分钱一张图。
31
孙建伟
4天前
飞书的lark cli ,确实是当前最好的agent 基建,没有之一。
00
孙建伟
5天前
看了下minimax 的数据近两个月是125亿:3800万, 大量的输入和缓存占了消耗。 缓存的创建和读取,minimax 占三分之一。 也就是agent 的使用过程中,输入和输出的比可以达到恐怖的:100:1到300:1。但是近期用opus ,反而是in 少,out 多,1400万多out,in只有56.4k 不知道为啥。

孙建伟: kimi code ,过去一个月, 2000+任务, 40亿token背后的工具调用情况。 kimi code 还是蛮推荐的,普通199档位够用。 感觉kimi code+lark-cli,简直是绝配。 但kimi的能力,即刻看到用的人感觉还是少。 之前也用minimax,用这些国产会员是基于在高频非高智力任务下,有更快的响应速度,以及几乎无限token的开火权。 要是codex 和claude opus4.7 ,成本要*10。

00
孙建伟
5天前
kimi code ,过去一个月,
2000+任务,
40亿token背后的工具调用情况。

kimi code 还是蛮推荐的,普通199档位够用。

感觉kimi code+lark-cli,简直是绝配。
但kimi的能力,即刻看到用的人感觉还是少。

之前也用minimax,用这些国产会员是基于在高频非高智力任务下,有更快的响应速度,以及几乎无限token的开火权。
要是codex 和claude opus4.7 ,成本要*10。
31
孙建伟
5天前
给自己熟悉员工系统写了一个iOS APP
方便手机发起任务,主要用kimi code 跑任务
虽然网页版也可以
但APP用起来,加载更快一点点
00
孙建伟
8天前
羡慕现在AI的注意力,直接堆1万字的提示词进去,执行任务的时候,各个细节都能注意到。
00
孙建伟
9天前
放公司的mac mini 开机25天,
没干太多重活
hermes 维护也比较简单

最大的问题是herms+lark-cli,user权限很多情况下没法正常使用,初期调试通比较麻烦。
00
孙建伟
15天前
飞书知识问答 越用越多
ai生产力=几个助手 这个算法有点意思

算法:www.feishu.cn
00