即刻App年轻人的同好社区
下载
App内打开
数字游民Jarod
184关注11k被关注10夸夸
👨🏿‍🔧曾经的石油工程师
🪄现在的内容创作者
🚩数字游民部落群主
🌎在五大洲都有深度旅居体验
🧭如何成为数字游民? (置顶)
置顶
数字游民Jarod
3年前
"数字游民"(Digital Nomad)是一种被数字信息技术赋能的全新生活方式。

它的受众特指那些完全依靠互联网创造收入,并借此打破工作与工作地点间的强关系,达成地理位置自由和时间自由,并尽享地理套利红利,全球移动生活的人群。

成为一名数字游民,意味着你将彻底与浪费生命的通勤告别;意味着你可以实现自己想走就走的终极旅行梦想,用更慢的脚步丈量整个地球;意味着你可以轻松实现地理套利,让自己赚到的钱更值钱,逃离拥挤昂贵的一线城市,去那些风景优美,气候宜人,性价比更高的城市居住;意味着你可以有更多时间陪伴家人和朋友,在当打之年做自己真正感兴趣的事情。

数字游民生活方式设计总共分四步:

第一步,打破工作和工作地点间的强绑定关系。让自己的工作在任何地点都可以完成。但凡不能的,要么不做,要么外包给别人去做。

第二步,打破工作时间和收入之间的线性关系。停止用时间来换钱,主动去创造和购买可以产生复利和被动收入的的数字资产和金融资产,让工作时间和收入的关系从线性的直线变成指数增长的曲线。

第三步,利用第一步获得的地理位置自由进行地理套利,去性价比更高/自己更喜欢的地方生活。

第四步,利用第二步获得的时间自由去做自己真正想做的事情,追寻人生的终极意义。

美国移动电话先驱Craig McCaw曾说:“人类始于游民,这可能是人类最自然的生存状态。”

在我看来,只要能够善用技术的杠杆,我们每个人都完全有可能摆脱内卷,逆转异化,重新让自己回归到人类最自然,最理想的工作/生活状态,而这正是数字游民生活方式设计的核心意义所在。

几个有用的链接:

全网最具深度的数字游民扫盲视频:
m.bilibili.com

互联网赚钱的底层逻辑,详解数字游民现金流象限:
m.bilibili.com

数字游民部落博客:
jarodise.com

数字游民播客:
digitalnomad.podcast.xyz

数字游民豆瓣小组:
www.douban.com

全网最大的中文数字游民Discord Server:
discord.gg

数字游民部落知识星球(付费社群):
t.zsxq.com

专为数字游民设计的高性价比旅行保险:
safetywing.com
59122
数字游民Jarod
1天前
多生优生,幸福一生

优生学是人类的未来吗?

10
数字游民Jarod
1天前
@petergostev 创建了一个独特的大模型基准:胡扯Benchmark:

我们都知道,大模型喜欢讨好人,有时候即便你说的是错的,它也会顺着你说:对,对,你说的对!

这个基准就是要比较一下大模型在面对人类“胡扯”时候会不会有理有据地反驳。

从排名可以看出Anthropic的模型在这个基准断档领先,国产模型里表现最好的是KIMI的K2.5。

由此可见,Anthropic聘请了一堆哲学家和神父给Claude写宪法,效果还是有的。
20
数字游民Jarod
2天前
谷爱凌和刘美贤应该就是初代Homo Deus吧?
31
数字游民Jarod
2天前
DeepSeek找不到一个比今天更好的发布新模型的时机了。
00
数字游民Jarod
2天前
这篇文章,算是对昨天刷屏的《2028》的回应,也是一篇“加速主义”的101。

大众对 AI 的恐惧,往往夹杂着一种古怪的碳基生物傲慢,我们默认经济系统是一台为人服务的机器,如果人被踢出了循环,哪怕是因为机器变得不可思议的高效,这台机器也会不可避免地因为“缺乏消费”而停转。

然而,在这个正在闭环的新系统里,我们必须承认另外一种冷酷的可能性:资本主义主导的经济系统从来不是为了让人类活得更好而存在的,它只为了演化与增殖本身。

2026,Nick Land的加速主义预言从未如此真实

42
数字游民Jarod
2天前
30
数字游民Jarod
4天前
大模型除了猴急之外,还很健忘。 //@阿黎爱猫猫: 能不能通过一开始就放一个提示词,作为约束条件来搞定它的内容生成冲动?

数字游民Jarod: 用AI辅助写作,你给AI提示词是:请给我写一篇题为“XX”的文章,AI很快就会给你生成一份像模像样,有头有尾的关于“XX”的文章,但是这文章你仔细一读就会发现它AI味儿爆表,味同嚼蜡。 你改变了策略,你跟AI说:别直接写文章,你先给我写个提纲,然后按照提纲来写,AI很快给你列了一个提纲,还没等你看完这个提纲,AI已经开始催你了,问你要不要按照提纲来写这篇文章,你觉得提纲还凑和,于是让AI开始写,这次出来的结果比上次似乎强了那么一点,但是离让你满意还差很远,而且你发现文章里很多AI给的论据要么空洞无聊,要么胡编乱造。 你似乎意识到了问题所在,你告诉AI,先别着急写,先根据我给你的选题去搜集素材,然后根据素材写提纲,最后根据提纲来写。AI二话不说去网上给你搜了几篇相关的素材,飞速地生成了提纲,然后飞速地又给你一篇它认为很不错的完稿,心想,这回人类总该满意了吧。 你读了一遍,这时候你只想骂人。 而且你发现,不论你怎么跟AI交流,它就总是像有人拿枪指着它的头让它赶紧完工一样,慢工出细活的逻辑在它这里并不存在。 意识到问题所在,你决定采用工程手段,让AI慢下来: 你先把想好的选题告诉AI,但是你并不让它直接开始写,你说let’s brainstorm,这时候AI就会调用你之前装好的brainstorming skill,开始拆解你的选题,在brainstorming的框架下跟AI聊过几轮之后,你会发现原本在你脑中模糊的选题变得清晰了不少,这回生成的写作提纲也比之前直接生成的要多了不少灵气。 这时候,你告诉AI,搜集素材是写作过程的重中之重,你要使用deep research skill在互联网上掘地三尺,找到所有跟这个选题直接或间接相关的素材,单独保存在一个文件夹内备用。这一回,你发现AI找到的素材不是之前敷衍了事的口水文了,素材里开始出现学术论文,政府机构报告和社交媒体讨论。 这时候,AI又要迫不及待地开工了,你跟AI说,我都不急,你急什么?!先去读读我之前写的文章,学习一下的写作风格,待会就按这个调调来写。 于是AI在仔细研读了你写的几篇文章后,生成了一篇叫做style_ref. md的文档,准确地描述了你的写作风格。 这时候,你终于可以“放虎归山“了,你跟AI说,按照我们之前写的提纲和我的写作风格,”分段输出“。 你发现,你终于找到的AI写作的真谛:使用工程手段把AI的速度降下来,强迫它使用系统2而不是系统1来完成你给它的任务。

30
数字游民Jarod
4天前
82
数字游民Jarod
4天前
全世界还有8成人从没用过AI,we are still early.
43
数字游民Jarod
5天前
这可能是今年最重要的AI新闻,但中文互联网还没什么人聊。

昨天,一家成立不到三年的多伦多芯片公司扔下了一颗核弹。他们不是做大模型的,不是做应用的,而是做了一件听起来很复古的事:把AI模型直接刻在芯片里。

这家公司叫 Taalas。他们做的芯片 HC1,运行 Llama 3.1 8B的速度是 17000 tokens/秒。作为对比,目前业界最快的 GPU 也就 2000 左右。十倍差距。

但这还不是最疯狂的。最疯狂的是,这块芯片只能跑这一个模型。不能换,不能改,不能升级。你买回家,它就永远只会做这一件事:以光速运行 Llama 3.1 8B。

Taalas 的赌注很简单:在这个所有人都追求灵活性的时代,他们选择了绝对的不灵活,换取绝对的效率。

要说清楚这件事为什么重要,得先理解过去几十年芯片发展的主线。从 CPU GPU,再到各种 AI 加速器,所有人都在做同一件事:造一个通用的计算平台,然后用软件在上面跑各种模型。

这条路走到今天,遇到了一个硬边界。模型越来越大,内存带宽成了瓶颈。你把几百亿参数从显存搬到计算单元,这个过程消耗的能量和时间,已经比计算本身还要多了。

Taalas 的思路是:既然你每次都算同样的东西,为什么还要搬来搬去?直接把权重存在晶体管里不行吗?

他们真的这么做了。HC1 芯片里没有显存,没有 HBM,没有复杂的缓存层级。模型的每一个权重都对应着芯片上的特定晶体管,矩阵乘法通过电路的物理连接直接完成。你输入一个 token,电流流过这些预先设计好的路径,输出就是下一个 token 的预测。

这就像录音带和现场演奏的区别。传统芯片是每次都要重新演奏,Taalas 是把演奏录在磁带里,播放就行了。

这种设计带来了几个惊人的结果。

第一是速度。17000 tokens/秒意味着什么?你几乎感受不到延迟。不是"很快",是"瞬间"。有测试者说,按回车的瞬间,答案就已经完整出现在屏幕上,甚至看起来像是预先准备好的。

第二是功耗。传统 GPU 运行 AI 推理需要液冷,一个机柜动辄几十千瓦。Taalas 的芯片只要空气冷却,十张卡加起来才 2.5 千瓦。他们号称能效是 GPU 的十倍。

第三是成本。制造这样的芯片,他们说是传统方案的十分之一到二十分之一。

但代价也是真实的。这块芯片出厂那一刻,它的命运就已经注定。Llama 3.1 8B,就是这个芯片这辈子唯一能做的事。如果明年 Meta 发布了 Llama 4,这块芯片就变成了电子垃圾。如果你发现这个模型有偏见,或者在你的应用场景里效果不好,你不能微调它,不能换别的模型,只能再买一块新芯片。

Taalas 的解决方案是:把定制芯片的周期从一年压缩到两个月。他们和台积电合作,只改变两层金属掩膜,就能为不同的模型生产新芯片。他们声称训练一个模型要花十亿美元,而定制一块这样的芯片只要花一千万。

说到这个团队的背景,确实豪华得有点过分。CEO Ljubisa Bajic Tenstorrent 的创始人,之前在 AMD NVIDIA 都做过架构师。COO Lejla Bajic 是他的妻子,同样是 AMD Tenstorrent 的资深工程师。CTO Drago Ignjatovic 是前 AMD ASIC 设计总监。这三个人加起来,可能设计了过去十年里你用过的一些最重要的芯片。

2022 年,当 Jim Keller 加入 Tenstorrent 并接管公司后,Ljubisa 选择了离开。六个月后,他创立了 Taalas。显然,他和 Keller AI 芯片的未来有不同的看法。Keller 想做一个通用的、可编程的、软件友好的平台,而 Ljubisa 走向了另一个极端:彻底的专用化。

他们刚刚完成了 1.69 亿美元的融资,总融资额 2.19 亿。投资人里有个名字值得注意:Pierre Lamond。这位老爷子是 Fairchild Semiconductor 的元老,红杉资本的前合伙人,被公认为半导体行业的奠基人之一。这样的大佬背书,说明这件事至少在技术逻辑上是成立的。

现在的问题是:市场会买单吗?

Taalas 需要找到那些愿意为了效率和成本,牺牲灵活性的场景。比如语音助手,需要毫秒级响应,而且模型不需要经常换。比如数据标注,需要处理海量文本,用的是固定模型。比如一些垂直领域的专用模型,训练好了就不动了。

但也有人不看好。芯片制造是有污染的,如果每两年就要换一批芯片,这比 GPU 的更新换代更频繁,环保问题怎么算?还有人质疑,AI 模型进化这么快,两个月流片时间还是太长,等你做出来,模型可能已经过时了。

更根本的问题是:当 OpenAI、Google、Anthropic 都在拼命证明他们的新模型比旧模型好得多的时候,谁会愿意把自己锁死在一个固定的模型上?

Taalas 的反驳是:模型迭代的周期正在变长,人们开始依恋特定的版本。OpenAI 把用户从 GPT-4.5 迁移到 GPT-5 的时候,很多人抱怨新版本太谄媚了。也许未来我们会像对待手机型号一样对待 AI 模型:iPhone 15 出来后,还是有人用 iPhone 14,因为它们各有各的好。

我不知道 Taalas 会不会成功。这可能是一家改变行业的公司,也可能是一个技术史上有趣的注脚。

感兴趣的朋友可以去他们的demo站点体验一下什么是光速级别的inference:

chatjimmy.ai
3899