即刻App年轻人的同好社区
下载
App内打开
Phoebee_Yang
97关注7被关注0夸夸
Phoebee_Yang
6天前
Midjourney 出图,可灵生成视频,做了一个
《35岁家养小精灵的碎碎念》
#AIGC创作大赛·夏日
00:21
00
Phoebee_Yang
8天前
用TRAE做了一个“夸夸乐”的页面,输入夸赞对象和夸赞关键词,就会调用deepseek产出夸赞语句,然后以土味格式显示在屏幕上。
第一次尝试AI编程并且完全vibe coding,没有手动改任何地方,感觉还是挺好玩的!
00:40
00
Phoebee_Yang
1月前
如何让世界名画开始发疯?
1. 用Gemini 2.0 Flash Experimental让世界名画变成表情包
2. 用可灵让他们动起来

发疯开始⬇️
00:21
01
Phoebee_Yang
2月前

Simon阿文: 经常被问到平时都用什么 AI 工具,于是整理了一下我和 @海辛Hyacinth 在工作流中常用的工具合集。 *由于工具迭代太快,本条将永久动态更新。 *都是我们做项目用的工具,你永远可以相信我写的推荐。 🖼️🖼️ 主力生图工具 ▶ Whisk & ImageFX(也就是 Google 家的 Imagen3) 写实风格能达到以假乱真的程度,而且还免费。 · 🖼️ 辅助生图工具 ▶ midjourney:曾经的王者,但用过 Whisk 之后用不回去了,希望 V7 加油。 ▶ 即梦:如果你需要生成中国风和中文字,这是最好的选择。 ▶ Flux:开源最佳,适合搭配 ComfyUI 工作流使用。 · 🎨 修图工具 ▶ PS 的创成式填充:虽然生图很拉,但缝缝补补很合适。 ▶ Krea 的编辑器:其实就是 Flux 的局部重绘,但前端交互做得超好。 ▶ MJ 的编辑器:常用的是 Retexture,局部调整不推荐。 ▶ 个人忠告:抠局部细节的时候还是直接P吧。因为当生成区域小到一定程度时,inpainting 对关键词的响应就会极弱,与其浪费时间抽卡,真的不如直接上行活。 · 🔍放大工具 ▶ 图片放大用 Maganific & Krea:老实说 Maganific 用多了其实也没那么好用,Krea 更经济实惠。 ▶ 视频放大用 Topaz。 · 📽️ 视频生成工具 ▶ 目前我们用得最多:可灵 & Pixverse ▶ 风格化场景我们用:Hailuo ▶ 创意特效我们用:Pika ▶ 转绘我们用:ComfyUI · 🐋 我们在哪用 DeepSeek? ▶ 我用 ima ▶ 海辛用官方app 和 元宝 · 其他想到再补充。

01
Phoebee_Yang
2月前

阑夕ོ: DeepSeek火出圈的这十几天,其实也是噪音最多的一段时间,说实话大部分的讨论成品都有种加班硬赶KPI的味道,是人是鬼都在掰扯,有留存价值的屈指可数,倒是有两期播客让我听后受益匪浅,非常推荐。 一个是张小珺请来加州伯克利大学AI实验室博士潘家怡对DeepSeek论文的逐句讲解,接近3个小时的高密度输出,非常能杀脑细胞,但杀完之后分泌出来的内啡肽,也含量爆炸。 另一个是Ben Thompson关于DeepSeek的3集播客合集,加起来1个多小时,这哥们是News Letter的开创者,也是全球最懂技术的分析师之一,常年旅居台北,对中国/亚洲的近距离洞察比美国同行要高很多。 先说张小珺的那期,嘉宾潘家怡当时是在读完DeepSeek的论文之后,最快开发出了小规模复现R1-Zero模型的项目,在GitHub上已经接近1万Stars。 这种薪火相传式的知识接力,其实是技术领域理想主义的投射,就像月之暗面的研究员Flood Sung也说,Kimi的推理模型k1.5最初就是基于OpenAI放出来的两个视频得到了启发,更早一点,当Google发布「Attention Is All You Need」之后,OpenAI立刻就意识到了Transformer的未来,智慧的流动性才是一切进步的先决条件。 所以大家才对Anthropic创始人Dario Amodei那番「科学没有国界,但科学家有祖国」的封锁表态大为失望,他在否定竞争的同时,也在挑战基本常识。 继续回到播客内容上,我还是试着划些重点出来给你们看,推荐有时间的还是听完原版: - OpenAI o1在惊艳登场的同时做了非常深厚的隐藏工作,不希望被其他厂商破解原理,但从局势上有点像是在给行业提了一个谜语,赌的是在座各位没那么快解出来,DeepSeek-R1是第一个找出答案的,而且找答案的过程相当漂亮; - 开源能够比闭源提供更多的确定性,这对人力的增长和成果的产出都是很有帮助的,R1相当于把整个技术路线都明示了出来,所以它在激发科研投入上的的贡献要胜过藏招的o1; - 尽管AI产业的烧钱规模越来越大,但事实上就是我们已经有接近2年时间没有获得下一代模型了,主流模型还在对齐GPT-4,这在一个主张「日新月异」的市场里是很罕见的,即便不去追究Scaling Laws有没有撞墙,OpenAI o1本身也是一次新的技术线尝试,用语言模型的方式让AI学会思考; - o1在基准测试里重新实现了智力水平的线形提升,这很牛逼,发的技术报告里没有披露太多细节,但关键的地方都讲到了,比如强化学习的价值,预训练和监督微调相当于是给模型提供正确答案用来模仿,久而久之模型就学会依葫芦画瓢了,但强化学习是让模型自己去完成任务,你只告诉它结果是对还是不对,如果对就多这么干,如果不对就少这么干; - OpenAI发现强化学习可以让模型产生接近人类思考的效果,也就是CoT(思维链),它会在解题步骤出错时回到上一步尝试想些新办法,这些都不是人类研究员教出来的,而是模型自己为了完成任务被逼,哦不,是涌现出来的能力,后来当DeepSeek-R1也复现出了类似的「顿悟时刻」,o1的核心堡垒也就被实锤攻破了; - 推理模型本质上是一个经济计算的产物,如果强行堆砌算力,可能到了GPT-6仍然可以硬怼出类似o1的效果,但那就不是大力出奇迹了,而是奇迹出奇迹,可以但没必要,模型能力可以理解为训练算力x推理算力,前者已经太贵了,后者还很便宜,但乘数效应是差不多相等的,所以现在行业都开始扎走搞性价比更优的推理路线; - 上个月末o3-mini的发布和DeepSeek-R1可能关系不大,但o3-mini的定价降到了o1-mini的1/3,肯定是受到了很大的影响,OpenAI内部认为ChatGPT的商业模式是有护城河的,但卖API没有,可替代性太强了,国内最近也有关于ChatBot是不是一门好生意的争议,甚至DeepSeek很明显都没有太想明白怎么承接这波泼天流量,做消费级市场和做前沿研究可能是有天然冲突的; - 在技术专家看来,DeepSeek-R1-Zero要比R1更加漂亮,因为人工干预的成分更低,纯粹是模型自己摸索出了在推理几千步里寻找到最优解的流程,对先验知识的依赖没那么高,但因为没有做对齐处理,R1-Zero基本上没法交付给用户使用,比如它会各种语言夹杂着输出,所以实际上DeepSeek在大众市场得到认同的R1,还是用了蒸馏、微调甚至预先植入思维链这些旧手段; - 这里涉及到一个能力和表现并不同步的问题,能力最好的模型未必是表现最好的,反之亦然,R1表现出色很大程度上还是因为人工使劲的方向到位,在训练语料上R1没有独占的,大家的语料库里都会包含古典诗词那些,不存在R1懂得更多,真正的原因可能在于数据标注这块,据说DeepSeek找了北大中文系的学生来做标注,这会显著提高文采表达的奖励函数,一般行业里不会太喜欢用文科生,包括梁文锋自己有时也会做标注的说法不只是说明他的热情,而是标注工程早就到了需要专业做题家去辅导AI的地步,OpenAI也是付100-200美金的时薪去请博士生为o1做标注; - 数据、算力、算法是大模型行业的三个飞轮,这一波的主要突破来自算法,DeepSeek-R1发现了一个误区,就是传统算法里对于价值函数的重视可能是陷阱,价值函数倾向于对推理过程的每一步去做判断,由此事无巨细的把模型向正确的道路上引导,比如模型在解答1+1等于几的时候,当它产生1+1=3的幻觉了,就开始惩罚它,有点像电击疗法,不许它犯错; - 这种算法理论上没毛病,但也非常完美主义,不是每道题目都是1+1这样简单的,尤其是在长思维链里动辄推理几千个Token序列的情况下,要对每一步都进行监督,投入产出比会变得非常低,所以DeepSeek做出了一个违背祖训的决定,不再用价值函数去满足研究时的强迫症,只对答案进行打分,让模型自己去解决怎么用正确的步骤得到答案,即便它存在1+1=3的解题思路,也不去过度纠正,它反而会在推理过程里意识到不对劲,发现这么算下去得不出正确答案,然后做出自我纠正; - 算法是DeepSeek之于整个行业的最大创新,包括要怎么分辨模型是在模仿还是推理,我记得o1出来后有很多人声称通过提示词让通用模型也能输出思维链,但那些模型都没有推理能力,实际上就是模仿,它还是按照常规模式给出了答案,但是因为要满足用户要求,又回过头基于答案给出思路,这就是模仿,是先射箭后画靶的无意义动作,而DeepSeek在对抗模型破解奖励方面也做了很多努力,主要就是针对模型变得鸡贼的问题,它逐渐猜到怎么思考会得到奖励,却没有真的理解为什么要这么思考; - 这几年来行业里一直在期待模型诞生涌现行为,以前会觉得知识量足够多了,模型就能自然演化出智慧,但o1之后发现推理好像才是最关键的那块跳板,DeepSeek就在论文里强调了R1-Zero有哪些行为是自主涌现而非人为命令的,像是当它意识到生成更多的Token才能思考得更加完善、并最终提高自己的性能时,它就开始主动的把思维链越变越长,这在人类世界是本能——长考当然比快棋更有策略——但让模型自个得出这样的经验,非常让人惊喜; - DeepSeek-R1的训练成本可能在10万-100万美金之间,比起V3的600万美金更少,加上开源之后DeepSeek还演示了用R1去蒸馏其他模型的结果,以及蒸馏之后还能继续强化学习,可以说开源社区对于DeepSeek的拥戴不是没有理由的,它把通往AGI的门票从奢侈品变成了快消品,让更多的人可以进来尝试了; - Kimi k1.5是和DeepSeek-R1同时发布的,但因为没有开源,加上国际上积累不足,所以虽然也贡献了类似的算法创新,影响力却相当有限,再就是Kimi因为受到2C业务的影响,会比较突出用短思维链实现接近长思维链的方法,所以它会奖励k1.5用更短的推理,这个初衷虽然是迎合用户——不想让人在提问后等太久——但好像有些事与愿违的回报,DeepSeek-R1的很多出圈素材都是思维链里的亮点被用户发现并传播,对于头一次接触推理模型的人来说,他们似乎并不介意模型的冗长效率; - 数据标注是全行业都在藏的一个点,但这也只是一项过渡方案,像是R1-Zero那种自学习的路线图才是理想,目前来看OpenAI的护城河还是很深,上个月它的Web流量达到了有史以来的最高值,DeepSeek的火爆客观上会为全行业拉新,但Meta会比较难受,LLaMa 3实际没有架构层的创新,也完全没有预料到DeepSeek对开源市场的冲击,Meta的人才储备非常强大,但组织架构没有把这些资源转化成技术成果。 再说Ben Thompson的播客,他在很多地方交叉验证了潘家怡的判断,比如R1-Zero在RLHF里去掉了HF(人类反馈)的技术亮点,但更多的论述则是放在了地缘竞争和大厂往事,叙事的观赏性非常流畅: - 硅谷过度重视AI安全的动机之一在于可以借此把封闭行为合理化,早在GPT-2的协议里就以避免大语言模型被利用拿去生成「欺骗性、带偏见」的内容,但「欺骗性、带偏见」远未达到人类灭绝级别的风险,这本质上是文化战争的延续,而且基于一个「仓廪实而知礼节」的假设上,即美国的科技公司在技术上拥有绝对的优势,所以我们才有资格分心去讨论AI有没有种族歧视; - 就像OpenAI决定隐藏o1思维链时说得义正辞严——原始思维链可能存在没有对齐的现象,用户看到后可能会感觉到被冒犯,所以我们决定一刀切,就不给用户展示了——但DeepSeek-R1一举证伪了上面的迷之自信,是的,在AI行业,硅谷并没有那么稳固的领先地位,是的,暴露的思维链可以成为用户体验的一部分,让人看了之后更加信任模型的思考能力; - Reddit的前CEO认为把DeepSeek描述为斯普特尼克时刻——苏联先于美国发射第一颗人造卫星——是一个强行赋予的政治化解读,他更确定DeepSeek位于2004年的Google时刻,在那一年,Google在招股书里向全世界展示了分布式算法是如何把计算机网络连接在一起,并实现了价格和性能的最优解,这和当时所有的科技公司都不一样,它们只是购买越来越贵的主机,并甘愿身处成本曲线最昂贵的前端; - DeepSeek开源R1模型并透明的解释了它是怎么做到这一点的,这是一个巨大的善意,若是按照继续煽动地缘政治的路数,中国公司本来应该对自己的成果保密的,Google时刻也确实为Sun这样的专业服务器制造商划定了终点线,推动竞争移动到商品层; - OpenAI的研究员roon认为DeepSeek为了克服H800芯片所作出的降级优化——工程师用不了英伟达的CUDA,只能选择更低端的PTX——是错误的示范,因为这意味着他们浪费在这上面的时间无法弥补,而美国的工程师可以毫无顾虑的申请H100,削弱硬件无法带来真正的创新; - 如果2004年的Google听取了roon的建议,不去「浪费」宝贵的研究人员构建更经济性的数据中心,那么也许美国的互联网公司今天都在租用阿里巴巴的云服务器,在财富涌入的这二十年里,硅谷已经失去了优化基础设施的原动力,大厂小厂也都习惯了资本密集型的生产模式,乐于提交预算表格去换取投资,甚至把英伟达的芯片干成了抵押物,至于如何在有限的资源里尽可能多的交付价值,没人在乎; - AI公司当然会支持杰文斯悖论,也就是更便宜的计算创造更大量的使用,但过去几年里的实际行为却是出心口不一的,因为每家公司都在表现出研究大于成本的偏好,直到DeepSeek把杰文斯悖论真正带到了大家的眼皮底下; - 英伟达的公司变得更有价值,和英伟达的股价变得更有风险,这是可以同时存在时发展,如果DeepSeek能在高度受限的芯片上达到如此成就,那么想象一下,如果当他们获得全功率的算力资源后,技术进步会有多大,这对整个行业都是激励性的启示,但英伟达的股价建立在它是唯一供给方这个假设上,这可能会被证伪; - 中国和美国的科技公司在AI商品的价值判断上出现了显性分歧,中国这边认为差异化在于实现更优越的成本结构,这和它在其他产业的成果是一脉相承的,美国这边相信差异化来自产品本身以及基于这种差异化创造的更高利润率,但美国需要反思通过否定创新——比如限制中国公司取得AI研究所需的芯片——来赢得竞争的心态; - Claude在旧金山的口碑再怎么好,也很难改变它在销售API这种模式上的天然弱点,那就是太容易被替换掉了,而ChatGPT让OpenAI作为一家消费科技公司拥有更大的抗风险能力,不过从长远来看,DeepSeek会让卖AI的和用AI的都有受益,我们应该感谢这份丰厚的礼物。 嗯,差不多就是这些,张小珺的播客在小宇宙上可以搜到,Ben Thompson的播客是订阅制的,15美金/月,希望这篇作业可以帮你们更好的理解DeepSeek出圈之后对AI行业产生的真实意义。

00
Phoebee_Yang
3月前

Kenny_肯尼: AI 出海,合规是重中之重,否则就面临下架,起诉,赔偿等一系列后果,过去两年做的 AI 能力不少海外进度落后于国内,一个重要原因就是合规。 合规主要分为两块,「模型训练」和「用户数据」 1. 模型训练是否合规 训练该模型的数据是否是合规获取的,比如你用 taylor swift 的歌来训练音乐大模型,有 Taylor 的授权吗,还是你直接从网上直接批量爬了。你也大概猜出来了,suno 肯定是用了不合规的数据,否则它效果不可能这么好。当然它也被起诉了,不过因为是创业小公司,所以相对路子野一点。 模型效果最重要的是高质量的数据源和数据清洗标注,谁的数据源好,模型能力就更好;在相同的一堆数据源中,谁把数据洗的干净,哪怕最终的数据量小一些,模型的能力也会更强。 除了模型的数据来源合规,还有模型生成的结果合规,比如会不会生成儿童色情内容,这里的测试就比较复杂和繁琐,评估周期比较久,有时候测出来的 case 我都没有想到,因为 GenAI 不可控。 2. 用户数据收集是否合规 模型本身合规通过后,上架为产品,还要考虑跟用户数据的交互的合规性。 关键原则,如果收集用户数据,要用户清晰的知道自己哪些数据被上传,并且要同意,所以你在使用一些 AI 能力会有弹窗提醒,要把你的照片上传到服务器,你同意后才可以继续使用。 上传到服务器,还要考虑是哪里的服务器,大概率是不能传回国内服务器的,可以在美国机房,新加坡机房,以及在用户使用结束后,直接销毁,如果你不销毁,也要用户授权同意。 海外虽然有出于政治目的进行打压,但整体还是在法律范围内,合规的条文也比较细致,所以相对是比较繁琐漫长但确定性的

00
Phoebee_Yang
5月前

Kenny_肯尼: 过去一年半做了多个AI项目,有简单有复杂的,有面向超大规模的小白用户,也有面向垂类人群,其中prompt是非常核心的要素,也是大家在做项目时绕不开的逻辑。在此总结了做prompt方案设计的经验和教训 核心结论: GenAI带来应用新范式,支持通过prompt生成优质的个性化结果,但大众用户不想打开键盘,也不知道填什么prompt,所以需要在保证最终效果的前提下,尽可能通过低成本的表达方式来获得用户的意图。 对话式交互是未来,但目前还无法取代传统图形化交互。 1. 交互:不要让prompt变成操作阻力 - 非必要,勿填prompt,让用户多填一个字,都是对用户规模和转化率的巨大折损; - 如果有prompt的效果更好,那么把prompt做成选填,让专业用户有选择,又不影响小白用户的使用路径;或者首次不填,快速预览结果,后续深度使用再填 - 如果必须填,尽可能填用户不需要额外思考的,否则用户一思考,数据就掉 - 通过推荐词降低输入门槛,并保证对prompt的响应,避免拔高用户预期后但结果又不符预期 2. 信息:通过算法、或信息授权方式来获取用户意图和context背景信息,而不一定要手动输入 3. 流程:把prompt填写留在最后一步,让用户先完成简单的熟悉的操作,增加沉没成本 4. 生态:少数偏专业用户的prompt,沉淀在端内成为模板流转,服务更广大小白用户一键套用和二创。对工具产品来说,飞轮逻辑可能比漏斗逻辑更重要,因为效果比效率更重要。要站在整个平台,整个大生态去思考,从更长周期看对用户的价值,对平台的增长和商业化的价值 提示: - 我是在一个已有的大体量的移动互联网产品中融入AI能力,用户的习惯、预期,以及业务指标护栏都会对新方案的设计做限制 - 以上交互案例是表象,数据也是表象,仅供参考,不一定能复用到其他产品 - 最重要的是,你的用户是谁,他们的需求是什么,你的产品当前处于什么领域、什么阶段,如何更好的满足他们的需求

00
Phoebee_Yang
2年前

Moneytube: 告诉你一个秘密,凡是你感觉自己运气不好的时候,气场弱的时候,不顺的时候,一定是你的磁场出现了问题。 你一定要保护好的自己的磁场,因为拥有好的磁场才是改变M运的开始。 当这个时候一定要先审视一下自己,包括你脑海中的所思所想,潜意识里隐藏的限制性信念以及杂乱的居住环境和身边的朋友,这些都会在无形之中扰乱你的磁场,所以你一定要该清理的清理,该断的断,该调整的调整。 要知道,只有当你把这些围绕在你身边以及在你内心深处的污垢全部清理干净,你的磁场才会变的干净纯净,你的内心才会平静柔和。 只有你整个人变的通透,内心平静以后,你的运气才会变好,事业才会越来越顺利。 其实有些时候阻碍我们的,恰恰是被我们忽略的所谓的小事情。 若你要是感觉病了,一定是因为你身体经络不通了,通则不病,病则不通。 若你要是感觉运气不好了,一定是因为你的心乱,家乱,思想乱,从而影响你的气运磁场,当你自身磁场变的杂乱低频,那么反应出来的就是运气差,情绪差命运差。要知道干净的磁场,才会吸引美好的事。 当我们遇到问题,遇到不顺的时候,第一时间不是抱怨,而是立马停下来反思自己,检查自己潜意识里真正的想法是什么。 要知道,很多时候我们所做的事,所说的话,所做的选择,完全是和自己潜意识相违背的,只是因为自己磁场太弱,遇到一些事情很容易被他人影响,而随波逐流,人云亦云。 要知道你的宇宙只希望你开心,在他的源头是无穷不尽的丰盛与美好,而连接这个源头的能量,就是你身上的高频能量场,时刻保持高频,你将会得到宇宙给你最好的礼物。

20
Phoebee_Yang
4年前
来到即刻的第一天。
00