即刻App年轻人的同好社区
下载
App内打开
Woolsey
149关注987被关注2夸夸
一个喜欢爬山的人
Woolsey
6天前
如果你的愿望是自由,财富自由、时间自由,创业绝不是一个理想的选择。
你真正需要的是「当老板」,而不是创业。而且这个公司不大不小,自然运转。想做一家传说中的伟大的公司,路途漫漫、要延迟满足,颇具挑战、要殚精竭虑。为了1%概率的自由折磨自己好几年,并不划算。
至于很多人说苦几年然后自由,我觉得今天面试的时候的候选人说的很好,「活在当下」,把每天都当做生命的最后一天去过。苦大仇深地活几年只为了未来爽一下,既不值得,也不现实。愁眉苦脸是到不了对岸的。
只有你想踏上一场冒险,希望做出令人惊艳的事业,影响亿万人的生活,为行业和世界带来一点变化的时候,只有当你乐在其中的时候,「创业」这场冒险才是真正适合你的选择。
山顶的风景固然令人神往,享受路途的喜怒哀乐酸甜苦辣才是爬山的真谛。
10
Woolsey
8天前
付费功能 商业化
付费功能可以作为一种很重要的传感器
我们产品在很长一段时间内,主要任务都是验证产品假设,打磨调整产品。但是在这样的早期阶段,我们就上线了非常简单的付费功能。我们并不期待这样的付费功能能够带来收入,而是将它视为一种传感器——什么样的用户,在哪些时候,愿意为了我们产品付钱?
我们可以借此筛选出狂热用户,以及那些狂热的时刻,帮助我们搞清楚谁是我们的用户以及哪些地方是我们做对了。
(商业化设计是需要精心设计的,包括付费点、体验流程以及定价策略。最优效果是用户看到付费点的时候就控制不住自己的手,不付钱就不爽,付了钱非常爽,以及不会懊恼,觉得钱花的值。
(商业化设计与商业模式也并不等同
01
Woolsey
8天前
在团队搭建过程中,一个对产品本身有热情的同学,要远强于经验丰富但是对产品不热爱的同学。
区别只是在于「上心」。上心会产生怎样具体的影响呢?上心的同学首先会不折不扣地细致实现所有效果,更重要的是,会从产品的整体体验出发,完善/反馈上游没有细致设计到的细节。甚至能从自己的专业视角提出很棒的产品设计想法。(比如之前我们的前端同学在开发日记本功能的时候,主动提出并实现了翻页效果。当时我们出于版本迭代的角度说第一版放一放也没事,但硬是加班加点把这个效果实现了)
不上心的同学,不但做不到上面的事,甚至只会勉勉强强实现80%的设计稿,最后产品结果里存在一些很荒谬的体验,也视而不见,只能依赖其他人反复push。
前者不但0 bug而且还能帮助提出新想法,后者一个没盯住就全是bug。
创业和打工的心态区别也差不多。
02
Woolsey
10天前
最近又到了头疼招人的渡劫时间。虽然每次都很痛苦,但也总是招募到了万分优秀且志同道合的伙伴一起同行,团队也在这个过程中逐渐壮大,这次也一定可以!💪🏻
(其实我们应该算是比较顺利的,平均一周时间就能完成招募,虽然这一周时间我差不多别的事啥也干不了…
(半夜吐个槽,给自己来碗鸡汤,顺带再刷新一下我们的招聘帖。快投吧,别逼我跪下求你
(如果好心人愿意帮忙转一下,公若不弃,我吴某人愿拜为义父
03
Woolsey
10天前
这两天在我们自己的业务场景下试了一下GPT4o的图像生成/编辑能力,还是不尽如人意。
我尝试基于我们的IP角色形象进行二次创作,但是角色一致性保持依旧还有很大的提升空间。真实业务下的IP角色往往是艺术家绞尽脑汁设计的,和市面上已有形象有明显差异性的形象。这样的形象往往偏离模型的预训练的分布,使得生成/编辑效果较差。
这一点在之前mj的角色一致性功能上也有很明显的体现:如果编辑一个mj自己生成的ai角色,就还行。但如果用mj编辑自有角色,就比较困难。
最近gemini和gpt4o确实证明了单个模型在图像编辑上的能力,期待几个月内开源社区推出同样水平的模型,然后围绕着新模型产生新的类似workflow的开源生态,将图像生成/编辑在生产环境中再向前走一步。
24
Woolsey
1月前
当我们在定义与设计传统互联网产品的时候,基本上你能看到的GUI就是这个产品功能的全部。但是对于AI产品,你看到的GUI部分只是「用户与AI交互的容器」,真正重要的设计在于「AI如何使用容器」,容器是tools,而你需要设计AI的decision以及action。
以AI陪聊为场景举例,传统的微信,设计的是一个IM工具,两个人类分别使用IM工具与对方通讯。而AI陪聊是人和AI分别使用IM工具和对方通讯,需要设计「AI如何使用IM工具」,以及为了让AI有一些action能力,需要拓展IM工具使得AI有一些行动能力(比如让AI可以提醒你做某件事,那GUI就要做闹钟功能)。
而再到我们自己的产品,这种设计又变得更复杂了。因为我们做的是AI陪伴,AI必须要像人类一样具备自主性,不能「推一下动一下」。为了实现这一点,我们还得做到Context-Aware Active Agent:AI会持续思考,并主动行动。比如在听到你生病的两小时后给你买上一盒感冒药,比如在你跟它提到今天有本书很好看的时候会引发它的兴趣第二天也去读一读。
​我们正在实现这一点。并且希望在未来,交互容器可以变得更强大(说的就是你,我心心念念的真·AR眼镜),让我们的Agent可以实时感知Context,也可以让我们的Agent生动地站在人们身边。
00
Woolsey
1月前
记录一下最近自己在做产品设计时比较大的一个变化:开始关注网感和内容表现细节。
之前做产品设计的时候比较哲学家思维,更关注底层逻辑和人性需求。最近会在做每一个产品设功能计的时候把社媒平台上相关话题&场景下的相关帖子都看一遍,搞清楚什么样的内容是大家觉得有趣的,什么样的内容呈现方式是古灵精怪又直击人心的。
真正要把一个带有消费娱乐属性的2C产品做的受人欢迎,需要让功能的所有细节都做的更有趣,举个例子,一个让AI陪伴对象给自己提供饮食建议的功能,最直白的呈现方式是你和AI一问一答聊聊今天要吃什么,但更有趣的实现方式实际上也许是AI掏出一把枪跟你玩俄罗斯轮盘赌,吃A还是吃B谁赢听谁的。既要有用,还要好玩。
哲学家视角是一种很好的Discriminator,可以去繁就简地排除噪音理解事物的本质,但要做一个好的Generator,这还远远不够。
感谢伙伴@之兎 @DariusTopThx 给我的启发和教育。
11
Woolsey
1月前
最近上线了一个跟视觉理解相关的小功能,刚刚回顾了一下技术发展的历史,颇为感慨。
这个功能是让我们的电子小猫陪用户吃饭,用户发一张照片给我们的电子小猫,小猫可以吃到图片里的食物,并根据食物做出反应、发表感想、合成混合现实图像。
我们这个功能差不多从设计到上线只花了10天时间(当然不得不说,我们本身就是行业最快的团队◔.̮◔✧),视觉理解直接用视觉大模型+一段prompt就实现了精确的食物分类、食物描述(很精确,可以区分方便面还是螺蛳粉,区分吃到的那一口是寿司还是边上的芥末)。
而以前要做这么一个功能,需要多久呢?3~6个月。需要收集图像数据专门训练一个食物分类模型,还得训练一个图像描述模型(并且效果很差),可能还得再接一个detection模型,然后自己做训练自己做部署。
这可不只是10天还是6个月的区别,这意味着现在产品可以以超高速迭代,这意味着你原先只能「将视觉理解用在一些有高商业回报的场景」,原先只能依赖单个功能为用户产生价值,而现在可以构建完整、复杂的一系列功能打造复合的产品体验。
而这一切的变化其实也就是去年下半年的时候才发生。(21年底的时候各家大厂开始陆陆续续做视觉大模型,23年下半年阶跃星辰和字节火山陆续推出了一些在线服务)
00