即刻App年轻人的同好社区
下载
App内打开
Ian在AR行业
110关注556被关注0夸夸
👓 迈进第七年的XR产品经理,AI眼镜是现实,AR眼镜是信仰
👓 WX:hyr878,欢迎加我交流~
Ian在AR行业
22天前
眼镜的拍照其实是对眼前正在发生的事情的“截图”,当你想保存眼前的发生的事物就“截图”,纪实意义大于手机多焦段刻意构图带来的主观表达。

1个鹿: 如果让我来做 AI 智能眼镜的拍照功能,我愿意称为「截图」/「截取」而非拍照。 类似于我们习惯于通过手机截图保存和分享数字的记忆,当下流行的 AIOS 也通过截图功能发起大模型的问询,一个 Always-on 、POV 视角的摄像头,也是一种对现实世界的实时截图能力。 当我们用积极意义审视这项功能,会发现,它可能悄然成为我们连接现实的神经突触和第六感官。 1️⃣ 记忆的定格 那些刻骨铭心的故事,在回忆时只能剩下模糊。而 AI 眼镜的截图功能让每个 “瞬间” 都能在数字空间中永恒存在。 它不是对记忆的替代,而是过去创建索引——当父亲教孩子骑自行车的背影被自动截取,当暮年老人庆祝自己最盛大的生日在镜头凝结,这些被截取的「证据」,能成为时光机,让记忆从易逝的主观体验转化为可分享的存在。 有人可能担心,AI 只能眼镜带来了更严重的数字信息过载,而我认为,它的截图功能实则是对 “当下” 的关照:它既允许我们在重要时刻通过快捷记录,又在更多日常告诉我们 “不必执着记录” ,反而能更坦然地沉浸于体验本身——就像摄影师在完成构图后,会更专注于模特的眼神。这种机器与人的分工,让我们在 “留住时光” 与 “享受时光” 之间找到了微妙的平衡。 2️⃣ 认知的外挂 当截图功能和 AI 的实时分析结合,现实世界就变成了可被拆解的信息系统:看到街头涂鸦时,截图不仅保存色彩,还能调取艺术家生平与创作背景;注视佳肴时,镜头自动识别食材并生成营养分析。 这种 “所见即所识” 的能力,让我们从依赖经验储备的 “有限观察者”,进化为拥有无限知识库的 “智能解读者”。 更重要的是,这种功能为残障人群新的可能:视障者通过图像识别 “看见” 世界,阿尔茨海默病患者借助场景截图重建时空认知。技术在这里不再是冰冷的工具,而是成为不同认知模态的转换器,让世界的丰富性以更平等的方式被对待。 3️⃣ 即时的缪斯 过去需要随身携带速写本,变成了即时截取晨雾中树影;在街头偶遇的戏剧性瞬间,能被自动收入“高光片段”的素材库……生活本身是永不枯竭的素材库,而截图则是在混沌现实中筛选意义的筛网。 POV 视角的粗粝成为了用真实抵抗标准化审美的武器——未对焦的母亲笑容、被指尖遮挡的落日、因快走而模糊的通勤路线,每个人都可以是生活的诗人。 当我们把这种截图分享给他人,是不是也是一种「认知迁移」呢。朋友看到你视角里办公室的天花板,每天开会时无意识凝视的污渍,通勤地铁视角中永远拥挤的车门扶手,这是你传递的「你如何感知世界」的方式。不免让人想到大刘的小说《带上她的眼睛》,跨文化、跨种族的理解,借助这种视角共享,可能带来更强大的「具身共情」。

10
Ian在AR行业
1月前
AI眼镜的三重火箭是:视听IO、交互、Agents。

一级火箭是弱技术感的视听IO让眼镜定型,二级火箭是能让眼镜视听IO的效率明显比手机好的高效交互,三级火箭是完成率高、正确率高的跨端跨应用Agents。
20
Ian在AR行业
3月前
开工大吉!小米AI眼镜发布在即,你们是不是也在规划25年的AI眼镜产品?写了篇文章聊聊如何思考一副AI眼镜,抛砖引玉,欢迎交流~

本文会从市场竞争格局、功能场景、眼镜的OS、AI于眼镜的意义、交互、显示和AI眼镜的眼镜本身这几个构成AI眼镜整机产品的角度来剖开如何打造一款AI眼镜。

https://zhuanlan.zhihu.com/p/21356410025?utm_medium=social&utm_psn=1870950141743202304&utm_source=wechat_timeline&utm_id=0

30
Ian在AR行业
3月前
过去一年,有很多AI眼镜公司靠虚的东西活着,比如天猫榜、智能眼镜榜、VR陀螺奖、海外媒体报道、上了央视、国内第一个发布“Rayban Meta”的公司、A股AI眼镜概念股等等,苟且活下来的公司是非常幸运的,创业班底不错的公司不容易死,但能不能活过2025就难说,很多公司其实已经在悬崖边了。

据VR陀螺,2025年CES有四十多个AI眼镜产品,看似热闹,实际上大多数完成度不高,而且,经历过2016-2018年VR热、2021年元宇宙热的我们,对这种热还不熟悉么?

2025年,只有一种公司能活下来,就是切中用户需求,打造出有产品力的产品的公司。其他会在AI眼镜的真正爆发年——2026年,因竞争被淘汰。

2025年,就是这么残酷。Meta以低、中、高端的AI眼镜产品矩阵高举高打,也开始进入亚太市场,欧美大公司中的两三家也会发布第一代AI眼镜,中国市场更是互联网公司 消费电子公司 创业公司百花齐放,歌尔为代表的OEM狠狠地拿出看家本领SIP封装方案让镜腿不再傻大粗。

2025年有两种产品会走出来,一种是产品完成度高的产品,类似小米AI眼镜,相比Rayban Meta不需要多少新技术引领,但是就是比雷鸟V3、闪极眼镜等做的更完美;另一种是有品牌且有大模型自主把控能力的公司,品牌会升维打没品牌的公司,有品牌且有模型自己把控能力的公司也会升维打没品牌或只有品牌但没大模型自主把控能力的公司。传统眼镜供应链比较长尾,主要生态合作就行,说不上护城河。目前看,在传统眼镜门店终端展、销、验、配的思路是错的,即在哪个眼镜店品牌和多少个店发售,目前没有看到正反馈的数据,有机会展开讲讲。

所有,不管2024年Rayban Meta眼镜有多火,有多少个创业公司杀进来模仿,这些都无所谓了,创始人们除了融钱让公司活下去外,更多的时间要放在产品体验的打磨上,实实在在地拿产品说话,想想自己的整机和软件有什么差异化。我也会到2026年初时,回过头来看这条博客正不正确。
87
Ian在AR行业
4月前
雷鸟V3是第一副值得买的国产无显示版AI眼镜。

说几个体验好的点
拍照还不错,可惜是横幅,不知道考虑点是啥。
视频也还行,可裁剪成竖幅,会牺牲像素,没体验到。

喇叭音质还行,但感觉没比Rayban Meta好多少。

AI意图识别好用,我说小雷小雷,你看我眼前这个菜单,你推荐我点哪一个?它会自动打开相机来做识别并把我的话ASR,图文prompt一起输入给阿里通义,通义的响应速度挺快,体感上两秒左右得到响应。

有个很新奇的思路是,眼镜充电盒竟然可以通过C口对外给非眼镜产品充电,这个思路有待验证用户是不是喜欢。

最低1799的价格,还是贵了点,但基本是贴着成本在卖了,雷鸟V3我给70分 还是留了不少空间给其他品牌把这个品类的体验做到90分,但是第一副值得推荐的国产无显示版AI眼镜。除了没有RayBan这样的品牌力,雷鸟V3在功能价值层面能对飚到rayban Meta的60%-70%应该没问题。(我体验的版本是早期工程机,有点问题,以交付的量产版体验为准)。

缺点快速说一些,我体验的是工程机,缺点有:拍照横幅 有一些场景下拍会拍不好 如rayban Meta上比较多的案例是对镜拍。 侧视野提示灯的位置考虑的视觉人因不足 亮黑配磨砂黑这种奇怪的CMF设计 按键帽小了点 可能容错率会低 手感不知道优化了没 视频防抖没体验到 通义的语音feedback长度没控制好 拍视频提示灯常亮其实可能指示不了正在录像的状态 电源键做得有点像拍照键 容易误导你去按 实际是「推」。
00
Ian在AR行业
4月前
如果你是个消费电子C端公司,你对AI眼镜的思考会不一样。
如果你是个有PC、手机、手表的公司,你对AI眼镜的思考会不一样。
如果你是个IOT和协议层的公司,你对AI眼镜分的思考会不一样。
如果你是个大模型公司,你对AI眼镜的思考会不一样。
如果你是个做传统眼镜的公司,你对AI眼镜的思考也会不一样。

如果你都不是,那得回到问题的根源来思考,人为什么需要一副带功能的眼镜?是不是华为眼镜加上rayban Meta在欧美验证可行的POV拍摄,在中国卖就可行了?
31
Ian在AR行业
4月前
过去低估了品牌对一副AI眼镜的重要性,总觉得舒适最重要,但转眼一想,一副舒适、好看、但没用的眼镜,和一副舒适、不好看、功能切中我痛点的眼镜,再和一副不那么舒适、好看、功能切中我痛点的眼镜,我会选哪副?

我会选不那么舒适、好看、功能切中我痛点的眼镜。
再者我相信好看和舒适两者的平衡没那么难。
如果一副眼镜有品牌,我相信在部分人群里,品牌是能凌驾于功能之上的,这还是眼镜在人身上的特殊位置有关,那就是通过眼镜来表达自我。

很多公司都错过了在光学不成熟时研究眼镜的时间窗口,那是能在竞争激烈时能打出闪电速度的基石啊,当然现在研究眼镜也不晚,只是现在需要关注的AI眼镜相关的维度变多了。

朋友的公司让我认识到,“组织架构匹配认知”是多重要呀。
20
Ian在AR行业
4月前
做AI眼镜产品,不管软件还是硬件,最重要的无非是一条:以人为本。

跟着我念三遍。
10
Ian在AR行业
9月前
1、最近在思考一个问题,今天的AI眼镜为什么要加上视觉信息,而不是仅考虑听觉信息。

这个问题很难,难的不是这个问题是否是伪命题,难的是为什么要在今天就要加上显示。

长期来看,信息已经以视觉的方式走进每个人的生活,我们习惯以视觉的方式获取信息,无论以直接还是抽象的方式表达现实世界和抽象世界,都能给我们带来精神价值。今天,AI眼镜大行其道,Meta Ray-ban2先行做了一个用语音就能和AI交互的榜样,看似就不需要显示了,也能体验闭环,但其实Meta Ray-ban2没有证明纯声音输入输出的AI交互是OK的,至少这个AI语音交互的功能没有成为核心卖点。

单模态声音输出的缺点就不说了,比如声音时间线性,效率低,还有OWS设计天生的信噪比不可控等,但多模态的AI输入就应该搭配多模态的信息输出,最高「到达」效率的(指的是用户接收到了信息且高保真吸收)依然是视觉,生而效率使命的智能眼镜,必然搭配能走向使命终点的硬件方案,Day1就得思考公司在显示上能做到什么程度。

其次,我们在今天就需要显示,的的确确在系统和应用的实践中和与客户的交流中感受到加上显示有多迫切。

是不是在我们需要获取信息时手机已经解决得很好了?是的,但那仅针对过去十多年移动互联网以APP的数据分发方式和拿起手机的意图交互范式,你有意图时你去拿手机找信息,而加上显示的眼镜能在部分手机生活的基础上,转移到显示眼镜上得到满足,迎合懒的本性。再有,眼镜能产生新数据,就如智能手表的健康数据和实时数据我们没必要打开手机看一样,就不展开了。

供应链也差不多了ready 了。

至于那个在眼镜上发挥显示的killer app是什么,我也在探索中,但这个killer app一定离不开提效二字。

2、最近跟朋友聊天,问到如何看待最近的AI眼镜热。我的看法是,下半年到明年,都是产品定义试错年,没有所谓的绝对正确和错误,每家都根据自己对Meta Ray-ban2成功的理解、对AI应用在眼镜上的理解、对加不加显示模块的理解、对目标客群和产品定位的理解、对眼镜和时尚的理解,其实都不太一样。

我们都知道一副眼镜从轻做就要有取舍,但取舍看似容易,其实是最难的。我之前在博客就说过,非常考验产品经理对用户需求的理解、考验定力、考验简单的取舍背后是否有复杂的系统性思考来构建独特的优势。

就拿Meta Ray-ban2的取舍举例,时间上来看,Meta Ray-ban2大概率是在22年立项的,彼时的光学显示系统如光机体积、波导一致性和良率、光学模组成本和多模态大模型都处于不够好的阶段,我是Meta Ray-ban2的产品经理我也不会上显示。

需求上来看,Meta Ray-ban2落地在发达国家,而且是全球最大的经济体,人均GDP高达七万六刀,一副299美金的Meta Ray-ban2占了人均GDP的0.00448,用福格行为模型来分析,就是虽然买这幅眼镜的动机不是很明确(拍摄+Ray-ban+AI尝鲜可能是),但行动成本低,除了299刀的财务成本和挑一款喜欢的款式,没太多的决策因素,加上Ray-ban除了Asia的2228家门店外,北美和欧洲加起来有近一万五千家门店,「触发」的点也够多。

我想说的是,Ray-ban满足的是物质需求阶段之后的精神探索阶段的精神需求,并没有在解决某个痛点问题,并没有在解决某个痛点问题,并没有在解决某个痛点问题,照搬在国内落地,且把拍摄和语音的交互能力作为卖点,会非常困难。

所以,在Meta Ray-ban2的亮眼表现的背景下,独立思考,切中某个群体的某个痛点,找到他们真正关心的事情,不管是显示、喇叭、Mic和多模态交互的哪种组合,都有机会PMF。
117
Ian在AR行业
10月前
Chatbot➕音频眼镜似乎有点意思,但不适合创业公司,在今年晚些时候的某个时间点会有某个重量级产品出现,对创业公司是不是毁灭性打击不知道。
40