即刻App年轻人的同好社区
下载
App内打开
1个鹿
442关注746被关注2夸夸
🧙‍♂️XR爱好者和半从业者
🌊希望变得特别和简单
✈️搞不好在冤枉路上找到人生
1个鹿
2天前
想做sharp又 simple 的产品
00
1个鹿
4天前
如果让我来做 AI 智能眼镜的拍照功能,我愿意称为「截图」/「截取」而非拍照。

类似于我们习惯于通过手机截图保存和分享数字的记忆,当下流行的 AIOS 也通过截图功能发起大模型的问询,一个 Always-on 、POV 视角的摄像头,也是一种对现实世界的实时截图能力。

当我们用积极意义审视这项功能,会发现,它可能悄然成为我们连接现实的神经突触和第六感官。

1️⃣ 记忆的定格

那些刻骨铭心的故事,在回忆时只能剩下模糊。而 AI 眼镜的截图功能让每个 “瞬间” 都能在数字空间中永恒存在。

它不是对记忆的替代,而是过去创建索引——当父亲教孩子骑自行车的背影被自动截取,当暮年老人庆祝自己最盛大的生日在镜头凝结,这些被截取的「证据」,能成为时光机,让记忆从易逝的主观体验转化为可分享的存在。

有人可能担心,AI 只能眼镜带来了更严重的数字信息过载,而我认为,它的截图功能实则是对 “当下” 的关照:它既允许我们在重要时刻通过快捷记录,又在更多日常告诉我们 “不必执着记录” ,反而能更坦然地沉浸于体验本身——就像摄影师在完成构图后,会更专注于模特的眼神。这种机器与人的分工,让我们在 “留住时光” “享受时光” 之间找到了微妙的平衡。

2️⃣ 认知的外挂

当截图功能和 AI 的实时分析结合,现实世界就变成了可被拆解的信息系统:看到街头涂鸦时,截图不仅保存色彩,还能调取艺术家生平与创作背景;注视佳肴时,镜头自动识别食材并生成营养分析。

这种 “所见即所识” 的能力,让我们从依赖经验储备的 “有限观察者”,进化为拥有无限知识库的 “智能解读者”。

更重要的是,这种功能为残障人群新的可能:视障者通过图像识别 “看见” 世界,阿尔茨海默病患者借助场景截图重建时空认知。技术在这里不再是冰冷的工具,而是成为不同认知模态的转换器,让世界的丰富性以更平等的方式被对待。

3️⃣ 即时的缪斯

过去需要随身携带速写本,变成了即时截取晨雾中树影;在街头偶遇的戏剧性瞬间,能被自动收入“高光片段”的素材库……生活本身是永不枯竭的素材库,而截图则是在混沌现实中筛选意义的筛网。

POV 视角的粗粝成为了用真实抵抗标准化审美的武器——未对焦的母亲笑容、被指尖遮挡的落日、因快走而模糊的通勤路线,每个人都可以是生活的诗人。

当我们把这种截图分享给他人,是不是也是一种「认知迁移」呢。朋友看到你视角里办公室的天花板,每天开会时无意识凝视的污渍,通勤地铁视角中永远拥挤的车门扶手,这是你传递的「你如何感知世界」的方式。不免让人想到大刘的小说《带上她的眼睛》,跨文化、跨种族的理解,借助这种视角共享,可能带来更强大的「具身共情」。
11
1个鹿
10天前
这款打磨了近两年的产品终于问世了,可能是最接近Apple Vision Pro 的产品。不知道最终定价多少。

🔍 外观设计|熟悉的配方,更轻的体感
vivo Vision首次亮相博鳌亚洲论坛,第一眼观感与苹果Vision Pro高度相似——透明前面板、针织头带、外置电池设计。其体积比Vision Pro 小一圈,重量控制应该更好(Vision Pro约600g)。
虽致敬设计语言,但“软头带”结构是否仍存在压脸问题,不知道轻量化是否能解决佩戴痛点?

⚙️ 硬件猜想|性能追赶与优化空间
目前官方未公布具体参数,但结合开发周期推测,大概率搭载高通XR2+ Gen 2芯片(与三星、玩出梦想同款)。对比Vision Pro的M2+R1双芯方案,性能差距显著,而vivo官网近期还在招“XR性能优化工程师”,令人好奇最终效果,以及电池续航与散热表现待验证。
传感器配置:外部可见8颗摄像头(双目透视+SLAM+手部追踪),或内置眼动追踪,没有拍到 Tof 相机。

🌐 软件生态|手机互联与场景破圈
软件功能虽未披露,但两点值得期待:
1️⃣ 跨端互联:vivo或深度整合手机与Vision的协同功能(如影像调用、通知流转),延续蓝厂的系统生态优势;
2️⃣ MR游戏适配:vv 能否兼容主流VR内容?没有展示手柄,那手势识别能否替代手柄?
安卓XR生态仍碎片化,vivo需证明其“非手机附属品”的独立价值。

🤖 战略野心|MR为跳板,押注机器人长线
此次同步官宣机器人Lab,暴露vivo底层逻辑:
▫️ 技术复用:MR设备的空间计算、环境感知能力可直接迁移至家庭机器人“眼睛”;
▫️ 场景衔接:从个人穿戴设备到家庭服务机器人,构建“人-机-环境”闭环。
消费级机器人赛道升温,vivo“沿途下蛋”策略能否跑通?
00
1个鹿
18天前
AI 被污染实证
31
1个鹿
19天前
AI 眼镜的产品方向草稿

当下-拍摄与记忆:记录生活中的美好时刻、记忆关键信息,继而分享当下。当前 Meta Rayban 已经做得很好了。 近似于手机截图,眼镜拍摄是对现实世界的截图行为,可能会培养出一种高黏性的用户习惯。再往下一步,是对于拍摄信息的分析、整理、汇总。

加上 GUI-通知和字幕:实时的动态信息不用多说,免除了掏出手机的那一下,不算有趣的场景。导航信息、提词器、实时翻译、菜谱,都是类似的。琢磨了一个对自己来说很痛的场景:听播客的时候信息左耳进右耳出,很需要配上实时字幕。这种对于听觉信息的「中间人攻击」,会给 1 中的记忆更多 context。

来点 AI-问答与任务:配合多模态的传感器,AI 眼镜是最佳的大模型交互载体。GUI 除了能呈现文字反馈,增加交互效率外,还能成为基于情境的更「主动」的交互触点。

再往前一步-生态与应用:在 AI 眼镜能做好分内之事之后,把更多细分的场景的工作交给开发者。点餐、旅游、车控... 也许在这个阶段,和传统的应用开发不同,只要针对 AI Agent 就行,控制端侧(手机)里的应用和云端的服务完成任务。
11
1个鹿
1月前
⚔️ 体验了VR大空间项目《风起洛阳》
前20分钟:剧情导入+角色扮演
后40分钟:Quest3头显里的神都奇幻漂流

美术确实惊艳,满星推荐场景设计
❄️ NPC建模穿越千年的粗糙
🔫 射击玩法像打年兽
🚶 移动体验釜山行既视感,队友僵直+SLAM漂移
📶 马赛克画质体验

隐藏剧情:与六位小队友的沉浸式育儿体验
特别鸣谢:疯狂道歉的NPC(打工人何必为难打工人)

走出场馆时在想:究竟是技术限制了想象力?还是想象力需要等等技术?
00:11
00
1个鹿
1月前
今年的职场中最重要的两件事:
1. 减少无意义的工作的消耗
2. 不要为短时的无意义患得患失
00
1个鹿
1月前
iPhone 16e,典型的库克式刀法的作品。通过 A18 芯片+长续航制造“性价比”假象,却在屏幕、影像、充电等高频使用场景精准阉割,甚至牺牲 MagSafe 生态闭环。

1. 性能与硬件
- GPU 核心削减:A18 芯片的图形处理器从 5 核减至 4 核,游戏性能下降约 18%
- 散热缩水:取消真空腔均热板,仅保留石墨烯贴片,高负载场景机身温度更高
- 接口速率限制:USB-C 接口仅支持 USB 2.0(480Mbps),传输速度落后 iPhone 16 USB 3.0(10Gbps)
2. 屏幕与设计
- 刘海屏 vs 灵动岛:沿用五年前的刘海屏设计,缺失灵动岛交互功能
- 屏幕素质降级:800 尼特典型亮度(iPhone 16 1000 尼特)
3. 影像系统
- 单摄阉割:仅保留 4800 万像素单摄,缺失超广角镜头、微距摄影、传感器位移防抖、电影模式
- 操作限制:取消相机控制按钮,无法滑动调节焦距
4. 充电与连接
- MagSafe 生态阉割:仅支持 Qi 无线充电(最高 7.5W),取消磁吸功能
- 网络协议缩水:仅支持 Wi-Fi 6(iPhone 16 支持 Wi-Fi 7),国行版 5G 频段不全
5. 其他功能
- 材质与配件:玻璃面板降级为超瓷晶面板,取消第二代超宽带技术芯片
84