即刻App年轻人的同好社区
下载
App内打开
1个鹿
444关注759被关注2夸夸
🌊希望变得特别和简单
✈️搞不好在冤枉路上找到人生
1个鹿
2天前
XREAL 可能靠头戴大屏,拿到空间计算的第三张船票了。

不同于其他的厂商,XREAL 从产品营销到老板自述,都没有避讳过一个事实:目前的 AR 眼镜唯一能做好的只有「便携大屏」。
认知和产品是一以贯之的:不讲生态和 AI,专注在这块屏幕。为了做好屏幕,逐台调色准让色彩和 Macbook 几乎一致,做 X1 芯片解决通用的 3DoF 连接问题,到 One Pro 量产新光机。
这个光机官方称为X-Prism,和蚁视的混合波导有千丝万缕的联系。它最大的贡献就是解决了 FOV 上限,直接在这一代突破到了 57°,且 Aura 会跳涨到 70°。
具体体验上,原生 6DoF 和足够大的 FOV,让虚拟的屏幕牢牢锁定在空间中,不用脖子僵硬、不用正襟危坐,而是自然、自由。

空间计算的前两张船票,第一张要给MR HMD,用 VST 光学、桌面级算力、超强的感知打造最完整的未来体验;第二张可以发给 AI 小眼镜,虽然目前只能拍拍照和显示一点无关痛痒的信息,但我相信这个全天候感知设备能提供的上下文能在 LLM 的催化下产生巨大的生产力和情感价值。
第三张,要给 XREAL :比 HMD 更舒适的佩戴,比 AI 眼镜更强的显示交互能力,更可能被大众接受。

作为曾经的 VST 道路的「唯粉」,不得不在体验之后承认,这种光学结构,配合 X1 芯片、电致变色,已经走在了一条更可能成功的道路上。
为什么这么说?
智能硬件最大的困难不是缔造高价值的新体验,而是让用户培养出一种新的习惯,尤其是对于可穿戴的头显/眼镜产品品类,任何一点不适和古怪,用户都会提出拒绝。
所以要么是直接给出巨大的价值,让用户忍不住用下去。要么是用渐进的变化,让用户逐步养成习惯。
以空间计算为目标,以便携大屏为产品,AR 眼镜每一代都在解决存量用户的一个痛点、并拓展一点用户,让用户为新体验一次又一次地买单。以此让公司在「迭代-惊喜」的正循环下去。
而相比之下,堆料出一个未来体验,用幻想吸引一波尝鲜的用户和激动的开发者,被迫吃灰的背刺,要远比「不够用」要坑得多。这种事情可能也就 OnlyAppleCanDo。
越来越期待下一个五年,这三种产品谁能笑到最后:
- 🥽 分体式的 MR HMD
- 🕶 结合眼动虚实锚定、更大 FOV、Android XR 生态、眼手交互的便携屏
- 👓 加上光波导显示,和手机连接更紧密的 AI 眼镜
#XREAL #AR
30
1个鹿
5天前
今天看到有文章更详细地曝光了PICO 下一代头显Swan(天鹅)的信息。在行业内也是公开的秘密,今天就来和大家聊聊三款最值得关注的MR头显:PICO Swan、Meta Phoenix(puffin),三星的 Moohan。

分体式是轻量化是出路吗?

PICO Meta 都搞起了分体式设计,运算单元与电池集成于一个“计算模块”,头显会降低到 200g 以内。
减轻头部负担是提升用户舒适度的关键,亦是 MR 从“体验性”产品向“日常化”设备演进的必要条件。
这种思路也可以在 PCVR 上看到,可以看我之前分享的笔记《如果 Vision Pro iPhone 还轻》

新芯片实现低延迟

MR 领域,无论是空间定位与映射(SLAM),还是视频透视(VST),任何微小的延迟都可能破坏沉浸感。
PICO 正研发专用芯片,推测 Meta 也类似。毕竟,将计算能力近眼化,需要专用芯片的定制优化。MTP 是衡量 MR 体验的关键指标,而自研芯片正是缩短这一延迟的有效途径。
XREAL X1 开了 XR 行业做芯片的先河,虽然只是 3DoF,也让人感慨这个产品门槛真高。

统一渲染的无缝体验

VisionOS 的问世,为 MR 生态树立了标杆。其统一渲染引擎所提供的无缝体验,至今仍像一把达摩克利斯之剑,悬于其他 MR 平台之上。
要实现类似的效果,技术挑战外,更是艰难的生态构建。谁能为开发者提供更优越的工具,谁能吸引更多高质量的应用,谁才能最终赢得用户青睐。

分辨率多高才算够用?

苹果与三星均选择了单眼 4K。然而,我个人倾向于认为 2.5K 40 PPD,对于观影、游戏及轻办公场景已然足够。过高的分辨率不仅意味着更高的计算负荷与制造成本,其对实际体验的提升也可能并非线性。PICO 在其产品选型上或许正瞄准这一平衡点。

Meta 的两条产品线

Phoenix 预计于 2027 年发布,这一时间节点 Orion 消费者版本临近。Phoenix MR 形态与 Orion AR 眼镜,未来是会融合,形成统一的 AR/MR 平台?抑或是会划清界限,分别服务于特定应用场景?这是一个值得深入探讨的问题。

巨头的保守尝试

三款产品中,三星和 Google 合作的 Moohan 是最「无趣」的,和 VisionPro 几乎一样的产品定义也会有一样的佩戴问题,而且芯片、系统、生态上的弱势让他们的综合体验必然远低于前者,更像是试水的合作。类似产品定义的头显还有来自中国的玩出梦想MR Vivo Vision,尤其是玩出梦想MR 的头显根据我的体验,完成度非常高。
53
1个鹿
7天前
最近尝试用 AI 辅助写作,逐步调整 Prompt,AI 味已经很轻了。还得是上下文!如果生成的内容不够好,那就修改 Prompt,而不是修改结果。
00
1个鹿
14天前
不知道有没有朋友有类似的需求:用安卓手机拍下的动态照片(Motion Photo),分享给使用 iPhone 的朋友之后照片就变成静态的了。
AI 老师傅做了一个小 App,可以支持小米、三星、华为拍摄的动态照片转换成 Live、Gif 和视频。
对于双持的用户来说会有点用,应用已经上架国区外的 App Store,欢迎体验。
12
1个鹿
18天前
界环眼镜的夏总是个务实的硬件创业者。

眼镜本来就是一个Always-on的设备,在发掘出足够高价值的需求之前,不要贸然破坏它。
一旦用户不愿意长时间佩戴了,失去用户时长,失去所有。
所以界环眼镜只集成了音频功能。
00
1个鹿
1月前

dexteryy: 我做「毛玻璃」也有一年多了,不得不站出来为Liquid Glass说句公道话:大家不要小看毛玻璃的意义,它不是为了好看,而是GUI软件为了支持多模态AI和AR/MR而从屏幕发展到空间计算所必然带来的重大本质变化😆 空间计算环境下,GUI的背景是真实物理空间,会动态变化和风格不一致、各种明暗各种颜色都有, 所以GUI不能用固定背景色,只有白天模式和黑夜模式也不够(这个功能其实也是为了有限的解决GUI适应不同环境的问题),需要跟随环境变化(包括你实时的视线变化)而动态变化——GUI的「每一寸」都需要根据背后环境的视觉外观而实时动态渲染 (参考:https://m.okjike.com/originalPosts/675e64988dc13469678c8def?s=ewoidSI6ICI1NWY3OTZmYzE3NjYwMDEzMDBjZGRlZTUiCn0=) 这实际上等于要求每个应用不能各自自己渲染自己,不是把最底层的图形渲染结果(比如浏览器引擎 GPU Backend 的渲染结果)给OS合成,而是需要把自己内部更high level的GUI信息(比如浏览器引擎做光栅化之前的信息、3D引擎的ECS数据、能生成shader的node graph数据)提供给OS,让OS统一渲染所有应用 Android XR 就无法支持这种毛玻璃/liquid glass功能(https://xxdq5sjird.feishu.cn/docx/M6ZtdySEIonVnlx5HRNc3PNenve?from=from_copylink),只能做alpha混合,跟它的 Home Space 没法像 visionOS 的 Shared Space 那样支持 2D+3D 混合应用的原因类似 所以「毛玻璃」不仅影响GUI软件的适用场景和能力边界,还影响整个系统架构和应用开发方式 iPhone 的 GUI 改成 Liquid Glass 之后,实际上整个 Home/Launcher 界面可以不是固定壁纸,而是实时的摄像头画面,整个手机就好像是透明的(可惜这次没上这个功能)——手机实体屏幕的「背景」注定是会越来越动态的,最终形态就好像「抖音操作系统」,抖音拍摄界面是默认 Home 界面,应用的分发不仅来自图标列表,也来自实时环境画面(多模态输入的一部分)中的上下文。除非在这之前眼镜/轻量头显就能完全取代手机

00
1个鹿
2月前
学到可以用多个 AI 左右互搏提升效果,想试试看。用 Google AI Build 功能居然一句 Prompt 可以写出这样的效果。
01
1个鹿
2月前
堵车社会学让我严重怀疑很多人只有周五和周一才上班
00
1个鹿
2月前
AI 眼镜中的 AI 应该是什么样的?

1. 语音 AI 的情感陪伴:作为一个在脑袋边上说话的 AI ,最基础的需求是 ta 需要具有语气和情绪的真实感,以及把握合理的反馈长度和节奏,逐步获得用户的信任和容忍。

2. AI first 的功能分发:无论是镜腿 TUI 还是外部控制器,AI 眼镜的功能分发都依赖于 AI。因此,需要基于用户语音输入、周围环境信息、长期记忆,尽可能快捷、准确地分发功能。随着模型能力和用户预期的水涨船高,分发也可能变成异步的,眼镜也可以只提供一个“进度跟踪”。

3. AI first 的用例实现:AI 眼镜的 Killer App 功能是什么?不是拍照、不是多模态问答、更不是耳机,我认为,在能提供的原子能力足够多的时候,会量变到质变,高价值的用例也会自然涌现。例如,用户说想要播放一个符合现在氛围的音乐,这不是产品设计出来的 Workflow,而是模型基于已有的音乐能力自己实现的。因此,利用 MCP 等生态连接外部世界的工具、公共数据,构建用户的长期记忆、优化高频用例的效果,都很重要。
02