@
locoz “Vision Pro 堆料都堆满了,甚至连头显下方都塞了摄像头和红外补光,这种基本的事情做不到才奇怪...没什么好说的,你可以对比一下 Quest Pro 的拆解结构图和 Vision Pro 的拆解结构图,硬件上就没法比。”
嗯,VP 的料确实堆得很足, 但是我并不觉得这是一件单纯堆料就能解决的事情。。我本身是做 SLAM 算法和传感器融合方面的, 料堆上去的同时要求的计算力也是几何增长的, 苹果的方案大概率还是以计算量很大的传统的 VSLAM 加上各种硬件级别的加速来达到 12ms 的延迟,这对整个感知+计算的管线的软硬优化要求非常高。就和 applie silicone 一样,很多人说 max ,ultra 无非就是胶水核心, 但是胶水本身不是一件容易的事情。
“场景上很难规避的,日常使用场景中充斥着这种误识别的问题,比如洗手、拿着餐具吃饭、空手吃零食等等,都是很典型的容易误识别的场景,用户就是希望一边做这些事一边看东西,总不能不用吧?”
我单纯从算法的角度来讲, 这种泛化性极高的模型在工程上是非常难以落地的。 比如不同国家可能有不同餐具, 不同的习惯, 不同场景的最后形成的笛卡儿积的大小太大了。 我估计苹果目前想做的还是提供一个基础的生态, 比如准确的把手给抠出来, 具体对不同场景进行识别不在产品设计内, 把这个市场交给开发者去做。
“我前面也没说画质问题啊,我说的是细节问题导致真实感被破坏。画质方面只要堆料就能得到,其实不是一个值得说的事情。”
如我第一点说的,quest 的彩透的分辨率如果我没记错只有 400 万,这个主要还是受限于算力。但是这个不是一个只要堆料就能解决的问题, 而是在保证延迟的条件下软硬件优化到极致的体现。
"如果苹果愿意砍掉一些不那么重要的东西,佩戴体验是能提升很多的,现在这个头显部分没电池都比 Meta 的 Quest 3 还重一百多克"
作为消费者, 我是能理解这个看法的。 但是从 apple 本身的定位来说, 他需要一个“特殊的”感觉让人感觉到质感或者通俗点说“逼格”。 无论承认与否, “逼格”这个东西, 在商业社会是放之四海而皆准的。 他必须要牺牲一定的实用性来让自己“特殊". 从 iphone 直接取消耳机孔到 airpods , 到位了颜值牺牲散热的 mac pro 垃圾桶, 再到 touchbar 的滑铁卢 等等等等。其中有失败有成功, 但是苹果既然越做越大, 那就证明这个苹果的市场嗅觉的期望值往往是正确的。如果 vision pro 做了个和 quest 3 一样颜值的头戴, 那么这两天根本不会有这么多人自发的带着走上大街去帮苹果营销。
当然真正成功与否, 还是要看未来 1 年 apple 要怎么走这步。