打开网易新闻 查看更多图片

10 月 19 号苹果又开了一场发布会,这次的新 MacBook Pro 确实足够炸裂,英特尔原地爆炸。

两款全新芯片 M1 Pro 和 M1 Max 的出现甚至让我预见了未来 PC 阵营的洗牌,以后笔记本和桌面级芯片将会不断的向 ARM 架构靠拢,这仿佛是改变世界的苹果又回来了。

不能说是仿佛,其实在苹果,那个满脑子改变世界的乔布斯精神一直都在。

打开网易新闻 查看更多图片

从 iPhone X 开始,苹果就在为未来的技术预埋硬件,当时库克在发布会上说 2017 年时 iPhone 已经度过了第一个十年,而接下来的苹果将进入下一个十年发展期。

这里注意,下一个十年苹果在做的可不只是丑陋的刘海和单纯的技术迭代,而是已经在为下一个“one more thing”预埋技术。

它正在悄无声息的布局在 2017 年开始的每一部 iPhone 中,在其生效之时,iPhone8 开始的每一位用户都能从中获益!

这个技术就是“AR 增强现实”技术,这个技术能将虚拟信息与现实世界巧妙的融合,就如这台虚拟的 iPhone13 Pro。

可别小看 AR 技术,这个能让苹果花大功夫深耕的东西必定不是泛泛之辈,未来轻量化 AR 眼镜出现的时候,人们可以很自然的使用虚拟信息与现实中的事物互动,这必将深刻改变我们的生活!

比如 AR 眼镜可以直接在现实世界中添加地图导航图标和路况提醒,特别直观,开车都不用听地图 APP 的语音和看手机了,苹果布局的这个技术,说是下一次“王炸”也不过分。

而且苹果为未来的新功能预埋硬件,也不是一次两次了,比如 AirPods Pro 中就预埋了刚发布时用不到陀螺仪 U1 芯片,于是……

一年后,你的 AirPods Pro 通过一个固件更新突然支持了空间音频

两年后,你的 AirPods Pro 通过一个固件更新突然支持了离线定位功能

AirPods Pro 用户极度舒适。

打开网易新闻 查看更多图片

那么这里我就为大家盘点一下苹果为了布局 AR 提前做了哪些事。

1.仿生芯片

有留意的朋友可以发现,从 2017 年的 A11 开始,苹果的芯片正式更名为“仿生芯片”。

具体表现就是加入了“神经网络引擎”,这玩意可以帮助手机完成一些机器学习的工作。

比如以前的手机识别一张照片,它只能识别出照片中每个像素点的颜色,而无法识别照片中到底有什么东西;

但是有了机器学习之后,手机就能“理解”照片中的事物了,比如图中的人脸和手机,如果再“聪明”一点,或许还能分辨出周明的 iPhone13 Pro 是假的……

如果你持有仿生芯片的 iPhone 或者iPad,你可以通过设置打开“旁白”功能,然后再打开“放大器”APP,“放大器”就会语音朗读出镜头所拍到的内容,物品场景,甚至是天气都能识别,这是一个盲人辅助功能,但是 A11 芯片之前版本的 iPhone 无法做到。

实际上这个功能CPU和GPU也能干,只是效率太低了,一用手机就热,专业的事就需要专业的“人”干,从 A11 到 A15,“神经网络引擎”从 2 核升级到了 16 核,算力从 6000 亿次每秒升级到 15.8 万亿次每秒,前后翻了 26 倍。

有人说苹果为了数量极少的盲人能做这么多,哎呦我真是太感动了。

但实际上这只是苹果布局 AR 过程中顺手做的一件善事。

目前来看,“神经网络引擎”虽然还有别的功能,但对于一般人真的没什么用,即便是全部砍掉,我们也几乎不会有感知,苹果之所以费这么大劲升级它的性能,唯一说得通的解释就是:苹果在为未来布局

AR需要将虚拟信息与现实世界融合,就必须要读懂画面中事物。

2.LiDAR

iPad Pro2020/2021款、iPhone 12/13Pro 和 Pro Max 等旗舰产品上都搭载的 LiDAR 镜头,我们一般叫激光雷达,主要功能是测距和探测,1971 年阿波罗 15 号飞船就是用的这个技术扫描绘制了月球表面的图像。

打开网易新闻 查看更多图片

可这玩意对普通人没什么用。

可巧的是苹果的激光雷达依然是从 2017 年开始布局的,2017 年,苹果为菲尼萨公司(Finisar)投资了 3.9 亿美元以研发激光雷达。

2020 款的 iPad Pro 搭载激光雷达时,苹果就官宣了这是为 AR 技术而搭载,为此还未 iPad Pro 增加了一颗超广角镜头以捕获更宽广的画面。

而到了 2021 年,苹果又给这家公司投了 4.1 亿美元,目的是为了量产,按这个节点,明年 iPhone14 基础款就能够搭载激光雷达镜头了。

3.精确定位

也就是 U1 芯片,前边的 AirPods Pro 已经提到过了,这是 iPhone11 上开始搭载的,作用就是精确定位,不论是坐标还是方向,按苹果的话说,就是“空间感知能力”。

这个就很好理解了,如果 AR 技术不能将现实中的物品精准,那体验自然是很差的。

试想一下,你在玩游戏的时候,你看到对手的模型跟他实际的位置是不一样的,那还玩个毛。

4.Apple Watch手势操作

在 watchOS 8 更新后,Apple Watch 就增加了一个新功能:AssistiveTouch

这个功能可以让人们在不触摸显示屏或任何按键的情况下,通过手势操作 Apple Watch,手表利用光学传感器、陀螺仪、加速计等传感器配合机器学习,识别出我们捏住、握紧这些动作。

于是我们就可以解放双手了。

这个技术类似 MYO 腕带,它可以用各种手势玩游戏、翻 PPT、操控无人机等,而且非常灵敏和准确。

目前的一些 AR 眼镜是依靠捕获手部的动作操控虚拟信息,但前提条件是你的手必须在摄像头范围内,不光难受,局限性还非常大。

为了解决这一问题,现在很多 AR 或 VR 设备都会给你两个傻大黑粗的操控器,但双手依然无法解放。

如果将 Apple Watch 手势操控的技术加入到 AR 领域,那么对 AR 的交互升级将是翻天覆地的。

5.iGlasses

iGlasses 是苹果 AR 眼镜的暂定名称,苹果早在 2006 年就申请了相关专利,并在 2012 年曝光了这款眼镜的概念图,当时这款眼镜在造型上还是蛮科幻的。

但现在都快 2022 年了,还是不见踪影。

不过现在似乎又离发布的日子不远了,以最近曝光的苹果 AR 眼镜造型来说,可能会是这种普通眼镜的造型,特别低调。

不过按这个体积,初代苹果 AR 眼镜应该跟初代 Apple Watch 一样,算力全靠与之连接的 iPhone。

虽然对于苹果的 AR,目前来说也只能是猜测,AR 技术对未来的影响有多大,我们不得而知,苹果在几乎没有回报的情况下,不知做了多少年,就光是做这件事的魄力和定力,都是值得敬佩的。

很多人说苹果在吃老本,我认为不对,苹果正在用户看不见的地方默默耕耘。

哪一天 AR 眼镜真正成熟之后,苹果就能依靠多年在设备上预埋的硬件和庞大的用户群体,快速的把新技术铺开,将科技的便利第一时间带给人们,而苹果本身也能得到巨大的利润。

反观国内的部分安卓厂商,只是在硬件上疯狂堆料,一昧的赚快钱。

虽然我们国家有同样魄力的华为,却遭到了海外流氓无情的制裁,倘若哪天华为能冲破枷锁,其涅槃之时,便是傲视群雄之日!

启发

虽然说这件事跟我们老百姓关系不大,但我们也可以从里面得到一些启发。

比如我们生活中很多进步都不是线性增长的,而是“跳跃式”进步的,比如挣钱这事,今年挣10万,明天可能就直接翻倍挣20万,后年突然又撞大运,可能做的项目火了,撞到了一只“黑天鹅”啥的,一下子就挣100万了。

而我们平时要做的,就是主动的去提高这种撞见“黑天鹅”的概率。

而对于我们来说,提高这个概率最简单的方法就是多学习、多看书,多去做一些不同的事,厚积薄发!