夏乙 千平 发自 凹非寺
量子位 出品 | 公众号 QbitAI
苹果又悄悄收购了一家AI公司。
这家名为Regaind的法国初创公司, 致力于研发能够分析照片内容的计算机视觉技术。Regaind可以通过美学、锐度、曝光、色调等属性,判断一张照片美不美,能从你拍的一堆照片中,自动找出最佳照片。
不止于此,Regaind还能分析人脸、判断性别、年龄和情绪。这些能力显然能更好的和iPhone X的面部功能识别相结合。
Regaind的技术也许已经应用在新iPhone之中,毕竟年初苹果就已经拿下这家公司。不过果粉们想要体验可能还得再等一阵子。
多年以来,苹果一直通过低调秘密研发+不断收购创业公司等方式,增强自己的技术实力。其中既有面部识别、机器学习等AI领域,也包括常见的硬件创新与提升。
那么苹果手上还有什么黑科技?或者说:
未来的iPhone XX(20)是什么样?
外形和屏幕
iPhone X显然还不完美,为了安置各种传感器,不得不搞出一个“刘海”。
未来,这个“刘海”肯定会彻底消失。苹果已经拥有的十几个专利,也许可以把所有的传感器都隐藏到屏幕下方。届时手机正面将全是屏幕。
“完美”。只能这么形容。
比方,这个预测基于苹果2004年6月就提交的专利,距今已经13年之久。
这个专利描述了一种神奇的技术,在构成显示屏的成千上万的像素点之间,有成千上万个可以独立拍摄并拼接成完整相片的微型摄像头。
这是一个天马行空的想法,从那时开始苹果又提交了很多显示屏下放置摄像头和传感器的专利。
2007年,苹果在另一项专利中,延展了在显示屏下放置摄像头的想法。摄像头上面覆盖的像素点,在非激活状态下可以正常显示图像,一旦进入拍摄模式,这些像素点就会逐渐变得透明,以便屏幕下方的摄像头拍摄照片。
三年后,苹果在2011年提交了一个更大的专利,具体列出了摄像头、传感器、扬声器等元件,如何在显示屏下面工作。这个方法是在屏幕上穿孔,当然尺寸小到人眼无法识别,这个方案丝毫不影响屏幕的正常显示。
如下图所示,显示屏上的孔洞和下面的各种传感器。狂野~
不过这个专利直到今年1月,苹果才获得正式的授权。这些技术可能就在加州某个不起眼的建筑中,秘密进行着研发。
回到屏幕本身,iPhone X将配备一个5.8吋的OLED HDR显示屏,可以显示纯黑色和更为鲜艳的色彩,除非接下来几年有重大进步,未来的iPhone XX可能仍然会使用OLED屏幕。
至于像素密度,虽然iPhone X的458ppi比三星S8的571ppi低,但仍然远远超过视网膜屏的定义,再增加像素密度的意义已经不大。
未来真正让iPhone XX屏幕与众不同的,应该是Pro Motion。
iPhone X没有这个技术,目前只是在最新的iPad Pro上应用了。Pro Motion把显示分辨率从60Hz提高到120Hz,结果是:画面的移动更加流畅。也许不用等到iPhone XX,明年的iPhone上可能就会用到这个技术。
摄像头和传感器
摄像头嘛,自从19世纪以来,就是用来拍照的。
现在,从大家在Flickr上分享的照片来看,拍摄设备前5名都是各代iPhone,绝对可以说是最流行的相机了。
到iPhone X这一代发布,苹果推出了ARKit,iPhone上那个摄像头的功能,终于不止拍照而已了,比拍照好玩的,还多得是。
如果我们回溯一下那些与相机相关的苹果专利和收购,就能大致描绘出未来iPhone 摄像头的样子,也会发现这家公司早在2015年就为未来几十年的AR和图像技术发展做好了准备。
△LinX的摄像头模块
我们来看一下苹果2015年收购的以色列摄像头模块公司LinX。
LinX的专长是将不同大小、不同焦距的镜头组合成一个“多镜头相机”,并设计软件,将不同镜头采集到的数据集合到一张特殊的交互式照片上。
和现在的双镜头背景虚化是一个道理。
收购LinX之后不到一个月,苹果申请了一份专利:基于灵活扫描模式的飞行时间深度映射(Time-of-flight depth mapping with flexible scan pattern)。
这份专利描述了一种用摄像头和深度传感器结合,来为图像中的某个物体创建3D映射的方法。
是不是觉得有点熟悉?这正是iPhone X上那个根据你的表情创建emoji的玩具。但十年之后,它说不定会成为未来iPhone的基本功能。
苹果收购的成像技术公司不止LinX一家,甚至同在2015年,LinX也不是最受关注的一笔收购。
就在收购LinX之后一周,苹果又收购了增强现实软件公司Metaio。法拉利那个能让你虚拟看车的iPad App,就是Metaio做的。
同年秋天,苹果还有一笔收购震惊了整个电影行业:瑞士的实时动作捕捉和图像处理软件公司Faceshift。
不用戴头盔不用贴一脸传感器,Faceshift就能准确地实时捕捉表情,转移到一个虚拟动画角色上。
2017年过去了四分之三,我们才终于能看懂苹果2015年的收购和专利究竟有什么用:他们成了iPhone X上的TrueDepth相机、ARKit等等新功能。
如果要预测十年之后的苹果iPhone XX摄像头会是什么样,我觉得在硬件上:
有3个以上不同焦距的后置摄像头;
有2个以上不同焦距的前置摄像头,藏在屏幕后边;
iPhone背面会有3D物体传感器;
iPhone正面也会有3D物体传感器,藏在屏幕后边。
在手机正面背面都有多摄像头的情况下,用户就能在拍照之后调节精神,而相机背面的3D物体传感器能帮iPhone软件感知物体在3D空间中的位置,而不是和设备的相对位置。
苹果2014年初申请的一份专利描述了一组水平方向的摄像头,具有折叠的光学组件,能够动态移动改变焦距。
从iPhone X中的TrueDepth相机可以看出,摄像头对于苹果来说,不再只是一种拍照用的装置,而是一种用来获取更多周围环境信息的传感器。
对于iPhone XX来说,有新的相机系统和3D传感器还不够,真正能让它从一堆竞品中脱颖而出的是能充分利用从传感器获取的数据的软件,比如说:
摄像头持续扫描周围环境、在3D空间中追踪物体并建模,让iPhone对周围情况具备感知能力;
眼球追踪功能,让软件具备预知能力,通过用户所注意的点来引导交互,苹果2017年初收购的SensoMotoric Instruments就是眼球追踪领域全球领先的公司;
通过摄像头获取的用户脸部数据来解读生理和健康信息;
用先进的图像处理算法,来保证在FaceTime视频聊天时,对面那个人总觉得你在看他;
机器学习的进步能让iPhone实时对周围的物体计数,比如数出教室里有多少人、有几辆车在等红灯……
不需要那个花哨的AR尺子就能即时对物体、空间进行测量,比如说墙有多高、门口多宽等等。
这些都是功能上的小进步,而iPhone最大的进步,会让它从你眼中“消失”。
未来,iPhone会有着真正无边框的的全面屏和众多传感器,软件能识别你的眼睛、iPhone和前方物体的相对位置,实时调整后置摄像头的焦距,让你看着眼前的iPhone,就如同透过一块玻璃看世界。同时,iPhone这块“玻璃”能对你眼前的世界进行修改。
就像MagicLeap视频中展示的那样,这就是增强现实的圣杯。
电池和内部元件
这是一个几乎等于废话的判断:iPhone XX的处理器性能会大大提升,电池容量也将更高。这是技术进步的必然。
不过即便电池容量提升,iOS电源管理原来越好,但由于处理器更快,显示屏像素更多、更亮,耗电量也会相应提升。大概iPhone XX电池续航还是跟现在差不多。
与Android手机相比,苹果好像在增加电池容量方面一直非常克制,或者说这家公司压根就是希望用户使用充电宝之类的产品?
但这并不是说苹果在电池方面没有创新,实际上苹果已经把一项2010年提交的非矩形电池专利投入产品生产。
如上图这种层状结构的电池,首次应用在2015年发布的MacBook之中。每一层都是微米级的厚度。这种电池让工程师可以把更多的电池塞到笔记本里。如果没有这一创新,超薄的Macbook根本做不出来。
2013年,苹果还有一个专利可以提高充电速度、延长寿命、降低平均温度。
至少在处理器这个领域,苹果公司仍然处于手机行业的领先水平。
苹果一直稳步推进A系列处理器的升级,最新的A11 Bionic处理器里,除了CPU还有苹果自行设计的GPU和神经引擎。目前的Android高端机处理器,基本无法与A11 Bionic匹敌,就连全新的MacBook Pro也不是对手。
苹果很喜欢秀这个历代手机处理性能的曲线,未来iPhone XX出现时,这个走势应该更陡峭了。
总结
未来的手机,正面可能就是一块屏幕,其他所有的传感器都会隐藏不见。今年初,设计师Georgy Pashkov制作了一段“iPhone 8”概念视频,其实这看起来更像未来的iPhone XX。
总结一下,(有理有据YY出来的)iPhone XX参数配置:
5.5~5.6吋OLED HDR圆角屏幕,450-550ppi,Pro Motion加持,亮度800-1200cd/㎡,以及:没有刘海。
3个不同焦距的后置摄像头,2个不同焦距的前置摄像头(显示屏之下)
前后3D物体传感器,高级眼球追踪功能
5000~6000mAh层状电池,采用紧凑的梯田式布局
A20处理器,8-10个混合性能内核,同样的处理器也用在Mac平台,解释macOS可以运行在ARM架构上。
最后一个问题:不知道iPhone XX还有几年才能到来。不知道那时候AI等技术会让手机变得多厉害。
以及,不知道那时候的手机市场格局几何。