iPhone要用屏幕指纹?但Face ID就可以不要了吗

随着时间的推移,苹果一年一度的秋季新品发布会也已日益临近,这也让各路爆料大神开始“八仙过海各显神通”。近日就有传言称,全新的iPhone13或iPhone 12S系列将有望首次提供屏幕指纹识别功能。同时在知天风证券分析师郭明錤最近的一份报告中显示,苹果可能会为2022款iPhone的某些型号配备屏下Touch ID传感器。

然而,OPPO前高管沈义人日前则给出了完全不同的答案,他认为,“新iPhone有望加入指纹解锁是大概率不可能的,不论拍照式还是超声波式,在安全性和结构占用空间两个维度上苹果可能都比较难以妥协,现在的方向还是留海中的元器件小型化。”

没错,自2017年苹果为iPhone X配备了名为“Face ID”的3D结构光模组后,在全面屏时代就与安卓阵营走上了完全不同的道路。自iPhone X以来,iPhone XS、iPhone 11、iPhone 12系列均延续了Face ID,而安卓阵营则在短暂尝试了3D结构光后,继续以屏幕指纹识别为主。

而安卓机型在这一技术栈上没有跟随苹果的脚步,有观点认为这个原因其实可能很简单,就是3D结构光模组的成本不菲,彼时安卓机型的溢价空间还不足以支撑这一配置。并且因为iOS自成一体,且是苹果拥有绝对控制力的生态,这则是安卓阵营所没有的,所以苹果可以要求开发者必须适配Face ID,但安卓阵营缺乏强制第三方开发者适配的能力,事实上至今也就只有OPPO Find X这一款机型,让微信和支付宝提供了刷脸支付的接口。

随着2018年左右成本更低、体验上与前置指纹识别类似的屏幕指纹技术逐渐成熟,安卓阵营也走上了与苹果完全不同的道路。但考虑到安卓阵营可谓是人多势众,苹果则是“孤家寡人”,所以也给了外界“屏幕指纹技术更加主流,苹果没能再度引领潮流”的感觉。

但事实上苹果其实在屏幕指纹识别技术上也有着相应的技术储备,早在2019年3月,其一份屏下Touch ID专利的曝光就显示,苹果试图在屏下实现模拟物理按压的触感。到了2020年,苹果方面又获得了一项名为“根据电子产品显示屏开展中短波红外光学显像”的专利,其中苹果则提出了在显示元件周围工作的同时,使用光进行指纹识别的方法。

可有了专利与要在产品中应用却是两个截然不同的概念,且不提Face ID相比于指纹识别而言有着“无感”的体验优势,对于苹果而言,不使用屏幕指纹技术的原因其实也很多。首先,隐私与安全是苹果如今高举的两面旗帜,是其在面对咄咄逼人的安卓阵营时,为自家iOS生态准备的差异化武器,两者如今伴随着iOS 14.5的应用跟踪透明度(ATT)功能、iOS 13的苹果登录(Sign in with Apple)而深入人心。

无论是传统的电容式指纹识别,还是光学屏幕指纹,亦或是超声波屏幕指纹技术,Face ID在安全系数上却都要更胜一筹。根据前苹果营销负责人Phil Schiller在iPhone X发布会上的说法,相对于指纹识别(Touch ID) 五万分之一的概率被陌生人解开,Face ID被陌生人解开的概率则只有百万分之一, 安全性生生提升了几个数量级。而安全性和指纹识别带来的体验提升孰轻孰重,显然苹果心里肯定是有杆秤的。

其次就如沈义人所言,成本问题同样也是苹果所需要考量的问题。要知道自从iPhone X之后,苹果在iPhone的空间利用率上就已经进入了瓶颈,脆弱的双层主板和容量不大的电池是不得已而为之,为的就是确保机身强度以及天线“净空区”,在这样的情况下,继续在机身内部放置屏幕指纹识别模块也就意味着要牺牲其他元器件,而这无疑会大幅增加成本。

再加上苹果如今在Face ID上投入的沉没成本已经太高,围绕Face ID已经打造了一整套与之相对应的附属功能,并且也认定Face ID是开启新时代大门的钥匙。自2013年收购以色列3D传感器供应商PrimeSense,到2015年收购动作捕捉公司Faceshift,到2017年投资专业激光扫描仪制造商Finisar以及收购面部识别厂商RealFace,再到上个月拨出4.1亿美元给给Face ID/LiDAR激光雷达供应商II-IV,其在Face ID技术路线上真金白银的投入无疑是十分巨大的。

与此同时,以Face ID为核心,苹果带来了Memoji、Portrait Mode,以及面部识别支付,甚至在WWDC 21上更是宣布,目前苹果已经着手开发全新的密码验证方式,将可让使用者直接透过Face ID登入各类网络服务。可以说围绕着Face ID,苹果已经堆积了大量的功能,并且其内部大量的部门都依靠这一技术而存在。

最后,同时也是最为关键的一点,指纹识别或者说Touch ID以3D Touch被放弃为标志,基本喻示着苹果认为这一技术的潜力已经被挖掘殆尽。但Face ID则是可能撬动未来的工具,众所周知,苹果的3D结构光技术是源自其收购的PrimeSense,后者当年是微软XBOX体感周边外设Kinect的3D传感器供应商,Face ID就是3D传感器小型化的产物,只是受限于硬件它并不能像Kinect一样,感知更大范围内物体的深度信息。

那么,深度感知能力的最佳应用场景是哪里呢?其实苹果方面已经用ARKit公布了答案。如今ARKit之中的绝大多数应用都要依赖Face ID或激光雷达,如果未来苹果将Face ID积累的相关技术搬到AR眼镜上,将会让Apple Glasses拥有手部动作追踪、人物全身追踪、室内物体精确定位、空间测距、三维重建、实时的空间深度感知等功能。

然而,唯一不在苹果规划中的或许就是此次疫情了。由于疫情让口罩的使用极大普及,进而让基于面部识别的Face ID变得很尴尬。但“百万漕工衣食所系”的Face ID却承载了苹果太多的野望。

或许这就是为什么即便疫情在全球大流行,甚至于短时间内依然看不到妥善解决的曙光时,苹果会在iOS 13.5上用检测到口罩则直接弹出输入密码界面,或建议用户录制自己佩戴口罩的面容作为备选,亦或是通过神经网络引擎来对口罩面容进行机器学习。并且在iOS 14.5上,苹果还带来了使用Apple Watch来解锁的功能。

宁愿用这样的迂回策略,也不愿动摇坚持Face ID的决心,无疑是因为苹果在Face ID上已经捆绑了太多的东西。在这样的情况下,将屏幕指纹技术搬到iPhone上无异于是一次“改弦更张”,让此前多年的用户习惯培育付诸东流。