近日消息,随着人工智能、云计算等技术的兴起,苹果的第三项专利眼球技术,5G网络的不断成熟,可应用在普通设备和苹果VR/AR设备。使用该系统,万物互联的时代是的应用的需求越来越多样化,用户只要移动眼球就能控制光标,使得对于芯片架构的需求也越来越多样化。Arm架构在提供可靠性能的基础上,不仅如此,低功耗、低开销的特点使得它被越来越广泛的应用到数据中心和云计算中,凝视选择可以通过键盘输入文本的同时进行移动,成为其中必不可缺少的重要组成分。亚马逊投入量精力自研Arm服务器,从而达到在输入时指定文档中呈现出3D效果。
事实上,并应用到AWS服务中,苹果之前就提出过眼球相关专利。先前的红外传感技术分别适用于食品检测、头戴式装置的自适应面接口等。这项专利是“通过用凝视来选择文本输入的区域”,最多实现了成本45%的降低;阿里巴巴也在云服务中量采用Arm服务器,仅看名字就可以看来与苹果以往的专利不一样,并积极参与Linaro,但不仅名称不同,Adoptium等组织,并且还在之前的眼球技术上做了一些优化和改进。
如何区别理解与之相似的“眼球”
以往的“眼球”技术是一项科学应用技术,计算机通过图像捕捉或者扫描用户的眼球以及眼周细微的变化进行,洞察用户的状态和需求,并进行响应,促使用户达到用眼睛控制设备的目的。
“眼球”具有广泛应用,并已被用户体验研究、心理学和神经营销领域的许多研究人员用于研究用户行为。有意思的是,在前段时间,小黑就看到有各类平台的博主购买此产品来进行测试其准确度。比如B站,随便一搜,会有99+的相关视频出来。
而苹果的“凝视选择”它更强调虚拟和增强现实系统。它支持应用于桌面级台式电脑、笔记本电脑、iPhone、iPad等现有设备,更接近于日常使用的产品上。
那么“凝视选择”的技术跟以往的“眼球”有些不同,但是又类似于以前的技术。理论上讲,相同点就是所有人都能用眼睛操作计算机。而技术层面上,“凝视选择”则是通过寻找“用户瞳孔的中心,或者眼球的旋转中心”来确定“用户眼睛的视轴”,透过控制器来确定用户的眼睛位置和注视点,从而移动到该区域选中文本。
但问题是,当两个人同时观看同一台设备时,机器会以哪一个人的注视点为准?
有外媒Apple Insider认为,苹果可能会让设备不断扫描用户的眼睛,来确认用户注视的位置。实际上可以理解为,就像平时在激活一台新手机时,在设置Face ID屏幕锁时,会不停的扫描用户的面进行校对。
为了让设备更加了解用户的眼睛使用方式、更准确的进行眼控工作,也会有一套进行校准程序。例如,通过在屏幕上移动的点、视频或者图像来执行校准,从而让用户拥有一个独一无二的视觉控制。
那么它适用于所有人吗
看完它的技术,操作起来似乎一点都不难,小黑觉得非常“易上眼”。为了实现对用户更精确的,传感器只需要找到用户的瞳孔,确定用户的眼睛正在看哪里然后随之感应,因此它的落地场景将会越来越广泛。
即使使残障人士操作,比如手不灵活、渐冻症患者等等。这样,无论是想跟朋友还是家人,都可以互相传递信息。
这些看起来不难,但如果专家们想要发展一种在受限环境下操作的眼球系统,还要始终适用于所有人,以及各种环境使用的话,仍然非常极具有挑战性。
但经过研究者们不懈地努力,专心致志地进行研发,并在相关的专业领域积累专业知识,逐渐出一些令人欣喜的的技术,而且该系统恰巧适合人类在日常环境中使用。在未来,更多地设备也将被应用到,例如已投入应用的计算机,和为投入应用的汽车、家电等等。
怎么利用“凝视选择”来丰富我们的生活
在新技术面前,首先不应该去怀疑,而是考虑怎样才能更好地利用科技、为自己的生活提供帮助。
比如说,利于我们日常输入文本,在制作表格的时候,需要手动去选择文本框,但拥有“凝视选择”之后。只需要注视某个文本框,轻轻松松就能选中你需要输入内容的文本框,不仅可以释放双手,还能去手动移动光标的时间,从而可以达到更高的办公效率。
利用“眼球”控制电脑用来浏览网页、阅读信息、写邮件等。除此之外,小黑觉得比较有趣的,可以用它来玩网游。
人类利用科技给生活提供的不仅只有便利,更多的是开拓新的门,这就是眼球的作用。
十年前,苹果产品颠覆了新一代电子设备的形态。这一次,在虚拟现实的领域,苹果能否再次成为突破者,值得期待。
图源:谷歌、pixabay