一位前苹果员工深入剖析了Apple Vision Pro的开发,谈及了基于AI进行的“读心术”。
Sterling Crispin表示,他曾是Apple技术开发组的神经技术原型研究员,神经技术在最近公布的Apple Vision Pro开发中发挥了重要作用。除此之外,他还致力于采用人工智能技术来预测用户行为。
(资料图片仅供参考)
Crispin称,他在苹果工作期间开发的大部分技术都是保密的。不过,他表示,由于工作的某些内容通过专利而公开,因此他现在可以谈论这些内容。Crispin写道:“总的来说,我所做的很多工作都涉及根据处于沉浸式体验中的用户身体和大脑数据以检测用户的精神状态。”
Vision Pro开发:可通过AI进行读心术?
这些状态将通过眼球运动、大脑电活动、心跳和节律、肌肉活动、大脑血液密度、血压、皮肤电导率等来衡量。使用这些数据,“人工智能模型将预测你是否感到好奇、走神、害怕、注意力集中、回忆过去的经历或其他一些认知状态。”Crispin说。
这种对混合现实或虚拟现实应用用户的AI分析,除了情感状态,还应检测认知意图。Crispin透露,他已参与了用户决策预测等技术——一种人工智能读心术。
“你的瞳孔会在你点击之前做出反应,部分原因是你预计点击后会发生什么。因此,你可以通过监视用户的眼球运动来创建用户大脑生物反馈,并实时重新设计UI以创建更多这种预期的瞳孔反应,这便是一个基于眼动追踪机制的粗糙脑机接口。”Crispin描述道。
Crispin还致力于预测用户的注意力或放松状态。Crispin描述,机器学习以及对身体和大脑信号的分析可以预测一个人的注意力或放松程度,或者他或她的学习强度,这些见解可以应用于苹果沉浸式办公室或冥想环境。
Crispin表示,虚拟环境可以根据这些数据实时更新以提高用户集中力。“因此,想象一个自适应沉浸式环境,它可以通过改变你在背景中看到和听到的内容来帮助你学习、工作或放松。”目前为止,Apple Vision Pro只引入了一个拨盘,支持用户自行调节沉浸感。
Crispin并不知道所描述的技术中有多少实际会被应用于Apple Vision Pro,Crispin表示:“我真的很好奇哪些技术被采纳了,哪些将在之后发布。”
来源:Mixed
AIApple Vision Pro神经技术