您的位置:主页 > 新闻资讯 > 行业资讯 >

脸书如何想象下一代的人机交互界面?

发布时间:2021-04-08 15:09   来源: 得到APP 邵恒头条

导读:分享一下扎克伯格和脸书的团队,如何想象和实现AVR的愿景。

  这周二,我分享了VR行业出现了复苏的迹象。在节目留言中,我看到不少VR设备玩家以及行业从业者的留言。这些留言指出,其实VR设备的体验现在仍然欠佳,比如眩晕问题仍然没有完全解决,另外头盔的重量太重,戴着玩1个小时,感觉脖子都不是自己的了。如果未来VR设备能逐渐做得像眼镜一样轻便,那就好了。

  也有不少人认为,相比起VR,AR,也就是把虚拟物件投射在真实世界的增强现实产品,会更快地在大众市场普及起来。脸书此前就曾发布计划,将在今年年底前,和太阳镜公司雷朋合作,推出他们的第一款AR智能眼镜。

  不过,看了扎克伯格和The Information的访谈之后,我意识到做出一款AR眼镜产品,难度远比VR头盔要更高。这不仅是技术上的难度,还因为扎克伯格有一个非常大的野心。他对VR和AR的想象,绝不是要做一a个像苹果手表那样的“配件”。扎克伯格的愿景是让AR产品替代手机这样的电子设备,成为下一代的计算平台。这就要求AR产品在一些底层逻辑上有突破,比如,人和机器交互的模式需要被重新定义。

  在今天的《邵恒头条》中,我就来跟你分享一下扎克伯格和脸书的团队,如何想象和实现这样的愿景。

  我先来跟你分享一下,扎克伯格的愿景。你要知道,现在脸书整个团队有将近1/5的人都在VR和AR团队上,这个团队有10000多人,规模仅次于脸书的第一大团队,工程部门。现在管着VR和AR部门的老大叫Andrew Bosworth,这个人来历也不简单,以前是脸书最重要的广告业务负责人,现在虽然向脸书CTO汇报工作,但是大体上独立运行他的部门。

  任谁看到这样的人员配置,都能感受到,在VR和AR上,扎克伯格那真是下了狠心投资。除了脸书现有的社交媒体业务之外,这是扎克伯格最重视的业务方向了。

  那为什么他会这么看重VR和AR呢?

  在访谈里,扎克伯格是这么说的:因为脸书是一家社交公司,他们一直都在打造各种各样的社交模式,包括通过短信社交、视频社交、图片社交等等。但是没有哪种线上社交模式,能比过跟别人面对面社交。扎克伯格认为,通过AR和VR,他们可以在线上还原这种面对面社交的体验。比如你戴着一副智能眼镜,这副眼镜能把你一个远方的朋友的3D形象投射到你身边的沙发上,这样你俩聊天的时候,就像坐在你家沙发上聊天一样。

  不过,当我看了更多的材料之后,我发现扎克伯格的野心远远不仅限于社交领域。他和他的团队还希望,通过打造一个智能的AR设备,他们能彻底改变人和环境互动的方式。

  跟你分享一个场景:你经过一家咖啡店,不需要掏出手机,到手机上查询这家咖啡店的评分如何,有什么产品受欢迎。你的AR眼镜可以自动识别咖啡店,并且询问你,是否需要给你下单一杯拿铁。你如果确认下单,接下来你只需要到吧台,等着咖啡师把咖啡做好就行了。

  等你拿到了咖啡,走到了一张桌子前坐下,你也不需要掏出电脑办公。你只需要掏出一副有触感功能的手套,你的眼镜会自动投射出一个屏幕和键盘,你戴着手套在这个虚拟的键盘上打字就可以了。

  当然,这些都是对AR产品极其理想的终极想象,距离实现还不知道要多少年,甚至多少个十年。

  但我觉得值得咱们关注的,是这些想象体现出,扎克伯格希望他们公司创造的AR眼镜,能替代手机、电脑,成为人们和虚拟世界,以及和真实世界交互的第一界面。

  这件事的技术难度可想而知:比方说,那么小的一个眼镜,怎么能有手机、电脑那么强大的算力呢?如果算力上去了,重量会不会太沉?散热会不会成问题,总不能脸上一直在吹热风吧?还有眼镜镜片是透明的,光学技术能不能做到,让一个透明的镜片成为高清屏幕,而且还得显示3D图像呢?

  这些难题,是我们容易想到的。

  但是这里面最难的是什么呢?我看了脸书VR/AR团队这个月发表的一篇博客文章,发现在他们看来,最难的难题还不是算力、散热、显示,而是这样一个AR眼镜产品,需要我们彻底地改变人和机器互动的模式。

  人和机器互动的模式,上一次出现重大的突破,那还要回溯到上世纪60年代,美国发明家恩格巴尔特发明了鼠标。

  今天咱们很习惯于用鼠标在电脑屏幕上点来点去,操作各种应用。但其实在上世纪60年代以前,人们操控电脑需要输入复杂的文字指令。能使用计算机的,也都是专业的计算机科学家。

  鼠标一发明,人们多了一种方式给电脑输入指令,操控电脑变得更加简单了。而且,鼠标也给所谓的“图形界面技术”奠定了基础,也就是像Windows系统那样的窗口。如果没有鼠标,只靠文字指令,你肯定很难想象怎么能用Windows或者Mac的操作系统。

  今天我们习惯用触屏手机,用手指在手机屏幕上点来点去。这其实跟用鼠标操控电脑,没有本质上的区别,只能说更直观、体验被优化了。

  但是,如果你使用的设备,从手机、电脑变成了一个AR眼镜,那么你和设备互动的方式就需要来一个180度的大转弯。不能用鼠标,也不能用手指在镜片上点来点去,怎么互动呢?

  用语音发出指令吗?可是如果你在公共场合,不想让别人听见怎么办?

  用手势吗?可能可以,但是你觉不觉得,两只手要举到眼前去做手势,有点傻里傻气?而且举时间长了,手臂不酸吗?

  或者靠脑机接口?但是难道要总戴着帽子,甚至做开颅手术吗?

  脸书的团队经过不断的尝试,摸索出了一条他们认为可行的技术路线:神经交互界面。他们设计了一种戴在手腕上的设备,像腕带一样,这个设备可以采集从大脑传导到手部的电信号,把这些电信号解码成为指令。我在文稿里放了几张腕带的图片,你可以看一下。

脸书如何想象下一代的人机交互界面?

脸书如何想象下一代的人机交互界面?

脸书如何想象下一代的人机交互界面?

  平时咱们无论做什么动作,我们的肢体都需要接收从大脑传来的电信号。举个例子来说,你用食指在鼠标上点击“确认”,做这个动作的时候,你的大脑就会通过你的脊柱,传导特定电信号到你的手部,指挥你的手指做出这个动作。这些电信号,就相当于是动作指令。

  按照脸书的设想,手腕上的设备,能够采集这样的信号,然后把信号传送到你的AR眼镜上。AR眼镜问你,你要不要喝咖啡,这时候你凭空动一下食指,眼镜就知道,这相当于你点击了“yes”。

  除了“点击”这个动作之外,脑科学专家还可以解码其他的很多动作对应的电信号,比如说左右滑、上下滑,捏,触摸,拖拽,十个手指在键盘上打字等等。

  这种信号的采集能够精细到什么程度呢?据脸书的科学家介绍,即便你的手指只动了一毫米,采集设备也能够识别出来。往后发展,说不准你甚至可以不用做出动作,只是“想象”一下动作,设备就可以把你的意图转化成指令。

  而且他们还不满足于此。在脸书团队对未来的设想当中,他们还希望实现“智能点击”。什么意思呢?就是你的AR眼镜以及腕带,能分析你过去的行为模式和偏好,推测出你在不同场景下的意图。就像前面举的那个买咖啡的例子一样,你经过咖啡店,你的AR设备自动揣测你可能要买咖啡。所以设备会询问你,要替你点咖啡吗,这时候你只需要动一下手指确认就行了。

  这种交互方式,被脸书的科学家描述为“以人为中心的,超低摩擦的交互”。

  你想,过去你使用电脑、手机,都是你要发出指令给它们,而且还必须得用它们特定的语言。可在未来,AR设备要来主动猜测你的意图,理解你的所思所想。这不是“以人为中心”么?再有,过去你操作电脑执行一个指令,总得有掏出设备、打开、输入等等好几个环节。但是未来,你可能只需要想一想,设备就能执行你的意图,这不是“超低摩擦”么?

  好,说了这么多,你肯定会好奇,这个团队现在进展如何?他们说的这些酷炫的功能,现在到底能实现多少呢?很遗憾,博客的文章并没有透露自家的腕带现在能识别出哪些手势,有多精准。所以我猜想,他们仍然在非常早期的试验阶段。

  但毫无疑问的是,他们对于VR/AR技术的未来,有一个非常宏大的愿景。脸书正在重新构建人和机器的交互界面,让人和机器可以毫无摩擦地、随时随地地沟通。

  这让我想到,咱们平时看到一个人长时间低头玩手机,常常会说的一句玩笑话,叫“手机长你手上了吧”。而扎克伯格正在做的事,不正是让智能设备长在人身上,真正成为我们身体的一个器官嘛。

  
  声明:本站在转载文章时均注明来源出处,转载目的在于传递更多信息,未用于商业用途。如因本站的文章、图片等在内容、版权或其它方面存在问题或异议,请与本站联系(电话:020-37784831,邮箱:edit@fly-tech.com.cn),本站将作妥善处理。  


推荐阅读