作者:佚名
时间:2012-08-20 13:47:00
浏览:4549
|
|
<p> <img alt="\" src="/Public/Upload/image/2012-08-20/201208201347001.jpg" /></p><p> Patti Maes和实验室的研究生Natan Linder正在检查Linder发明的新操作界面设备。</p><p> <strong>5年后的智能将会是什么样子?</strong></p><p> 不但可以知道你身在何处,还能判断出你正在与人交谈,以及谈话的对象是谁。而且它们还可以根据你的交谈内容显示出可找到的相关和文档。或者当它们知道你是在接受采访时还可以自动静音。</p><p> 可以从传感器以及数据库中获取关于你的诸多,例如日程、习惯、爱好,以及哪些人对你来说最重要。</p><p> 一旦更了解用户当前的情况和用户所处环境及爱好,以及所有这些,它就能做更多的事情。它可以根据当前的环境改变操作方式。</p><p> 最终我们甚至可以让持续我们的对话,并时刻准备好可能与我们对话内容相关的和数据。</p><p> <strong>移动交互界面将会有什么变化?</strong></p><p> 语音只是一个元素,还会有许多其他功能——例如之间互相交流。如果你和我见面的话,我们的会意识到这个情况并会显示可能与我们交谈有关的可用文档,例如我们在实际见面前互通的所有邮件。</p><p> 这就类似于你用谷歌搜索时,显示的所有广告都是与你搜索的内容高度相关的。我可以想象出这样一种情况,无论用户要做什么,总是可以为用户提供许多建议或有用的内容。</p><p> 另一个想法是扩展用户与的交互方式,使之不仅仅局限于触摸和语音。或许你也可以用手势进行交互。我们正在设计的第六感系统,就可以识别手势,它能够识别出来你前面的某件物品,并可以在这件物品上叠加显示或交互界面。</p><p> <strong>你对谷歌的增强现实项目Google Goggles怎么看?</strong></p><p> 谷歌以及之前的其他一些公司已经开始研究可用于增强现实功能的头戴显示器,籍此就可以随时提供与用户周围环境相关的视觉和听觉。</p><p> 目前我所知的用于增强现实的头戴显示技术还有很大提高的空间。或许谷歌还有一些我所不熟悉的技术,不过我现在用过的所有头戴显示器都有一系列的问题,因而不是特别有趣:它们的视野太狭窄了,而且很重,真的是又大又笨重。</p><p> 或许谷歌正在研究某些我不知道的技术——他们的许多研究都是严格保密的,但我不认为这些问题立刻就能得到解决。</p><p> 我怀疑他们的这些是早期的原型设备,在真正成为消费产品之前还要花上一段时间。</p>
|
|
|
|
|
|
|
|
一周最热 _ 一周热点的美文文章 |
|