书架
未来战士到宋末
导航
关灯
护眼
字体:

【前卷】第十六章 特种装备·头带式电脑(下)

『如果章节错误,点此举报』
第(2/3)页
脑核心主机。”

  丽娜买了个关子,“你猜有什么资料?”

  赵锋干脆摇头,表示一问三不知。

  丽娜解释:“这里保存着全地球所有书籍、音视频资料,以及地球的所有高清地图和各种测绘探测信息。完全就是把当前世界的智慧,都搬到这台电脑里了。”

  “还有你在特种作战时,满足在特殊环境下资料查询的各种资料。。”

  “所以,所有的数据都是离线的。”

  “你带上这条头带和腰带。就相当于背着全世界最大的图书馆。”

  赵锋马上拿过腰带看了起来。

  这玩意儿,可就是随身全球知识库啊!

  “它是怎么操控的呢?”

  “语音、手势、眼球交互、脑电波输入。”

  丽娜比划着。

  “你可以通过语音下达各种指令,这个电脑足够聪明,能够听得懂你各种不靠谱的,带着地方口音的话。”

  丽娜开了个玩笑。

  “此外,当你打开AR电脑时,你的视野会出现各种界面,你可以触摸选择,还可以调出虚拟键盘进行输入。”

  “当然,还有更先进的眼球交互、脑电波输入。”

  赵锋明白了这几种控制方式。

  语音方式,这个好理解。就是不用键盘了,直接说出来,电脑就能理解。

  而手势交互,则是到了二十年代就非常成熟了。当时的人们使用手机,或者对着摄像头的时候,就可以用自己的手势,来进行各种操作。

  这种手势操作,往往会有一个虚拟面,面上出现一个界面一样的东西,然后你的手就可以在上面点击,拖动,等等操作。

  到了三十年代,立体全息显示成为了主流。此时的手势操作,就从平面转为了立体。

  若是本世纪初的人来看,那就会发现一个人在在那里,双手在虚空乱点乱移,电脑却诡异地相应起他的动作,一如拿着世纪初那种笨重鼠标移动一般。

  眼球交互,这种先进的交互技术,在十几年代开始出现,二十年代就开始逐步普及。

  它主要是通过设备发出红外光,来确定用户眼睛的位置。然后捕捉用户的视网膜和角膜状态,通过这些数据,构建用户眼睛的实时3D模型。并通过三维空间,来跟踪眼球的焦点,最终实现了眼球控制的交互输入。

  就拿本世纪初的手机操作来简单说吧。盯着看,那就是手指头在手机上触了一下。盯住一两秒或更长,那就是手指头在手机上按着不放。

  如果眨巴一下眼睛,嗯,那就是手指头双击了。

  它与手势控制比起来,就各有所长。

(本章未完,请翻页)