阿里文学 > 宋末新世界前篇 > 第十四章 特种装备三·头带式电脑(下)

第十四章 特种装备三·头带式电脑(下)

作者:雨林的晨晖返回目录加入书签投票推荐

推荐阅读:神印王座II皓月当空深空彼岸明克街13号弃宇宙夜的命名术最强战神龙王殿重生之都市仙尊财运天降花娇

一秒记住【阿里文学 www.alwx.net】,精彩小说无弹窗免费阅读!

    光场视网膜显示技术的出现,让人们彻底可以摆脱屏幕了。

    光场视网膜显示,是通过在眼睛两侧的一个光场投影仪,把带有影像的光线,直接投射到人的视网膜中,这样人眼看起来,就跟肉眼看到的东西一模一样。

    这一来,电脑投射在视野中的东西,跟人眼本来看到的东西,就有机地结合了起来。

    由于光场投射仪的光线,是与自然光同时入眼的。这意味着,佩戴者视野跟原来看到什么,现在还是看到什么,丝毫无差。

    而在这基础上,电脑需要显示出来的文字和图像,就会叠加到人眼视野中,达到了完美的AR增强现实效果。

    有了光场视网膜显示技术,首先是再也不需要显示器了,所有的影像,都通过光场投射仪来投射到眼睛中。佩戴者的视野中会出现各种图案,而且是立体的,简直就是伸手可得。

    光场视网膜AR显示,起源于本世纪十几二十年代。

    从2016年开始,就有团队进行研究。其中名气最大的,要算是美国互联网巨头谷歌投资的MagicLeap,中文名字叫神奇跳跃。

    他们就曾推出了这种技术的样机,样品机一登场,就受到全世界的追捧和期待。

    到了近二十年,这项技术已经发展成熟。头带式电脑设备应用这个技术,也就没什么奇怪的了。

    丽娜拿过头带,指着眼角两端米粒大小的圆形东西,介绍起来。

    “你看这两头突起,正是投射机的主要部件。它原理就是将图像投射到人的视网膜中,产生混合现实的效果。”

    “所有的图像、文字,都采用AR——增强现实的技术,叠加到视野中。”

    “投影仪本身,则是采用无线通讯,与电脑主机相连。”

    这个头带式AR电脑。它的光场投影仪,就是在眼角的两个小突起上。那两个米粒大小的小突起,正是针眼式光场投射仪。

    “电脑主机在哪里?”

    “电脑主机,是分布式的。”

    “首先是头带AR电脑。这个的电脑主机,是在额头的这个方块下。所以,整条头带是可以独立工作的。”

    “不过为了减轻重量,头带AR电脑只是一个分布式小终端。他的主机在这里,另外只有几十个T的存储容量。”

    “而另外一个主机,则是在腰带上。这个主机中,带有绝大部分的容量。总容量有200PB的大小呢!”

    丽娜拿过防弹衣的腰带,介绍了起来。只见腰带正前方,有一块长方形小片模样的的东西,只有2毫米左右的厚度。

    “这个就是电脑核心主机。”

    丽娜买了个关子,“你猜有什么资料?”

    赵锋干脆摇头,表示一问三不知。

    丽娜解释:“这里保存着全地球所有书籍、音视频资料,以及地球的所有高清地图和各种测绘探测信息。完全就是把当前世界的智慧,都搬到这台电脑里了。”

    “还有你在特种作战时,满足在特殊环境下资料查询的各种资料。。”

    “所以,所有的数据都是离线的。”

    “你带上这条头带和腰带。就相当于背着全世界最大的图书馆。”

    赵锋马上拿过腰带看了起来。

    这玩意儿,可就是随身全球知识库啊!

    “它是怎么操控的呢?”

    “语音、手势、眼球交互、脑电波输入。”

    丽娜比划着。

    “你可以通过语音下达各种指令,这个电脑足够聪明,能够听得懂你各种不靠谱的,带着地方口音的话。”

    丽娜开了个玩笑。

    “此外,当你打开AR电脑时,你的视野会出现各种界面,你可以触摸选择,还可以调出虚拟键盘进行输入。”

    “当然,还有更先进的眼球交互、脑电波输入。”

    赵锋明白了这几种控制方式。

    语音方式,这个好理解。就是不用键盘了,直接说出来,电脑就能理解。

    而手势交互,则是到了二十年代就非常成熟了。当时的人们使用手机,或者对着摄像头的时候,就可以用自己的手势,来进行各种操作。

    这种手势操作,往往会有一个虚拟面,面上出现一个界面一样的东西,然后你的手就可以在上面点击,拖动,等等操作。

    到了三十年代,立体全息显示成为了主流。此时的手势操作,就从平面转为了立体。

    若是本世纪初的人来看,那就会发现一个人在在那里,双手在虚空乱点乱移,电脑却诡异地相应起他的动作,一如拿着世纪初那种笨重鼠标移动一般。

    眼球交互,这种先进的交互技术,在十几年代开始出现,二十年代就开始逐步普及。

    它主要是通过设备发出红外光,来确定用户眼睛的位置。然后捕捉用户的视网膜和角膜状态,通过这些数据,构建用户眼睛的实时3D模型。并通过三维空间,来跟踪眼球的焦点,最终实现了眼球控制的交互输入。

    就拿本世纪初的手机操作来简单说吧。盯着看,那就是手指头在手机上触了一下。盯住一两秒或更长,那就是手指头在手机上按着不放。

    如果眨巴一下眼睛,嗯,那就是手指头双击了。

    它与手势控制比起来,就各有所长。

    手势控制最灵活,易于精确控制。眼球控制可以不用动手,不过缺点是眼球控制的确认和移动反应会略慢。根据自己的需要来选择了。

    而相应的脑电波输入,则是个新奇货色。

    脑电波输入,则是一项近十几年来,才逐渐兴起的交互技术。

    脑电波交互,是指人类直接通过脑波交互,读取思维,由此更加准确而深度地,来解读到人们内心深处的真正想法。

    说白了,就是你脑子里意念默念一个东西,电脑就能知道你想啥。

    这种技术,有侵入式的,也是非侵入式的。

    侵入式,就是在你的脑子里装一个芯片,在体内检测脑电波。

    这个信号的捕捉效果当然好。但是要把脑袋打开,或者开个小洞,听起来都够吓人的。于是招到了大量伦理道德层面的抨击。

    而非侵入式,就是直接戴个帽子,或带个头带,利用体外检测脑电波。

    很神奇么?

    但这真是科学,而且已经被实现了。

    早在2017年,美国著名互联网公司Facebook,就已经在他的开发者大会上,向全世界展示了一项炫酷的脑电波打字技术。

    一位全身不能动的病人,通过植入大脑的电子传感器,以每分钟8个单词的速度,把自己所想的内容转换成显示屏上的文字。

    这项技术一亮相,当时就惊艳全世界。

    而非侵入式的正式实验,则更早。

    2013年,美国华盛顿大学,公布了人类首次“非侵入式脑对脑接口实验”。

    他们的科学与工程教授,拉加什·拉奥,戴上能读取脑电图的电极帽,完成了一次利用“意念”实现的电脑操控。

    但这些技术,在那个年代,都不够成熟。

    直到本世纪三十年代,采用直接贴在头部的非侵入式脑电波读取技术,才开始变得可行。

    经过十几年的发展,脑电波输入已经很成熟了,成为一种重要的输入手段。不过还是没有语音和手势使用面广,只是作为辅助输入手段而已。

    在这个AR电脑,却是将这四种输入手段都结合进来。

    “脑电波输入最直接,速度也最快,可以说是意念控制。所以用来进行文字输入,是最好的手段。”

    “语音输入,则是作为脑电波输入的一种补充和备份。”

    “但是需要位置操控的,这种类似早期电脑的鼠标操控,就是脑电波所不适用的了。这时候就要用手势和眼球控制。”

    “真是好东西。”

    赵锋听到这里,赶紧多摸了几下。

    “还有吗?”