​5年后计算机将怎样改变我们的生活


1:实时语音翻译
这个功能说明什么呢?最起码我们中国人就不需要学习英语了嘛。机器帮你搞定跟老外的沟通
想象一下这样的场景:你只身在芬兰赫尔辛基的一家餐馆点菜,你所说的中文能够立即被翻译成芬兰语,
并用自己的声音念出来,而发音、声调和语调与当地人别无二致。是不是很神奇?我在发布会上看到了
类似的一幕,通过这一套实时语音翻译系统,一个操汉语的中国人和用英语的老外实时沟通,机器及时
将语言翻译出来并发生,语音语调起伏有致,语音的识别度和翻译后句子的语法准确度高的出奇。
越是看起来简单和舒服的应用背后的技术越复杂。短短三分钟的对话中,涉及诸多技术。首先是借助
深层神经网络(DNN)技术和模拟人脑行为,微软研究院开发出了远高于传统技术的更高辨别能力的语音
识别器。其次是能够保留使用者的个性化语音特征的个性化语音合成。再次,是在机器翻译的不断积累和开发,
现场展示的翻译场景中,翻译后的句子几乎没有出现字词和语法错误,听起来地道而流畅。
2:手语翻译系统
这个功能能说明什么?聋哑人就可以随意的跟人交流了嘛。
再设想一个场景,一名聋哑人用手语向马路上的陌生人问路,这位好心人即便不懂手语,也可以不费吹灰之
力听懂他的话语。通过计算机作为中介,这一天也正在到来,聋哑人正在通过机器实现自己“发声”的新希望。
背后的技术逻辑是,计算机用摄像头捕捉聋哑人的手语动作,识别为相应的语言文字,组织语句然后发声“说”
出来。这个系统同时支持对汉语手语和英语手语的识别与翻译,并能将文本信息反向翻译为手语。
这其中最核心的技术在于自然用户界面(NUI)。所谓自然用户界面指的是以更自由和自然的方式实现人与计
算机的交流,计算机的输入系统(注意不是输入法)变地更加直观和容易。计算机最早期的输入系统是键盘和
鼠标,近几年实现了计算机对语音的输入和识别,而下一步将是体感输入,打开电脑的摄像头,你将可以通过
手势、表情、甚至肢体语言操控电脑。这项名为Kinnect的技术曾经应用在微软的体感游戏机Xbox上,现在开始
变得更加精细和敏感,不仅能够识别大幅度的肢体摆动,聋哑人使用手语时细微的手指动作变化也开始能够被识别出来。
体感输入这不仅将让计算机的操控更加容易还能够让计算机进入很多崭新的应用领域。
3:运用传感器分析人与建筑的关系
这个功能说明什么?你就不用挤电梯了嘛
在想下楼的时候就有一部电梯停在你的楼层是一件多么幸福的事,你会不会为了每天等待电梯而不耐烦呢?
将来你或许会发现办公室的电梯变得更加智能,它永远会出现在你想要的时间和地点。传感器、大数据、
云计算、机器学习四者的结合造就着智能家居时代的到来。
在大数据和机器学习的时代,人工智能变得日益临近。计算机正在主动了解我们的需求,并按照你的行为方
式改变自己的行为。微软的人类—建筑分析(HBA)就是这样的一种应用,借助低成本和定制化的传感器,将
居住者行为模式与建筑物的相关数据分析联系起来,即可
对个人进行能耗追踪和行为分析,对电梯等楼宇服务进行优化,建筑变得更智能、更宜居。
4、数字发型师:手机上的3D发型设计
这个功能能说明什么?你可以先看看拥有这个发型的你。
想在改变发型之前就看到自己新发型的效果?你可能也曾经求助过手机APP查看自己心仪发型的效果,可无奈图像总是显
得不够真实。现在,微软亚洲研究院展示了一款新的手机应用程序,实现了发型的所见即所得。你只要拍摄一张自己的照
片,然后再拍摄一张想要发型的图片,就可以在这个APP上看到自己配上新发型的各个角度的3D效果,你甚至可以继续调整
头发的颜色、长度等。当下次去做头发的时候,如果发型师再次怂恿你作出仓促决定的时候,只要拿出手机,确切地向他展
示一下你想要的发型就可以了。
仅凭借单张影像便可创建一个逼真的3D头发模型,是这项成果的核心技术所在。而这个APP对于头发的3D渲染达到了发丝的
级别,因此让新发型的细节看起来栩栩如生,没有以往动画造型的僵硬感觉。如此庞大的运算显然无法在本地手机上完成,
3D建模的运算一大半在云端完成,因此云计算和移动技术是背后另外两项辅助技能。

你可能感兴趣的:(​5年后计算机将怎样改变我们的生活)