[杂谈]AI First-Google I/O 2017第一日

在今天凌晨,Google 2017 I/O在Mountain View开幕了,一直很期待Google会对现有的产品(Google Home ,Google Assistant)做出如何的优化,特别是在去年的时候,已经开始转向AI First,这一次会不会在应用层面上带来更多的惊喜。

[杂谈]AI First-Google I/O 2017第一日_第1张图片
和往年一样,演讲前的动画也充满了趣味

Pichai公布了一些Google的骄傲数据:

产品链下的用户数超过了10亿;

Google Drive的活跃用户数,从13年的1亿增长到了8亿;

Google Photo超过5亿的用户;

Android的活跃设备数超过了20亿;

也真是一家全球性的公司才能达到这样的体量啊…

在掌声之后,Pichai也很直接的抛出了自己的主题,从过去数年的Mobile first战略转型到AI first。

这一年间,AI热潮都没有消退,但是每个人都带着很多的疑惑,AI是在做些什么?现状又是如何?

Pichai展示了Google近年语音和图像识别的发展:

[杂谈]AI First-Google I/O 2017第一日_第2张图片
[杂谈]AI First-Google I/O 2017第一日_第3张图片

技术越来越成熟,识别错误率下降到了一个可以被接受的范围,如果说移动端的发展让我们适应了手势和触屏的交互模式,那么在AI的时代,我们可能会通过语音进行更自然的交互,不再需要去对图像添加tag或者告诉设备相信的信息,AI能够更智能地读取图像上的信息。

那么,它能做什么?对生活有什么帮助?

Google Lens就是这些技术实践的产品,你可以通过它去扫描现实中的事物,然后获取到相关的信息和介绍。

这是一种信息获取的升级,生活中有太多文字和语言无法描述的事物了,你无法告诉AI那是什么,但是你让它看一看,就能解决你的问题。在演示的视频中列举了三个应用场景:

1.用镜头对准一朵花,它就能告诉你它的品种。

2.用镜头对准一家餐厅,它会给出餐厅的用户评分。

3.用镜头对准商品的条形码,它也可以解读出其中的信息。

想想如果你要通过语言和文字去描述,要得到结果是不是会困难很多?

让使用者做的更少,而获得更准确的信息。

[杂谈]AI First-Google I/O 2017第一日_第4张图片
神奇的Google Lens

Google.ai的三个发展方向,分别是Research,Tools,Applied AI。

在研究领域,Google.ai可以帮助测定编排DNA Sequencing;辅助工具,也有Google autodraw(https://www.autodraw.com)通过对绘制内容的识别,快速匹配出图标;应用层面上,Google Assistant已经融入了很多的智能app和家庭产品中。

[杂谈]AI First-Google I/O 2017第一日_第5张图片

对于Google Assistant,通过对话你就能完成你想要去做的任务,Google Assistant设计中保持的三个特性:

Conversational;Always Available ;Ready to Help

Conversational

使用者需要做的就是与Google Assistant对话,在操作的界面上也保持了IM一样的对话式气泡,更像是在一个对话,交流的环境之中。

Always Available

现在也可以iPhone用户也可以体验Google Assistant的服务了。

Google Assistant可以搭载在更多的产品上实现available,手机,平板,汽车,电视,家居设备都能够有Google Assistant响应,而且也会覆盖你生活中的场景,听音乐,购物,健身,旅行,加油,烹饪…它想要做的就是接入你生活的方方面面。不仅如此,Google Assistant SDK 也开放给了更多的合作企业。多语种支持也是让Google Assistant能够 Always Available 一步,但是演示为什么没有中文呢...

在家庭应用场景上,Google Home也有了新的改变。

Hands-Free Calling

-No setup required

-Call any phone for free

-Your personal number

现在你可以通过Google Home来打电话了,不需要拨号,只需要告诉它打给谁,而且它能够识别使用者的声音,如果你说“打电话给你妈妈”,那就是打给你的妈妈,如果是你的儿子说,那么就会打给你的妻子,这一点小的便捷带来了是深入用户personal的服务,而且通过Google Home打电话也不需要花钱。

Visual Responses

之前Google Home的互动方式,大多数都是它对话进行,但是即使是在家庭中,也有很多不适合语音的场景,像是介绍出行路线,个人日程表,这都用语言很难描述清楚,你可能还是要在手机上去完成。不过Google Home现在可以和你的TV一起协作了,你可以通过对Google Home发出指令,它就可以在TV上通过视觉的方式呈现信息,看视频,还有更多。

[杂谈]AI First-Google I/O 2017第一日_第6张图片
通过Google Home观看YouTube视频

Google Photos也带来了三个新功能,能够更便捷地分享给朋友,也可以分享相册中的图库了,然后...提供了Photo Books的业务,就是可以把你的照片做成一本实体相册送到你的手中,只要9.99刀。

[杂谈]AI First-Google I/O 2017第一日_第7张图片

youtube

youtube的每日观看总时长已经超过了10亿个小时,60%的用户通过手机观看视频,这都是不错的成绩。但是最让人感动的还是爷爷的故事,从自己的房间里折腾,到用科技帮助数千的孩子,这真是温暖人心,而又有力量的故事~

[杂谈]AI First-Google I/O 2017第一日_第8张图片
Aurora Borealis 360现在可以观看全景视频了

Live chat,嗯...和国内送礼物打赏的模式有些不一样,更像是…值乎提问?

Picture-in-Picture

小窗播放功能,不仅限于app内,在home键返回主屏后同样可以看见这个小窗。

[杂谈]AI First-Google I/O 2017第一日_第9张图片


Notification Dots

现在长按app icon也可以看到通知了,避免从一大堆的通知栏里去翻需要的那几条,确实现在通知栏里的通知已经被滥用了...这个Dots可以不让我们错过关心的app通知。

左侧是通知栏,右侧是长按后的pop

Google Play Protect

官方版的Android绿色联盟吗...可是Google Play在国内并不能用,不存在的...

[杂谈]AI First-Google I/O 2017第一日_第10张图片

走向前台的Kotlin

比Java写起来更舒服,完美继承语法,不是很懂,但是去年看到Kotlin 1.0的正式版时还是觉得它很有希望,没想到今年就被Google列入了正式的开发语言,面向未来~

[杂谈]AI First-Google I/O 2017第一日_第11张图片


VR

还记得去年Google公布了自己的VR平台,Daydream,今年是与三星合作Galaxy S8合作,Smartphone VR 和 Standalone VR讨论了一下,没有连线,没有手机,没有PC的独立设备是不是更有优势呢?但是手机发展的也是更加轻薄和智能了啊,我们是不是需要再添加一个设备?

有意思的是提出了VPS的概念,Visual Positioning Service。

这一项服务可以解决室内导航的问题,现在的大体量建筑越来越多了,在机场,车展,大型商场或是仓库里,导航成了一个问题,单靠室内的引导标识还不足以完美的解决,那么VPS,通过对行进路线上取点,与目标路线进行匹配帮助完成导航,确实是不错的想法。GPS可以将你带到目的地的门口,VPS可以帮助你找到想要的东西。




[杂谈]AI First-Google I/O 2017第一日_第12张图片

看起来很棒是不是,之前接触过一些大型公共空间的室内导航问题,采取的方式是在室内布点,作为信源配合wifi作用,VPS实现起来难度还是大很多啊。

Google Expeditions+AR,又给课堂教学带来了更丰富的体验,像是抽象学科,物理,化学,生物,地理,都可以带来更直观的感受。

最后,嗯,Google现在也可以找工作了,是的,Google for Jobs。

[杂谈]AI First-Google I/O 2017第一日_第13张图片
[杂谈]AI First-Google I/O 2017第一日_第14张图片

你可能感兴趣的:([杂谈]AI First-Google I/O 2017第一日)