贾扬清正式宣布加盟阿里巴巴
仅售 99 美元!英伟达发布最小迷你AI计算机 Jetson Nano
阿里达摩院开发AI“二哈”对付骚扰电话
Uber获软银10亿美元投资,自动驾驶部门估值达100亿美元
Facebook开源服务27亿人的AI硬件“三套件”
周志华获IEEE 2019 年 Edward J.McCluskey 技术成就奖
机器人团队协作,用一根绳子攀爬悬崖
Facebook为AI芯片构建标准容器
艾伦人工智能研究所:去偏误算法并没有想象中有用
今天,阿里巴巴达摩院官方账号正式宣布Caffe之父、前Facebook AI架构总监贾扬清加入阿里,担任技术副总裁岗位,领导大数据计算平台的研发工作。贾扬清的个人领英显示其已于3月份加入阿里巴巴,至今将近一个月。
贾扬清以深度学习框架Caffe作者的身份闻名。清华本硕毕业后,在加州大学伯克利分校取得计算机科学博士学位,先后工作于新加坡国立大学、NEC美国实验室、谷歌大脑,2016年加入Facebook担任研究科学家,任Facebook AI架构总监,负责前沿AI平台开发及人工智能研究。
贾扬清之前曾这样评价阿里达摩院:
我在阿里有很多志同道合的朋友,比如说同在伯克利读博的Xiaofeng Ren(以前亚马逊的首席研究员),当年一起在清华摸爬滚打的盖坤(阿里的技术大牛靖世)等等。
白驹过隙,现在更多的本土公司开始加入人才培养和科研的第一线,这对于AI的发展是振奋人心的好事。(倒退几年,如果我还在读研究生的话,又多了一个实习的好去处呢。)
3 月 17 日,在GTC 2019上,英伟达CEO黄仁勋发布了今年的新产品,其中最引人注意点当属人工智能计算机Jetson Nano。这款设备可以创建数百万个智能系统,支持高分辨率传感器,可以并行处理多个传感器,并可在每个传感器流上运行多个现代神经网络。它还支持许多流行的 AI 框架,使开发人员可以轻松地将他们喜欢的模型和框架集成到产品中。
Jetson Nano 的主要参数包括:
GPU:基于 128 核 NVIDIA Maxwell? 架构的 GPU
CPU:四核 ARM?A57
视频:4K @ 30 fps(H.264 / H.265)/ 4K @ 60 fps(H.264 / H.265)编码和解码
相机:MIPI CSI-2 DPHY 通道,12x(模块)和 1x(开发人员套件)
内存:4 GB 64 位 LPDDR4; 25.6 千兆字节 / 秒
连接:千兆以太网
操作系统支持:适用于 Tegra? 的 Linux
模块尺寸:70mm x 45mm
开发者套件尺寸:100mm x 80mm
售价方面,Jetson Nano 有两个版本:面向开发人员、制造商和发烧友的 99 美元开发套件以及面向希望创建大众市场边缘系统的 129 美元版本。
此外,黄仁勋在会上还发布了图像处理芯片 CUDA-X AI,旨在加速数据科学工作负载,使数据更有用。之后,黄仁勋发布 OMNIVERSE,一个用于多工具工作流程的开放式交互式 3D 设计协作平台。此外,为了满足数据中心和云图形应用不断增长的需求,英伟达发布 RTX SERVER POD和 RTX 服务器。同时,会上还发布了为开发人员提供 Isaac 应用程序的工具包NVIDIA Isaac SDK,以及Level 2+ 的自动驾驶解决方案 NVIDIA DRIVE AP2X。
3.15晚会曝光了可以一年呼出40亿次的机器人之后数小时,阿里巴巴达摩院开发的防骚扰电话AI“二哈”一炮而红。阿里称应该把机器人的问题交给机器人对付,当用户在手机上开通了这项服务后,在接到骚扰来电时,用户可以直接转接给机器人接听,可达到以假乱真的效果。
阿里巴巴AI实验室语音助手首席科学家、阿里AI北京研发中心负责人,前微软亚洲研究院首席研究员聂再清表示,开发“二哈”是因为其对各种骚扰电话不胜其烦。这项服务背后主要是智能聊天技术,通过深度强化学习来学习对话策略,理解用户请求,同时用强大的知识图谱制作聊天的知识点,通过跟用户对话,把知识图谱里的知识灌输给用户,同时也引导用户反馈。
在放出“二哈”工作的演示视频后,该技术便获得了不少专家的肯定。其后,阿里还在支付宝小程序和天猫精灵App推出开放体验。
据外媒报道,Uber自动驾驶部门即将获得来自软银愿景基金的投资,据悉,双方的谈判已经进入了最后阶段。
如果顺利获得 10 亿美元融资,Uber 自动驾驶部门的估值可达 50-100 亿美元。
对于该消息,Uber 和软银发言人均未给出回应。
此前,Uber自动驾驶汽车每个月的开销高达 2000 万美金,而且还发生了事故致人死亡,甚至有传闻称 Uber 曾有意彻底放弃自动驾驶。Uber获得资金可帮助其自动驾驶部门迎来一轮跨越式发展。
在3月15日的开放计算项目全球峰会上,Facebook发布并开源了3款AI硬件,分别是面向训练的Zion、面向推理的Kings Canyon及面向视频转码的Mount Shasta。
其中,Zion专为处理包括CNN、LSTM和SparseNN在内的神经网络架构的“频谱”而量身定制,包括三个部分:拥有8个NUMA CPU插槽的服务器;配备了8加速器芯片组,以及一个厂商中立(vendor-agnostic )的OCP加速器模块(OAM)。
Kings Canyon专为推理任务而设计,共分四个部分:Kings Canyon推理M.2模块;Twin Lakes单插槽服务器;Glacier Point v2载卡;以及Facebook的Yosemite v2机箱。同时,Facebook还表示正在与Esperanto、Habana、英特尔、Marvell和高通公司合作,开发能够同时支持INT8和高精度FP16工作负载的ASIC芯片。
Mount Shasta是专为视频转码而开发的ASIC,由Facebook与Broadcom、Verisilicon合作开发。在Facebook的数据中心内,它将被安装在带有集成散热器的M.2模块上,位于可容纳多个M.2模块的Glacier Point v2(GPv2)载板中。
Facebook表示,平均而言,预计这些芯片的效率会比目前的服务器“高出许多倍”。它的目标是在10W功率范围内,以60fps速度输入流编码效率至少比4K高出一倍。
3月16日,IEEE 计算机学会宣布 2019 年 Edward J. McCluskey 技术成就奖花落南京大学计算机与人工智能教授周志华,以表彰他“对机器学习和数据挖掘的贡献”。值得注意的是,周志华教授是今年唯一的国内获奖者。
周志华是南京大学人工智能学院院长、南京大学计算机科学与技术系主任,同时还是CCF会士、常务理事、人工智能与模式识别专委主任、ACM / AAAS / AAAI / IEEE / IAPR Fellow,欧洲科学院外籍院士。此外,他还是大家熟悉的“西瓜书”《机器学习》的作者,并担任京东人工智能研究院学术委员会委员,任京东研究院南京分院总顾问。他的研究领域包括周志华教授的研究方向包括人工智能、机器学习、数据挖掘等。
Edward J. McCluskey 技术成就奖起源于 1985 年,为了奖励在过去 10-15 年间为计算机信息科学和工程领域做出突出创新贡献的人。奖项的名字来自学会第一任主席 Edward McCluskey,至今有 84 名获奖者,此前,联想CTO芮勇、乔治亚理工大学教授Ling Liu、前金山软件CEO张宏江、2017年图灵奖得主David Patterson等都是这一奖项得主。
日本东京大学的研究人员创建了一支双机器人团队,通过一根绳子,机器人可以完成绘制周围环境并穿越高低起伏地形等任务,这使得空中无人驾驶飞行器可以辅助地面车辆。
无人机使用英伟达 Jetson TX2芯片进行板载本地化、映射和导航。这架无人机配备了摄像头、飞行时间传感器和用于高度测量的激光传感器。地面车辆使用UP Core处理器“基于商用Caterpillar平台”。地面机器人运行机器人操作系统的副本,机载无人机使用该副本连接到机器人操作系统。
智能机器人用一根“笨笨”的绳索攀爬:机器人这样完成协作:无人机飞到UGV上方并绘制地形图,将数据传送到地面机器人,以识别周围环境。当机器人检测到障碍物时,UAV将系绳(末端有一个抓钩)缠绕在一个高大的物体上,UGV从固定好的绳子向上爬。
真实测试:研究人员在一个小规模的真实环境中进行测试,结果表明这套方法很奏效,但还是存在一些问题:“由于缺乏传感器,我们没有[系绳]张力控制机制,系绳需要从一开始就延长,结果,UGV经常被绳子缠住。”
重要性:将来,我们可以想象到各种不同类型的机器人相互协作模式,发挥各自的专长作为一个整体协作,1+1将大于2。但这个实验表明我们还处于早期阶段,还需要解决一些问题。
阅读更多:无人机/ UGV自主合作:无人机通过连接系绳协助UGV攀登悬崖 https://arxiv.org/abs/1903.04898
目前,许多人工智能组织正在考虑建立数据中心,这些数据中心由许多不同类型的服务器组成,运行CPU、GPU、AI定制芯片等不同类型的处理器。Facebook希望将用于容纳AI加速器芯片的机箱类型标准化,并提供了 Open Compute Project(OCP)开源硬件原理图和规范——一个超大规模数据中心运营的服务器设备类型标准化方案。Open Compute Project(OCP)是Facebook在2011年4月发起的一個数据中心开放架构技术发展组织,目前成员包括Intel、Red Hat、Facebook、Mozilla、Rackspace、NTT Data、百度、高盛以及Google等。
Facebook提出的OCP加速器模块支持12V和48V输入,并且可以为模块中的芯片提供高达350W(12V)或高达700W(48V)的TDP(热设计功率)。这是一个有用的特性,因为许多新的加速器芯片都需要大量的电力(任何消耗450W以上TDP服务器都需要用液体冷却)。它可以支持每个机箱内的单个或多个ASIC,每个系统最多支持八个加速器。
设计:你可以在Open Compute Project(OCP)更详细地了解OCP加速器模块 https://www.opencompute.org/wiki/Server/OAM。
重要性:随着人工智能进入工业化阶段,我们将在AI设备所需的基础设施上投入更多资金。标准化AI加速器模块的需求将变大,而这种需求可能来自于亚洲的低成本原始设计制造商(ODM),它们会需要这种标准化产品。
阅读更多:Facebook共享加速器模块(https://code.fb.com/data-center-engineering/accelerator-modules/)。
艾伦人工智能研究所的研究人员进行了一项分析,该分析对用于debias模型的一些算法的有效性提出质疑。他们写道:“我们认为目前的去偏误方法主要是隐藏偏见,而不是消除它”。
研究人员用两种不同的方法比较embeddings:Hard-Debiased(Bolukbasi等)和GN-GloVe(Zhao等),两者都经过修改,以减少训练模型中明显的性别偏见。他们试图分析这些方法中偏误和去偏误版本之间的差异,主要是通过分析两个版本的embeddings之间的不同空间关系。他们发现,这些去除方法主要是把问题转移到模型的其他部分,因此,尽管它们可能会修复一些偏误,但其他偏误仍然存在。
去偏误失败的三个因素:
重要性:作者认为,“虽然这些去除偏误的方法在消除性别方向方面效果很好,但是去除方法基本上是表层化的。刻板印象和从语料库中学到的偏见在嵌入空间中根深蒂固。“
此类研究表明,处理偏见问题将比人们预期的要困难,并强调了人工智能在偏见上有多大程度来自现实世界的数据,而这些系统正在接受包含此类偏见的训练。
阅读更多:给猪涂口红(西方谚语:把丑陋的事物变美好而做的无用功):去偏误方法掩盖了Word嵌入中的系统性别偏见,但不能根除(https://arxiv.org/abs/1903.03862)。
作者 Jack Clark 有话对 AI 前线读者说:我们对中国的无人机研究非常感兴趣,如果你想要在我们的周报里看到更多有趣的内容,请发送邮件至:[email protected]。
参考链接:
https://jack-clark.net/2019/03/18/import-ai-138-transfer-learning-for-drones-compute-and-the-bitter-lesson-for-ai-research-and-why-reducing-gender-bias-in-language-models-may-be-harder-than-people-think/