AI一周热闻:OpenAI架构大调整;围棋天才柯洁免试就读清华

  • OpenAI重组架构进入盈利模式,由原YC总裁Sam Altman领导
  • 围棋天才柯洁免试就读清华
  • 英伟达69亿美元收购Mellanox,成英伟达史上最大收购案
  • Waymo正在寻求外部融资,开启商业化道路
  • 谷歌:未来的机器人可以边玩边学
  • 商汤发布时尚数据集DeepFashion2,包含49万张时尚图片学
  • Facebook创建基于文本的冒险游戏环境LIGHT
  • 加州大学伯克利分校推出NeuroCuts,网络数据分类时间缩短18%
  • DeepMind发布导航数据集StreetLearn

OpenAI重组架构进入盈利模式,由YC总裁Sam Altman领导

3月12日,OpenAI 在官方博客宣布:进入重组状态,成为一家“有限利润(capped-profit)”的公司,由原YC总裁Sam Altman领导。虽然要开始盈利了,但是他们承诺会将将投资回报率削减至一定水平,实行“100倍利润封顶”。

根据博客原文,OpenAI 新的组织架构是这样的:

  • OpenAI Nonprofit:仍然主攻技术研究,通过开发新的 AI 技术,而非商业产品来创造出最大的价值。

  • OpenAI LP: “有限盈利”(capped-profit) 公司,负责提升筹集资金的能力,增加对计算和人才方面的投资,确保通用人工智能(AGI)有益于全人类。

根据官方博客显示,OpenAI开始盈利是为了加快人工智能技术的研究进展、拓展研究规模,其需要投资数十亿美元用于大规模云计算、吸引和留住人才,以及建造人工智能超级计算机。

简而言之,如果现在给 OpenAI 投资 1000 万美元,那么只有在这 1000 万美元创造了 10 亿美元的回报之后,超出 10 亿美金的部分才会归 OpenAI 所有。

目前 OpenAI 的董事会成员包括 OpenAI 的 Brockman、Sutskever 和 Altman、最初的投资者 Reid Hoffman,以及 Adam D’angelo、Holden Karnofsky、Sue Yoon 和 Tasha McCauley。值得注意的是,埃隆•马斯克 (Elon Musk) 并没有参与其中,尽管他早年是一个大投资者和支持者。

OpenAI 的官方声明指出:董事会仅限于少数财务利益相关方,只有非利益相关成员才能对“有限合伙人的利益与 OpenAI 非营利组织的使命可能发生冲突的决定”进行投票。

柯洁免试就读清华

日前,国家体育总局官网公示了《2019年优秀运动员免试入学推荐名单》,围棋世界冠军柯洁榜上有名,即将入读清华大学。入学后,柯洁将就读清华大学工商管理类专业。公示显示,柯洁的运动项目为围棋,申报学校是清华大学,就读专业为工商管理类,他本人的运动等级为国际级运动健将。

2017年,柯洁作为“人机大战2.0”的主角与AlphaGo进行了三番对决,推动了AI围棋的发展。

英伟达69亿美元收购Mellanox,成英伟达史上最大收购案

本周一,英伟达正式宣布以创纪录的69亿美元现金收购以色列芯片设计公司Mellanox,成英伟达史上最大收购案。

此次收购将促进这家芯片制造商的发展,减小其对视频游戏的依赖度。

Mellanox Technologies 是一家使用 InfiniBand 和以太网技术的计算机网络产品的跨国供应商,为市场提供适配器、交换机、软件、电缆和芯片,包括高性能计算、公司数据中心、云计算、计算机数据存储和金融服务。该公司的芯片为连接服务器的高速网络提供动力,总部位于以色列和美国,上周五交易日市值约为 59 亿美元。

数据中心收入占英伟达销售额的近三分之一。过去几年英伟达在首席执行官 Jensen Huang 的领导下发展迅速,但中国的经济放缓和加密货币热潮退去开始让这家公司最近几个季度在销售上承受巨大压力。

1 月份,英伟达市值为 910 亿美元,由于中国游戏芯片需求疲软以及数据中心销售低于预期,其第四季度收入预期下调了 5 亿美元。英伟达收购 Mellanox 将赢得激进对冲基金 Starboard Value LP 的信心,该公司是英伟达的股东,于去年与英伟达达成董事会组成协议。

Waymo正在寻求外部融资,开启商业化道路

The Information援引知情人士消息报道称,Alphabet旗下的自动驾驶公司Waymo正在寻求外部投资者的融资,目标融资对象是大众这样的欧洲汽车制造商。

如果此次融资成功,这将是Waymo成立十年以来首次引入外部资本,这意味着Waymo向商业化的公众公司迈出了重要的一步。

据外媒报道,Waymo的估值可能是通用Cruise的数倍,通用Cruise最近从本田汽车融资27.5亿美元的估值是投后146亿美元,而Waymo出让的股份则不会超过20%。此前,摩根士丹利对Waymo的估值是1750亿美元。

据分析,Waymo此次融资是为了更好的行业资源或市场资源,这对Waymo来说是最重要的。

谷歌:未来的机器人可以边玩边学

谷歌大脑展示了如何让机器人没有目标地“玩”也可以变得更聪明。谷歌通过模拟远程操纵机器人获得了一个数据集。在远程操作中,研究人员让机器人用机械手和机械臂与现实世界交互,但是没有具体的目标。

谷歌将这个数据集称为“Learning from Play data(LfP)”。谷歌将这个数据集用于一个系统,该系统试图对这些有趣的动作序列进行分类,将它们映射到一个潜在的空间。同时,系统中的另一个模块试图查看潜在空间并提出可以将机器人从其当前状态转换到其目标状态的动作序列。

谷歌将使用这个数据集的方法与使用行为克隆技术、基于具体的演示数据完成任务的方法做比较,结果发现,使用LfP数据集的机器人表现更稳定,且在大部分任务中成功率都较高。

有趣的是,研究人员还发现,使用LfP数据集训练的机器人在首次失败后会多次重新尝试完成任务,且在从未接受过任务标签的训练的情况下,其潜在规划空间会学会嵌入任务语义。

重要性:机器人训练数据手机成本昂贵、难度大,且容易发生分布问题,这种没有目标的数据集将让机器人系统试验更加简单,有利于创建共享数据集。

阅读更多:从玩乐中学习潜在空间规划 https://arxiv.org/abs/1903.01973

商汤发布时尚数据集DeepFashion2,包含49万张时尚图片

商汤研究院和中国香港大学联合发布时尚数据集DeepFashion2,该数据及包含大约49万张13个种类来自商店和消费者的时尚图片。

详细标签*:在DeepFashion2中,“图像中的每个项目都标有比例、遮挡、放大、视点、类别、样式、边界框、密度标签和像素掩模,”研究人员写道。“据我们所知,这是文献中首次定义13种类别来表现服装姿势预估,这些类别比人类姿势更加丰富和多样化”。

DeepFashion2是DeepFashion的后续数据集,后者于2017年初发布。DeepFashion2的注释数量是DeepFashion的3.5倍。

重要性:各种行业很可能会被广泛部署的基于人工智能的图像分析系统所改变,时尚行业很可能会利用各种图像分析技术自动分析并了解不断变化的时尚潮流。
 
阅读更多:DeepFashion2:用于服装图像检测、后期预估、分割和重新识别的多功能基准。
 
GitHub:DeepFashion数据集(https://github.com/switchablenorms/DeepFashion2)。

Facebook创建基于文本的冒险游戏环境LIGHT

LIGHT包含基于文本的多人地牢(MUD)中的人和AI代理。该MUD由663个位置,3462个对象和1755个单独字符组成。它还附带数据,Facebook已经在游戏中收集了人类扮演角色之间的大约11,000个互动。

LIGHT创建了一个多样化的游戏世界,AI代理人和/或人类可以访问的地点包括乡村、森林、城堡等位置。

动作和情感:LIGHT中的角色可以进行一系列的动作(吃、喝、上、下等)和表达情绪,如鼓掌、脸红、挥手等。

结果:测试结果表明,基于谷歌“BERT”语言模型的系统表现最佳。此外,在LIGHT中成功的模型使用了大量的上下文背景,这取决于大量的数据流(对话、环境描述等)。

重要性:语言可能是我们与日益强大的系统互动的基础,弄清楚如何使用这样的系统需要我们在更加复杂的环境中与它们进行交互,因此,了解LIGHT等系统中代理的性能,这些改进是否可以迁移到其他的能力将非常有趣。
 
阅读更多:在幻想文本冒险游戏中学习说话和行动 (https://arxiv.org/abs/1903.03094)。

加州大学伯克利分校推出NeuroCuts,网络数据分类时间缩短18%

加州大学伯克利分校和约翰霍普金斯大学的研究人员推出了NeuroCuts,这是一个使用深度强化学习来探索如何进行高效网络数据包分类的系统。数据包分类是一项基础任务,要求精准和可靠。深度RL很奏效,意味着“我们的方法可以学习优化给定规则和目标的数据包分类,轻松地结合预先设计的启发式方法,结合其领域知识,且不需要太多人类干预”。

结果:NeuroCuts优于最先进的解决方案,将分类时间缩短了18%,且运行时间和内存使用量减少了3倍。

重要性:自适应系统往往比普通系统对失败的健壮性更强,而提高系统适应性的最佳方法之一就是让它能够根据输入进行学习;将深度强化学习应用于网络数据包分类这样的任务,为通过学习而不是编程解决计算机很多的基本连接问题开创了先河。

阅读更多:神经包分类(https://arxiv.org/abs/1902.10319)。

DeepMind发布导航数据集StreetLearn

当你在一个城市迷路的时候会怎么找方向?很多人可能会以附近最有特色的建筑地标为指引。现在,DeepMind也在通过类似的思路来进行导航。

DeepMind开发的数据集StreetLearn让代理学习如何在城市地区导航,并在此过程中开发更智能的通用系统。

什么是StreetLearn? 该数据集为“一个交互式,第一人称,部分观察的视觉环境,使用谷歌街景视图获取数据,并为具有挑战性的目标驱动导航任务提供性能基准,”DeepMind写道。StreetLearn最初由匹兹堡和纽约市内的两个大区域组成,包括一组地理定位的360度全景视图,形成图形的节点。其中纽约地图包括大约56,000张图像,匹兹堡地图约有是58,000张。这两张地图还被进一步细分为不同的区域。

StreetLearn旨在开发强化学习代理,为代理提供了五种操作:向左或向右缓慢旋转摄像机视图,快速向左或向右旋转摄像机视图,以及向前移动。系统还可以为代理提供特定目标,如图像,或执行自然语言指令。

重要性:导航是金字塔类任务的基础,如果我们能够开发擅长导航的计算机,就能够在此基础上构建大量二级应用程序。
 
阅读更多:StreetLearn环境和数据集(https://arxiv.org/abs/1903.01292)。

作者 Jack Clark 有话对 AI 前线读者说:我们对中国的无人机研究非常感兴趣,如果你想要在我们的周报里看到更多有趣的内容,请发送邮件至:[email protected]

参考链接:https://jack-clark.net/2019/03/11/import-ai-137-deepmind-uses-google-streetlearn-to-learn-to-navigate-cities-neurocuts-learns-decent-packet-classification-plus-a-490k-labelled-image-dataset/

更多内容,请关注AI前线

你可能感兴趣的:(AI一周热闻:OpenAI架构大调整;围棋天才柯洁免试就读清华)