一周焦点 | Dota2团战击溃AI;不如跳舞!伯克利最新人体动作迁移研究

业界焦点


AI 溃败,Dota2 最强人机大战首场终结


640?wx_fmt=jpeg


8 月 24 日早间,OpenAI 的人工智能在 DOTA2 国际邀请赛(Dota 2 at The International)中输给了人类职业玩家。这是人类职业玩家与 OpenAI 机器人三场对决中的第一场,另外两轮比赛将在接下来的两天内举行,每天都有不同的人类团队出赛。(via 网易智能)


李彦宏:AI模仿人脑是走不通的


在 8 月 23 日上午举行的中国国际智能产业博览会上,百度董事长李彦宏谈到了人工智能的三个误解:


640?wx_fmt=png


第一个误解,人工智能应该长得像人。如果要让机器去替代人的体力劳动,那我们在工业化时代已经解决了这个问题,(现在)我们要解决的是让机器能够像人一样思考。


第二个误解,人工智能应该像人一样思考。现在有很多的研究是研究人脑怎么工作,我认为这条路也走不通。人工智能不是模仿人脑的工作原理,而是要用机器的方式实现人脑能够实现的价值或者作用。


第三个误解,人工智能威胁论。很多人担心有一天人类会被机器所控制,完全没有必要。AGI(通用人工智能)离我们还非常远,我们更应该担心技术成熟得不够快,会出问题。


特斯拉上海工厂 2020 年量产 Model 3,市场价不到 30 万元


8 月 23 日,据澎湃新闻消息,特斯拉已在中国获得完全国民待遇,并将于 2020 年在中国的超级工厂量产 Model 3。该工厂前期只生产 Model 3 一种车型,但是其不到 30 万元人民币的市场价值得期待。


报道援引了参与特斯拉谈判的中方人士说法称,这个工厂的规模和建设水平,都会超过美国的超级工厂,占地面积在 1.72 平方公里左右。(via IT之家)


英伟达发布 GeForce RTX 2000系列显卡,基于图灵架构


继上周重磅发布了针对视觉计算设计的工作站级 Quadro RTX 新款新卡和新一代核心架构 Turing(“图灵”)后,8 月 21 日在德国科隆举办一场主题演讲上,英伟达发布了其搭载了“图灵”专车的针对消费级游戏玩家的系列显卡,分别是 RTX 2070、RTX 2080、RTX 2080 Ti,结合其主打的“实时光线追踪”和人工智能技术,游戏玩家可以获取到更逼真的图像。


作为游戏显卡 GeForce 产品线的又一力作,英伟达旨在取代 GeForce GTX 1080 / 1080 Ti ,其最大卖点在于“实时光线追踪”的改进,模拟光线在视觉场景中反弹的能力,将有助于视频游戏和其他计算机图形更接近真实世界中的阴影和反射。


自动驾驶独角兽 Zoox 首席执行官“扫地出门”


据彭博社报道,自动驾驶公司 Zoox 首席执行官 Tim Kentley-Klay 已被公司董事会通过投票表决的方式解聘。董事会成员 Carl Bass 被任命为执行主席,首席执行官职位暂时空缺,同时另一位联合创始人兼首席技术官 Jesse Levinson 被晋升为总裁。Carl Bass 曾担任软件公司 Autodesk 的首席执行官。


目前,Zoox 已筹集了约 7.9 亿美元的资金用于开发自动驾驶汽车。最近,它以 32 亿美元的估值获得了 5 亿美元的资金。(via.PingWest)


技术焦点


不如跳舞!在不同视频中进行人类动作迁移


640?wx_fmt=png


来自加州大学伯克利分校的 Caroline Chan、Shiry Ginosar、Tinghui Zhou 和 Alexei A. Efros 四位研究人员提出了一种不同视频中人体运动迁移的方法,以实现“Do As I Do",即给出任何一个人跳舞的源视频,算法就能够将该表演迁移到目标主体身上,以模仿出标准的舞蹈动作。即便你从未受过舞蹈训练,你也可以像芭蕾舞或 pop 舞者一样或优雅或活力地表演。


DoWhy:用于因果推荐的 Python 库


与用来预测的机器学习库类似,微软研究院推出的 DoWhy 是一种引起因果思考和分析的 Python 库,它提供了一个统一的界面进行因果推理,并对许多假设进行自动测试,让非专业人士也能进行推理。该成果在最近举办的 KDD 2018 上做出了展示。


https://www.microsoft.com/en-us/research/blog/dowhy-a-library-for-causal-inference/?OCID=msr_blog_dowhy_KDD_tw


Pervasive Attention:用于序列到序列预测的2D卷积神经网络


640?wx_fmt=jpeg


摘要:当前最先进的机器翻译系统都基于 Encoder-Decoder 框架:输入序列后,系统先对序列进行编码,然后基于输入序列的编码生成输出序列。为了让系统能基于解码器状态重新组合源语句单词的固定编码,现在编码器和解码器中间往往会有一个注意力模型。


我们提出了一种替代方法,它依赖于跨两个序列的单个 2D 卷积神经网络。网络的每一层都会根据到目前为止产生的输出序列重新编码源语句单词。因此,其实类似注意力的属性在整个网络中都是普遍存在的。实验证明,我们的模型产生了出色的结果,它优于最先进的 Encoder-Decoder 框架,同时,它在概念上更简单,参数也更少。


https://github.com/elbayadm/attn2d


XGBoost 背后的数学原理


XGBoost 是陈天奇在华盛顿大学求学期间提出的成果。它是一个整体加法模型,由几个基学习器共同构成。


640?wx_fmt=jpeg


要点:


  • 虽然梯度提升遵循负梯度来优化损失函数,但 XGBoost 计算每个基学习器损失函数值用的是泰勒展开。


  • XGBoost 不会探索所有可能的树结构,而是贪婪地构建一棵树。


  • XGBoost 的正则项会惩罚具有多个叶子节点的树结构。


关于选择分叉标准,建议阅读论文:arxiv.org/pdf/1603.02754.pdf

你可能感兴趣的:(一周焦点 | Dota2团战击溃AI;不如跳舞!伯克利最新人体动作迁移研究)