【自动机器学习,自动进行算法选择和参数调整】,Machine Learning for Automated Algorithm Design, paper:O网页链接code:O网页链接
【量子 深度学习 训练】 arXiv:[1507.02642] Quantum Inspired Training for Boltzmann MachinesO网页链接
#PowerGraph#O网页链接与GraphLab是同一位作者,不过易懂许多。在计算的抽象层次上与GraphLab、Pregel进行了对比,给出了自己的计算原语GAS,采用vertex-cut减少数据传输量,它的基础世界观是natural graph大部分是严重倾斜的,少量点有大量的边。所以有不同的分区、切边、传输等抽象。
Hinton机器学习课程 1)本科(课件在coursera): mini-batch梯度下降 动量法 自适应学习率 序列建模 训练RNN的难点 Dropout 噪音作为正则化子 语义哈希 2)研究生: 变分贝叶斯的起源 基于能量的模型 深度神经网络识别对象 词和文档建模 协同过滤 前馈网络和RNN等价性 非线性维度约简O网页链接
编译器词法分析Lex、C语言标准I/O库前身、对C语言发展有重要贡献的Mike Lesk 1996年文章:信息检索的七个时代 从V.Bush1945到2010, 65岁的一生: 童年45-55 在校生60s 成年70s 成熟80s 中年危机90s 成就00s 退休10sO网页链接
Replaceable parts一直是文明各个系列科技树里重要的一环。数据处理系统演变到现在,HDFS/Taychon, YARN/Mesos,Spark/Flink/Impala/Hadoop. 感觉正在这个节点。当ML不再依赖于一个平台,数据不再只靠HDFS,Hadoop只跑MR,不论是底层系统,还是上层算法,都可以被舍弃替换时,什么样的工作才是重要呢离。完全可replaceable还很遥远;这一天如果到来了,做出好组件的工匠和做出好业务好应用的都很重要。
编译器词法分析Lex、C语言标准I/O库前身、对C语言发展有重要贡献的Mike Lesk在PNAS15发表评论文章:有多少论文不是原创的O网页链接1)文章提到arXiv的抄袭 2)文章说浙大为发表在Science或Nature论文奖励3万美元
引用过万提出Gibbs采样和证明模拟退火收敛性PAMI84模式识别兄弟Geman(哥Donald; 弟Stuart,博导Chernoff) PNAS15计算机视觉系统的图灵测试, 问答方式而不是检测和定位的准确性O网页链接
Hinton机器学习课程 1)本科(课件在coursera): mini-batch梯度下降 动量法 自适应学习率 序列建模 训练RNN的难点 Dropout 噪音作为正则化子 语义哈希 2)研究生: 变分贝叶斯的起源 基于能量的模型 深度神经网络识别对象 词和文档建模 协同过滤 前馈网络和RNN等价性 非线性维度约简O网页链接
Recurrent Neural Network的经典论文、代码、课件、博士论文和应用汇总:O网页链接
KDD15#Test of Time#1)SVM-light作者T.Joachims[Optimizing Search Engines using Clickthrough Data,KDD02]O网页链接2)B.Liu老师<用户评论的挖掘与摘要,KDD04>O网页链接3)<机器学习那些事儿>作者P.Domingos [Mining High-Speed Data Streams,KDD00]O网页链接
biostack Weekly | 2015-07-19 (第八期)O网页链接
【论文:面向LDA的增量变分推断】《Incremental Variational Inference for Latent Dirichlet Allocation》C Archambeau, B Ermis (2015)O网页链接
【论文:基于GNG/层次聚类的无监督图像分割/分类】《Teaching a machine to see: unsupervised image segmentation and categorisation using growing neural gas and hierarchical clustering》A Hocking (Herts), JE Geach, N Davey, Y Sun (2015)O网页链接
【用retweet推断原tweet质量】《Inferring Tweet Quality From Retweets》O网页链接
【视频+代码:面向自然语言处理的深度学习(Devashish Shankar)】《Devashish Shankar - Deep Learning for Natural Language Processing》O网页链接O网页链接GitHub:O网页链接云:O网页链接
《爱可可老师今日视野(15.07.20)》( 分享自@)O网页链接
【视频:Google大规模机器学习系统Sibyl】《DSN 2014 Keynote: "Sibyl: A System for Large Scale Machine Learning at Google" 》by Tushar ChandraO网页链接云:O网页链接
【基于Arduino/Node.js/Plotly的可穿戴应用实践】《A Practical Introduction to IoT using Arduino, Node.js and Plotly》O网页链接
【用Spark实现Logistic回归】《Logistic Regression Using Apache Spark》O网页链接
【论文:RNN实证研究】《An Empirical Exploration of Recurrent Network Architectures》R Jozefowicz, W Zaremba, I Sutskever (ICML2015)O网页链接
"We found that adding a bias of 1 to the LSTM’s forget gate closes the gap between the LSTM and the GRU"
【视频:Facebook加速深度学习】《XLDB2015: Accelerating Deep Learning at Facebook》by Keith AdamsO网页链接云:O网页链接
【论文:量子衍生DBM高效训练方法】《Quantum Inspired Training for Boltzmann Machines》N Wiebe, A Kapoor, C Granade, KM Svore [Microsoft] (2015)O网页链接参阅该作者另一篇《Quantum Deep Learning》(2014)O网页链接
【如何用PC完成高性能的无线信号处理?】近日,微软研究院软件无线电项目#Sora#正式通过GitHub开源。Sora是一个完全可编程的高性能软件无线电系统,能够快捷而有效地实现当前最前沿的无线通信技术。软硬件平台的创新使得Sora在PC上就可以完成高性能的无线信号处理。更多详情>>O网页链接 :自2009年首次发表以来,Sora已在学术界获得多项最佳论文和演示大奖。目前,已有50多家大学和科研机构在教学和科研中使用Sora。为了满足研究者们日益迫切的研究需求,完全开源的Sora系统提供了大量特性,其中包括:支持定制的射频前端,RCB 和通信模式。
Recurrent Neural Network的经典论文、代码、课件、博士论文和应用汇总:O网页链接
【论文:RNN实证研究】《An Empirical Exploration of Recurrent Network Architectures》R Jozefowicz, W Zaremba, I Sutskever (ICML2015)O网页链接 We found that adding a bias of 1 to the LSTM’s forget gate closes the gap between the LSTM and the GRU"
ClipMine Machine Learning Video CollectionO网页链接搜集了CMU、VTech、Oxford等学校2015年的机器学习/深度学习视频课程,几十个深度学习的演讲视频等等近300个视频
Convolutional Neural Networks (卷积神经网络)O网页链接
这个博客值得订阅(CF的创始人坐镇):Microservices architectureO网页链接
这几天暴雨频发,收到了洪灾预警。来看看美国如何利用WebGIS整合实时的洪水灾害预警数据和社会感知的信息吧O网页链接
加州大学洛杉矶分校的统计学教育 - 雪晴数据网 | 作者虞山,毕业于加州大学洛杉矶分校应用数学和统计学专业,现为SupStat数据科学家和雪晴数据网的编辑: 我们学校是一所学季制大学。所谓学季制,就是一年有三个学期,每个学期有11周...@统计之都@统计人黄达O网页链接
之前比较收关注的NSDI‘15论文 Making Sense of Performance in Data Analytics Frameworks中关于快速网络对应用性能的影响的论断引起了新一轮讨论。年初HotOS很有意思的论文COST的作者最近和Cambridge的人一起测试了10G网络对图计算的影响O网页链接里面还有NSDI作者的解释。期待part II