科学Sciences导读:论总引用数他不是最高的,但他的很多作品都堪称开山之作。这波DeepLearning他没有活跃参与其中,但深度学习领域四大金刚几乎都跟他有关,因此被称为DeepLearning影子大佬。他学生中很多已或成为山头,或成为中坚,根繁叶茂,桃李天下。如Andrew Ng和Daphne Coller等。他是谁呢?
他就是人工智能领域泰斗、Deep Learning影子大佬、深度学习奠基者、AlphaGo们的祖师爷、美国科学工程艺科三院院士——加州大学伯克利分校MichaelI. Jordan教授。AI时代即将开启,新来者犹可追赶,我们先了解一下这位业界泰斗的简历,再读一下AI乔丹教授推荐的机器学习书单、Michael I. Jordan如何谈人工智能研究的机遇与挑战,以及这周受聘北京大学名誉教授的新闻。
美国三院院士、加州大学伯克利分校统计系主任Michael I. Jordan介绍 [机器学习泰斗乔丹推荐的机器学习书单,教授谈AI研究的机遇与挑战,受聘北大] (13150字)目录
A美国三院院士、AI泰斗、机器学习奠基者Michael I. Jordan教授简历 (4894字)
1 传记Biography
2 作品Work
3 开设课程Courses
4 荣誉和获奖Honorsand awards
5 发表作品Publications
6 网络评论NetworkNotes
B Michael I. Jordan列出的机器学习系列必读12本书单 (1741字)
C Michael I. Jordan讲座:人工智能的研究充满机会和挑战! (5507字)
人工智能的四个观点
人工智能哪些可以实现,哪些是不可以实现?
人工智能的未来十年愿景
关于人工智能,我们应该担心什么?
人工智能目前有哪些重要的技术
机器学习存在的挑战
个性化与机器学习
D加州大学伯克利分校MichaelI. Jordan被北京大学聘请为名誉教授 (671字)
参考文献(450字)Appx(626字).数据简化DataSimp社区简介
图1 迈克尔·I.·乔丹(Michael I. Jordan)
迈克尔·乔丹MichaelI.Jordan是加州大学伯克利分校UCB电气工程与计算机科学系、统计系的陈丕宏杰出教授(Pehong Chen DistinguishedProfessor),美国科学院、美国工程院、美国艺术与科学院三院院士,机器学习领域唯一一位获此成就的科学家。同时,他还是美国科学进步协会的资深会员。他被数理统计研究所任命为奈曼讲师和奖章讲师。多家国际顶级期刊和国际顶级学术会议(AAAS、AAAI、ACM、ASA、CSS、IEEE、IMS、ISBA、SIAM)会士。曾获IJCAI研究卓越奖(IJCAI Research Excellence Award)(2016)、David E.Rumelhart奖(2015),以及ACM/AAAI的Allen Newell奖(2009)等。2016年,Jordan教授被Semantic Scholar评为CS领域最具影响力学者。
自1988年到1998年在麻省理工学院任教授,研究方向包括了计算学、统计学、认知科学以及生物科学,最近几年集中在贝叶斯非参数分析,概率图模型,谱方法,核方法和在分布式计算系统、自然语言处理、信号处理和统计遗传学等问题的应用上。指出了机器学习与统计学间的联系,并推动机器学习界广泛认识到贝叶斯网络的重要性。他还以近似推断变分方法的形式化、最大期望算法在机器学习的普及方面的工作而知名。其研究兴趣涵盖机器学习、统计、认知和生物科学等领域,近年来尤其集中在非参数贝叶斯分析、概率图模型、谱方法以及分布式计算、自然语言处理、信号处理和统计遗传学等方面。[1]
成名作:隐狄利克雷分配LatentDirichlet allocation。值得注意的奖项:美国美国国家科学院研究员Fellow of the U.S. NationalAcademy of Sciences[1],美国人工智能协会会员AAAI Fellow (2002),鲁梅哈特奖(2015)Rumelhart Prize (2015) [2],国际人工智能联合会议顶级优秀科研奖International JointConference on Artificial Intelligence, IJCAIAward for Research Excellence (2016)。
博士生导师Doctoral advisor:戴维·鲁梅尔哈特(David Rumelhart)、唐纳德·诺曼(Donald Norman)。
博士生Doctoral students至少31个:①RobertJacobs, ②Wey Fun, ③Zoubin Ghahramani, ④Eric Loeb, ⑤PhilipSabes, ⑥John Houde, ⑦TommiJaakkola, ⑧Marina Meila, ⑨Emanuel Todorov, ⑩Andrew Ng吴恩达, Eric Xing, Francis Bach, David Blei, Gert Lanckriet, Jon McAuliffe, Brian Vogel, AliceZheng, Patrick Flaherty, Barbara Engelhardt, XuanLong Nguyen, Romain Thibaux,Ben Blum, Simon Lacoste-Julien, Guillaume Obozinski, Alexandre Bouchard-Cote,Sriram Sankararaman, Aleksandr Simma, Junming Yin, Lester Mackey, TamaraBroderick, Daniel Wolpert等。其他著名学生:Lawrence Saul (postdoc), Martin Wainwright (postdoc), Yee Whye Teh (postdoc), Ben Taskar (postdoc), Yoshua Bengio (postdoc), Zhihua Zhang张志华, Professor, Peking University 等。[2]
2016年9月10日著名社区Reddit机器学习板块“Ask Me AnyThing”活动,Michael I.Jordan教授回答了机器学习爱好者Reddit用户投票决定问答先后顺序的许多问题。[3]
Jordan教授在机器学习领域里一个重要贡献就是关于参数化模型和非参数模型的研究,他认为非参数模型还没有开始发展。问及这个话题时,他指出主要是相关领域学者根本没有尝试过。他以LDA模型为例详细讲述了这两种模型。注意到LDA(隐含狄利克雷分布)是一个带参数的贝叶斯模型,其中包括K个假设已知的主题。而非参数版本的LDA被称为HDP(隐含狄利克雷过程)。从实际实现上看,从LDA到HDP仅仅是一小步。LDA提出至今,LDA已经被用于数千种应用了。然而,使用LDA模型并不比使用HDP模型具有更多优势,有时候甚至恰恰相反。Jordan教授认为,贝叶斯非参数模型领域的推广真正需要的是一个简单的介绍——写出它的数学模型,并且展示它的美丽——目前这样的介绍并不存在。所以,他和他的同事Yee Whye The正在从事这项工作,并基本上写完了这样的介绍,可能在秋天发行出来。Jordan教授非常看好非参数模型,他说到“贝叶斯非参数模型刚刚在机器学习领域里点亮了未来,将如同经典的非参数模型有着广阔的舞台和发展前景”。这些模型能够在复杂性上持续增长,就像在信息时代数据积累看上去那么自然。如果这些模型能够得到很好的控制,并且聚焦在在带参数的子模型,非参数模型将会越来越流行。[4]
1 传记Biography
生于1956年2月25日(61岁),住址:加利福尼亚州伯克利县,机构:加利福尼亚大学伯克利分校(Universityof California, Berkeley),加利福尼亚大学圣地亚哥分校(Universityof California, San Diego),麻省理工学院(MassachusettsInstitute of Technology),母校:加利福尼亚大学圣地亚哥分校(University of California, San Diego),论文:表征连续性能学习(1985)The Learning of Representations forSequential Performance(1985),个人网站:www.cs.berkeley.edu/~jordan。[5]
Jordan教授1978年路易斯安那州立大学心理学士优异成绩毕业,1980年亚利桑那州立大学数学硕士,1985年加利福尼亚大学圣地亚哥分校获得认知科学博士学位。[6]在加利福尼亚大学圣地亚哥分校,他是David Rumelhart的学生,上世纪80年代的PDP组成员。Jordan目前是加利福尼亚大学伯克利分校的正教授,任命他的地方分成统计部和EECS部。他是1988-1998期间,麻省理工学院的教授。[6]
2 作品Work
1980年代,Jordan开始发展递归神经网络CNN作为认知模型。但近年来,他的作品较少受认知影响,更多是从传统统计学背景出发。他在机器学习领域提出了Bayesian networks贝叶斯网络,众所周知,指出了机器学习和统计之间的联系。Jordan教授在在近似推理的变分方法的形式化(the formalisation ofvariational methods for approximate inference)[3]和机器学习期望最大化算法的普及性的方法(the popularisation of the expectation-maximization algorithm inmachine learning)[8]神经信息处理系统大会(Conferenceand Workshop on Neural Information Processing Systems)NIPS就是他及他弟子搞的。
2.1 机器学习期刊辞职Resignation from MachineLearning Journal
2001年,迈克尔·乔丹等人辞去了机器学习编辑委员职务。在一封公开信中,他们主张减少准入限制,并承诺支持一本新的开放存取期刊——机器学习研究杂志the Journalof Machine Learning Research (JMLR),由莱斯利·凯尔步灵(Leslie Kaelbling)创办,以支持机器学习领域进化。[9]
3 开设课程Courses
Stat 210B,Theoretical Statistics, Spring 2017
Stat 210A,Theoretical Statistics, Fall 2015
CS 174, Combinatoricsand Discrete Probability, Spring 2015
CS 281A / Stat 241A,Statistical Learning Theory, Spring 2014
Stat 210B, TheoreticalStatistics, Spring 2011
Stat 260/CS 294,Bayesian Modeling and Inference, Spring 2010
CS 294, PracticalMachine Learning, Fall 2009
CS 170, EfficientAlgorithms and Intractable Problems, Fall 2005
CS 281B / Stat 241B,Advanced Topics in Learning and Decision Making, Spring 2004
Stat 153,Introduction to Time Series Analysis, Fall 2001
CS 172, Computabilityand Complexity, Fall 1999
4 荣誉和获奖Honors andawards
Jordan获得了许多奖项,包括国际机器学习会议the InternationalConference on Machine Learning (ICML 2004)最佳学生论文奖[10] (with X. Nguyen and M. Wainwright);美国控制会议the American ControlConference (ACC 1991)最佳论文奖(with R. Jacobs);the ACM- AAAI Allen Newell Award, the IEEE Neural Networks Pioneer Award, and an NSF Presidential Young Investigator Award. 2010年成为计算机器协会研究员a Fellow of the Associationfor Computing Machinery,“为机器学习的理论和应用做出贡献”[11]
a member of theNational Academy of Science, a member of the National Academy of Engineeringand a member of the American Academy of Arts and Sciences. a Neyman Lecturerand a Medallion Lecturer by the Institute of Mathematical Statistics. the DavidE. Rumelhart Prize in 2015 and the ACM/AAAI Allen Newell Award in 2009.语义学者Semantic Scholar项目2016年根据文献分析Who’s theMichael Jordan of computer science? New tool ranks researchers'influence定为CS领域最具影响力学者"most influential computerscientist"[12]
5 发表作品Publications
发表论文(按年代顺序chronological):这里只列出2018年、2017年的,其余请看Jordan教授UCB个人主页www.cs.berkeley.edu/~jordan。
[Bayesian Nonparametrics] [ Big Data and Systems] [ Classification] [Computational Biology]
[Control and Reinforcement] [ Dimension Reduction] [ Graphical Models] [ HumanMotor Control]
[Information Retrieval] [ Kernel Methods] [ Language and Speech] [ MixtureModels] [ Neural Networks]
[Optimization] [ Ranking] [ Spectral Methods] [ Tutorials] [ VariationalMethods]
2018
Artificial intelligence: The revolutionhasn't happened yet. M. I. Jordan. Medium, 2018.
Greedy Attack and Gumbel Attack: Generatingadversarial examples for discrete data. P. Yang, J. Chen, C.-J. Hsieh, J.-L.Wang, and M. I. Jordan. arxiv.org/abs/1805.12316, 2018.
Sharp convergence rates for Langevindynamics in the nonconvex setting. X. Cheng, N. Chatterji, Y. Abbasi-Yadkori,P. Bartlett, and M. I. Jordan. arxiv.org/abs/1805.01648, 2018.
Learning without mixing: Towards a sharp analysisof linear system identification. M. Simchowitz, H. Mania, S. Tu, M. I. Jordan,and B. Recht. Proceedings of the Conference on Computational Learning Theory(COLT), Stockholm, Sweden, 2018.
Underdamped Langevin MCMC: A non-asymptoticanalysis. X. Cheng, N. Chatterji, P. Bartlett, and M. I. Jordan. Proceedings ofthe Conference on Computational Learning Theory (COLT), Stockholm, Sweden,2018.
Averaging stochastic gradient descent onRiemannian manifolds. N. Tripuraneni, N. Flammarion, F. Bach, and M. I. Jordan.Proceedings of the Conference on Computational Learning Theory (COLT),Stockholm, Sweden, 2018.
Accelerated gradient descent escapes saddlepoints faster than gradient descent. C. Jin, P. Netrapalli, and M. I. Jordan.Proceedings of the Conference on Computational Learning Theory (COLT),Stockholm, Sweden, 2018.
Detection limits in the high-dimensionalspiked rectangular model. A. El Alaoui and M. I. Jordan. Proceedings of theConference on Computational Learning Theory (COLT), Stockholm, Sweden, 2018.
Partial transfer learning with selectiveadversarial networks. Z. Cao, M. Long, J. Wang, and M. I. Jordan. IEEEConference on Computer Vision and Pattern Recognition (CVPR), Salt Lake City,UT, 2018.
SAFFRON: An adaptive algorithm for onlinecontrol of the false discovery rate. A. Ramdas, T. Zrnic, M. Wainwright, and M.I. Jordan. Proceedings of the 35th International Conference on Machine Learning(ICML), Stockholm, Sweden, 2018.
Learning to explain: Aninformation-theoretic perspective on model interpretation. J. Chen, L. Song, M.Wainwright, and M. I. Jordan. Proceedings of the 35th International Conferenceon Machine Learning (ICML), Stockholm, Sweden, 2018.
Ray RLlib: A framework for distributedreinforcement learning. E. Liang, R. Liaw, P. Moritz, R. Nishihara, R. Fox, K.Goldberg, J. Gonzalez, M. I. Jordan, and I. Stoica. Proceedings of the 35thInternational Conference on Machine Learning (ICML), Stockholm, Sweden, 2018.
On the theory of variance reduction forstochastic gradient Monte Carlo. N. S. Chatterji, N. Flammarion, Y.-A. Ma, P.L. Bartlett, and M. I. Jordan. Proceedings of the 35th International Conferenceon Machine Learning (ICML), Stockholm, Sweden, 2018.
Optimal rates and tradeoffs in multipletesting. M. Rabinovich, A. Ramdas, M. I. Jordan, and M. Wainwright. StatisticaSinica, to appear.
Decoding from pooled data: Phasetransitions of message passing. A. El Alaoui, A. Ramdas, F. Krzakala, L.Zdeborova, and M. I. Jordan. IEEE Transactions on Information Theory, toappear.
DAGGER: A sequential algorithm for FDRcontrol on DAGs. A. Ramdas, J. Chen, M. Wainwright, and M. I. Jordan.Biometrika, to appear.
On kernel methods for covariates that arerankings. H. Mania, A. Ramdas, M. Wainwright, M. I. Jordan, and B. Recht.Electronic Journal of Statistics, to appear.
On symplectic optimization. M. Betancourt,M. I. Jordan, and A. Wilson. arxiv.org/abs/1802.03653, 2018.
Minimizing nonconvex population risk fromrough empirical risk. C. Jin, L. Liu, Ge, R., and M. I. Jordan.arxiv.org/abs/1803.09357, 2018.
On nonlinear dimensionality reduction,linear smoothing and autoencoding. D. Ting and M. I. Jordan.arxiv.org/abs/1803.02432, 2018.
Bayesian inference for a generative modelof transcriptome profiles from single-cell RNA sequencing. R. Lopez, J. Regier,M. Cole, M. I. Jordan, and N. Yosef.www.biorxiv.org/content/early/2018/03/30/292037, 2018.
Model-based value estimation for efficientmodel-free reinforcement learning. V. Feinberg, A. Wan, I. Stoica, M. I.Jordan, J. Gonzalez, and S. Levine. arxiv.org/abs/1803.00101, 2018.
Flexible primitives for distributed deeplearning in Ray. Y. Bulitov, P. Moritz, R. Nishihara, M. I. Jordan, and I.Stoica. Systems and Machine Learning Conference (SysML), Stanford, CA, 2018.
Posteriors, conjugacy, and exponentialfamilies for completely random measures. T. Broderick, A. Wilson, and M. I.Jordan. Bernoulli, 24, 3181-3221.
Communication-efficient distributedstatistical inference. M. I. Jordan, J. Lee, and Y. Yang. Journal of theAmerican Statistical Association, to appear.
CoCoA: A general framework forcommunication-efficient distributed optimization. V. Smith, S. Forte, C. Ma, M.Takac, M. I. Jordan, and M. Jaggi. Journal of Machine Learning Research, toappear.
Latent marked Poisson process withapplications to object segmentation. S. Ghanta, J. Dy, D. Niu, and M. I.Jordan. Bayesian Analysis, 13, 85-113, 2018.
2017
Minimax optimal procedures for locallyprivate estimation. J. Duchi, M. I. Jordan, and M. Wainwright. Journal of theAmerican Statistical Association, 113, 182-201, 2017.
Perturbed iterate analysis for asynchronousstochastic optimization. H. Mania, X. Pan, D. Papailiopoulos, B. Recht, K.Ramchandran, and M. I. Jordan. SIAM Journal on Optimization, 27, 2202-2229,2017.
Ray: A distributed framework for emergingAI applications. P. Moritz, R. Nishihara, S. Wang, A. Tumanov, R. Liaw, E.Liang, W. Paul, M. I. Jordan, and I. Stoica. arxiv.org/abs/1712.05889, 2017.
First-order methods almost always avoidsaddle points. J. Lee, I. Panageas, G. Piliouras, M. Simchowitz, M. I. Jordan,and B. Recht. arxiv.org/abs/1710.07406, 2017.
Gradient descent can take exponential timeto escape saddle points. S. Du, C. Jin, J. Lee, M. I. Jordan, B. Poczos, and A.Singh. In S. Bengio, R. Fergus, S. Vishwanathan, and H. Wallach (Eds), Advancesin Neural Information Processing Systems (NIPS) 29, 2018.
Nonconvex finite-sum optimization via SCSGmethods. L. Lei, C. Ju, J. Chen, and M. I. Jordan. In S. Bengio, R. Fergus, S.Vishwanathan, and H. Wallach (Eds), Advances in Neural Information ProcessingSystems (NIPS) 29, 2018.
Online control of the false discovery ratewith decaying memory. A. Ramdas, F. Yang, M. Wainwright, and M. I. Jordan. InS. Bengio, R. Fergus, S. Vishwanathan, and H. Wallach (Eds), Advances in NeuralInformation Processing Systems (NIPS) 29, 2018.
Fast black-box variational inferencethrough stochastic trust-region optimization. J. Regier, M. I. Jordan, and J.McAuliffe. In S. Bengio, R. Fergus, S. Vishwanathan, and H. Wallach (Eds),Advances in Neural Information Processing Systems (NIPS) 29, 2018.
Kernel feature selection via conditionalcovariance minimization. J. Chen, M. Stern, M. Wainwright, and M. I. Jordan. InS. Bengio, R. Fergus, S. Vishwanathan, and H. Wallach (Eds), Advances in NeuralInformation Processing Systems (NIPS) 29, 2018.
Stochastic cubic regularization for fastnonconvex optimization. N. Tripuraneni, M. Stern, C. Jin, J. Regier, and M. I.Jordan. arxiv.org/abs/1711.02838, 2017.
Finite size corrections and likelihoodratio fluctuations in the spiked Wigner model. A. El Alaoui, F. Krzakala, M. I.Jordan. arxiv.org/abs/1710.02903, 2017.
Measuring cluster stability for Bayesiannonparametrics using the linear bootstrap. R. Giordano, R. Liu, N. Varoquaux,M. I. Jordan, and T. Broderick. arxiv.org/abs/1712.01435, 2017.
A deep generative model for single-cell RNAsequencing with application to detecting differentially expressed genes. R.Lopez, J. Regier, M. Cole, M. I. Jordan, and N. Yosef.arxiv.org/abs/1710.05086, 2017.
Partial transfer learning with selectiveadversarial networks. Z. Cao, M. Long, J. Wang, and M. I. Jordan.arxiv.org/abs/1707.07901, 2017.
A Berkeley view of systems challenges forAI. I. Stoica, D. Song, R. A. Popa, D. Patterson, M. Mahoney, R Katz, A.Joseph, M. I. Jordan, J. M. Hellerstein, J. Gonzalez, K Goldberg, A. Ghodsi, D.Culler, and P. Abbeel. arxiv.org/abs/1712.05855, 2017.
Conditional adversarial domain adaptation.M. Long, Z. Cao, J. Wang, and M. I. Jordan. arxiv.org/abs/1705.10667, 2017.
Saturating splines and feature selection.Boyd, N., Hastie, T., Boyd, S., Recht, B., and M. I. Jordan. Journal of MachineLearning Research, to appear.
Mining massive amounts of genomic data: Asemiparametric topic modeling approach. E. Fang, M-D. Li, M. I. Jordan, and H.Liu. Journal of the American Statistical Association, 112, 921-932, 2017.
Covariances, robustness, and variationalBayes. R. Giordano, T. Broderick, and M. I. Jordan. arxiv.org/abs/1709.02536,2017.
Domain adaptation with randomizedmultilinear adversarial networks. M. Long, Z. Cao, J. Wang, and M. I. Jordan.arxiv.org/abs/1705.10667, 2017.
A unified treatment of multiple testingwith prior knowledge. A. Ramdas, R. Fogel Barber, M. Wainwright, and M. I.Jordan. arXiv:1703.06222, 2017.
Real-time machine learning: The missingpieces. R. Nishihara, P. Moritz, S. Wang, A. Tumanov, W. Paul, J.Schleier-Smith, R. Liaw, M. I. Jordan and I. Stoica. arXiv:1703.03924, 2017.
How to escape saddle points efficiently. C.Jin, R. Ge, P. Netrapalli, S. Kakade, and M. I. Jordan. In D. Precup and Y. W.Teh (Eds), Proceedings of the 34th International Conference on Machine Learning(ICML), Sydney, Australia, 2017.
Breaking locality accelerates blockGauss-Seidel. S. Tu, S. Venkataraman, A. Wilson, A. Gittens, M. I. Jordan, andB. Recht. In D. Precup and Y. W. Teh (Eds), Proceedings of the 34thInternational Conference on Machine Learning (ICML), Sydney, Australia, NY,2017.
Deep transfer learning with jointadaptation networks. M. Long, H. Zhu, J. Wang, and M. I. Jordan Proceedings ofthe 34th International Conference on Machine Learning (ICML), Sydney,Australia, 2017.
Decoding from pooled data: Sharpinformation-theoretic bounds. A. El Alaoui, A. Ramdas, F. Krzakala, L.Zdeborova, and M. I. Jordan. arXiv:1611.09981, 2017.
Optimal prediction for sparse linearmodels? Lower bounds for coordinate-separable M-estimators. Y. Zhang, M.Wainwright, and M. I. Jordan. Electronic Journal of Statistics, 11, 752-799,2017.
QuTE algorithms for decentralized decisionmaking on networks with false discovery rate control. A. Ramdas, J. Chen, M.Wainwright, and M. I. Jordan. 56th IEEE Conference on Decision and Control,2017.
Less than a single pass: Stochasticallycontrolled stochastic gradient. Lei, L., and M. I. Jordan. In A. Singh and J.Zhu (Eds.), Proceedings of the Nineteenth Conference on Artificial Intelligenceand Statistics (AISTATS), 2017. [Supplementary info]
On the learnability of fully-connectedneural networks. Y. Zhang, J. Lee, M. Wainwright, and M. I. Jordan. In A. Singhand J. Zhu (Eds.), Proceedings of the Nineteenth Conference on ArtificialIntelligence and Statistics (AISTATS), 2017.
CYCLADES: Conflict-free asynchronousmachine learning. X. Pan, M. Lam, S. Tu, D. Papailiopoulos, C. Zhang, M. I.Jordan, K. Ramchandran, C. Re, and B. Recht. In U. von Luxburg, I. Guyon, D.Lee, M. Sugiyama (Eds.), Advances in Neural Information Processing Systems(NIPS) 28, 2017.
Local maxima in the likelihood of Gaussianmixture models: Structural results and algorithmic consequences. C. Jin, Y.Zhang, S. Balakrishnan, M. Wainwright, and M. I. Jordan In U. von Luxburg, I.Guyon, D. Lee, M. Sugiyama (Eds.), Advances in Neural Information ProcessingSystems (NIPS) 28, 2017.
Unsupervised domain adaptation withresidual transfer networks. M. Long, H. Zhu, J. Wang, and M. I. Jordan In U.von Luxburg, I. Guyon, D. Lee, M. Sugiyama (Eds.), Advances in NeuralInformation Processing Systems (NIPS) 28, 2017.
A marked Poisson process driven latentshape model for 3D segmentation of reflectance confocal microscopy image stacksof human skin. S. Ghanta, M. I. Jordan, K. Kose, D. Brooks, J. Rajadhyaksha,and J. Dy. IEEE Transactions on Image Processing, 26, 172-184, 2017.
Distributed optimization with arbitrarylocal solvers. C. Ma, J. Konecny, M. Jaggi, V. Smith, M. I. Jordan, PRichtarik, and M. Takac. Optimization Methods and Software, 4, 813-848, 2017.
6 网络评论NetworkNotes
知乎跟帖2017年5月:上过Michael I. Jordan教授的课,作为他的PhD或者Post-doc,在AMP Lab中工作等。朋友选过他的课,说他的统计理论功力很深,对经典统计理论有非常深入的见解。八卦:他工资是伯克利统计系,CS里工资最高的。工资网上可查,在这不贴了。做这种人的博士,要么毕业后也大牛,要么毕业直接废了。据朋友说,他对学生基本放养,不管学生,太忙,也没时间管。(这其实是大牛的共性)。只给学生一个非常泛的课题,剩下的自己去搞吧。但由于他学生个人能力都特强,可以自己做出突破,所以大多毕业产出都不错。他一个博士在博士论文致谢中写到“感谢乔丹在我一开始读博就放弃了我,对我不闻不问,让我不得不提高自己独立思考能力,独立科研能力”来讽刺乔丹。
张志华教授访谈《COS访谈第十九期:张志华教授|统计之都(中国统计学门户网站,免费统计学服务平台)》对老司机Mike印象更具体了些。身虽不至,心向往之。这里讲一个不久听来的的故事,我直接问一个Berkeley统计教授Q:Tell me about Mike Jordan,what dose he look like?
A:He is like a rock star...he hastremendous knowledge and wisdom.What he published only account for 10%of hiswork...He uses his own materials for teaching,about this thick(用手比划)...Everytime Iasked him questions he just anwsered"oh,this is easy Ben,according to xxxbalala(with his own theory)..."
Q:He has already become the mostinfluential guy in CS,what if he published the rest 90% work?
A:He has no time. He has so many otherthings to do...
另外导师的习惯也有一定影响,比如Mike Jordan组一般会要求准时五年毕业。这个有好处也有坏处,只说好处:如果你五年没发出啥好文章,但是拿到一个Google的offer,发愁找不到好理由quit,这个时候Mike走进来和你说,“徒弟,你的文凭在这里,你去吧”...
UCB人工智能大牛教授确实不少,比如Michael Jordan(统计与机器学习)、Pieter Abbeel(机器人,机器学习)、Daniel Klein(自然语言处理和机器学习)、Jitendra Malik(计算机视觉),Stuart Russell(人工智能)、Alexei Efros(计算机视觉)、Trevor Darrell(计算机视觉)。一起吃了个便饭,接受了几句教导,听了他的talk,已经成为他的迷妹。非常非常聪明的人,应该是对CS和统计都非常有天赋的天才型。
机器学习领域博大精深,好的学习资料对于机器学习初学者来说非常有用。Jordan教授在黑客新闻(Hacker News)https://news.ycombinator.com/item?id=1055042里,列出了机器学习的一系列阅读书籍。[18]
Jordan教授的这份列表是为了那些进入伯克利分校的博士研究生而写的,这些人都是会将他们生命未来的几十年投身于这个领域,并且想要迅速的得到这个领域的前沿知识。Jordan教授说到,针对那些在工业界中需要足够的基础知识以使能够在几个月内开始工作的人,他准备一分完全不同的列表。
在问及这套书籍是否过时时,Jordan教授表示这套书籍列表来自几年前。他现在倾向于添加一些进一步挖掘基础主题的书。他特别推荐A.Tsybakov的书《Introduction to NonparametricEstimation》作为获得估计下界工具的很可读的书籍,还有Y.Nesterov的《Introductory Lectures on Convex Optimization》来理解优化过程中的下界。同时,他推荐A.van der Vaart的《Asymptotic Statistics》,这本书是伯克利分校的教材,书中包含了推断过程中的很多寄托于经验过程理论之上想法。比如M估计,包含了最大似然法和经验风险最小化等等。还有B.Efron的《Large-Scale Inference:Empirical Bayes Methods forEstimation,Testing,and Prediction》,这也是一本很发人深省的书。
Jordan教授不期望所有想来伯克利的学生都读过所有这些书,但是他希望他们已经做了一些选择,并且花了一些时间至少读过大部分书中的一些章节。而且,他认为这些将要进入机器学习领域的学生不仅需要最终读完这些书籍,更需要将它们都读上至少三遍——第一遍能够勉强明白了,第二遍去尝试做相关实验推导,第三遍看到之后会觉得这些都是显而易见的。书单如下:
Learning About Statistical Learning (measuringmeasures.blogspot.com)
我个人认为,机器学习领域的每个人都应该完全熟悉基本上是下列中级统计书中的所有资料:
1.) Casella, G. andBerger, R.L. (2001). "Statistical Inference" Duxbury Press.
For a slightly moreadvanced book that's quite clear on mathematical techniques, the following bookis quite good:
2.) Ferguson, T. (1996)."A Course in Large Sample Theory" Chapman & Hall/CRC.
You'll need to learnsomething about asymptotics at some point, and a good starting place is:
3.) Lehmann, E. (2004)."Elements of Large-Sample Theory" Springer.
Those are allfrequentist books. You should also read something Bayesian:
4.) Gelman, A. et al.(2003). "Bayesian Data Analysis" Chapman & Hall/CRC.
and you should start toread about Bayesian computation:
5.) Robert, C. andCasella, G. (2005). "Monte Carlo Statistical Methods" Springer.
On the probabilityfront, a good intermediate text is:
6.) Grimmett, G. andStirzaker, D. (2001). "Probability and Random Processes" Oxford.
At a more advancedlevel, a very good text is the following:
7.) Pollard, D. (2001)."A User's Guide to Measure Theoretic Probability" Cambridge.
The standard advancedtextbook is Durrett, R. (2005). "Probability: Theory and Examples"Duxbury.
Machine learningresearch also reposes on optimization theory. A good starting book on linearoptimization that will prepare you for convex optimization:
8.) Bertsimas, D. andTsitsiklis, J. (1997). "Introduction to Linear Optimization" Athena.
And then you cangraduate to:
9.) Boyd, S. andVandenberghe, L. (2004). "Convex Optimization" Cambridge.
Getting a fullunderstanding of algorithmic linear algebra is also important. At some pointyou should feel familiar with most of the material in
10.) Golub, G., and VanLoan, C. (1996). "Matrix Computations" Johns Hopkins.
It's good to know someinformation theory. The classic is:
11.) Cover, T. andThomas, J. "Elements of Information Theory" Wiley.
最后,如果你想开始学习一些更抽象的数学,你可能想开始学习一些泛函分析(如果你还没有)。泛函分析实质上是无限维的线性代数,对非参数贝叶斯方法(nonparametric Bayesian methods)和其他各种主题,核方法(kernel methods)是必要的。这是一本我觉得很易读的书:
12.) Kreyszig, E.(1989). "Introductory Functional Analysis with Applications" Wiley.
跟帖:就像他是数学的迈克尔乔丹一样。我要学习的书是克里斯托弗主教模式识别和机器学习(Christopher Bishops Pattern Recognition and Machine Learning)。我昨天读的一本非参数统计学(a book onNon-parametric Statistics)的书http://www.amazon.com/gp/product/047045461X/ref=oss_T15_product。
我发现这很有用,很有趣,因为很多社会现象都是非正常分布(不符合a Gaussian bell-curve distribution高斯钟形曲线分布,不管样本大小)。我想了解更多关于non-parametric statistics非参数统计和statistics using alternative distributions使用替代分布的统计信息(例如stable distributions稳定分布、power laws幂律等)。有谁有好的推荐信吗?统计数据(最好是用英语写的,而不是jargon行话)。我在Brad的博客上写了一篇补充博客http://pindancing.blogspot.com/2010/01/learning-about-machine-learniing.html。
验证方法Proof Technique:
(a)Velleman's "How to Prove It"
(b)Gries and Schneider's "A LogicalApproach to Discrete Math"
Math
(c) Calculus (best "lite" book -Calculus by Strang (free download), best "heavy" books -
(d) Calculus by Spivak,
(e) Principles of Mathematical Analysisa.k.a "Baby Rudin")
(f) Discrete Math (ALADM above +
(g) a good book on Algorithms, Cormen willdo - though working through it comprehensively is ... hard!
(h) Linear Algebra (First work throughStrang's book, then
(i) Axler's
(j) Probability (see Bradford's verycomprehensive recommendations) and
(k) Statistics (I would reccomend Devoreand Peck for the total beginner but it is a damn expensive book. So hit alibrary or get a bootlegged copy to see if it suits you before buying a copy,see brad's list for advanced stuff.)
(l) Information Theory (MacKay's book isfreely available online)
Basic AI
(m)AIMA 3d Edition (I prefer this toMitchell)
Machine Learning
(n) "Pattern Recognition and MachineLearning" by Christopher Bishop,
(o)"Elements of StatisticalLearning" (free download).
(p) Neural Network Design by Hagan Demuthand Kneale,
(q) Neural Networks, A ComprehensiveFoundation (2nd edition) - By Haykin (there is a newer edition out but I don'tknow anything about that, this is the one I used)
(r) Neural Networks for Pattern Recognition( Bishop).
At this point you are in good shape to readany papers in NN. My reccomendations - anything by Yann LeCun and GeoffreyHinton. Both do amazing research.
Reinforcement Learning
(s) Reinforcement Learning -An Introductionby Barto and Sutton (follow up with "Recent Advances In reinforcementLearning" (PDF) which is an old paper but a GREAT introduction toHierarchical Reinforcement learning)
(t) Neuro Dynamic Programming by Bertsekas
Computer Vision
(u) Introductory Techniques for 3-DComputer Vision, by Emanuele Trucco and Alessandro Verri.
(v) An Invitation to 3-D Vision by Y. Ma,S. Soatto, J. Kosecka, S.S. Sastry. (warning TOUGH!!)
Robotics.
(w) Probabilistic Graphical Models:Principles and Techniques (Adaptive Computation and Machine Learning) - notabout robotics per se but useful to understand the next book
(x) Probabilistic Robotics (IntelligentRobotics and Autonomous Agents) by Thrun, Burgard and Fox
PS:我拥有所有这些书。(AIMA 3 除外,只有pdfs)
PPS:关于语言,我认为布拉德福Bradford是在钱方面推荐功能语言。我只想说,也很了解C。救了我几次。肯定是一个很好的清单。但也是一个昂贵的清单!建议在哪里便宜找这些书。(大学图书馆外)abebooks.com通常是购买教材的最便宜的地方,你常常可以得到简装国际版。
首先简单做一下自我介绍,我1998年加入加利福尼亚洲大学伯克利分校,并担任教授,在机器学习以及统计学领域已有30年研究经验。因此,我对大规模数据的研究非常感兴趣。在过去的几年来,这些不断增长扩大规模的大数据让我们这些科学家和研究人员十分兴奋。利用这些丰富的数据,我们可以打造更多细分的市场和服务。这些让人充满想象的业务模式和市场,让我感到非常的兴奋和激动。[17]
人工智能的四个观点
首先给我想和大家一起讨论一下人工智能(ArtificialIntelligence,AI)。越来越多的人开始讨论AI。人工智能过去10-20年的飞速发展,实际上是是机器学习的增长和统计学的发展。但归根结底,无论是人工智能的发展亦或是机器学习的发展,核心都是依赖数据的积累和发展。
如今,AI这个词不断被高频地提及。那么究竟什么是AI,它的目标是什么呢?人工智能现在发展到什么程度了,接下来又有哪些发展方向呢?
首先,提到人工智能,大家脑海里的第一个形象通常是机器人。就像电影《我,机器人(I,Robot)》中的智能机器人一样,人类可以与它进行智能的互动。因此,有些人觉得人工智能就是指这方面的进展。它可以和你沟通,甚至照顾你的衣食起居。这也是我们在电影等艺术作品中常见的人工智能形象。
图3 《我,机器人(I,Robot)》电影剧照
关于人工智能的第二种常见理念,我们把它叫做增强智能(Intelligence Augmentation),简称为IA。
什么叫增强智能呢?就好比你用搜索引擎搜索这个词,你会发现它能在很短的时间内返还给你数量庞大的结果,这些结果你凭人脑的力量是完全无法记住的。增强智能就像搜索引擎这类工具,它能够帮你完成一些此前人力所不能及的任务。
除了搜索引擎之外,大家日常可以体验的增强智能技术还包括推荐系统,网站能够根据你的喜好更个性化的为你提供推荐;机器翻译系统,计算机能够轻松帮你在多门语言之间自如切换。
第三个则是人工智能基础设施层面的。从更广泛的意义层面来说,人工智能更可以代表人们生活周围的基础设施,例如交通网络、智能家居、城市规划、甚至是金融网络等。结合人工智能技术,这些基础设施可以更加智能化,也更加可预测。
我们可以直观的感受到,人工智能技术给我们的生活所带来的影响,这一点在中国相信大家也感同身受。我们可以更轻松的获得更多的信息,并利用这些信息做我们想做的事情。
最后,还有一种人工智能的观点是“混合”,也就是将以上三个观点进行整合。如自动驾驶、人工智能医生助手、教育平台等。它不仅能够作为一个实体与人们进行互动,还能从不同角度为人们赋能,创造更大的价值。
人工智能哪些可以实现,哪些是不可以实现?
当然,我们不可能把所有东西都实现出来。下面,我将就计算机视觉、语音识别、自然语言处理和机器人这四个研究方向和大家分享一下当前的研究进展。
计算机视觉
关于计算机视觉的未来愿景,我们已有很多探讨。十几年前可能还做不到的图像识别技术,现在已经实现了质的突破。目前,计算机已经能够在复杂的图像中准确识别出特定的物体。但是目前计算机还缺乏对视觉场景常识性的理解。
例如,如果我走近舞台的边缘,你会感觉到我很有可能从舞台上摔下来。你可以从场景中判断接下来会发生什么,以及为什么会出现现在的场景。目前我们还远没有实现这方面的能力,但这在未来是有可能实现的。
语音识别
目前,关于语音识别的研究我们进展到了哪里呢?目前,从语音到文字的相互转化,已经在诸多语种中成功得以应用。但是,目前计算机的听觉能力还十分局限。例如,如果你闭上眼睛,只凭听觉来感受周围的环境,你可以知道你正身处于是安静的公园还是繁华的街道,你可以根据声音来推断周围的人和物的方位。从听觉的角度来说,计算机目前还缺乏这一类的常识性认知,如果再加上复杂的语言信息,那就更是难上加难。
自然语言处理
相比于前面提到的计算机视觉和语音识别问题——这两个问题还相对比较容易,自然语言处理则十分困难。当然,我们能看到机器翻译目前已经取得了很大的进展,但是它仍然会错漏语言中的诸多细节。
毫无疑问,当下的机器翻译使用的神经网络技术能对海量的不同语言数据进行计算和匹配。但人类学习语言的方式则和计算机则大不一样。
例如,我也会意大利语,但是当我把意大利语翻译成英语时,我更多的是对意大利语句进行理解和消化,再将这个语义用英语表达出来。此外,问答(QA)也是自然语言处理研究的经典问题。目前问答系统的研究只能回答一些条件明确、答案简单的简短问题,而无法对真实世界问答场景中复杂的问题作出复杂的回答。
最后,人们语言中的语义繁复多样,有同义词、近义词和反义词等问题,一个词组在不同的语言场景中可能蕴含多种含义。不同语言之间的表达方式和习惯更是有所不同。对于人类来说,我们在从小到大的学习过程中学会了如何辨别这些复杂的语境,但计算机目前还远不能做到这一点。
机器人科学
目前,在工业界正在使用的机器人只能程序化地完成一些固定的任务,这与我们想象中的“人工智能机器人”区别较大。
机器人科学有助于实现人工智能研究的最终愿景——我们希望未来人工智能机器人能够自主的运行,并与我们互动。
人工智能的未来十年愿景
接下来,我和大家讨论一下人工智能未来十年的愿景。我虽然不是预言家,但我认为上面列出来的这些内容在今天无法实现,但未来十年则有可能变成现实。业界有许多公司和机构正在从事这些方面的研究,以期最终推出合适的解决方案。
例如未来十年,自动驾驶汽车甚至是无人驾驶的空中出租车是有可能实现的,虽然眼下这些技术的使用体验还不甚良好,但是可以期许的是未来十年这些前沿技术应该可以为人们所用。
在技术的可用性上面,相信十年后就可以达到一个比较理想的情况。当然在未来十年之内,人工智能系统的“智能”还非常有限,你并不会觉得它能和人类一样智能了。我认为未来十年这些AI系统还不能像人类这样有这么高的灵活性和创造性。
AI系统往往局限于某个特定领域,它们能够理解的语义也是十分有限的。至于AI系统在人机交互的过程中能够产生什么样的理解,是否能实现预测、计划等高级智能——实际上我们离这一步还非常遥远,至少要花几十年的时间,甚至数百年时间才能让机器人了解人类。
如此说来,人工智能研究还有哪些是在我们有生之年很难实现的呢?
可以说,创造力和智能对于人工智能系统来说还很难实现,推理和抽象能力的实现也似乎遥不可及。
例如在社交媒体上,人们时常会创造出一个新的词汇,而其他人也能很容易理解这个词在这个语义背景下的意思,而不需要像计算机一样通过读几千个句子来理解。
此外,对于AI系统来说,让它主动做一个长远规划是非常困难的,而人类却经常会给自己主动设定一些雄心壮志的目标。AI技术的发展还存在着许多其他的限制,它远没有一个正处于成长期孩子那样强大的学习能力。
孩子可以通过少量书本上的图片和信息了解世界,但是AI即使看过了无数张图片和信息,仍然很难对世界产生自己的“理解”。
我并不觉得在可见的未来有什么超人类AI的存在。当然有些并不是AI研究领域的人会鼓吹以后会出现超人类的机器人。我并不认为这种情况会发生,也没有理由会发生。
当然你也有可能不认同这种观点,例如你会觉得计算机比人类的处理能力要强大得多。但人们目前对“智能”的了解十分有限,因此也无法预估实现真正的人工智能需要多强的运算能力。
我们现在能看到的是计算机能够处理大量的数据,但它在做假设、推理等方面的能力还是非常有限的。计算机虽然能识别这些场景,但是它无法了解场景的作用和意义。
人类目前花费大量的精力在帮助机器理解现实世界,但计算机是没有主动学习能力的。计算机和人类的差异巨大,更遑论自我认知等更高层面了。
不久前AlphaGo横扫围棋界让人们惊呼人工智能强大的“智能”水平。但实际上我觉得围棋并不是一个非常困难的游戏,因为这些棋局就在你面前,每一步的选择都是有限的。但在实际生活当中,我们做出的判断和面临的选择常常没有边界——门外的世界一切皆有可能,你脑海中的世界也天马行空。
围棋,确实需要超级计算机来计算海量的可能性,但围棋的选手并不是以机器的方式来思考的。因此,我们并不能声称机器在围棋上打败了人类,就比人类更聪明。
但是好在,人工智能强大的计算能力和先进的算法正在各种不同的应用场景中发散。你也许认为机器的智能已经到了很高的水平,但其实这种论断言过其实了。
对于出色的人类的智能而言,围棋问题答案是有限的,因此就相对简单,而像交通、金融、医疗这些通常解决方案多样的问题,才是真正棘手的问题。
关于人工智能,我们应该担心什么?
人工智能系统看上去很智能,但实际上并非如此。
首先,人工智能系统并不能真正理解他正在做的事情。例如,将系统中一些词句替换成发音相近但语义相反的其他词汇,只要系统能够正常运转,它并不能从语义理解层面进行察觉异样。
其次,人工智能系统并不知道做出搜索,或提供数据之后会产生什么样的结果。人工智能如果出错则会带来很严重的后果,这是人们需要考虑的问题。搜索引擎,你在输入关键词后系统会返还给你各种各样的搜索结果。但对于医学的诊断,你必须提供有效可行的治疗方案,如果医学诊断出错的话,它就有可能使人致命;在金融的世界里,错误的决策会引发巨额的经济损失;在交通问题上,错误的决策也会招致不必要的灾祸。
第三,人工智能可能会让一些岗位消失,但同时也会产生新的岗位。我们知道,几百年前的工业革命让一部分人失去了工作,与此同时也有更多新岗位的出现,但人们必然需要花时间来学习和适应这个转变。
最后,人工智能的使用问题。我并不觉得机器人以后会统治人类,虽然这种情景经常出现在电影、小说等艺术创作中,因此这个话题时常被大家提起。我认为问题并不在人工智能技术本身的危险与否,而在于这些技术会不会被心术不正的人错误地使用。我们需要将技术用在正确的场景和合适的人身上,真正用技术赋能世界。
人工智能目前有哪些重要的技术
接下来,我与大家分享一下人工智能研究的几个技术方向。
第一,机器学习。像聚类、分类、预测、维数缩减、优化等都是值得研究的方向。只要有大的数据集、好的算法和并行分布式计算,就能取得不错的效果。
第二,规划。如何找出一个问题的最佳解决方案?我们可以基于搜索技术,来助力人工智能的策略和战术,找到解决问题的捷径。这也是机器学习的一个方面。
第三,人机交互,这一直是个重要的话题。人机交互指的不仅是让机器独立地工作,还包括如何更有效地促进人机互动。研究方向包括如何让机器主动向人类学习,众包来解决复杂问题,以及经济学和博弈论模型等。
机器学习存在的挑战
我以清单的形式和大家分享了如今机器学习的挑战,我觉得这个领域还有很多工作可以来做。
不确定性问题。深度学习虽然发展迅速,但仍有许多问题亟待解决。尤其是还有黑盒子问题尚未完全解决,大家只关注输入和输出,最终得出结果,中间的过程还有很多不确定性。但是在解决医疗等问题,这种不确定如果很高的话就无法起到参考价值。
不可解释问题。我们需要一套系统能够解释机器决策和行为背后的原因。
深度理解机器学习、了解机器学习中的每一个环节。目前,我们对数据集的依赖还很强,而无法利用少量的数据做类比、推理等其他思维过程。
人工智能系统需能够制定和规划长期目标,并主动搜集相关数据进行分析。
人工智能系统需要实现实时及时的表现和反馈。我们现在只能期望结果尽可能的快。
系统面临对手攻击,如何保证鲁棒性的问题。
数据共享问题。对于机器学习来说,数据量的大小和数据的质量十分重要。如果个人和机构能够对数据进行共享,将不同的数据放在一起并整合,这样就能取得更好的效果。
隐私保护问题。我相信这也是机器学习面临的一个重要挑战,这虽然是另外一个角度,但与各位的工作都息息相关。
个性化与机器学习
我们看到最近几年来,越来越多的硅谷公司提供个性化服务的,我也相信这是未来的趋势所在。但要提供这些服务,我们需要从消费者那里获得大量数据,然后让计算机去学习,去做决定。
最后,随着公司规模逐渐扩大,一个原本服务20名用户的公司为一万人、甚至是几百万的用户提供服务,随着用户规模的扩大,个性化服务的质量则会逐步下降。作为公司的决策者需要考虑诸多因素,在控制成本的同时提供更好的服务。而这些矛盾在短时间内很难解决。
在机器学习和统计学的研究上,我们需要有时间预算的概念。例如你搜索了一个关键词,你期待系统得在几秒钟之内迅速返还答案。而目前个性化的服务系统,可能同时有几千个模型在运行,这个系统十分复杂。
当你获得更多的数据,或是加载更多的模型时,为了留住用户它的速度必须变快,必须越来越精准,但这个要求与现实是相反的。实际上因为数据量越来越大,错误率也会增大,数据的处理速度反而会越来越慢。
因此,正确率和时间预算有时很难平衡。随着客户的增加,用户的不同需求也会越来越多。
人工智能系统的鲁棒性十分重要。几千年前人类开始建造桥梁和房屋,它们也促进了经济了发展。随着时间的推移,几百年过去了,有许多桥梁和建筑物因为各种自然灾害等原因倒塌了。
这对于数据科学来说也是一样的,我们不仅需要保证系统当下的质量,还要保证很长一段时间系统的稳定性。我们需要专业的工程师来解决这些问题,但目前我们的能力还不够。
最后,简单的总结一下今天的内容。
机器学习或者说人工智能已经是现在这个时代最热门的话题了,越来越多的科学家和公司都在加大投入对人工智能的研究。人工智能确实能够解决某些问题,但目前人工智能技术还不够强大,远没有成为一个理论全备的学科。
这不是说我们要停下来,而是说我们要继续加强对人工智能的研究。但你不能期望AI可以解决所有的问题——这是非常疯狂的想法,因为现在并没有在发生。我们应该着眼于正在进行的研究、正在创造价值的理论。
人工智能会给人类带来有用的价值,而不是焦虑。感谢大家的聆听!
北京大学授予加州大学伯克利分校MichaelI. Jordan名誉教授
文|北京大学,信息来源:数学科学学院,编辑:麦洛,责编:山石,2018-06-21
2018年6月15日上午,加州大学伯克利分校MichaelI. Jordan教授的北京大学名誉教授授予仪式,在镜春园82号院甲乙丙楼北京国际数学研究中心报告厅举行。
图4 仪式现场
北京大学副校长田刚院士代表学校对Michael I. Jordan教授的加入表示热烈欢迎,并为其颁发了北京大学名誉教授的聘书。学生代表吴凡为Jordan教授佩戴北大校徽。授予仪式由数学科学学院院长陈大岳教授主持。
图5 田刚为Michael I. Jordan颁发聘书
图6 名誉教授聘书
图7 学生代表为Michael I. Jordan佩戴北大校徽
Michael I. Jordan随后致感谢词,并作题为“OnGradient-Based Optimization: Accelerated, Nonconvex and Stochastic”的学术报告。鄂维南院士代表北京大学大数据科学研究中心对Michael I. Jordan加入北京大学致欢迎词,同时作题为“Understandingthe mysteries behind deep learning”的学术报告。授予仪式后还举行了北京大学理论机器学习国际青年论坛,来自海外的12名年轻学者分享了他们的最新研究工作。
图8 Michael I. Jordan作学术报告
图9 鄂维南作学术报告
Michael I. Jordan为加州大学伯克利分校计算机科学与电气工程系、统计系教授,是国际著名的机器学习专家、统计学家。他现任伯克利统计系主任,是美国国家科学院院士、美国国家工程院院士、美国艺术与科学院院士,及众多学会的Fellow,如SIAM、IMS、ACM、IEEE、AAAI、ASA、ISBA等。他被国际数理统计研究院(The Institute of Mathematical Statistics)指定为Neyman讲座报告人和Medallion讲座报告人。2015年获得David E. Rumelhat奖,2009年获得ACM/AAAI的Allen Newell奖,2018年担任国际数学家大会1小时报告人。Michael I. Jordan同时是一位出色的教育家,他的学生遍布世界各著名大学,分别在计算机、统计学、运筹优化等学科担任教授。
图10 仪式现场
-END-
参考文献(450字)
1. Wikipedia.Michael I. Jordan.[EB/OL]https://en.wikipedia.org/wiki/Michael_I._Jordan,2017-07-08.
2. University ofCalifornia, Berkeley.Michael I. Jordan.[EB/OL]www.cs.berkeley.edu/~jordan,2017-09-03.
3. Zeliadt, N.(2013)."Profile of Michael I.Jordan". Proceedings of the NationalAcademy of Sciences.110(4): 1141–1143. PMID23341554.doi:10.1073/pnas.1222664110.
4. Bio highlights ofProf. MI Jordan
5. Jacobs, R.A.;Jordan, M. I.; Nowlan, S. J.; Hinton, G. E. (1991)."Adaptive Mixturesof Local Experts".Neural Computation.3:79.doi:10.1162/neco.1991.3.1.79.
6. David M. Blei,Andrew Y. Ng, Michael I. Jordan. Latent Dirichlet allocation. The Journal ofMachine Learning Research, Volume 3,3/1/2003
7. Michael I.Jordan,ed. Learning in Graphical Models.Proceedings of the NATO Advanced StudyInstitute,Ettore Maiorana Centre,Erice,Italy,September 27-October 7,1996
8. Vitae MICHAELI.JORDAN Department of Electrical Engineering and Computer Science, Departmentof Statistics, University of California.Accessed September 3,2013
9. "Hierarchicalmixtures of experts and the EM algorithm".NeuralComputation.1994.doi:10.1109/IJCNN.1993.716791.Retrieved 2015-12-19.
10. Editorial Board ofthe Kluwer Journal,Machine Learning:Resignation Letter(2001)
11. "Long Nguyen'sPublications".Stat.lsa.umich.edu.Retrieved 2012-05-21.
12. "ACM Names 41Fellows from World's Leading Institutions—Association for Computing Machinery".Acm.org.Retrieved2012-05-21.
13. "Who's theMichael Jordan of computer science? New tool ranksresearchers'influence".Science|AAAS.2016-04-19.Retrieved 2016-12-09.
14. 上海财经大学.科学·人文大讲堂:传奇降临——机器学习奠基者MichaelJordan教授带你走入人工智能大门.[EB/OL]http://www.shufe.edu.cn/e6/00/c408a58880/page.htm,2016-12-15.
15. 知乎.和伯克利的Michael I. Jordan教授一起工作是什么感觉?.[EB/OL]https://www.zhihu.com/question/31585544,2015-06-26.
16. 法厉无边.对话机器学习大神Michael Jordan:简介.[EB/OL]http://www.360doc.com/content/16/1213/13/29770038_614320451.shtml,2016-12-13.
17. 全球人工智能.Michael I. Jordan:人工智能的研究充满机会和挑战!.[EB/OL]http://www.sohu.com/a/169157511_642762,2017-09-03.
18. Michael I. Jordan.Learning About Statistical Learning.[EB/OL]https://news.ycombinator.com/item?id=1055042,2017-06-07.
19. 北京大学新闻中心数学科学学院投稿.北京大学授予加州大学伯克利分校MichaelI. Jordan名誉教授.[EB/OL] http://pkunews.pku.edu.cn/xwzh/2018-06/21/content_303441.htm,2018-06-21.
x.秦陇纪.数据科学与大数据技术专业概论;人工智能研究现状及教育应用;纯文本数据神经网络训练;大数据简化之技术体系[EB/OL].数据简化DataSimp(微信公众号)http://www.datasimp.org,2017-06-06.
美国三院院士、加州大学伯克利分校统计系主任Michael I. Jordan介绍[机器学习泰斗乔丹推荐的机器学习书单,教授谈AI研究的机遇与挑战,受聘北大] (赞赏后,公号回复“AI乔丹”可下载PDF典藏版资料)
秦陇纪
简介:美国三院院士、加州大学伯克利分校统计系主任Michael I. Jordan介绍。(赞赏后,公号回复“AI乔丹”,文末“阅读原文”可下载10图4码36k字18页PDF典藏版资料) 蓝色链接“数据简化DataSimp”关注后下方菜单项有文章分类页,欢迎转发、赞赏支持社区。作者:秦陇纪。来源:UC Berkely大学Michael I. Jordan主页、维基百科MichaelI. Jordan主页、Hacker News论坛、北京大学官网、知乎评论、数据简化社区秦陇纪微信群聊公众号,引文出处请看参考文献。主编译者:秦陇纪,数据简化社区、科学Sciences、知识简化新媒体创立者,数据简化OS设计师、C/Java/Python/Prolog程序员,IT教师。版权声明:科普文章仅供学习研究,公开资料©版权归原作者,请勿用于商业非法目的。秦陇纪2018数据简化DataSimp综合汇译编,投稿合作,或出处有误、侵权、错误或疏漏(包括原文错误)等,请联系[email protected]沟通、指正、授权、删除等。欢迎转发:“数据简化DataSimp、科学Sciences、知识简化”新媒体聚集专业领域一线研究员;研究技术时也传播知识、专业视角解释和普及科学现象和原理,展现自然社会生活之科学面。秦陇纪发起未覆盖各领域,期待您参与~~ 强烈谴责超市银行、学校医院、政府公司肆意收集、滥用、倒卖公民姓名、身份证号手机号、单位家庭住址、生物信息等隐私数据!
Appx(626字).数据简化DataSimp社区简介
信息社会之数据、信息、知识、理论持续累积,远超个人认知学习的时间、精力和能力。应对大数据时代的数据爆炸、信息爆炸、知识爆炸,解决之道重在数据简化(Data Simplification):简化减少知识、媒体、社交数据,使信息、数据、知识越来越简单,符合人与设备的负荷。数据简化2018年会议(DS2018)聚焦数据简化技术(Data Simplification techniques):对各类数据从采集、处理、存储、阅读、分析、逻辑、形式等方ose 做简化,应用于信息及数据系统、知识工程、各类数据库、物理空间表征、生物医学数据,数学统计、自然语言处理、机器学习技术、人工智能等领域。欢迎投稿数据科学技术、简化实例相关论文提交电子版(最好有PDF格式)。填写申请表加入数据简化DataSimp社区成员,应至少一篇数据智能、编程开发IT文章:①高质量原创或翻译美欧数据科技论文;②社区网站义工或完善S圈型黑白静态和三彩色动态社区LOGO图标。论文投稿、加入数据简化社区,详情访问www.datasimp.org社区网站,网站维护请投会员邮箱[email protected]。请关注公众号“数据简化DataSimp”留言,或加微信QinlongGEcai(备注:姓名/单位-职务/学校-专业/手机号),免费加入投稿群或”科学Sciences学术文献”读者微信群等。长按下图“识别图中二维码”关注三个公众号(搜名称也行,关注后底部菜单有文章分类页链接):
数据技术公众号“数据简化DataSimp”:
科普公众号“科学Sciences”:
社会教育知识公众号“知识简化”:
(转载请写出处:©秦陇纪2010-2018汇译编,欢迎技术、传媒伙伴投稿、加入数据简化社区!“数据简化DataSimp、科学Sciences、知识简化”投稿反馈邮箱[email protected]。)
普及科学知识,分享到朋友圈
转发/留言/打赏后“阅读原文”下载PDF