【机器学习之路】(转载)

作者主页:https://www.nowcoder.com/profile/210306401/myDiscussPost

【我的机器学习入门之路(上)——传统机器学习】

这篇博客主要记录了我自己的学习路线及相应的资料汇总。总时间跨度约为6个月,主要是利用了晚上的时间和周末的时间,每天坚持下来,日积月累,回过头来,可能会惊讶于自己的进步。

对于一个机器学习的小白来说,往往不知道如何入门机器学习,毕竟机器学习的知识点非常多,方向也比较多,所以,在我们进行学习之前,有必要对机器学习的大方向做一个汇总比较与选择。机器学习的应用方向主要包括:搜索、推荐、广告、风控、计算机视觉(CV)、自然语言处理(NLP)、知识图谱、语音等。从知识点分类的角度主要可以分为传统机器学习和深度学习。

考虑到现在CV方向的饱和与落地问题,且NLP也比较容易学习和上手,所以我的学习路线选择如下图

传统的机器学习理论与方法是基础,需要先进行学习与夯实。然后进入学习深度学习(主要是自然语言处理)的阶段。接下来,经过这上面两个阶段的学习,就有了一些基础知识,可以拓宽到知识图谱、推荐、广告等方向的应用了,学习的难度就不那么大了。下面分为三大部分来总结三个阶段的学习过程。

这篇博客记录第一部分:传统机器学习。

传统的机器学习方法相关的书籍有很多,比较出名的机器学习三件套包括:周志华的《机器学习》、李航的《统计学习方法》、Peter Harrington的《机器学习实战》。这三本书我也都买了,不过我是以李航的《统计学习方法》为主要理论书籍的,第一遍进行精度,理解每一个方法的原理,不懂的地方就去网上查相应的博客,查查别人是怎么理解的。另外那两本书我看了前面的几章,个人比较喜欢精简的风格,所以没有精读那两本书后面的章节。

总结下来,对于某一个机器学习方法(如逻辑回归等),我是以《统计学习方法》作为理论知识学习书籍,先学习了其基础原理,然后去网上搜索相对应的讲解博客和一些相对应的面试题,就可以进行更深入的理解。

下面是我收藏的一些不错的学习资料
1、逻辑回归(Logistic Regression)
逻辑回归计算过程的推导、并行化的实现:https://blog.csdn.net/ligang_csdn/article/details/53838743
逻辑回归的常见面试点:https://www.cnblogs.com/ModifyRong/p/7739955.html
达观数据对逻辑回归的一些总结:https://zhuanlan.zhihu.com/p/79014680

2、朴素贝叶斯
朴素贝叶斯学习笔记:https://blog.csdn.net/qll125596718/article/details/8445217

3、感知机
感知机perceptron:https://blog.csdn.net/dream_angel_z/article/details/48915561

4、支持向量机(SVM)
理解SVM的三层境界:https://blog.csdn.net/v_july_v/article/details/7624837
Scikit-learn实例之理解SVM正则化系数C:https://blog.csdn.net/mingtian715/article/details/54574700

5、决策树
ID3、C4.5、CART、随机森林:https://www.2cto.com/kf/201605/509184.html
浅谈随机森林的几个tricks:https://zhuanlan.zhihu.com/p/29408863

6、GBDT
GBDT算法原理深入理解:https://blog.csdn.net/yangxudong/article/details/53872141
GBDT算法的特征重要度计算:https://blog.csdn.net/yangxudong/article/details/53899260

7、XGBoost
XGBoost入门介绍:https://segmentfault.com/a/1190000010301082
通俗、有逻辑地说下XGBoost的原理:https://blog.csdn.net/github_38414650/article/details/76061893
RF、GBDT、XGBoost面试级整理:https://blog.csdn.net/qq_28031525/article/details/70207918
XGBoost缺失值引发的问题及深度分析:https://tech.meituan.com/2019/08/15/problems-caused-by-missing-xgboost-values-and-their-in-depth-analysis.html

8、LightGBM
lightgbm中文文档:https://lightgbm.apachecn.org/#/
如何通俗理解LightGBM:http://www.julyedu.com/question/big/kp_id/23/ques_id/2908
比XGBoost更快–LightGBM介绍:https://zhuanlan.zhihu.com/p/25308051
LightGBM基本原理介绍:https://blog.csdn.net/qq_24519677/article/details/82811215
LightGBM如何调参:https://www.jianshu.com/p/b4ac0596e5ef
LightGBM调参方法(具体操作):https://www.cnblogs.com/bjwu/p/9307344.html
GBDT、XGBoost、LightGBM的区别和联系:https://www.jianshu.com/p/765efe2b951a
从XGB到LGB:美团外卖树模型的迭代之路:https://t.cj.sina.com.cn/articles/view/5901272611/15fbe462301900n684

9、PCA
PCA原理总结:https://www.cnblogs.com/pinard/p/6239403.html
PCA原理详解:https://blog.csdn.net/zhongkelee/article/details/44064401
t-SNE完整笔记:http://www.datakit.cn/blog/2017/02/05/t_sne_full.html

10、K-means
K-means最优K值的选取:https://blog.csdn.net/qq_15738501/article/details/79036255
EM算法的收敛性与K-means算法的收敛性:https://blog.csdn.net/u010161630/article/details/52585764

11、EM算法
如何感性地理解EM算法:https://www.jianshu.com/p/1121509ac1dc
人人都懂EM算法:https://zhuanlan.zhihu.com/p/36331115

12、FM
FM的理解与实践:https://zhuanlan.zhihu.com/p/50426292
FM推荐算法原理:https://www.cnblogs.com/pinard/p/6370127.html
FM:https://blog.csdn.net/google19890102/article/details/45532745

13、梯度下降法
梯度下降、牛顿法、拟牛顿法:https://blog.csdn.net/a819825294/article/details/52172463
BGD、SGD、MBGD:https://www.cnblogs.com/maybe2030/p/5089753.html
优化方法总结:https://blog.csdn.net/u010089444/article/details/76725843
深度学习最全优化方法总结:https://zhuanlan.zhihu.com/p/22252270

14、正则化
归一化、标准化、正则化的关系:https://blog.csdn.net/zyf89531/article/details/45922151
L0、L1、L2范数:https://blog.csdn.net/zouxy09/article/details/24971995
深入理解L1、L2正则化:https://zhuanlan.zhihu.com/p/29360425

15、样本不均衡
训练集类别不均衡问题的处理:https://blog.csdn.net/heyongluoyao8/article/details/49408131
欠采样和过采样:https://www.zhihu.com/question/269698662
Focal Loss理解:https://www.cnblogs.com/king-lps/p/9497836.html

16、特征工程
特征工程之特征选择:https://www.cnblogs.com/pinard/p/9032759.html
特征选择:卡方检验、F检验和互信息:https://www.cnblogs.com/massquantity/p/10486904.html
几种常用的特征选择方法:https://blog.csdn.net/LY_ysys629/article/details/53641569

17、模型集成
Bootstrip、Bagging、Boosting:https://blog.csdn.net/MrLevo520/article/details/53189615
模型融合:https://blog.csdn.net/shine19930820/article/details/75209021
kaggle 模型融合(stacking)心得:https://zhuanlan.zhihu.com/p/26890738

18、kaggle
kaggle比赛的一些小套路:https://blog.csdn.net/pearl8899/article/details/82145480
kaggle入门:https://blog.csdn.net/u012162613/article/details/41929171
如何在kaggle首站进入前10%:https://dnc1994.com/2016/04/rank-10-percent-in-first-kaggle-competition/
kaggle中的kernel入门:https://blog.csdn.net/IAMoldpan/article/details/88852032

19、其它
机器学习常见评价指标:https://blog.csdn.net/zhihua_oba/article/details/78677469
常见损失函数:https://blog.csdn.net/weixin_37933986/article/details/68488339
偏差、误差、方差的区别与联系:https://www.zhihu.com/question/27068705
如何选取超参数:https://blog.csdn.net/u012162613/article/details/44265967
最小二乘法小结:https://www.cnblogs.com/pinard/p/5976811.html
拉普拉斯平滑处理:https://blog.csdn.net/daijiguo/article/details/52222683
穿越问题:https://blog.csdn.net/phrmgb/article/details/79997057
数据增强:https://zhuanlan.zhihu.com/p/41679153
协同过滤:https://blog.csdn.net/yimingsilence/article/details/54934302
AI笔面试题库:https://www.julyedu.com/question/topic_list/23
……

其它书籍:机器学习的其它相关书籍,我涉猎过的不多,有《美团机器学习实践》、《百面机器学习》、PRML。这里强烈推荐葫芦书《百面机器学习》,可以作为自己机器学习知识点查缺补漏的经典书籍。

在学习下来,我感觉中文的这些机器学习书籍都是只给出了“知其然”的解答,并没有给出“知其所以然”的解答,但是我在阅读PRML的时候,真的感觉作者一直在告诉我这些方法究竟是怎么得到的,其来龙去脉都非常清晰。有时间的话,计划再细细拜读PRML。其次,还是多比较不同的机器学习方法,才能更融会贯通,比如从感知机和SVM的联系与区别,从感知机发展到SVM,再到核方法,这些变化演进是在解决什么问题,都是要理解透彻的。最后,就是多实战了,实战才能更好地理解和运用。

【我的机器学习入门之路(中)——深度学习(自然语言处理)】

作者:Panini
链接:https://www.nowcoder.com/discuss/342617
来源:牛客网

欢迎关注~

继上一篇《我的机器学习入门之路(上)——传统机器学习》,这一篇博客主要记录深度学习(主要是自然语言处理)这一块内容的学习过程。以下均将自然语言处理简称NLP。
这一块内容的学习路线分为三部分:明确NLP的研究问题及传统的方法有哪些、深度学习(NLP)基础及深度学习框架的使用、NLP的深入学习。

一、明确NLP的研究问题及传统的方法有哪些
不像机器学习中研究的问题一般都是直接的分类或回归,在NLP中,有比较多样的分析,如分词、依存句法分析等。所以可以先看看一本书《python自然语言处理》。这本书可以比较快速地过一遍。

二、深度学习(NLP)基础及深度学习框架的使用
开门见山,深度学习入门资源推荐:黄海广博士主编的《DeepLearning.ai深度学习笔记》,由于版权关系,大家可以自行搜索。
原因:就如很多学习机器学习的人都人手一本西瓜书,我看很多学习深度学习的人都人手一本《深度学习》(那本花书),我也去看了那本花书,感觉不太适合我。《DeepLearning.ai深度学习笔记》这份笔记讲得非常通俗易懂,但又不失一定的深度,很适合作为深度学习的入门教材,总共七百多页,几天就能学完了,从神经网络基础,到CNN,计算机视觉中的深度学习,再到序列模型,NLP的很多问题,都有讲解,是相对全面的。
在有了深度学习的基础知识之后,就可以学习一些开源的深度学习框架的使用了,我选的是TensorFlow和PyTorch。
深度学习框架PyTorch书籍推荐:陈云的《深度学习框架PyTorch:入门与实践》,这本书写得比较接地气,也有相应的实战代码(GitHub上可下载)。所以边看这本书,边自己做做书上的项目,就能很快入门pytorch了。
深度学习框架TensorFlow书籍推荐:黄文坚的《TensorFlow实战》。

一些我收藏的资源:
1、TensorFlow相关
TensorFlow在Windows 10 64位下的安装:https://blog.csdn.net/u010099080/article/details/53418159
WIN10安装TENSORFLOW(GPU版本)详解:https://zhuanlan.zhihu.com/p/37086409
TensorFlow指定GPU进行训练:https://blog.csdn.net/u010238520/article/details/76165736
TensorFlow获取可用GPU设备:https://blog.csdn.net/weixin_35653315/article/details/71403386
TensorFlow自动求导原理:https://blog.csdn.net/qq_25094489/article/details/79390484
『深度长文』Tensorflow代码解析(一):https://zhuanlan.zhihu.com/p/25646408

2、PyTorch相关
新手如何入门pytorch?:https://www.zhihu.com/question/55720139
PyTorch中文文档:https://pytorch.apachecn.org/#/
PyTorch上搭建简单神经网络实现回归和分类的示例:https://blog.csdn.net/quincylk/article/details/86183752
PyTorch使用tensorboardX:https://zhuanlan.zhihu.com/p/35675109
PyTorch的远程可视化神器visdom:https://zhuanlan.zhihu.com/p/34692106

三、NLP的深入学习
首先推荐一个非常好的资源:斯坦福CS224n课程(在YouTube上可以找到课程视频)
还有一个对应的笔记资源:码农场网站上的CS224n课程对应的笔记:http://www.hankcs.com/nlp/cs224n-introduction-to-nlp-and-deep-learning.html
我的学习方法是:按照授课顺序,先看码农场网站上的中文笔记,理解这一次课教授的内容,然后看斯坦福CS224n的课程视频(用倍速看,会比较省时间)。
这样一整个课程下来,就可以说是入门NLP了。

下面是我收藏的一些资料链接
词向量相关:
1、word2vec
CS224n笔记2 词的向量表示:word2vec:http://www.hankcs.com/nlp/word-vector-representations-word2vec.html
word2vec原理推导与代码分析:http://www.hankcs.com/nlp/word2vec.html
word2vec模型原理与实现:https://www.cnblogs.com/Finley/p/6043769.html
word2vec源码解析:https://blog.csdn.net/google19890102/article/details/51887344
Word2vec和Doc2vec原理理解:https://blog.csdn.net/mpk_no1/article/details/72458003

2、Glove
理解GloVe模型:https://blog.csdn.net/coderTC/article/details/73864097
Glove详解:http://www.fanyeong.com/2018/02/19/glove-in-detail/

3、FastText
fastText原理及实践:https://zhuanlan.zhihu.com/p/32965521

4、Doc2vec
Doc2vec原理及实践:https://blog.csdn.net/john_xyz/article/details/79208564

5、Sentence Embedding
CS224n研究热点一:Sentence Embedding:http://www.hankcs.com/nlp/cs224n-sentence-embeddings.html

接下来是一些NLP模型的原理及相应深度学习框架函数的资料链接。
1、RNN
RNN 的梯度消失问题:https://zhuanlan.zhihu.com/p/44163528
RNN梯度消失和爆炸的原因:https://zhuanlan.zhihu.com/p/28687529

2、LSTM
人人都能看懂的LSTM:https://zhuanlan.zhihu.com/p/32085405
LSTM如何解决梯度消失问题:https://zhuanlan.zhihu.com/p/28749444
在Pytorch下搭建BiLSTM:https://www.jianshu.com/p/b9ad6b26e690
聊一聊PyTorch中LSTM的输出格式:https://zhuanlan.zhihu.com/p/39191116

3、GRU
人人都能看懂的GRU:https://zhuanlan.zhihu.com/p/32481747

4、TextCNN
TextCnn原理及实践:https://blog.csdn.net/John_xyz/article/details/79210088
基于Text-CNN模型的中文文本分类实战:https://www.imooc.com/article/40868

5、Seq2seq
玩转Keras之seq2seq自动生成标题:https://spaces.ac.cn/archives/5861/comment-page-1
TensorFlow文本摘要生成:https://www.ctolib.com/topics-113328.html

6、Attention
深度学习中的注意力模型:https://zhuanlan.zhihu.com/p/37601161
注意力机制在NLP中的应用:https://www.cnblogs.com/robert-dlut/p/5952032.html
自然语言处理中的Attention Model:是什么及为什么:https://blog.csdn.net/malefactor/article/details/50550211
BahdanauAttention与LuongAttention注意力机制简介:https://blog.csdn.net/u010960155/article/details/82853632

7、Transformer
图解Transformer:https://blog.csdn.net/qq_41664845/article/details/84969266

8、Elmo、GPT
看相应论文,然后自己搜搜讲解的博客吧,我累了,没收藏

9、Bert
谷歌BERT模型深度解析:https://blog.csdn.net/qq_39521554/article/details/83062188
为什么BERT有3个嵌入层,它们都是如何实现的:https://www.cnblogs.com/d0main/p/10447853.html
如何使用BERT实现中文的文本分类(附代码):https://blog.csdn.net/Real_Brilliant/article/details/84880528
从Word Embedding到Bert模型:https://zhuanlan.zhihu.com/p/49271699

10、ERNIE
中文任务全面超越BERT:百度正式发布NLP预训练模型ERNIE:https://zhuanlan.zhihu.com/p/59436589

11、HMM
隐马尔可夫(HMM)、前/后向算法、Viterbi算法 再次总结:https://blog.csdn.net/xueyingxue001/article/details/52396494
隐马尔可夫模型(HMM) - 1 - 基本概念:https://blog.csdn.net/xueyingxue001/article/details/51435728
隐马尔可夫模型(HMM) - 2 - 概率计算方法:https://blog.csdn.net/xueyingxue001/article/details/51435752
隐马尔科夫模型HMM(四)维特比算法解码隐藏状态序列:https://www.cnblogs.com/pinard/p/6991852.html

12、CRF
如何轻松愉快地理解条件随机场(CRF)?:https://www.jianshu.com/p/55755fc649b1
概率图模型学习笔记:HMM、MEMM、CRF:https://blog.csdn.net/Scotfield_msn/article/details/79195517
pytorch lstm crf 代碼理解:https://www.twblogs.net/a/5b7c1a1c2b71770a43d955a5
通俗理解BiLSTM-CRF命名实体识别模型中的CRF层:https://www.cnblogs.com/createMoMo/p/7529885.html

13、LDA
通俗理解LDA主题模型:https://blog.csdn.net/v_july_v/article/details/41209515

14、TF-IDF
生动理解TF-IDF算法:https://zhuanlan.zhihu.com/p/31197209

下面是其它的NLP或深度学习相关的资料的一些链接。
1、Batch Normalization
什么是批标准化 (Batch Normalization):https://zhuanlan.zhihu.com/p/24810318
Batch Normalization 学习笔记:https://blog.csdn.net/hjimce/article/details/50866313
详解深度学习中的Normalization,BN/LN/WN:https://zhuanlan.zhihu.com/p/33173246

2、TimeDistributed
keras中TimeDistributed的用法:https://blog.csdn.net/u012193416/article/details/79477220
如何在长短期记忆(LSTM)网络中利用TimeDistributed层:https://python.freelycode.com/contribution/detail/889

3、中文分词
中文分词:原理及分词算法:https://blog.csdn.net/DianaCody/article/details/40950169
自然语言处理基础-中文分词:https://ilewseu.github.io/2018/06/16/%E4%B8%AD%E6%96%87%E5%88%86%E8%AF%8D/
文本挖掘的分词原理:https://www.cnblogs.com/pinard/p/6677078.html
从自然语言处理角度看 HMM 和 CRF:https://www.jianshu.com/p/59490ffe7f7c

4、文本(清洗)处理
文本清洗+文本分类:https://www.jianshu.com/p/a72b6a0cf895
通常的文本清理流程:https://www.zhihu.com/question/268849350
文本挖掘之特征选择(python 实现):https://cloud.tencent.com/developer/article/1061371

5、NLP比赛、实战
第二届搜狐内容识别算法大赛第一名分享:https://blog.csdn.net/qq_34695147/article/details/81006059
知乎看山杯夺冠记:https://zhuanlan.zhihu.com/p/28923961
文本分类实战(一)—— word2vec预训练词向量:https://www.cnblogs.com/jiangxinyang/p/10207273.html

6、NLP教程
一个不错的系列教程:https://www.jianshu.com/p/b87e01374a65

暂时先总结到这吧,内容实在有点多,很难面面俱到。
最后,NLP的这些模型都是发表在相应会议上的,有时间一定要去看看相对应的论文,这里就不一一罗列了。

【我的机器学习入门之路(下)——知识图谱、推荐、广告】

作者:Panini
链接:https://www.nowcoder.com/discuss/344692
来源:牛客网

APP内打开 赞 12 | 收藏 154 | 回复7 | 浏览2802 我的机器学习入门之路(下)——知识图谱、推荐、广告 APP内打开分享给朋友121547

继上一篇《我的机器学习入门之路(中)——深度学习(自然语言处理)》,这一篇文章主要记录了我对知识图谱、推荐和广告等方向的一些涉猎与基础学习。

一、知识图谱
从自然语言处理到知识图谱,是一个很自然和直接的应用。知识图谱的内容非常多,因为没有做过相应的项目,所以我也只是学习和了解为主。主要包括两部分:理论学习、实践教程。
1、理论学习部分
什么是知识图谱?:https://mp.weixin.qq.com/s/XgKvh63wgEe-CR9bchp03Q
一个不错的知识图谱入门系列教程:http://pelhans.com/2018/03/15/xiaoxiangkg-note1/
为什么需要知识图谱?什么是知识图谱?:https://blog.csdn.net/u011801161/article/details/78733954
NLP 与知识图谱的对接:https://zhuanlan.zhihu.com/p/26295332

2、实践相关
项目实战:如何构建知识图谱:https://mp.weixin.qq.com/s/cL1aKdu8ig8-ocOPirXk2w
美团大脑:知识图谱的建模方法及其应用:https://tech.meituan.com/2018/11/01/meituan-ai-nlp.html

二、推荐系统
首先推荐看一本书:项亮的《推荐系统实践》,看完可以对推荐系统有一个比较全面的认识和了解。
推荐一般可分为召回和排序两个阶段,在入门之后,就可以开始分别学习一些经典的模型与方法了。
1、召回
推荐系统中的召回算法--协同过滤:https://blog.csdn.net/weixin_41362649/article/details/89055808
推荐系统召回四模型之:全能的FM模型:https://zhuanlan.zhihu.com/p/58160982
推荐系统召回四模型之二:沉重的FFM模型:https://zhuanlan.zhihu.com/p/59528983

2、排序
学习排序 Learning to Rank:从 pointwise 和 pairwise 到 listwise,经典模型与优缺点:https://blog.csdn.net/lipengcn/article/details/80373744
机器学习算法-L2R进一步了解:https://jiayi797.github.io/2017/09/25/%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0%E7%AE%97%E6%B3%95-L2R%E8%BF%9B%E4%B8%80%E6%AD%A5%E4%BA%86%E8%A7%A3/
浅谈Learning to Rank中的RankNet和LambdaRank算法:https://zhuanlan.zhihu.com/p/68682607
Deep Neural Network for YouTube Recommendation论文精读:https://zhuanlan.zhihu.com/p/25343518
简单易学的深度学习算法——Wide & Deep Learning:https://blog.csdn.net/google19890102/article/details/78171283
推荐系统资料集合链接:https://www.jianshu.com/p/2b1246858e6f

3、冷启动问题
推荐系统理论(三) – 冷启动问题:https://www.jianshu.com/p/62e5171c85bc

4、其它
推荐系统从入门到接着入门:https://zhuanlan.zhihu.com/p/27502172
21天搭建推荐系统:实现“千人千面”个性化推荐:https://yq.aliyun.com/articles/39629
知乎推荐页 Ranking 构建历程和经验分享:https://www.infoq.cn/article/g95hu67a4WheikGu*w9K
推荐系统–完整的架构设计和算法(协同过滤、隐语义):https://juejin.im/post/5d75ad14f265da03c02c2827
今日头条推荐算法原理全文详解:https://lusongsong.com/info/post/9829.html

三、广告
主要是CTR预估的一些资源
广告点击率预估是怎么回事?:https://zhuanlan.zhihu.com/p/23499698
传统ctr预估:https://hxhlwf.github.io/posts/dl-traditional-ctr-models.html
基于深度学习的ctr预估模型集合:https://daiwk.github.io/posts/dl-dl-ctr-models.html
主流CTR预估模型的演化及对比:https://zhuanlan.zhihu.com/p/35465875
机器学习算法评价指标之group auc(gauc):https://blog.csdn.net/hnu2012/article/details/87892368
广告CTR预估中预测点击率的校准:https://zhuanlan.zhihu.com/p/35580375
面向稀有事件的 Logistic Regression 模型校准:http://vividfree.github.io/%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0/2015/12/15/model-calibration-for-logistic-regression-in-rare-events-data

计算广告和推荐系统之间的区别和联系,大家可以看看下面这个知乎问题中,大佬们的回答。
计算广告与推荐系统有哪些区别?:https://www.zhihu.com/question/19662693

学习完上面这些之后,应该能算是入了个门了,之后将继续深入学习并及时分享~

【我的算法岗求职(经验教训)】

作者:Panini
链接:https://www.nowcoder.com/discuss/356404
来源:牛客网

前言
谨以此文记录我找工作历程中的经验教训,也写给找工作的牛友们,希望能有点帮助。
这篇文章不会记录任何的具体算法知识点或面经之类的,我自己不喜欢看各公司的面经(因为我觉得掌握了原理,不管面试官怎么问,应该都能答上来),牛客上也有很多资源,此文就不重复了。

先说自身条件:本硕华五,非CS,非算法科班,从春招那会开始转行入坑。
再说秋招结果:阿里、腾讯均在电话二面被挂(下面会有教训总结,其实菜是原罪。。),其它公司面试了的,基本都给了offer。

下面分别讲讲春招、秋招。

春招及秋招前知识储备
问题一:春招投BAT,面试记录不好会不会影响秋招?要不要秋招找工作的时候再投?
答:这是我整个求职路上最大的失败点。当时听信了别人“大厂春招面试记录不好,秋招很可能没有面试机会”的谬论。然后春招就基本没投,没有大厂实习,导致秋招的时候非常被动。这里强烈建议大家春招一定好好准备,能去大厂就去大厂!什么面试记录啥的,其实完全不用担心。

自己春招那会准备得太晚,过完年回来才开始准备,当时已经二月中旬了。回来后就立马开始计划起来,主要涉及三大块内容:一门面向对象编程语言的知识(我选了C++)、算法与数据结构、机器学习。
C++
前期还仔细看了《C++ Primer中文版》的前几章,后面发现看过又忘了,就没看了,直接看常见面试知识点。
算法与数据结构
因为以前完全没学过,试了一下看教材和看公开课的效率,果断选择慕课上的一门公开课入门,倍速看,学完后,就借了一本《大话数据结构》来看,学下来还挺快的,好像几天就够了,接着就是刷leetcode题了,前期刷题的时候按顺序做了一些题,发现效果一般,后面就按照类型,进行逐个击破,并把我的解题思路和答案记录在CSDN博客上,虽然比较耗时,但发现把思路写下来,对我来说更有效果。
机器学习
这是学习的大头,比较耗时,我把这一块的学习分为了三个部分,并在牛客上发了帖子。下面三篇牛客文章记录了我的书籍选择、学习路线及相对应的原因等。
我的机器学习入门之路(上)——传统机器学习:https://www.nowcoder.com/discuss/341024
我的机器学习入门之路(中)——深度学习(自然语言处理):https://www.nowcoder.com/discuss/342617
我的机器学习入门之路(下)——知识图谱、推荐、广告:https://www.nowcoder.com/discuss/344692

我三月份才开始了第一份实习,然后五月份到第二家公司,持续到八月份。这段时间,几乎都是白天去干活,晚上回来之后就要继续驱赶我的两架马车:算法与数据结构、机器学习。除了这些编程练习和理论知识学习,我在六七八月份还单人参加了两个算法比赛,分别是kaggle上的和天池上的。(因为不参加的话,我的简历真的没有什么东西可放,虽然最后都没啥好成绩,总还能放上去)
因为实习时的两个都是小公司,也没有什么能跟秋招面试官吹的点,所以在秋招的时候,也常被面试官diss,并没有加多少分,所以我前面一直强调去大厂实习的重要性。

秋招
提前批相关
我是八月份才开始准备,其实已经不早了,也错过了好些公司的提前批。所以大家一定要早点准备,然后一定要参加提前批,有时候提前批可能竞争并没有你想象得那么大,而且有些公司在提前批发了很多offer,导致后面正式批hc很少,竞争很激烈。
笔试
1、百度。
教训:当时换了一台电脑做笔试,疯狂跳出窗口,总共十几次了貌似,然后主观题的图片传不上去,直接gg,连面试机会都没得。谨慎换电脑!

2、字节。
教训:我投的比较晚,做的第二批笔试,没有面试,后来被捞,因为部门不喜欢,就没想去字节了。做第一批笔试的,基本人人都去面试了。。虽然菜是原罪,但是不同笔试批次的区别还是很大的。所以,还是早点吧。

面试
1、阿里二面挂。(电话面试)
教训:当时不知道为啥二面就交叉面了,根据简历聊了一会,中间,面试官让我讲讲一个巨简单的算法是怎么做的,我当时愣了(心里在纳闷这面试官怎么问这么简单的东西),然后就结结巴巴地回答了!所以说,还是要始终保持谦卑,不管面试官问的什么问题,都要耐心地回答,表达自己的理解。

2、腾讯二面挂。(电话面试)
教训:腾讯电话面试是打过来就要面的,也没有提前通知,我当时其实没什么事,但感觉没准备好,就跟面试官说约第二天再面,当时就觉得他不太高兴了。。(这个换时间可能也不太应该)。第二天电话面试的时候,因为看不到面试官的表情状态那些,所以比较难判断他对我的回答是否满意,我当时巴拉巴拉对一个问题讲了挺久,他没什么反应,后来我才反应过来不太对劲,才停住。所以,当面试官不太满意的时候,应该要重新讲点别的,或者及时停止,展现你其它方面的知识点和能力。

3、某公司创始人面。(现场面试)
教训:这个面试官是个超级大佬,面试的时候就感觉完全不一样。面试中,他提了一个情景的问题,我当时只思考了一会,没有想到太多的思路,就尝试转移到自己问题了,然后也没答好。。。这是一次非常严重的问题转移失败,忌!应该再多想想,多与面试官沟通的。

上面三个都是我面得比较早的,真是打击不小,但也确实有吸取到教训。

4、京东HR面试。
教训:当时刚刚面完美团的leader面,跟领导聊得来,所以当时比较开心,就背着包在室外一个相对嘈杂的地方比较随意地开始面了,导致面得不是很好。这次教训再次告诉我,保持谦卑和不骄不躁的重要性!

总结:我的电话面试全挂,视频面试和现场面试基本全过,让我和同学一度怀疑我是靠颜值取胜的hhh。面试的时候自信非常重要,我觉得自信的最大来源在于你对简历中的内容的掌握程度,所以打好基础是很重要的。面试是和面试官沟通的过程,是展现自己的知识和能力的过程,所以没有必要卑微,但要足够尊重面试官。
总结
我上面写的这些可能并不是对大家都有帮助。
虽然秋招无缘BAT,但我其实并没有BAT的情结,利用这几个月的时间能有一个不错的公司的不错的岗位方向的offer,对我来说还算可以吧。
工作只是生活的一部分,互联网公司的算法岗只是我众多人生道路中一条比较便捷的达到远方的路而已。共勉!

你可能感兴趣的:(【数据分析】机器学习与统计学,机器学习,人工智能,广告)