算法工程师面试总结

    从年后回来,3月份就开始找工作,分别面试了去哪网、小米、360、同城艺龙、58同城、蚂蚁金服、滴滴、字节跳动、百度。从一个面试小白转为一个面霸。一开始有很多很好的机会因为没有好好准备错失良机,好在不抛弃不放弃的精神让我相信天生我才必有用的道理,还好坚持了下去。我经常说耐得住寂寞,坚持下去,一定有好结果,这次又应验了,收获了满意的offer。下面把一些被提问的次数较高的问题罗列一下,日后慢慢补充,也算是对这段时光的一个记录。

------------------------------------------------------------

GBDT、xgboost、lightGBM之间有什么不同?
xgboost 如何多分类?
xgboost加入二阶导数有什么好处?
为什么负梯度方向可以表示残差?
xgboost、lightGBM 调参有什么不同?
ightGBM调参需要调什么参数?
随机森林和xgboost哪个树的深度深?
写一下xgboost目标函数的公式?
xgboost怎么并行的?怎么处理空缺值?
lightGBM怎么处理类别特征?
bagging和boosting有什么不同?
xgboost怎么分裂的?和lightGBM有什么不同?
xgboost直方图和lightGBM直方图有什么不同?

LR公式推导?
LR和朴素贝叶斯有什么关系?
LR满足什么分布?
LR为什么用sigmod函数?
LR如何多分类?

word2vec过程讲一下?
为什么用哈夫曼树?
负采样的目标函数写一下?
如何改成sentence2vec?
权重是如何更新的?
分层哈夫曼比softmax好在哪里?
负采样如何采样的?
最新的BERT能不能聊一下?

FM讲一下?通过怎样的推导变成线性的?
wide&deep讲一下?
从数学角度讲一下为什么特征组合之后拟合效果会提升?
FFM 讲一下?
xgboost+LR 在推荐是怎么应用的?
树模型怎么求0-1的概率?

svm推导一下,一直到对偶问题的求解?
为什么核函数可以解决低维不可分?
说一下对偶问题?
smo知道么?
SVM和LR有什么关系?

deepwalk和node2vec有什么不同?
deepwalk对word2vec改进什么了?
LSTM讲一下?为什么有记忆性?
梯度消失能说一下么?怎么解决梯度消失?

用hive写一下分组排序?
hive数据倾斜怎么解决?
MapReduce里面有几次排序?

------------------------------------------------------------

    大概就这么多吧,如果有人对上面的问题有什么疑惑,或者没有找到答案,欢迎留言。

 

你可能感兴趣的:(算法工程能力,传统机器学习)