作者:泡了个泡
链接:https://www.nowcoder.com/discuss/127357
来源:牛客网
本人真·末流985软件工程本硕,研究方向推荐系统(但是整个实验室也只有我自己在研究),JCR1区水刊论文一篇,对于机器学习也算是半路出家,从今年一月份才开始系统的学习。
经历了惨痛的春招与秋招之后,也积攒了一些面经,希望能对大家有所帮助。
春招
360 浏览器事业部 推荐算法工程师
一面
1.项目
2.关键字怎么提取的,TF-IDF有改进么,怎么改进的
3.命名实体怎么得到的,原理了解
4.LDA的原理是什么,使用了哪个框架
5.狄利克雷分布能具体说说么
6.深度学习了解么
7.RNN LSTM了解么
8.有什么比较熟悉的算法
9.xgboost的原理
10.有10个排好序的数据库,那么我要找整个的中位数,怎么找
11.一个路口,一个小时通过一个车的概率是0.9,那么20分钟内通过车的概率是多少
12.我有一个32位的id是唯一的,那么我想压缩一下,让他还唯一,怎么压缩
二面
1.项目
2.SVM原始问题为什么要转化为对偶问题,为什么对偶问题就好求解,原始问题不能求解么
3.K-means 中我想聚成100类 结果发现只能聚成98类,为什么
4.进程中的内存分段是怎样的
5.每个线程有哪些东西是自己独享的
6.一枚不均匀的硬币,我抛了100次,有70次朝上,那么第101次朝上的概率是多少
这个概率怎么样,公示是如何推导出来的
7.给你个字符串,字符串是个数字,怎么转换为int型,不用库函数的话
8.4个海盗,100个金币,每个人轮流提方案,如果你的方案有半数以上通过,那么久可以,否则就会被杀掉,如果你是第一个人,那么你怎么提方案比较好
9.你的优点是什么
有些问题回答的不够好,面完二面以后HR让等通知,几天之后查状态果然挂了
*********************************************************************************************************************************************************************************
美团点评 到店综合 机器学习/数据挖掘工程师
一面
1.先聊了半天项目,从细节创新点,讲到了整体的架构。聊了大概15分钟左右。。
2.GBDT的原理,以及常用的调参的参数
3.xgboost的跟GBDT比优点都有哪些
4.一道SQL题,count(1),count(*),count(列名) 这三个有什么区别
然后问了下什么时候能来实习,实习多久
我问了他他这边都做什么,就这么愉快的结束了面试
二面
1.L1、L2正则化,区别
2.项目,长短期兴趣,如何验证,时间敏感
3.文本内容推荐中有哪些内容可以应用到商品团购推荐当中去
4.Xgboost中的行抽样,可以起到哪些作用
5.样本少了不是会过拟合么,为什么行抽样可以防止过拟合
6.算法题,一个数组,找出第k大的数
这些方法的时间复杂度是多少
二面过后过了三四天左右,收到了offercall
*********************************************************************************************************************************************************************************
腾讯IEG安全部门一面(提前批)
1.说一下构建模型的过程
2.特征选择方法都有哪些
3.常用的损失函数和适用场景
4.LR和SVM原理
5.LR和SVM这两个应用起来有什么不同
6.PCA说一下
7.你都会什么聚类方法
8.模型的评价方法有哪些
9.ROC怎么画
10.你知道SoftMax么
11.野指针是什么意思
12.快排的思想是什么
13.Linux中查找符合一定规则的文件名怎么查找,或者用脚本也行
14.C++会不会 虚函数是什么意思
15.我有一个文本,那么我要统计每个词出现的频率,Python上应该怎么做
16.编代码的时候如何申请内存,有哪些方法
17.你玩游戏么,都玩过哪些游戏
由于提前批被捞的时候距离提前批流程结束已经没几天了,所以没能完成后续面试
腾讯沈阳现场一面
1.项目
2.特征选择方法都有用过哪些
3.随机森林怎么进行特征选择
4.用过哪些机器学习算法
5.加密方法知道哪些
6.MD5可逆么
7.word2vec用过么
8.极大似然估计是什么意思
9.上过哪些课
10.排序算法哪些时间复杂度比较低
11.计算机网络了解多少
20分钟,问题除了加密的部分其他应该都答得还可以
然后出来之后被秒挂了
*********************************************************************************************************************************************************************************
阿里 新零售 天猫 算法工程师-机器学习
一面
先是一个简单的自我介绍;
1.然后介绍了项目的框架和主要创新点;
2.说一下随机森林和Adaboost,以及区别
3.说一下GBDT和Adaboost,以及区别
4.说一下LDA的原理
5.对于PCA,会有第一主成分、第二主成分,怎么为什么第一主成分是第一,原因是什么?
6.PCA的主成分是怎么得到的
二面
先是简单问了一些关于什么时候可以实习,学校这边的状况如何的问题。
然后开始聊项目,项目聊得比较细,我做了哪些创新点,具体怎么做的,有问题面试官都会追问清楚。
1.说一下SVM
2.聊了一下之前本科的实习经历
3.面向对象的三要素
4.对深度学习了解多少
5.你觉得深度学习的方法和传统机器学习比,有什么大的优势
二面通过了,之后流程也到了三面面试官的手里,但是好像p9大佬一直很忙没有时间面我,又赶上当时天猫周年庆。。。最后一直拖到流程结束,还是没有缘分啊
*********************************************************************************************************************************************************************************
GrowingIO 机器学习工程师
一面
1.项目
2.当我们要求准确率很高,但是不在意召回率的时候,可以怎样处理。
3.回归算法用于分类的阈值如何确定呢
4.xgboost,说一下原理,步长如何设定
二面
这次的二面问的问题都很open,都是一些如何让我的推荐系统可以更好的应用于大数据的实际场景当中去的问题。
首先是一个1分钟的简短的自我介绍。
还是聊项目,创新点,以及系统架构和实现。
1.k-means中的k如何确定呢?
2.除了k-means,还可以用什么聚类方法,或者你还熟悉什么聚类方法
3.层次聚类的话,你又如何判断聚成多少类合适?
二面之后还有个VP面,也简单聊了聊技术,最后拿到了offer
*********************************************************************************************************************************************************************************
好未来
一面
1.用过什么语言,用没用过R,语言都干什么用的
2.朴素贝叶斯原理
3.TF-IDF原理
4.性能评价指标,准确率召回率是怎么回事,二分类 和多分类的评价方法
5.除了推荐方面的东西,你还做过一些别的事情么
6.用过scikit-learn numpy么
7.LDA你是怎么用的,LDA的表现如何,主题分的效果好不好
8.你觉得基于内容的方法和协同过滤有什么不同
9.还有就是一些基本情况了,用没用过数据库啊之类的,数据库用的怎么样 sql会不会
面试小哥说他们是做NLP的,感觉我比较适合推荐的组,说给我把简历递过去,但是就没有后续了
*********************************************************************************************************************************************************************************
数旦科技
一面
1.数据库 三范式
2.bagging 和boosting 哪个可以让结果的方差更小一些,为什么?
3.你都知道哪些分类算法
4.bagging 和boosting的区别是什么
5.排序算法都有什么?当一个数据特别乱序的时候使用哪个排序算法更好一些
6.你论文都怎么搜索的,如何保证质量?
7.面向对象 多态 继承 的关系
8.面对大数据量的推荐 应该如何实现
9.说说协同过滤是怎么回事
10.你常用的推荐算法都有什么
11.集成学习为什么要用简单的基学习器,不用一个复杂一点的学习器
12.非线性的数据,可以使用什么分类器进行分类
这个还有二面,但是二面没问太多技术问题,后来就莫名其妙没有后续了
*********************************************************************************************************************************************************************************
搜狐算法实习生
一面
先问项目,然后
1.LDA的原理是什么?
5.推荐的时候矩阵一定是稀疏的,对于这个稀疏矩阵应该如何处理?
6.如何从文档中提取关键字?
7.讲一讲tf-idf是什么意思
8.hashmap你用过么,底层是如何实现的?
9.计算机网络你有学过吧,还记得什么么?
10. Android 的生命周期是什么?
11.你用过Python 那么你Python都用过哪些机器学习的库?
12.你觉着你自己都有哪些优点呢?
这是春招初面,什么都不会。。顺利凉凉
搜狐(智能推荐平台)
一面
主要问的都是项目
手撸代码,不用库函数求一个数的立方根,要求误差小于0.01
代码没撸出来,再次凉凉
*********************************************************************************************************************************************************************************
以上是所有春招的面试经历,除了这么多一面就挂的,还有很多简历挂,笔试挂的。最终拿了美团点评和GrowingIO的offer,然后选择了去美团实习,共三个月。
秋招
阿里 口碑 算法工程师-机器学习
一面
1、项目
2、如何在实际场景中实现项目,需要做哪些改变与考虑
3、代码题,如何不使用库函数(+-*/)实现一个加法计算函数,入参为两个字符串,返回值为两个字符串
4、逻辑回归的思想和过程,损失函数是什么,如何训练得到最优参数
5、如何防止过拟合
6、L1正则不是连续可导的,那么还能用梯度下降么,如果不能的话如何优化求解
7、树模型的分裂依据都有哪些
8、支付宝年末要出一个年终总结,那么我要对所有用户的交易额度进行全量的排序,那么内存肯定是不够用的,这种情况下应该怎么做
9、在一个坐标系内,用户和商户都有自己的坐标(x,y),那么我想找到距离用户最近的k个商户,如何最快的得到
10、口碑要拉新客,我们的策略是发红包,怎么如何在预算有限的情况下发红包能让最多的用户来安装口碑呢
11、在美团都做了哪些工作,简单说一下
秋招第一次面试,一面遇到P8大佬,准备不充分的情况下,顺利凉凉
*********************************************************************************************************************************************************************************
百度 展示广告部 机器学习/数据挖掘/自然语言处理工程师
一面 (电话)
1、介绍一下新闻推荐的项目
2、介绍一下美团实习的方向,负责的内容
3、GBDT+LR的原理
4、GBDT+LR中,如果GBDT有有1万颗树,每个树有100个叶子节点,那么输入到LR的特征会是一个高维稀疏的向量,那么应该如何处理,使用PCA降维的话会造成损失,如果不想有损失的话应该怎么办
5、GBDT的原理
6、GBDT在回归和多分类当中有什么不同,在预测的时候的流程是怎样的
7、逻辑回归如何防止过拟合
8、L1、L2正则化的区别是什么
9、L1正则相当于拉普拉斯先验,那么在损失函数为最小二乘法的时候,如何通过拉普拉斯先验推导出L1正则
10、L1正则是不可导的,那么在这种情况下如何优化求解损失函数
11、坐标轴下降法的原理是什么,还有别的方法求解么
12、你所使用的GBDT+LR的代码中,LR的优化方法是什么,是如何实现的(看源码)
13、算法题,有一个n*n的数字矩阵,我要将其向右旋转90度,应该如何实现,时间复杂度是多少
二面 (上研现场)
1、介绍实习的项目
2、GBDT不擅长处理离散特征,你在应用的时候是怎么处理的
3、项目中LR用的优化方法是什么,有没有用正则化,有没有调整sgd的步长
4、你还知道哪些优化方法
5、GBDT+LR中LR输入的特征都有哪些,除了GBDT输出的特征 有没有加入原始特征
6、如何判断模型有没有过拟合
7、100块钱,每次可以花1、2或者3块,有多少种花法
8、算法题,用两个栈实现一个队列
9、手推逻辑回归
三面 (电话)
1、讨论论文
2、tf-idf在提取关键字的时候有没有遇到问题
3、userCF在现实场景中实现遇到的问题,如何解决
4、有一个特别长的数组,放不进内存的情况下,找出最小k个数
5、蓄水池抽样
6、逻辑回归的特征处理,连续值、离散值,离散化连续特征的好处
7、L1、L2正则化
8、模型在线下可以得到很好的效果,但是上线后效果不好,有哪些原因
9、实习项目
10、项目中如何判断是否拟合、如果离线数据不能很好反映全集的情况如何处理
11、进程间通讯都有哪些手段
12、父类变量指向子类实例的情况下,在调用方法时是如何判断调用的是父类的方法还是子类的方法
13、多线程锁
完成了三面,个人感觉良好,等了很久没消息后,问了面试官,告知凉凉
*********************************************************************************************************************************************************************************
今日头条 上海 算法工程师
一面
1、讨论论文
2、user-cf、item-cf公式,原理区别
3、讨论实习
4、手写堆排序
5、手写快排
二面
1、topk
2、手写代码实现lr的训练与预测
当时的我还不会手写堆排序。。凉凉
*********************************************************************************************************************************************************************************
美丽联合 应用算法工程师
一面 20min
1.聊了实习里面很小的一个点,大约3min
2.手撕代码 最长连续合法括号子序列
最差的一次面试体验,真的是不缺人?一定要吐槽一下,论文、实习的主要内容都不问,机器学习算法也不问,直接手撕LeetCode hard难度代码,没写出来就挂人??
不缺人何必约面试呢。
*********************************************************************************************************************************************************************************
海康威视 研究院 大数据算法工程师
一面(电话)
1、GBDT原理
2、GBDT在处理onehot属性时,当1或者0的数量很多的时候是否会发生问题
3、Xgboost 和GBDT区别
4、如何判断是否过拟合
5、实习
6、既然GBDT处理onehot属性时存在问题,为什么你们还要这么做
后面通知了现场面试,但是由于当时有事过不去,只能鸽了
*********************************************************************************************************************************************************************************
网易游戏 雷火 数据挖掘工程师
上午面了三面,发现雷火的数据挖掘实际是大数据开发,并不是算法岗。。
问了很多Hadoop
spark hive的底层内容和算法能沾边的问题不多,如下:
1、SQL题
2、二叉树中序遍历,递归非递归
3、情境代码题(具体记不清了)
4、user-cf中计算近邻用户的距离度量方法有哪些,如何选择
5、激活函数比较
6、推导逻辑回归
互相不匹配,凉凉
*********************************************************************************************************************************************************************************
阅文集团 算法/机器学习工程师
一面
1、实习感受
2、实习内容
3、讨论一个算法项目的流程
4、特征处理与选择
5、GBDT+LR
6、讨论论文
7、主题模型
8、命名实体识别
二面
1、实习
2、论文,关于推荐系统的一些看法
3、逻辑回归的原理与推导
4、item-cf与user-cf与基于内容的推荐的区别
5、逻辑题(具体记不清了)
HR面
工作如何选择
未来规划
女朋友
东北人为啥要来上海
薪资期望
由于很多问题都是根据论文和实习展开问的,所以显得面试问题不是很多,其实面试时间都有50min左右。
很幸运赶上了阅文第一次提前批,来了东北大学。面试很效率,很友好。
十一之后收到了offer 小sp
*********************************************************************************************************************************************************************************
秋招就一共面试了这么多家。还有一些做了笔试没给面试机会的,比如:京东、网易互联网、哔哩哔哩、滴滴。一些投了简历没消息或直接挂了的,如:51信用卡、点我达、有赞。
最终拿到了阅文的sp offer 和美团实习留用的 sp offer,其他的都凉了或者在凉的路上。希望这些面经能对大家有所帮助。
作者:人生啊这么长
链接:https://www.nowcoder.com/discuss/128148
来源:牛客网
美团AI提前批专场面试
16:15-16:50
15:17-15:27
13分钟
37分钟
13分钟
23分钟
32分钟
35分钟
25分钟
27分钟
25分钟
25分钟
41分钟
58分钟
1小时28分钟
26分钟
40分钟
20分钟
36分钟
18分钟
17分钟
33分钟
24分钟
27分钟
12分钟
52分钟
34分钟
15分钟
57分钟
42分钟
50分钟
26分钟
32分钟
26分钟
20分钟
24分钟
43分钟
38分钟
26分钟
7分钟
20分钟
20分钟
26分钟
56分钟
7分钟
42分钟电话面试
50分钟
53分钟
31分钟
53分钟
25分钟
1小时31分钟
32分钟
34分钟
42分钟
26分钟
28分钟
17分钟
46分钟
11:13-12:17
19:04-19:50
面试28分钟
面试14分钟
09:50-10:35
10:37-11:00
11:00-11:18
15:50-16:10
10:58--11:08
9分钟
13:20-13:40
其实不是面试,就是问,如果给我发offer,会不会来,
聊了一下,问了问工作内容、地点、转正、时间什么的
10:32-11:08
14:30-15:14
15:37-15:47
14:00-14:30
17:07-17:27 20分钟
作者:我不是渣神
链接:https://www.nowcoder.com/discuss/36815
来源:牛客网
一、拼多多提前批
1、问主要编程语言。会java吗?会hadoop吗?描述项目。
2、描述word2vec算法,描述sent2vec,描述一下sent2vec怎么得到向量?(当时没复习,不会)
3、我们的商品的标题有几十个字符,怎么得到和某个商品最相似的K个商品?(我说先分词再用词嵌入,平均之后拿这个向量互相算余弦距离)
4、他于是问得到向量后,如何在几千万甚至上亿个商品内找到前K个最相似的。如果提高效率?(我说哈希分片到不同机器并行运算,他说这样是可以,但是总复杂度没降下来,要用什么高维特征检索,我猜测有点类似kd-tree的意思)
二、小红书提前批
1、最有意思的项目。
2、在线做题。一个m*m的矩阵,其中每个n*n矩阵中都有一个最大值(n 三、360提前批 第一次现场面,完全不知道面试是什么套路,稀烂。 1、介绍xgboost一下。写下xgboost目标函数。(因为我提到xgboost在目标函数里显式地加入了正则项..血雪崩) 2、问项目里英语分词器用了啥,jieba用过吗,怎么调整XGB参数,除了logloss用了别的评估方式吗 3、了解其他的分类模型吗,问LR缺点,LR怎么推导(当时我真没准备好,写不出来) 4、写LR目标函数,目标函数怎么求最优解(也不会) 5、讲讲LR的梯度下降,梯度下降有哪几种 6、写代码:快拍,如何写非递归的快排(不会非递归) 7、写代码:最长公共子序列(当时不会写,DP,左神书P210) 7、逻辑函数是啥(Log-Sigmoid,1/(1+e^(-x))) 8、机器学习的模型自己实现过吗(对不起我是真开局一卷草席,装备全靠捡) 8、word2vec是怎么实现的 9、nlp做过吗?讲一讲textrank如何做的(有用过) 10、写一下信息增益 女面试官语重心长地对我说,你小子一个应届生,基础差得一批,啥啥不会,我们这要实现算法的,赶紧滚回去巩固基础,并且多自己实现实现。 四、百度提前批 一面 1、C语言,指针和引用区别(略懵逼,后来发现C里没有引用啊...C++我真不了解) 2、线程、进程的区别(太早以前看的,都忘了,以为算法岗不问这些...) 3、线程间通信方式,进程间通信方式,管道是什么(不会,后来补学了一发) 4、同步、异步区别,服务器客户端场景下(再度答错) 5、堆了解吗?有个什么场景非常适合使用堆?(Top-K问题)Top-K问题怎么用堆,怎么更新堆? 6、红黑树了解吗(具体不了解,只知道是种特别叼的二叉搜索树,为什么叼不知道,大概是比较接近平衡,调整的步骤少) 7、散列表了解吗,怎么存储散列表(基础差真的不行,再次答错) 8、散列表读取的时间复杂度,散列表很大的情况下读取(O(1)) 9、hadoop,spark这块用过吗(没) 10、python 垃圾回收机制(不会) 11、python 深、浅复制区别和应用场景(微微一讲) 12、python 可不可以多线程、多进程(我说都可以,不过忘了GIL,晕) 13、python 语言有什么特性 或者你编程时比较喜欢的方面 14、xgboost原理 15、gbdt树根据什么分裂(瞎扯的梯度近似残差、梯度下降方向,其实还是信息增益这种东西) 16、gbdt怎么并发(特征选择层面,树层面不能并发) 17、最长公共子序列,复杂度(DP,时间复杂度O(n*m),空间复杂度可以缩小到O(min(n,m)),左神书P210) 18、写代码:翻转链表(原地翻转,左神书P40) 19、两个单向链表第一个公共结点(左神书P62) 二面 1、写代码:一个有序的连续的数组,其中少一个数,如2、3、5、6、7,O(lgn)找出这个数(写的二分我感觉没错她说我少考虑了...) 3、讲项目,参数是如何调整的,获得了多少收益;一个月的工作中,产生特征的思路,获得了多少收益 4、除了xgboost还知道那些机器学习的模型 5、写一下SVM要优化的函数,直接推导SVM(写到L(w,b,α)时让不用写了) 6、写的过程中问了几个问题,为什么要除以||w||,为什么优化问题中间隔γ可以取1(没答太好) 7、一个六位数的随机密码生成器,不小心拿反了,结果读取获得的密码仍然是正确的,概率多大(前三位和后三位要是中心对称的数字) 8、关键词分析有什么模型,情感分类有什么模型(项目相关) 9、自己搭的搜索引擎结果是如何排序的(elasticsearch用了一下而已),有没有评估效果(没),建索引时和query时分词的颗粒大小 经理面 1、为什么一面面的不好,这些不复习也应该知道,代码是不是写的少,按理学电子的写C也很多(别说了,是我的错,基础差) 2、想从事的技术方向,为什么想做这个(我随意..) 3、为什么说喜欢机器学习,你说的推荐系统和购买预测有什么不同(说不清) 4、未来想做到什么水平,什么人适合做什么,就做什么,不论是技术还是管理,适合最重要,不要羡慕别人的风光 5、当领导需要什么能力,你适合当领导吗 8、怎么学习机器学习,最近看了什么书什么论文,有没有去实现它(说看了gans) 聊人生,特别看重逻辑性 五、58转转内推 1、项目介绍,xgboost介绍 2、为什么要用梯度拟合残差 3、为了达到相似的预测结果,RF和GBDT哪个树深(这个我真答反了,还振振有词地说了一统bagging....可以看看这个https://www.zhihu.com/question/45487317) 4、准确率,召回率解释一下 5、假设加了很多很多负例,auc和prc哪个对此不敏感(实际上auc不敏感,但也有人说因为prc比auc在极端不平衡时曲线差很多,所以用prc能反映真实的分类效果,这个问题各自有各自的道理,可以看看这个https://www.zhihu.com/question/30643044) 6、xgboost对特征缺失敏感吗,对缺失值做了什么操作(知道不敏感,但不知道什么操作..) 7、哪些模型对特征缺失敏感,哪些不敏感(不知道) 8、特征缺失,不用说求均值之类的填补方法,用LR、RF去预测缺失值,哪个好(这个求大佬解答,我真没想明白,我扯的RF,又拎出bagging扯了一番.....) 六、美团内推 一面 1、写代码:一个数组和一个num,O(n)找到数组中两个和为num的数字对的下标(哈希,找num-lists[i]) 2、xgboost介绍,项目的一些问题以及没有做到的,很细 3、项目中用到LSTM怎么用的(血崩开始,LSTM真不会,只是用了下) 4、为什么过拟合,怎么判断过拟合,怎么减少过拟合 5、不变动模型和参数,只对数据来说怎么减少过拟合(说是增加数据,略无语) 二面 1、SVM数据线性不可分怎么办 (软间隔,核函数,讲下软间隔) 2、为什么LR要用对数似然,为什么不用平方损失或者差的绝对值之类的损失(我说类似最大熵问题,得到了光滑的凸函数,面试官说就是为了得到凸函数) 3、接上题,LR中使用平方损失会不会形成凸函数(我没敢答,事实上不是) 4、XGB和GBDT区别 5、泰勒展开怎么写(忘了..) 6、L0、L1、L2范式,他们的作用(雪崩2,我以为自己背得牢牢的,然而...其实L1相当于曼哈顿距离,L2相当于欧氏距离,这下不会忘了) 7、外卖时间预测的整个流程(想了一堆特征,天气、路况、外卖员历史速度、菜色大小之类的,监督学习,用XGB之类的回归) 8、LSTM怎么用,back propagation through time是啥,为什么会梯度消失,back propagation推导,讲链式法则(雪崩3,不会深度学习) 9、讲k-fold CrossValidation,然后问说有一百个数,随机选取数字,让其均匀分成十份,不允许有一次碰撞(面试官说随机一个数字后和最后一个数字交换,依次减小数字的范围。略无语,感觉并没有实际解决问题,又在哈希方向思考了半天) 七、作业帮 一面 1、讲项目,特征工程的细节、不足 2、介绍xgboost,讲讲xgboost怎么用以及常用参数 3、介绍word2vec 4、怎么判断是否过拟合,工程上怎么减少过拟合 5、让我用C语言实现char* strcpy(char *strDest, const char* strSrc)(我说不太会C了,只会python做题可以吗..结果开始问python语言) python: 6、[[],[0,1,2],[]]之类的list用2位置的数排序,sorted(a,key=lambda x:x[2]),排序怎么反向,reverse 7、[[],[0,1,2],[]]之类的list怎么取出2位置是2的形成新的list:[[0,1,2]](还真不会,给写了个for循环的....好蠢) 8、写正则表达式(忘了) 9、对list有什么常用操作 10、python with语句是啥,单下划线/双下划线(不会) 面试官认为python没指针,写代码好像不自然,所以以下都没写代码: 11、单向链表判断是否成环(左神书P62) 12、二叉树前序、中序遍历还原树(很常见) 13、0.7概率生成1、0.3概率生成0的随机数生成器和0.3概率生成1、0.7概率生成0的随机数生成器,用任意个组合成为0.5、0.5概率生成1、0的随机数生成器(我说用俩,生成11或者00则对应1和0,生成01或10就continue,感觉不优雅...) 14、字符串如‘abcDefG’,如何把小写的放前面,大写的放后面,相互间顺序不变,即‘abcefDG’,要求不能额外申请空间(没想出来,主要难点就是想办法如何交换) 15、上一题提醒:有两个数字a和b,如何交换a和b的值,要求不能申请额外空间(异或,左神书P317,问我python怎么异或两个数可以直接异或吗,我说^,这个我试过可行) 16、讲堆排序的过程。建堆,调整等。 二面 1、讲项目、特征工程的细节 2、讲xgboost和gbdt区别 3、n人参加0-100分的考试,确定排名n/2的人几分(桶排序) 4、一个输入流,一直不断输出一个数字,随时可能停止,停止时要求立即输出一个之前所有数中的随机数,即每个数字输出的概率都相同,要求是只能申请常数大小的存储空间,不能O(n)大小。(一直在瞎想哈希,实际上要以概率问题来考虑这个题,即新来的数以1/n概率保留,原来的数以(n-1)/n概率保留。每次来一个数按概率抛弃一个数,剩一个数) 5、然后是上一题停止时要求输出K个数字的方案。(差不多的方法,新来的数k/n概率保留) 6、为什么很多实践或论文中,训练时要分为train、validation、test三部分,分成train、validation不就够了吗?(没说好,我感觉还是测试预测效果,实际上一般k-fold也就是train、validation啊...大佬可以说说)