1. 什么是数据标准化,为什么要进行数据标准化?
我认为这个问题需要重视。数据标准化是预处理步骤,将数据标准化到一个特定的范围能够在反向传播中保证更好的收敛。一般来说,是将该值将去平均值后再除以标准差。如果不进行数据标准化,有些特征(值很大)将会对损失函数影响更大(就算这个特别大的特征只是改变了1%,但是他对损失函数的影响还是很大,并会使得其他值比较小的特征变得不重要了)。因此数据标准化可以使得每个特征的重要性更加均衡。
2. 解释什么是降维,在哪里会用到降维,它的好处是什么?
降维是指通过保留一些比较重要的特征,去除一些冗余的特征,减少数据特征的维度。而特征的重要性取决于该特征能够表达多少数据集的信息,也取决于使用什么方法进行降维。而使用哪种降维方法则是通过反复的试验和每种方法在该数据集上的效果。一般情况会先使用线性的降维方法再使用非线性的降维方法,通过结果去判断哪种方法比较合适。而降维的好处是:
(1)节省存储空间;
(2)加速计算速度(比如在机器学习算法中),维度越少,计算量越少,并且能够使用那些不适合于高维度的算法;
(3)去除一些冗余的特征,比如降维后使得数据不会既保存平方米和平方英里的表示地形大小的特征;
(4)将数据维度降到2维或者3维使之能可视化,便于观察和挖掘信息。
(5)特征太多或者太复杂会使得模型过拟合。
3. 如何处理缺失值数据?
数据中可能会有缺失值,处理的方法有两种,一种是删除整行或者整列的数据,另一种则是使用其他值去填充这些缺失值。在Pandas库,有两种很有用的函数用于处理缺失值:isnull()和dropna()函数能帮助我们找到数据中的缺失值并且删除它们。如果你想用其他值去填充这些缺失值,则可以是用fillna()函数。
4. 解释聚类算法
https://blog.csdn.net/qq_30262201/article/details/78799926
5. 你会如何进行探索性数据分析(EDA)?
EDA的目的是去挖掘数据的一些重要信息。一般情况下会从粗到细的方式进行EDA探索。一开始我们可以去探索一些全局性的信息。观察一些不平衡的数据,计算一下各个类的方差和均值。看一下前几行数据的信息,包含什么特征等信息。使用Pandas中的df.info()去了解哪些特征是连续的,离散的,它们的类型(int、float、string)。接下来,删除一些不需要的列,这些列就是那些在分析和预测的过程中没有什么用的。
比如:某些列的值很多都是相同的,或者这些列有很多缺失值。当然你也可以去用一些中位数等去填充这些缺失值。然后我们可以去做一些可视化。对于一些类别特征或者值比较少的可以使用条形图。类标和样本数的条形图。找到一些最一般的特征。对一些特征和类别的关系进行可视化去获得一些基本的信息。然后还可以可视化两个特征或三个特征之间的关系,探索特征之间的联系。
你也可以使用PCA去了解哪些特征更加重要。组合特征去探索他们的关系,比如当A=0,B=0的类别是什么,A=1,B=0呢?比较特征的不同值,比如性别特征有男女两个取值,我们可以看下男和女两种取值的样本类标会不会不一样。
另外,除了条形图、散点图等基本的画图方式外,也可以使用PDF\CDF或者覆盖图等。观察一些统计数据比如数据分布、p值等。这些分析后,最后就可以开始建模了。
一开始可以使用一些比较简单的模型比如贝叶斯模型和逻辑斯谛回归模型。如果你发现你的数据是高度非线性的,你可以使用多项式回归、决策树或者SVM等。特征选择则可以基于这些特征在EDA过程中分析的重要性。如果你的数据量很大的话也可以使用神经网络。然后观察ROC曲线、查全率和查准率。
6. 你是怎么考虑使用哪些模型的?
其实这个是有很多套路的。我写了一篇关于如何选择合适的回归模型,链接在这(https://towardsdatascience.com/selecting-the-best-machine-learning-algorithm-for-your-regression-problem-20c330bad4ef)。
7. 在图像处理中为什么要使用卷积神经网络而不是全连接网络?
这个问题是我在面试一些视觉公司的时候遇到的。答案可以分为两个方面:首先,卷积过程是考虑到图像的局部特征,能够更加准确的抽取空间特征。如果使用全连接的话,我们可能会考虑到很多不相关的信息。其次,CNN有平移不变性,因为权值共享,图像平移了,卷积核还是可以识别出来,但是全连接则做不到。
8. 是什么使得CNN具有平移不变性?
正如上面解释,每个卷积核都是一个特征探测器。所以就像我们在侦查一样东西的时候,不管物体在图像的哪个位置都能识别该物体。因为在卷积过程,我们使用卷积核在整张图片上进行滑动卷积,所以CNN具有平移不变性。
9. 为什么实现分类的CNN中需要进行Max-pooling?
Max-pooling可以将特征维度变小,使得减小计算时间,同时,不会损失太多重要的信息,因为我们是保存最大值,这个最大值可以理解为该窗口下的最重要信息。同时,Max-pooling也对CNN具有平移不变性提供了很多理论支撑,详细可以看吴恩达的benefits of MaxPooling(https://www.coursera.org/learn/convolutional-neural-networks/lecture/hELHk/pooling-layers)。
10. 为什么应用于图像切割的CNN一般都具有Encoder-Decoder架构?
Encoder CNN一般被认为是进行特征提取,而decoder部分则使用提取的特征信息并且通过decoder这些特征和将图像缩放到原始图像大小的方式去进行图像切割。
11. 什么是batch normalization,原理是什么?
Batch Normalization就是在训练过程,每一层输入加一个标准化处理。
深度神经网络之所以复杂有一个原因就是由于在训练的过程中上一层参数的更新使得每一层的输入一直在改变。所以有个办法就是去标准化每一层的输入。具体归一化的方式如下图,如果只将归一化的结果进行下一层的输入,这样可能会影响到本层学习的特征,因为可能该层学习到的特征分布可能并不是正态分布的,这样强制变成正态分布会有一定影响,所以还需要乘上γ和β,这两个参数是在训练过程学习的,这样可以保留学习到的特征。
神经网络其实就是一系列层组合成的,并且上一层的输出作为下层的输入,这意味着我们可以将神经网络的每一层都看成是以该层作为第一层的小型序列网络。这样我们在使用激活函数之前归一化该层的输出,然后将其作为下一层的输入,这样就可以解决输入一直改变的问题。
12. 为什么卷积核一般都是3*3而不是更大?
这个问题在VGGNet模型中很好的解释了。主要有这2点原因:第一,相对于用较大的卷积核,使用多个较小的卷积核可以获得相同的感受野和能获得更多的特征信息,同时使用小的卷积核参数更少,计算量更小。第二:你可以使用更多的激活函数,有更多的非线性,使得在你的CNN模型中的判决函数有更有判决性
13. SVM与树模型之间的区别
(1)SVM
SVM是通过核函数将样本映射到高纬空间,再通过线性的SVM方式求解分界面进行分类。对缺失值比较敏感可以解决高纬度的问题可以避免局部极小值的问题可以解决小样本机器学习的问题
(2)树模型
可以解决大样本的问题易于理解和解释会陷入局部最优解易过拟合
14 . L1范式和L2方式的区别
(1)L1范式是对应参数向量绝对值之和
(2)L1范式具有稀疏性
(3)L1范式可以用来作为特征选择,并且可解释性较强(这里的原理是在实际Loss function中都需要求最小值,根据L1的定义可知L1最小值只有0,故可以通过这种方式来进行特征选择)
(4)L2范式是对应参数向量的平方和,再求平方根
(5)L2范式是为了防止机器学习的过拟合,提升模型的泛化能力
岗位职责
负责机器学习平台系统架构设计
负责机器学习平台调度系统设计与开发
负责机器学习平台业务逻辑开发
整合和二次开发机器学习相关工具如TensorFlow、PaddlePaddle、PYTorch、SparkML等到机器学习平台
性能优化,持续提升训练性能,数据交换优化,自动化模型设计和参数调优等;易用性优化,持续提升平台易用性,降低机器学习应用门槛
积极追踪业内AI动态,优化内部技术方案,改进产品性能,不断推进AI架构升级
1、负责利用机器学习技术开展建筑行业智能设计业务场景的模型探索工作;2、结合业务知识,对于海量业务数据的进行特征提取;3、负责优化模型的搭建和应用落地,通过模型输出优化设计方案;4、负责模型监控和迭代开发
1、负责模式识别、深度学习等机器学习算法的研究与设计;2.负责与嵌入式工程师协作,针对终端产品平台进行算法优化尤其是电力系统的应用整合
1、负责用户行为数据的特征工程开发(抽取、组合、筛选、上线、监测等);2、负责对话任务文本特征提取、语义理解、详情提取、对话结果生成算法研究及实现;3、用户画像、智能运营等产品中的机器学习算法的研究、实现和优化。
1.负责基于Kubernetes的模型平台的架构开发和优化;2.为团队开发和维护机器学习环境、用于训练推理的算力、GPU上的训练任务调度等服务;3.开发和维护机器学习相关的工程效率系统,包括a)开发和优化高性能、易用的分布式计算平台计算与调度性能,提升平台作业吞吐率与资源利用率;b)OCR、人脸、语音等算法SaaS服务组件的设计、开发、测试工作;c)提供业界TheStateofArt机器学习系统的规划与设计;d)在线推理服务的性能评估与配置优化和运维。
分析业务模型与应用场景,参与数据清洗和过滤、特征抽取、参数选择、算法实验、效果分析;
深入分析现有算法,了解业务需求,给出有效的优化解决方案
从事公司用户画像与商品推荐系统算法的研发工作
研究/复现前沿的机器学习模型和算法,设计开拓性的新的深度神经网络,利用这类模型对金融数据进行建模,发表论文或进行业务落地
面试需要熟悉技术
1.熟悉python、C/C++、Git、go、java、docker、Kubernetes、hadoop、Linux、spark、Ceph、kubeflow、Hive、flink
2.用过opencv(计算机视觉库)、Sklearn,keras、Pandas、Numpy、tensorflow、Caffe、PyTorch,Mxnet等,熟悉一些常用的机器学习算法比如SVM、adaboost、决策树、支持向量机、聚类、回归、关联规则、神经网络、SparseLR、FFM、随机森林、xgboost等机器学习算法,DeepFM、wide deep、LSTM等、熟练掌握主流深度学习算法(CNN、RBN、DBN等)
3、较流畅的英文技术材料阅读能力;对系统优化和算法模型应用有浓厚兴趣;阅读过相关源码,理解该类架构设计者优先;具备分布式计算框架的使用和并行算法的开发经验者优先。
4、精通Linux系统应用开发;了解机器学习算法原理,对算法高效实现有浓厚兴趣,有一定机器学习算法实现经验;有并行计算、GPU计算相关经验者优先。
具备大型互联网电商企业的用户画像商品推荐搜索系统经验
在NLP或社交网络分析算法上有研究者优先
对以Kubernetes为核心的云原生技术栈应用及生态有深入的理解
对熟悉黑产模式、拥有黑产对抗经验和反洗钱风险建模经验者优先;
有金融行业风险建模、用户画像等经验者优先
推荐调优算法、图算法或自然语言处理的工作经验
有分布式机器学习系统优化经验,有高并发、高可用分布式系统优化经验优先;
具有物体识别、物体检测、目标跟踪、人脸识别等科研或开发经验者优先
良好的数学和算法基础,对特征设计、模型选型、参数调优有良好的能力
对机器学习及其在互联网行业的应用有深入的理解和浓厚的兴趣
善于沟通和逻辑表达,良好的团队合作精神和积极主动的沟通意识