87. 你有哪些Deep Learning(RNN,CNN)调参的经验?
88. 简单说说RNN的原理。
89. 什么是RNN?
90. RNN是怎么从单层网络一步一步构造的的?
101. 深度学习(CNN RNN Attention)解决大规模文本分类问题。
102. 如何解决RNN梯度爆炸和弥散的问题的?
103. 如何提高深度学习的性能?
104. RNN、LSTM、GRU区别?
105. 当机器学习性能遭遇瓶颈时,你会如何优化的?
106. 做过什么样的机器学习项目?比如如何从零构建一个推荐系统?
107. 什么样的资料集不适合用深度学习?
108. 广义线性模型是怎被应用在深度学习中?
109. 准备机器学习面试应该了解哪些理论知识?
110. 标准化与归一化的区别?
111. 随机森林如何处理缺失值。
112. 随机森林如何评估特征重要性。
113. 优化Kmeans。
114. KMeans初始类簇中心点的选取。
115. 解释对偶的概念。
116. 如何进行特征选择?
117. 数据预处理。
118. 简单说说特征工程。
119. 你知道有哪些数据处理和特征工程的处理?
120. 请对比下Sigmoid、Tanh、ReLu这三个激活函数?
121. Sigmoid、Tanh、ReLu这三个激活函数有什么缺点或不足,有没改进的激活函数?
122. 怎么理解决策树、xgboost能处理缺失值?而有的模型(svm)对缺失值比较敏感?
123. 为什么引入非线性激励函数?
124. 请问人工神经网络中为什么ReLu要好过于Tanh和Sigmoid function?
125. 为什么LSTM模型中既存在Sigmoid又存在Tanh两种激活函数?
126. 衡量分类器的好坏。
127. 机器学习和统计里面的auc的物理意义是什么?
128. 观察增益gain, alpha和gamma越大,增益越小?
129. 什么造成梯度消失问题? 推导一下。
130. 什么是梯度消失和梯度爆炸?
131. 推导下反向传播Backpropagation。
132. SVD和PCA。
133. 数据不平衡问题。
135. .简述神经网络的发展。
136. 深度学习常用方法。
137.-171
172. 增加卷积核的大小对于改进卷积神经网络的效果是必要的吗?
173. 请简述神经网络的发展史。
174. 说说spark的性能调优。
175. 机器学习中,有哪些特征选择的工程方法?
176. 常见的分类算法有哪些?
177. 常见的监督学习算法有哪些?
178. -214
215. 试推导样本空间中任意点x到超平面(w,b)的距离公式。
216. 从网上下载或自己编程实现一个卷积神经网络,并在手写字符识别数据MNIST上进行试验测试。
217. 神经网络中激活函数的真正意义?一个激活函数需要具有哪些必要的属性?还有哪些属是好的属性但不必要的?
218. 梯度下降法的神经网络容易收敛到局部最优,为什么应用广泛?
219. EM算法、HMM、CRF。
220. CNN常用的几个模型。
221. 带核的SVM为什么能分类非线性问题?
222. 常用核函数及核函数的条件。
223. Boosting和Bagging。
224. 逻辑回归相关问题。
225. 用贝叶斯机率说明Dropout的原理。
226. 为什么很多做人脸的Paper会最后加入一个Local Connected Conv?
227. 什么事共线性, 跟过拟合有什么关联?
228. 为什么网络够深(Neurons 足够多)的时候,总是可以避开较差Local Optima?
229. 机器学习中的正负样本。
230. 机器学习中,有哪些特征选择的工程方法?
231. -284 CHOOSE
285. 特征向量的归一化方法有哪些?
286. 优化算法及其优缺点?
287. RF与GBDT之间的区别与联系?
288.-301 CHOOSE
302. 什么是梯度爆炸?
303. 梯度爆炸会引发什么问题?
305. 如何修复梯度爆炸问题?
306. LSTM神经网络输入输出究竟是怎样的?
307. -315 CHOOSE
316. 什么是偏差与方差?
317. 解决Bias和Variance问题的方法是什么?
318. 采用 EM 算法求解的模型有哪些,为什么不用牛顿法或梯度下降法?
319. XGBoost怎么给特征评分?
320. 什么是OOB?随机森林中OOB是如何计算的,它有什么优缺点?
87. 你有哪些Deep Learning(RNN,CNN)调参的经验?
88. 简单说说RNN的原理。
89. 什么是RNN?
90. RNN是怎么从单层网络一步一步构造的的?
101. 深度学习(CNN RNN Attention)解决大规模文本分类问题。
102. 如何解决RNN梯度爆炸和弥散的问题的?
103. 如何提高深度学习的性能?
104. RNN、LSTM、GRU区别?
105. 当机器学习性能遭遇瓶颈时,你会如何优化的?
106. 做过什么样的机器学习项目?比如如何从零构建一个推荐系统?
107. 什么样的资料集不适合用深度学习?
108. 广义线性模型是怎被应用在深度学习中?
109. 准备机器学习面试应该了解哪些理论知识?
110. 标准化与归一化的区别?
111. 随机森林如何处理缺失值。
112. 随机森林如何评估特征重要性。
113. 优化Kmeans。
114. KMeans初始类簇中心点的选取。
115. 解释对偶的概念。
116. 如何进行特征选择?
117. 数据预处理。
118. 简单说说特征工程。
119. 你知道有哪些数据处理和特征工程的处理?
120. 请对比下Sigmoid、Tanh、ReLu这三个激活函数?
121. Sigmoid、Tanh、ReLu这三个激活函数有什么缺点或不足,有没改进的激活函数?
122. 怎么理解决策树、xgboost能处理缺失值?而有的模型(svm)对缺失值比较敏感?
123. 为什么引入非线性激励函数?
124. 请问人工神经网络中为什么ReLu要好过于Tanh和Sigmoid function?
125. 为什么LSTM模型中既存在Sigmoid又存在Tanh两种激活函数?
126. 衡量分类器的好坏。
127. 机器学习和统计里面的auc的物理意义是什么?
128. 观察增益gain, alpha和gamma越大,增益越小?
129. 什么造成梯度消失问题? 推导一下。
130. 什么是梯度消失和梯度爆炸?
131. 推导下反向传播Backpropagation。
132. SVD和PCA。
133. 数据不平衡问题。
135. .简述神经网络的发展。
136. 深度学习常用方法。
137.-171
172. 增加卷积核的大小对于改进卷积神经网络的效果是必要的吗?
173. 请简述神经网络的发展史。
174. 说说spark的性能调优。
175. 机器学习中,有哪些特征选择的工程方法?
176. 常见的分类算法有哪些?
177. 常见的监督学习算法有哪些?
178. -214
215. 试推导样本空间中任意点x到超平面(w,b)的距离公式。
216. 从网上下载或自己编程实现一个卷积神经网络,并在手写字符识别数据MNIST上进行试验测试。
217. 神经网络中激活函数的真正意义?一个激活函数需要具有哪些必要的属性?还有哪些属是好的属性但不必要的?
218. 梯度下降法的神经网络容易收敛到局部最优,为什么应用广泛?
219. EM算法、HMM、CRF。
220. CNN常用的几个模型。
221. 带核的SVM为什么能分类非线性问题?
222. 常用核函数及核函数的条件。
223. Boosting和Bagging。
224. 逻辑回归相关问题。
225. 用贝叶斯机率说明Dropout的原理。
226. 为什么很多做人脸的Paper会最后加入一个Local Connected Conv?
227. 什么事共线性, 跟过拟合有什么关联?
228. 为什么网络够深(Neurons 足够多)的时候,总是可以避开较差Local Optima?
229. 机器学习中的正负样本。
230. 机器学习中,有哪些特征选择的工程方法?
231. -284 CHOOSE
285. 特征向量的归一化方法有哪些?
286. 优化算法及其优缺点?
287. RF与GBDT之间的区别与联系?
288.-301 CHOOSE
302. 什么是梯度爆炸?
303. 梯度爆炸会引发什么问题?
305. 如何修复梯度爆炸问题?
306. LSTM神经网络输入输出究竟是怎样的?
307. -315 CHOOSE
316. 什么是偏差与方差?
317. 解决Bias和Variance问题的方法是什么?
318. 采用 EM 算法求解的模型有哪些,为什么不用牛顿法或梯度下降法?
319. XGBoost怎么给特征评分?
320. 什么是OOB?随机森林中OOB是如何计算的,它有什么优缺点?