some interview

收集的一些面试经历  https://github.com/xungeer29/Job-Interview

面试:10.12号在漕河景高新技术开发区,先做笔试,笔试题如下:

反转单向链表

有一个数的个数大于该数组长度的一半,找出该数 考虑情况是否全面

用字符串模拟大数相加,并设计测试用例

某省高考人数40W,以第2W人的分数当作一本线,求一本线 统计每个分数的人数,从高分到低分人数相加,直到人数大于2W

面试中交流的问题:

C++四大性质,多态是如何实现的

详细介绍之前实习做的项目,手画项目中使用的模型结构图

对嵌入式了解多少

BN层的作用、原理,为什么使用BN层

为什么神经网络学习到的参数都这么小?(正则化的作用)

写出softmax和L2反向传播的内容(手写公式求导)

自己造轮子是否会?在网络中加入没有API的层,在tensorflow中要写什么?怎么写?

各大经典模型的结构,优点,重点问了GoogleNet的Inception结构,手画出来,介绍结构,说明为什么要这样做

问是否会矩阵相乘,怎么加快矩阵计算速度,提示说计算机的coache机制等

接上面一问,问了计算机底层,按照面试官所说,计算机组成原理像是一个金字塔结构,越往底层速度越慢(快?) 面试结束后,让稍等几分钟,最后说他这边偏向应用,需要设计嵌入式,只设计少量算法,询问我的意愿(感觉是委婉拒绝)。

面试全程很轻松,像是聊天,十分偏重于细节与底层,回答出来部分,有很多没有回答出来

细节细节,深入算法原理底层,早日造轮子

感觉目前还刚步入到使用轮子的初级阶段,算法大致了解,但还无法详细讲清楚,任重而道远。


平安Gamma LAB

自我介绍

之前实习时做的项目介绍,在图像模糊度检测时问到为什么用深度学习做模糊度检测? 答:传统数字图像处理进行图像模糊度检测的方法简介,效果+缺点,用深度学习的效果好,泛化性好

为什么深度学习的方法可以做到真正的无参考,而数字图像处理的方法不行? 答:卷积层提取的特征不仅限于图像的边缘、梯度等,卷积层可以根据目标函数、损失层提取相应的特征, 只要数据集足够多,多样性强,训练出的模型就会有很强的泛化性

卷积神经网络的卷积核也相当于数字图像处理中的算子,为什么不能级联多个算子来达到卷积神经网络的效果呢? 答:(无言以对)人工级联的特征提取方法终归没有神经网络反向传播优化自动提取的特征好

人脸姿态检测项目简介,回归网络是用的什么模型? 答:项目介绍,Alexnet

回归网络的输入是什么? 分类网络使用的是ResNet,回归网络的输入为ResNet的最后一层卷积层输出的 Feather Map

在做项目时遇到过那些问题?解决方法是什么? 1、过拟合:数据增强,L2正则化,Dropout,Early Stopping等

2、梯度爆炸和梯度消失:原因:网络层数过深,权值初始化过大 解决方法:权重正则化、梯度剪切、激活函数relu、批归一化、残差结构、使用LSTM

3、梯度不下降:这是我在 AI CHANLLENGER 农作物病害识别中遇到的问题,在 GoogleNet 的 bottleneck 后面多加几层全连接层就会发生损失不下降, 直接接上分类层损失在前几个step下降的特别快,不知道什么原因

dropout的原理是什么? 答:随机kill掉一些神经元,减少传递到下一层的参数数量,防止过拟合

为什么不直接减少隐藏层的神经元数量,而使用dropout? 答:减少神经元数量会减少提取的特征的数量,学习不到有用的特征,dropout是随机丢弃一些特征,在多次迭代后可以将所有特征传递到下一层

有没有用过 maxdropout/maxout/maxnorm(没听清),与dropout的区别是什么? 答:没有用过,不清楚(问的应该是maxnorm:给每个神经元中权重向量的量级设定上限,使用投影梯度下降来确保这一约束, 在学习率设置过高时也不会出现数值爆炸)

L2正则化与L1正则化有什么区别? 答:L1正则会让参数变得更稀疏 具体可以看知乎

你最常用的激活函数是什么? 答:relu

为什么使用relu? 答:relu可以加快随机梯度下降的收敛,计算简单,耗费的计算资源少

还有一些,想不起来了

你可能感兴趣的:(some interview)