2021年11月15日- 20日,阿里 + 快手计算机视觉岗面试题分享

问题1:BN大致的计算流程?

1)计算样本均值。

2)计算样本方差。

3)样本数据标准化处理。

4)进行平移和缩放处理。引入了γ和β两个参数。来训练γ和β两个参数。引入了这个可学习重构参数γ、β,让我们的网络可以学习恢复出原始网络所要学习的特征分布。


文末免费送电子书:七月在线干货组最新 升级的《名企AI面试100题》免费送!


问题2:BN的优点?

1)计算样本均值。

2)计算样本方差。

3)样本数据标准化处理。

4)进行平移和缩放处理。引入了γ和β两个参数。来训练γ和β两个参数。引入了这个可学习重构参数γ、β,让我们的网络可以学习恢复出原始网络所要学习的特征分布。

问题3:stacked hourglass和u-net的skip connection有什么区别?

他们的相似之处有如下三点:

1、 结构对称,成U型;

2、 含有skip connection连接,底层和高层特征有规律的融合;均是原图下采样-上采样至目标图的流程,类似沙漏(hourglass)形状。当然,他们也有不同的地方:

3、 前者的单个方块是Resenet block,后者就是简单的卷积核;前者可以做多个类似结构的堆叠,后者是单个U型

问题4:hrnet的数据融合有什么特别的?

大多数现有方法从由高到低分辨率网络产生的低分辨率表示中恢复高分辨率表示。相反,本文在整个过程中保持高分辨率的表示。我们将高分辨率子网开始作为第一阶段,逐步添加高到低分辨率子网以形成更多阶段,并行连接多个子网,每个子网具有不同的分辨率。我们进行重复的多尺度融合,使得高到低分辨率表示可以重复从其他分辨率的表示获取信息,从而导致丰富的高分辨率表示。因此,预测的关键点热图可能更准确,空间更精确。

问题5:dropout作用,训练测试有啥不一样的地方?

dropout在训练时,以一定的概率p来drop掉相应的神经网络节点,以(1-p)的概率来保留相应的神经网络节点,这相当于每一次训练时模型的网络结构都不一样,也可以理解为训练时添加了不同的数据,所以能够有效减少过拟合。

问题呢,是出在测试时,因为训练的时候以概率pdrop了一些节点,比如dropout设置为0.5,隐藏层共有6个节点,那训练的时候有3个节点的值被丢弃,而测试的时候这6个节点都被保留下来,这就导致了训练和测试的时候以该层节点为输入的下一层的神经网络节点获取的期望会有量级上的差异。

为了解决这个问题,在训练时对当前dropout层的输出数据除以(1-p),之后再输入到下一层的神经元节点,以作为失活神经元的补偿,以使得在训练时和测试时每一层的输入有大致相同的期望。

问题6:1*1卷积核作用?

1、实现跨通道的交互和信息整合

2、进行卷积核通道数的降维和升维

3、对于单通道feature map 用单核卷积即为乘以一个参数,而一般情况都是多核卷积多通道,实现多个feature map的线性组合

4、可以实现与全连接层等价的效果。如在faster-rcnn中用1x1xm的卷积核卷积n(如512)个特征图的每一个位置(像素点),其实对于每一个位置的1x1卷积本质上都是对该位置上n个通道组成的n维vector的全连接操作。

问题7:实验指标讲一下?

参考回答

1、准确率(Accuracy)

2、精确率/查准率(Precision)

3、查全率(Recall)

4、F1-score

5、ROC 和 AUC

6、Precision-Recall曲线

7、IOU和mIOU


帮助数千人成功上岸的《名企AI面试100题》书,电子版,限时免费送,评论区回复“100题”领取!

本书涵盖计算机语⾔基础、算法和⼤数据、机器学习、深度学习、应⽤⽅向 (CV、NLP、推荐 、⾦融风控)等五⼤章节,每⼀段代码、每⼀道题⽬的解析都经过了反复审查或review,但不排除可能仍有部分题⽬存在问题,如您发现,敬请通过官⽹/APP七月在线 - 国内领先的AI职业教育平台 (julyedu.com)对应的题⽬页⾯留⾔指出。

为了照顾⼤家去官⽹对应的题⽬页⾯参与讨论,故本⼿册各个章节的题⽬顺序和官⽹/APP题库内的题⽬展⽰顺序 保持⼀致。 只有100题,但实际笔试⾯试不⼀定局限于本100题,故更多烦请⼤家移步七⽉在线官⽹或 七⽉在线APP,上⾯还有近4000道名企AI笔试⾯试题等着⼤家,刷题愉快。

2021年11月15日- 20日,阿里 + 快手计算机视觉岗面试题分享_第1张图片

你可能感兴趣的:(自然语言处理,算法,人工智能,计算机视觉,机器学习)