字节跳动面经 合集

字节跳动AI LAB面经(CV)
字节 算法实习生面经
字节/腾讯算法岗暑期实习面经分享
字节跳动抖音算法实习生面经
20200328字节跳动计算机视觉算法实习生-AI lab
字节跳动算法工程师岗一二三面经

logit函数和sigmoid函数是什么关系?

logit函数和sigmoid函数互为反函数, logisitic 函数就是sigmoid函数。
其中, l o g i t ( p ) = l n p 1 − p logit(p) = ln \frac{p}{1-p} logit(p)=ln1pp, s i m o i d ( x ) = 1 1 + e − x simoid(x) = \frac{1}{1+e^{-x}} simoid(x)=1+ex1.
在逻辑回归中,假设数据符合伯努利分布,
P ( Y = 1 ∣ x ) = e x p ( ω ⋅ x ) 1 + e x p ( ω ⋅ x ) P(Y=1\mid x) = \frac{exp(\omega \cdot x)}{ 1 + exp(\omega \cdot x)} P(Y=1x)=1+exp(ωx)exp(ωx)
P ( Y = 0 ∣ x ) = 1 1 + e x p ( ω ⋅ x ) P(Y=0\mid x) = \frac{1}{ 1 + exp(\omega \cdot x)} P(Y=0x)=1+exp(ωx)1

因此可推导出, l o g i t ( p ) = ω ⋅ x logit(p) = \omega \cdot x logit(p)=ωx.
似然函数为
∏ i = 1 N p y i ⋅ ( 1 − p ) 1 − y i \prod_{i=1}^{N} p^{y_i} \cdot (1-p)^{1-y_i} i=1Npyi(1p)1yi
对数似然函数为:
L ( ω ) = ∑ i = 1 N y i ⋅ l o g ( p ) + ( 1 − y i ) ⋅ l o g ( 1 − p ) L(\omega) = \sum_{i=1}^{N} y_i\cdot log(p) + (1-y_i) \cdot log(1-p) L(ω)=i=1Nyilog(p)+(1yi)log(1p)
求极大似然估计, L ( ω ) L(\omega) L(ω)的极大值,即求 − L ( ω ) -L(\omega) L(ω)的极小值, − L ( ω ) -L(\omega) L(ω)也就是交叉熵损失函数。
在多分类任务中,假设数据符合多项式分布,使用softmax函数进行回归,,根据极大似然函数可以推导出多酚类任务中的交叉熵函数。

交叉熵损失函数

二分类:
L = − ( y ⋅ l o g ( p ) + ( 1 − y ) ⋅ l o g ( 1 − p ) ) L = -(y\cdot log(p) + (1-y) \cdot log(1-p) ) L=(ylog(p)+(1y)log(1p))
多分类:
L = − ∑ i y i l o g ( p i ) L = - \sum_{i}^{} y_i log(p_i) L=iyilog(pi)
其中, y i y_i yi 指示变量(0/1),如果该类别与样本的真实类别相同取值为1,否则取值为0. p i p_i pi表示样本属于i的预测概率。

交叉熵用来描述两个分布的距离, 神经网络训练的目的就是使g(x)逼近p(x)。

交叉熵损失函数

极大似然估计法 和 最小二乘法

极大似然估计与最小二乘法

Adam优化器

你可能感兴趣的:(面经)