(8)试描述线性判别函数的基本概念,并说明既然有线性判别函,为什么还需要非线性判别函数?假设有两种模式,每类包括6个4维不同的模式,且良好分布。如果他们是线性可分的。问权向量至少需要几个系数分量?假如要建立额尔茨的多项式判别函数,又至少需要几个系数分量?(设模式的良好分布不因模式变化而改变)
(8分)简述偏差方差分解及其推导过程,并说明偏差、方差、噪声三部分的内在含义。
(8 分) 试描述用 EM 算法求解高斯混合模型的思想和过程,并分析 k-means 和高斯混合模型在求解聚类问题中的异同。
(10分)用下列势函数
K ( x , x k ) = e − ∣ x − x k ∣ 2 K(x,x_k)=e^{-|x-x_k|^2} K(x,xk)=e−∣x−xk∣2
求解以下模式的分类问题
$\omega_1\colon{(0,1)T,\quad(0,-1)T}\$
ω 2 : { ( 1 , 0 ) T , ( − 1 , 0 ) T } \omega_2\colon\{(1,0)^T,\quad(-1,0)^T\} ω2:{(1,0)T,(−1,0)T}
(10 分)试述 K-L 变换的基本原理,并将如下两类样本集的特征维数降到一维,同时画出样本在该空间中的位置。
ω 1 : { ( − 5 − 5 ) T , ( − 5 − 4 ) T , ( − 4 − 5 ) T , ( − 5 − 6 ) T , ( − 6 − 5 ) T } \omega_1:\quad\{(-5\quad -5)^T,\quad(-5\quad -4)^T,\quad(-4\quad -5)^T,\quad(-5\quad -6)^T,\quad(-6\quad -5)^T\} ω1:{(−5−5)T,(−5−4)T,(−4−5)T,(−5−6)T,(−6−5)T}
ω z : { ( 5 5 ) T , ( 5 6 ) T , ( 6 5 ) T , ( 5 4 ) T , ( 4 5 ) T } \omega_z:\quad\{(5\quad 5)^T,\quad(5\quad 6)^T,\quad(6\quad 5)^T,\quad(5\quad 4)^T,\quad(4\quad 5)^T\} ωz:{(55)T,(56)T,(65)T,(54)T,(45)T},
其中假设其先验概率相等,即 P ( ω 1 ) = P ( ω 2 ) = 0.5 P(ω_1)=P(ω_2)=0.5 P(ω1)=P(ω2)=0.5。
(10 分)详细描述AdaBoost算法,解释为什么AdaBoost经常可以在训练误差为0后继续训练还可能带来测试误差的继续下降。
(10 分)描述感知机(Perceptron)模型,并给出其权值学习算法。在此基础上, 以仅有一个隐含层的三层神经网络为例,形式化描述 Back-Propagation(BP)算法中是如何对隐层神经元与输出层神经元之同的连接权值进行调整的。
(12分)已知正例点 x 1 = ( 3 , 3 ) T , x 2 = ( 4 , 3 ) T x_1=(3,3)^T,x_2=(4,3)^T x1=(3,3)T,x2=(4,3)T。负例点 x 3 = ( 1 , 1 ) T x_3=(1,1)^T x3=(1,1)T,试用线性支持向最机的对偶算法求最大间隔分离超平面和分类决策函数,并在图中画自分离超平面、 间隔边界及支持向量。
(12 分)假定对一类特定人群选行某种疾病检在。正常人以 w 1 w_1 w1类代表,患病者以 w 2 w_2 w2类代表。设被检查的人中正常者和患病者的先验概率分别为
正常人; P ( ω 1 ) = 0.9 P(\omega_1)=0.9 P(ω1)=0.9
德瑞者: P ( ω t ) = 0.1 P(\omega_t)=0.1 P(ωt)=0.1,
现有一被检查者,其观察值为x。从类条件概率密度分布曲线上查得
P ( x ∣ ω t ) = 0.2 , P ( x ∣ ω t ) = 0.4 P(x|\omega_t)=0.2,\quad P(x|\omega_t)=0.4 P(x∣ωt)=0.2,P(x∣ωt)=0.4
同时已知风险损失函数为
( λ 11 λ 12 λ 21 λ 22 ) = ( 0 6 1 0 ) \begin{pmatrix} \lambda_{11}&\lambda_{12}\\ \lambda_{21}&\lambda_{22}\\ \end{pmatrix}=\begin{pmatrix} 0&6\\ 1&0\\ \end{pmatrix} (λ11λ21λ12λ22)=(0160)
其中 λ i j \lambda_{ij} λij表示将本应属于第 j 类的模式判为属于第 i 类所带来的风险损失。试对该被检查者用以下两种方法进行分类:
(1) 基于最小错误率的贝叶斯决策,并写出其判别函数和决策面方程;
(2) 基于最小风险的贝叶斯决策,并写出其判别函数和决策面方程。
(12分)假设有 3 个盒子,每个盒子里都装有红、白两种颜色的球。按照下面的方法抽球,产生一个球的颜色的观测序列:开始,以概率π随机选取 1 个盒子,从这个盒子里以概率 B随机抽出 1 个球,记录其颜色后,放回;然后,从当前盒子以概率 A 随机转移到下一个盒子,再从这个盒子里以概率 B 随机抽出一个球,记录其颜色,放回;如此重复进行 3 次,得到一个球的颜色观测序列$: O= ( 红,白,红) 。请计算生成该序列的概率 。请计算生成该序列的概率 。请计算生成该序列的概率P(O|{A,B,\pi})$。
提示:假设状态集合是{盒子1,盒子2,盒子3},观测的集合是{红,白},本题中已知状态转移概率分布、观测概率分布和初始概率分布分别为:
A状态转移概率分布 | 盒子1 | 盒子2 | 盒子3 |
---|---|---|---|
盒子1 | 0.5 | 0.2 | 0.3 |
盒子2 | 0.3 | 0.5 | 0.2 |
盒子3 | 0.2 | 0.3 | 0.5 |
B观测概率分布 | 红 | 白 |
---|---|---|
盒子1 | 0.5 | 0.5 |
盒子2 | 0.4 | 0.6 |
盒子3 | 0.7 | 0.3 |
初始概率分布 π = [ 0.2 , 0.4 , 0.4 ] T \pi=[0.2,0.4,0.4]^T π=[0.2,0.4,0.4]T
(6 分)简述模式的概念和它的直观特性,并简要说明模式分类有哪几种主要方法。
(8分)假设某研究者在ImageNet数据上使用线性支持向量机(Linear SVM)来做文本分类的任务,请说明在如下情况下分别如何操作才能得到更好的结果,并说明原因.
(1)训练误差5%,验证误差10%,测试误差10%。
(2)训练误差1%,验证误差10%,测试误差10%。
(3)训练误差1%,验证误差3%,测试误差10%。
给定如下图所示的概率图模型,其中变量 X 3 X_3 X3为已观测变量,请问变量 X 4 X_4 X4和 X 6 X_6 X6是否独立?并用概率推导证明。
(10分)(1)随机猜测作为一个分类算法是否一定比 SVM 差? 借此阐述你对"No Free Lunch Theorem"的理解
(2)举例阐述你对“Occam`s razor”的理解
(10 分)详细描述AdaBoost算法,解释为什么AdaBoost经常可以在训练误差为0后继续训练还可能带来测试误差的继续下降。
(10 分)用感知器算法求下列模式分类的解向量(取w(1)为零向量)
ω 1 : { ( 0 , 0 , 0 ) T , ( 1 , 0 , 0 ) r , ( 1 , 0 , 1 ) T , ( 1 , 1 , 0 ) T } \omega_1:\{(0,0,0)^T,(1,0,0)^r,(1,0,1)^T,(1,1,0)^T\} ω1:{(0,0,0)T,(1,0,0)r,(1,0,1)T,(1,1,0)T}
ω x : { ( 0 , 0 , 1 ) T , ( 0 , 1 , 1 ) T , ( 0 , 1 , 0 ) T , ( 1 , 1 , 1 ) T } \omega_x:\{(0,0,1)^T,(0,1,1)^T,(0,1,0)^T,(1,1,1)^T\} ωx:{(0,0,1)T,(0,1,1)T,(0,1,0)T,(1,1,1)T}
(12分) 设以下模式类别具有正态概率密度函数:
ω 1 : { ( 0 , 0 , 0 ) T , ( 1 , 0 , 0 ) T , ( 1 , 0 , 1 ) T , ( 1 , 1 , 0 ) T } \omega_1:\{(0,0,0)^T,(1,0,0)^T,(1,0,1)^T,(1,1,0)^T\} ω1:{(0,0,0)T,(1,0,0)T,(1,0,1)T,(1,1,0)T}
ω 2 : { ( 0 , 1 , 0 ) T , ( 0 , 1 , 1 ) T , ( 0 , 0 , 1 ) T , ( 1 , 1 , 1 ) T } \omega_2:\{(0,1,0)^T,(0,1,1)^T,(0,0,1)^T,(1,1,1)^T\} ω2:{(0,1,0)T,(0,1,1)T,(0,0,1)T,(1,1,1)T}
若 P ( ω 1 ) = P ( ω 2 ) = 0 {P}(\omega_1)={P}(\omega_2)=0 P(ω1)=P(ω2)=0.5, 求这两类模式之间的贝叶斯判别界面的方程式。
(12分)假设有如下线性回归问题,
min β ( y − X β ) 2 + λ ∣ ∣ β ∣ ∣ 2 2 \operatorname*{min}_{\beta}(y-X\beta)^{2}+\lambda||\beta||_{2}^{2} minβ(y−Xβ)2+λ∣∣β∣∣22
其中y和β是n维向量,X是一个m × n的矩阵。该线性回归问题的参数估计可看作一个后验分布的均值,其先验为高斯分布 β ∼ N ( 0 , τ I ) \beta{\sim}N(0,\tau I) β∼N(0,τI), 样本产生自高斯分布 y ∼ N ( X β , σ 2 I ) y{\sim}N(X\beta,\sigma^2I) y∼N(Xβ,σ2I),其中 I I I为单位矩阵,试推导调控系数 λ \lambda λ与方差 τ \tau τ和 σ 2 \sigma^{2} σ2的关系。
(12 分) 给定有标记样本集 D t = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x l , y l ) } D_t=\{(x_1,y_1),(x_2,y_2),...,(x_l,y_l)\} Dt={(x1,y1),(x2,y2),...,(xl,yl)}和未标记样本 D a = { ( x l + 1 , y l + 1 ) , ( x l + 2 , y l + 2 ) , . . . , ( x l + u , y l + u ) } , l ≪ u , l + u = m D_{a}=\{(x_{l+1},y_{l+1}),(x_{l+2},y_{l+2}),...,(x_{l+u},y_{l+u})\},l\ll u,l+u=m Da={(xl+1,yl+1),(xl+2,yl+2),...,(xl+u,yl+u)},l≪u,l+u=m, 假设所有样本独立同分布,且都是由同一个包含N 个混合成分的高斯混合模型 { ( a i , μ i , Σ i ) ∣ 1 ≤ i ≤ N } \{(a_i,\mu_i,\Sigma_i)|1\leq i\leq{N}\} {(ai,μi,Σi)∣1≤i≤N}产生,每个高斯混合成分对应一个类别,请写出极大似然估计的目标函数(对数似然函数), 以及用 EM 算法求解参数的迭代更新式。
(12 分)假定对一类特定人群选行某种疾病检在。正常人以 w 1 w_1 w1类代表,患病者以 w 2 w_2 w2类代表。设被检查的人中正常者和患病者的先验概率分别为
正常人; P ( ω 1 ) = 0.9 P(\omega_1)=0.9 P(ω1)=0.9
德瑞者: P ( ω t ) = 0.1 P(\omega_t)=0.1 P(ωt)=0.1,
现有一被检查者,其观察值为x。从类条件概率密度分布曲线上查得
P ( x ∣ ω t ) = 0.2 , P ( x ∣ ω t ) = 0.4 P(x|\omega_t)=0.2,\quad P(x|\omega_t)=0.4 P(x∣ωt)=0.2,P(x∣ωt)=0.4
同时已知风险损失函数为
( λ 11 λ 12 λ 21 λ 22 ) = ( 0 6 1 0 ) \begin{pmatrix} \lambda_{11}&\lambda_{12}\\ \lambda_{21}&\lambda_{22}\\ \end{pmatrix}=\begin{pmatrix} 0&6\\ 1&0\\ \end{pmatrix} (λ11λ21λ12λ22)=(0160)
其中 λ i j \lambda_{ij} λij表示将本应属于第 j 类的模式判为属于第 i 类所带来的风险损失。试对该被检查者用以下两种方法进行分类:
(1) 基于最小错误率的贝叶斯决策,并写出其判别函数和决策面方程;
(2) 基于最小风险的贝叶斯决策,并写出其判别函数和决策面方程。
(8)试描述线性判别函数的基本概念,并说明既然有线性判别函,为什么还需要非线性判别函数?假设有两种模式,每类包括6个4维不同的模式,且良好分布。如果他们是线性可分的。问权向量至少需要几个系数分量?假如要建立额尔茨的多项式判别函数,又至少需要几个系数分量?(设模式的良好分布不因模式变化而改变)
(8 分)简述SVM算法的原理,如果使用SVM做二分类问题得到如下结果,分别应该采取什么措施以取得更好的结果?并说明原因。
(I)训练集的分类准确率 90%。验证集的分类准确率 90%, 测试集的分类准确率 88%;
(2)训练集的分类准确率 98%,验证集的分类准确率 90%,测试集的分类准确率 88%。
(8分)请从两种角度解释主成分分析(PCA)的优化目标。
(8 分) 请给出卷积神经网络 CNN 中卷积、Pooling、ReLU 等基本层操作的含义。然后从提取特征的角度分析 CNN 与传统特征提取方法 (例如 Gabor 小波滤波器) 的异同。
(10分)用线性判别函数的感知器赏罚训练算法求下列模式分类的解向量,并给出相应的判别函数。
$\omega_1\colon{(0,0)T,\quad(0,1)T}\$
ω 2 : { ( 1 , 0 ) T , ( 1 , 1 ) T } \omega_2\colon\{(1,0)^T,\quad(1,1)^T\} ω2:{(1,0)T,(1,1)T}
(10 分)试述 K-L 变换的基本原理,并将如下两类样本集的特征维数降到一维,同时画出样本在该空间中的位置。
ω 1 : { ( − 5 − 5 ) T , ( − 5 − 4 ) T , ( − 4 − 5 ) T , ( − 5 − 6 ) T , ( − 6 − 5 ) T } \omega_1:\quad\{(-5\quad -5)^T,\quad(-5\quad -4)^T,\quad(-4\quad -5)^T,\quad(-5\quad -6)^T,\quad(-6\quad -5)^T\} ω1:{(−5−5)T,(−5−4)T,(−4−5)T,(−5−6)T,(−6−5)T}
ω z : { ( 5 5 ) T , ( 5 6 ) T , ( 6 5 ) T , ( 5 4 ) T , ( 4 5 ) T } \omega_z:\quad\{(5\quad 5)^T,\quad(5\quad 6)^T,\quad(6\quad 5)^T,\quad(5\quad 4)^T,\quad(4\quad 5)^T\} ωz:{(55)T,(56)T,(65)T,(54)T,(45)T},
其中假设其先验概率相等,即 P ( ω 1 ) = P ( ω 2 ) = 0.5 P(ω_1)=P(ω_2)=0.5 P(ω1)=P(ω2)=0.5。
(12分)请解释 AdaBoost 的基本思想和工作原理,写出 AdaBoost 算法。
(12 分) 选择埃尔米特多项式,其前面几项的表达式
H 1 ( x ) − 1 , H 2 ( x ) = 2 x , H 3 ( x ) = 4 x 2 − 2 H_1\left(x\right)-1,\quad H_{2}\left(x\right)=2x,\quad H_{3}\left(x\right)=4x^{2}-2 H1(x)−1,H2(x)=2x,H3(x)=4x2−2
H 4 ( x ) = − 8 x 2 − 1 / 2 x , H 5 ( x ) = 16 x 2 − 48 x 2 + 12 H_{4}(x)=-8x^{2}-1/2x,\quad H_{5}(x)=16x^{2}-48x^{2}+12 H4(x)=−8x2−1/2x,H5(x)=16x2−48x2+12
试用二次埃尔米特多项式的势函数算法求解以下模式的分类问题
ω 1 : { ( 0 , 1 ) T , ( 0 , − 1 ) T ] } \omega_1:\{(0,1)^T,\quad(0,-1)^T]\} ω1:{(0,1)T,(0,−1)T]}
ω 1 : { ( 1 , 0 ) T , ( − 1 , 0 ) T } \omega_1:\{(1,0)^T,\quad(-1,0)^T\} ω1:{(1,0)T,(−1,0)T}
(12分)已知以下关于垃圾部件的8条标注数据。A、B为邮件的2个特征,Y为类别。其中Y=1表示该邮件为垃圾邮件,Y=0 表示该邮件为正常邮件。请依此训练一个朴素贝叶斯分类器。并预测特征为“A=O, B=1”的邮件是否为垃圾邮件。
序号 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 |
---|---|---|---|---|---|---|---|---|
A | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 |
B | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 1 |
Y | 1 | 0 | 0 | 0 | 1 | 0 | 0 | 1 |
提示:假设状态集合是{盒子1,盒子2,盒子3},观测的集合是{红,白},本题中已知状态转移概率分布、观测概率分布和初始概率分布分别为:
A状态转移概率分布 | 盒子1 | 盒子2 | 盒子3 |
---|---|---|---|
盒子1 | 0.5 | 0.2 | 0.3 |
盒子2 | 0.3 | 0.5 | 0.2 |
盒子3 | 0.2 | 0.3 | 0.5 |
B观测概率分布 | 红 | 白 |
---|---|---|
盒子1 | 0.5 | 0.5 |
盒子2 | 0.4 | 0.6 |
盒子3 | 0.7 | 0.3 |
初始概率分布 π = [ 0.2 , 0.4 , 0.4 ] T \pi=[0.2,0.4,0.4]^T π=[0.2,0.4,0.4]T
(10分)简述Fisher线性判别方法的基本思路,写出准则函数和对应的解。
(12分)的设集个地区细胞识别中正常( w 1 w_{1} w1 )和导常( w 2 w_{2} w2 )两类的先验概率分别为:正常状态: P ( w 1 ) = 0.95 P(w_1)=0.95 P(w1)=0.95, 异常状态 P ( w 2 ) = 0.05 P(w_{2})=0.05 P(w2)=0.05。现有一待识别的细胞,其观察值为x,已知 p ( x ∣ w 1 ) = 0.2 p(x|w_1)=0.2 p(x∣w1)=0.2, p ( x ∣ w 2 ) = 0.5 p(x|w_2)=0.5 p(x∣w2)=0.5。同
( λ 11 λ 12 λ 21 λ 22 ) = ( 0 1 8 0 ) \begin{pmatrix} \lambda_{11}&\lambda_{12}\\ \lambda_{21}&\lambda_{22}\\ \end{pmatrix}=\begin{pmatrix} 0&1\\ 8&0\\ \end{pmatrix} (λ11λ21λ12λ22)=(0810)
其中 λ i j \lambda_{ij} λij表示将本应属于第 j j j类的模式判为属于第 i i i 类所带来的风险损失。试对该待识别细胞用以下两种方法进行分类;
(10分)SVM可以借助核函数(kernel function)在特征空间(feature space)学习一个具有最大间隔的超平面。对于两类的分类问题,任意输入 x x x的分类结果取决于下式:
< w ^ , ϕ ( x ) > + w ^ 0 = f ( x ; α , w ^ 0 ) <\widehat{w},\phi(x)>+\widehat{w}_{0}=f(x;\alpha,\widehat{w}_{0}) <w ,ϕ(x)>+w 0=f(x;α,w 0)
其中, w ^ \hat{w} w^和 ω 0 \omega_{0} ω0是分类超平面的参数, α = { α 1 , . . . α [ S V ] } \alpha=\{\alpha_1,...\alpha_{[SV]}\} α={α1,...α[SV]}表示支持向量(support vector)的系数,SV表示支持向星集合。使用径向基面数(radial basis function)定义核函数 K ( ⋅ ; ) K(\cdot;) K(⋅;),即 K ( x , x ′ ) = exp ( − D ( x , x ′ ) 2 s 2 ) K(x,x^{\prime})=\exp(-\frac{D(x,x^{\prime})}{2s^2}) K(x,x′)=exp(−2s2D(x,x′))。假设训练数据在特征空间线性可分,SVM 可以完全正确地划分这些训练数据。给定一个测试样本 x f a r x_{far} xfar,它距离所有训练样本都非常远。
试写出 f ( x ; α , w ^ 0 ) f(x;\alpha,\hat{w}_0) f(x;α,w^0)在核特征空间的表达形式,进而证明 : f ( x f a r ; α , w ^ 0 ) ≈ w ^ 0 :f(x_{far};\alpha,\hat{w}_0)\approx\hat{w}_0 :f(xfar;α,w^0)≈w^0
(10 分) K-L变换属于有监督学习 (supervised learning)还是无监督学习(unsupervised learning)? 试利用K-L 变换将以下样本集的特征维数降到一维,同时画出样本在该空间的位置。
{ ( − 5 − 5 ) T , ( − 5 − 4 ) T , ( − 4 − 5 ) T , ( − 5 − 6 ) T , ( − 6 − 5 ) T , ( 5 5 ) T , ( 5 6 ) T , ( 6 5 ) T , ( 5 4 ) T , ( 4 5 ) T } \{(-5-5)^T,(-5-4)^T,(-4-5)^T,(-5-6)^T,(-6-5)^T,(5\quad5)^T,(5\quad6)^T,(6\quad5)^T,(5\quad4)^T,(4\quad5)^T\} {(−5−5)T,(−5−4)T,(−4−5)T,(−5−6)T,(−6−5)T,(55)T,(56)T,(65)T,(54)T,(45)T}
(12分) 过拟合与欠拟合。
(12 分)用逻辑回归模型(logistic regression model)解决 κ \kappa κ类分类问题,假设每个输入样本 x ∈ R d x\in\mathbb{R}^d x∈Rd的后验概率可以表示为:
P ( Y = k ∣ X = x ) = exp ( w k T x ) 1 + ∑ l = 1 K − 1 exp ( w l T x ) , k = 1 , . . . , K − 1 P(Y=k|X=x)=\frac{\exp(w_{k}^{T}x)}{1+\sum_{l=1}^{K-1}\exp(w_{l}^{T}x)}\quad,\:k=1,...,K-1 P(Y=k∣X=x)=1+∑l=1K−1exp(wlTx)exp(wkTx),k=1,...,K−1
P ( Y = K ∣ X = x ) = 1 1 + ∑ l = 1 K − 1 exp ( w l T x ) P(Y=K|X=x)=\frac{1}{1+\sum_{l=1}^{K-1}\exp(w_{l}^{T}x)} P(Y=K∣X=x)=1+∑l=1K−1exp(wlTx)1
其中 w k T w_k^T wkT表示向量 w k w_k wk的转置。通过引入 w K = 0 ⃗ w_K=\vec{0} wK=0, 上式也可以合并为一个表达式。
该模型的参数是什么?数量有多少?
给定 n n n 个训练样本 { ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x n , y n ) } \{(x_1,y_1),(x_2,y_2),...,(x_n,y_n)\} {(x1,y1),(x2,y2),...,(xn,yn)} 请写出对数似然函数(log likelihood function) L L L的表达形式,并尽量化简。
L ( w 1 , . . . , w K − 1 ) = ∑ i = 1 n ln P ( Y = y i ∣ X = x i ) L(w_{1},...,w_{K-1})=\sum_{i=1}^{n}\ln P(Y=y_{i}|X=x_{i}) L(w1,...,wK−1)=∑i=1nlnP(Y=yi∣X=xi)
如果加入正则化项(regularization term), 定义新的目标函数为:
J ( w 1 , … , w K − 1 ) = L ( w 1 , … , w K − 1 ) − λ 2 ∑ l = 1 K ∥ w l ∥ 2 2 J(w_{1},\ldots,w_{K-1})=L(w_{1},\ldots,w_{K-1})-\frac{\lambda}{2}\sum_{l=1}^{K}\|w_{l}\|_{2}^{2} J(w1,…,wK−1)=L(w1,…,wK−1)−2λ∑l=1K∥wl∥22
请计算 J J J 相对于每个 w k w_\mathrm{k} wk的梯度。
给定如下图所示的概率图模型,其中变量 X 2 、 X 4 X_2、X_4 X2、X4为已观测变量,请问变量 X 1 X_1 X1和 X 5 X_5 X5是否独立?并用概率推导证明。
(12分)假设有2校硬币,分别记为A和B,以π的概率选择A,以1-π的概率选择B,这些硬币正面出现的概率分别是 p p p和 q q q。掷选出的硬币,记正面出现为1,反面出现为0,独立地重复进行 4次试验,观测结果如下:1,1,0,1。给定模型参数 π = 0.4 , p = 0.6 , q = 0.5 \pi=0.4,p=0.6,q=0.5 π=0.4,p=0.6,q=0.5,请计算生成该序列的概率,并给出该观测结果的最优状态序列。
基于AdaBoost算法的目标检测需要稠密的扫描窗口并判断每个窗口是否为目标,请描述基于深度学习的目标检测方法,如SSD或YOLO,如何做到不需要稠密扫描窗口而能发现并定位目标位置
基于二次准则函数的H-K 算法较之于感知器算法的优点是哪个?
A.计算量小 \quad B.可以判别问题是否线性可分 \quad C.其解完全适用于非线性可分的情况
在逻辑回归中,如果正则项取 L 1 L_1 L1正则,会产生什么效果?
A.可以做特征选择,一定程度上防止过拟合 \quad B.能加快计算速度 \quad C.在训练数据上获得更准确的结果
如果模型的偏差较高,我们如何降低偏差?
A.在特征空间中减少特征 \quad B、在特征空间中增加特征 \quad C.增加数据点
假设采用正态分布模式的贝叶斯分类器完成一两个分类任务,则下列说法正确的是哪个
A.假设两类的协方差矩阵均为对角矩阵,则判别界面为超平面。
B.假设两类的协方差矩阵相等,则判别界面为超平面。
C.不管两类的协方差矩阵为何种形式,判别界面均为超平面。
下列方法中,哪种方法不能用于选择 PCA 降维 (K-L 变换) 中主成分的数目 K K K?
A.训练集上残差平方和随 K K K发生剧烈变化的地方(肘部法)
B.通过监督学习中验证集上的性能选择K
C.训练集上残差平方和最小的K
考虑某个具体问题时,你可能只有少量数据来解决这个问题。不过幸运的是你有一个针对类似问题已经预先训练好的神经网络,请问可以用下面哪种方法来利用这个预先训练好的网络
A. 把除了最后一层外所有的层都冻住,重新训练最后一层
B.对新数据重新训练整个模型
C, 只对最后几层进行调参(fine tune)
如下图所示,假设该数据集中包含一些线性可分的数据点。训练 Soft margin SVM 分类器,其松弛项的系数 为C。请问当 C → 0 C\to0 C→0时,分类边界为下图中的哪个?
如下图所示。假设该数据集中包含线性不可分的数据点。采用二次核函数训练 Soft margin SVM 分类器,请问当 C → ∞ C\to\infty C→∞时,份类边界为下图中的哪个?外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传
(1)简选这两种数据毕维方法的基本过程。(8分)
(2) 这两种方法中哪种方法对分类夏有效?并简述原因。(4分)
(1)简达逻辑回归算法的原理。(4分)
(2)如果使用逻辑回归算法做二分类问题得到如下结果,分别应该采取什么措施以取得更好的结果?并说明理由(6分)
(a)训练集的分类准确率85%,验证集的分类准确率 80%,测试集的分类准确率75%;
(b)训练集的分类准确率 99%,验证集的分类准确率 80%,测试集的分类准确率 78%;
如下图所示,一个数据集包含来自2个类别的4个数据点。在此集合上训练一个线性 Hard margin SVM 分类器。请写出SVM 的形式化模型,并计算出该分类器的权重向量 w w w和偏差b、给出该分类器的支持向量
P ( X 1 ∣ Y ) P(X_1|Y) P(X1∣Y) | X 1 ≤ 0.05 X_1\le0.05 X1≤0.05 | 0.05 ≤ X 1 ≤ 0.2 0.05\le X_1\le0.2 0.05≤X1≤0.2 | X 1 ≥ 0.2 X_1\ge0.2 X1≥0.2 |
---|---|---|---|
Y = 1 Y=1 Y=1 | 0.8 | 0.1 | 0.1 |
Y = 0 Y=0 Y=0 | 0.3 | 0.5 | 0.2 |
P ( X 2 ∣ Y ) P(X_2|Y) P(X2∣Y) | X 2 ≤ 0.1 X_2\le0.1 X2≤0.1 | 0.1 ≤ X 2 ≤ 0.8 0.1\le X_2\le0.8 0.1≤X2≤0.8 | X 2 ≥ 0.8 X_2\ge0.8 X2≥0.8 |
---|---|---|---|
Y = 1 Y=1 Y=1 | 0.7 | 0.2 | 0.1 |
Y = 0 Y=0 Y=0 | 0.1 | 0.7 | 0.2 |
若一个账号使用非真实头像,日志数量与注册天数的比率为0.1,好友数与注册天数的比率为0.2, 判断该账号是不是虚假账号。
假定模型的参数初始值为 π ( 0 ) = 0.4 , p ( 0 ) = 0.4 , q ( 0 ) = 0.5 \pi^{(0)}=0.4,\quad p^{(0)}=0.4,\quad q^{(0)}=0.5 π(0)=0.4,p(0)=0.4,q(0)=0.5,请写出 EM算法迭代一次后p和 q q q的值。(计算结果保留两位小数)
对于两类分类问题,()能发现类别不可分的情况。
A.梯度法 \quad B.H-K 算法 \quad C.感知器算法
下列机器学习模型不属于生成式模型的是()。
A.朴素贝叶斯 \quad B. 隐马尔科夫模型 (HMM) \quad C. Logistic Regression (逻辑回归) 模型
下列方法中,不属于无监督特征降维的方法是 ()。
A.主成分分析(PCA) \quad B.线性判别分析(LDA) \quad C. 自编码器
如果模型的偏差很高,我们如何降低模型偏差?()
A、在特征空间中减少特征 \quad B.在特征空间中增加特征 \quad C. 增加训练数据的数量
对一个分类任务,我们采用梯度下降法训练得到一个 20 层的深度卷积神经网络模型。你发现它在训练集上的正确率为 98%,但在验证集上的正确率为 70%。以下哪项操作有可能提高模型在测试集上的性能?()
A. 增加正则项的权重 \quad B. 减少训练样本的数量 \quad C.加大模型的训练次数
要将下图所示的两个半月形数据各聚成两簇,可采用()聚类算法。
A. K均值聚类 \quad B.混合高斯模型(GMM) \quad C.DBSCAN
下列哪一项不是半监督学习的假设?()
A.低密度分离假设 \quad B.流形假设 \quad C.最小描述长度假设
给定如下图所示的概率图模型,请问下列哪一项正确?
A. X 1 ⊥ X 4 X_1\bot X_4 X1⊥X4 \quad \quad B. X 1 ⊥ X 5 ∣ { X 3 , X 4 } X_1\bot X_5|\lbrace X_3,X_4 \rbrace X1⊥X5∣{X3,X4} \quad \quad C. X 1 ⊥ X 3 ∣ X 2 X_1\bot X_3|X_2 X1⊥X3∣X2
虽然神经网络在上世纪 80 年代就已被提出,但直到近些年才能成功训练深度模型,原因之一是现代深度神经网络采用了()技术。
A.反向传播算法 \quad B.Sigmoid激活函数 \quad C. 跳跃连接(skip connect)
下列哪一项技术使得卷积神经网络具有非线性建模能力?()
A.随机梯度下降优化算法 \quad B.ReLU激活函数 \quad C.卷积
(1)请用贝叶斯分类器来构造判别函数,并阐述如何估计相关的参数(假设每类样本的特征服从多元高斯分布)
(2)如果将正常的数据误分为异常的代价为1,将异常误分为正常的代价为5,请阐述如何构建分类器或判别函数。
P ( y = 1 ∣ x ) = 1 1 + exp ( − w T x ) P(y=1|x)=\frac{1}{1+\exp{(-w^{\mathrm{T}}x)}} P(y=1∣x)=1+exp(−wTx)1
给定训练数据 { ( x i , y i ) } i = 1 N , y i ∈ { 0 , 1 } \{(x_i,y_i)\}_{i=1}^N,y_i\in\{0,1\} {(xi,yi)}i=1N,yi∈{0,1},请给出求解模型参数w的方法
x 1 = ( 4 4 ) , x 2 = ( 5 4 ) , x 3 = ( 2 2 ) , y 1 = 1 , y 2 = 1 , y 3 = − 1 , x_{1}=\binom{4}{4},\:x_{2}=\binom{5}{4},\:x_{3}=\binom{2}{2},\:y_{1}=1,\:y_{2}=1,\:y_{3}=-1, x1=(44),x2=(45),x3=(22),y1=1,y2=1,y3=−1,
通过求解SVM的对偶问题来求解最大间隔的分离超平面。
盒子2:3个红球,1个蓝球;
盒子3:1个红珠,3个蓝球。
每次随机选择一个盒子,并从中抽取一个球(有放回)。
(1) 请用隐马尔可夫模型(HMM)描述上述过程,并给出参数 π , A , B \pi,A,B π,A,B的值:(4分)
(2) 在实验过程中我们只记录了抽取到的球的颜色,忘了记录盒子的标号。假如观测到小球的颜色序列为 O = ( 红,蓝 ) O=(红,蓝) O=(红,蓝),请用维特比(Viterbi)算法计算最可能的盒子序列。(8 分)