【概率论与数理统计】【线性代数】计算机保研复习

我他妈写一上午了直接没了,这狗csdn,别在已发布的文章上改,辣鸡玩意儿。

复习

  • 概率论与数理统计
      • 1.基础
      • 2.贝叶斯公式
      • 3.大数定律(Law of the large numbers)
      • 4.中心极限定理
      • 5.最大似然估计
      • 6. 期望、方差和协方差
    • 面试题
  • 线性代数
      • 1.秩☆
      • 2. 行列式
      • 3.线性相关性
      • 4.向量空间
      • 5. 特征值与特征向量☆
      • 6.正交
    • 面试题

概率论与数理统计

1.基础

事件独立:P(AB)=P(A)P(B) ;
古典概型:有限、等可能、最简单;
几何概型:无限、有限的几何区域、等可能;
伯努利概型:每次实验独立,只有A与 A ‾ \overline{A} A两种结果;
条件概率:A在已知B发生了的概率,称为在B发生下A的条件概率;
乘法公式:P(AB)=P(A)P(B|A)=P(B)P(A|B)
P(AB)=P(A)-P(A B ‾ \overline{B} B) ;
全概率公式:P(A)=P(A|B1)P(B1)+……+P(A|Bn)P(Bn)
B1……Bn是对样本空间的划分,A是其上的一个事件;为了把导致A发生的概率找全;
二项式定理
Pn(k)=Cknpkqn-k
A在n次实验中发生k次的概率。

2.贝叶斯公式

P ( B   i   ∣ A ) = P ( A ∣ B   i   ) P ( B   i   ) ∑ j = 1 n P ( A ∣ B   j   ) P ( B   j   ) P(B~i~|A)=\frac{P(A|B~i~)P(B~i~)}{\sum_{j=1}^{n}P(A|B~j~)P(B~j~)} P(B i A)=j=1nP(AB j )P(B j )P(AB i )P(B i )
上面是乘法公式,下面是全概率公式,证明:
P ( B   i   ∣ A ) = P ( B   i   A ) P ( A ) P(B~i~|A)=\frac{P(B~i~A)}{P(A)} P(B i A)=P(A)P(B i A)

  1. 条件概率公式:原因发生—>结果(由原因推出结果)
    (先验概率公式:根据经验,或者叫做根据已知的数据推出来)
  2. 全概率公式:我们很好由已知的数据求得P(Ci),但是很难求得P(x),故可以转化为:P(x)=(i从1–>n求和)(P(xCi));
  3. 贝叶斯公式(后验概率公式):已知结果,反推原因出现的可能性。比如已知某个类具有某种属性,那么它属于哪个类别(具有标签),这种就是后验概率。
  4. 贝叶斯公式用于机器学习中的贝叶斯分类模型,主要是用训练数据去学习一个模型(模型计算出所有的P(Ci)、P(ai|Ci)、P(ai),ai表示的是具体的属性),然后每个待分类的测试样本用贝叶斯进行分类,根据其拥有的属性去计算P(Ci|x)中值最大的那个Ci即可。

全概率是用原因推结果,贝叶斯是用结果推原因。

先验概率(prior probability):指根据以往经验和分析。在实验或采样前就可以得到的概率。事情未发生,只根据以往数据统计,分析事情发生的可能性,即先验概率。P(Bi) ;Bi
是该事件若干可能的前提。
后验概率(posterior probability):指某件事已经发生,想要计算这件事发生的原因是由某个因素引起的概率。事情已发生,已有结果,求引起这事发生的因素的可能性,由果求因,即后验概率。
P(Bi|A);已知结果A,对前提Bi的重新计算。

3.大数定律(Law of the large numbers)

它告诉我们在随机事件的大量重复出现中,往往呈现几乎必然的规律。在试验不变的条件下,重复试验多次,随机事件的概率近似于它出现的频率。揭示了平均结果的稳定性。大数定律的条件:1、独立重复事件;2、重复次数足够多。

4.中心极限定理

指的是(在一定条件下,随机变量个数比较多时)相互独立的随机变量之和近似服从正态分布。

  1. 所以n个独立同分布的随机变量之和服从正态分布。---->变形之后可以服从标准正态分布。
  2. 列维中心极限定理:n个独立同分布随机变量之和。
  3. 拉普拉斯中心极限定理:n次独立重复实验,事件A发生的次数。

大数定律更关注的是样本均值,中心极限定理关注的是样本均值的分布

5.最大似然估计

一种参数估计方法。利用已知的样本,找出最有可能生成该样本的参数。最大似然估计的思想在于,对于给定的观测数据x,我们希望能从所有的参数中找出能最大概率生成观测数据x的参数作为估计结果。

6. 期望、方差和协方差

期望:随机变量的均值;大数定律指出如果样本足够的话,样本均值会无限接近数学期望。它反映随机变量平均取值的大小。
方差:每个样本值与全体样本值的平均数之差的平方值的平均数。衡量一组数据的离散程度,度量随机变量和其数学期望(即均值)之间的偏离程度。
协方差:X, Y 的协方差等于每一个 X 减去 X 平均值乘上每一个 Y 减去 Y 平均值的乘积的和的平均。协方差表示的是两个变量总体误差的期望。

面试题

1.正态分布的和还是正态分布吗:

是,正态分布的可加性。

2.先验概率与后验概率:

先验概率是根据之前数据得到的概率,分析事件发生的可能性;
后验概率是事件已经发生,想要计算导致它发生的原因。

3.贝叶斯公式:
已知结果,反推原因。后验概率,乘法公式和全概率公式推导。

线性代数

1.秩☆

矩阵的秩:最高阶非零子式的阶数;
满秩矩阵:秩数等于矩阵阶数;
秩就是矩阵线性无关列(行)向量的最大数目。
行秩等于列秩。
向量组的秩定义为向量组的极大线性无关组所含向量的个数。
任何矩阵的行空间的维数等于矩阵的列空间的维数等于矩阵的秩。

2. 行列式

行列式,是一个将方阵 A 映射到实数的函数。
行列式等于矩阵特征值的乘积。
n阶行列式:所有取自不同行不同列的n个元乘积的代数和即为n阶行列式的值。
二维的矩阵,它的行列式代表的是面积变化,对于三维来讲,行列式代表的就是体积变化。

3.线性相关性

对于线性空间中的n个向量,假如存在n个常数使得这n个常数与n个向量对应乘积加合等于0,则称这n个向量线性相关,如果不存在这样的n个常数,称之为线性无关。(n个常数不全为0)

4.向量空间

向量相加和数乘之后还在该空间内,则它们属于一个向量空间。

在线性空间V中可以找到n个向量,这n个向量线性无关,并且线性空间V中的任意一个向量都和这n个向量线性相关,那么这n个向量就称作线性空间V的

5. 特征值与特征向量☆

对方阵 A 满足:Ax=λx,其中 x 为非零向量,则称 x 为特征向量,λ 为特征值。
一个特征值可能对应多个特征向量,一个特征向量只能属于一个特征值。
矩阵可以说是一个变换,它作用于特征向量x时,x的方向不变,只进行缩放变换,缩放大小由特征值决定。
特征向量提供了复杂的矩阵乘法到简单的数乘之间的转换!

6.正交

矩阵正交:两矩阵相乘为0.
正交矩阵:矩阵的转置和矩阵的乘积=单位阵,那么这个矩阵就是正交矩阵,它的列向量组一定是标准正交向量组。
向量正交:相乘为0.
【概率论与数理统计】【线性代数】计算机保研复习_第1张图片

面试题

经典面试题:线性代数

你可能感兴趣的:(保研,概率论,线性代数,机器学习)