概率论与数理统计

概率论与数理统计分成两大块,前一大块就是研究随机变量这个东西,一维的,二维的,连续的,离散的。研究他们的分布函数,概率密度函数或是分布律,然后有随机变量的性质和一些常见的概率分布。
后边这一大块主要就是讲怎么通过一些样本得到这个随机变量。

参数估计

讲的就是估计随机变量的参数,分为点估计和区间估计。点估计就是给出一个值,而区间估计是给出一个区间。点估计分为矩估计和极大似然法估计。

矩估计就是让样本的k阶原点矩(Mk)等于总体的k阶原点矩(mk),然后求出要求的参数.k阶原点矩,说白了就是x的k次的均值。
做题步骤
1.令M1=m1或是M2=m2,具体是1还是2要看具体情况。
2.把M1和m1都求出来,然后相等,解出参数。
注意:总体的期望等于样本的均值,总体的方差等于样本的二阶中心矩。(证明还没看懂,先做题再说)
m1=Ex,m2=Ex2,M1就是样本的均值,M2就是样本平方的均值。
极大似然法估计则是构造一个极大似然函数L(Θ),就是样本的概率密度函数乘到一起,然后找Θ的值,使得这个函数的值最大。
做题步骤
1.先求出单个样本的概率密度函数,或者是分布律,然后根据这个概率密度函数求出极大似然函数
2.然后将函数两边取对数,在求导,令导数等于零,求出来的Θ就是要求的极大似然估计量。
3.将样本带入其中,就求出了极大似然估计值。

注意:极大似然估计值的关键就在于找出让似然函数最大时Θ的值,当写出似然函数以后,如果能一眼看出来是单调递增或者单调递减的话,就不用取对数求导,如果是单增或者单减的话,Θ肯定会有一个取值范围,然后根据取值范围判断Θ的值。

PS::
对数的运算法则
1.两个正数的积的对数,等于同一底数的这两个数的对数的和,即
㏒₃(N·M)=㏒₃N+㏒₃M
2.两个正数商的对数,等于同一底数的被除数的对数减去除数对数的差,即
㏒₃(N/M)=㏒₃N﹣㏒₃M (以上所有下标₃等同于a)

估计量的性质
无偏性,有效性,相合性
无偏性
根据样本选取的估计量本质上还是随机变量,是随机变量就会有他的期望。如果这个随机变量的期望等于你要估计的参数的真实的值,那么这个估计量就是无偏的。所以要看一个估计量是不是无偏的,就去求他的期望,看期望和真实的值是否有差别。
有效性
怎么判断一个估计量是不是有效的呢?如果这个估计量的方差很大,那么就算你这个估计量很准确,也没啥用。因为我们最好要估计一个确定的值,方差越大就越不容易实现这一目标。
所以判断一个估计量比另一个估计量小的方法就是这个估计量的差小。
相合性
如果一个估计量他随着n的增大,估计量越来越接近于估计参数的真值,那么这个估计量就具有相合性。

区间估计
区间估计就是估计一个参数的区间,不是估计出一个值而是估计出这个参数可能取值的区间。这个就分为对μ的估计和对σ的估计,做题的话,就要熟记那一张表。概率论与数理统计_第1张图片
反正关于μ的是要背会。分为σ已知和σ未知。已知的话服从标准正态分布,未知的话服从t(n-1)分布。
做题步骤
1.列出公式
2.带值,求出置信区间。

假设检验

假设检验也是对总体的某个参数的估计。假设参数是某个值或者大于或小于某个值,看这个假设对不对。
概率论与数理统计_第2张图片
概率论与数理统计_第3张图片
做题步骤
1.写出假设。
2.写出拒绝域。
3.带入数值,如果在这个拒绝域内,就拒绝原假设

时间:2019.12.12晚,2019.12.13早,2019年12.13下午

你可能感兴趣的:(课内课程,概率论与数理统计)