最近在读这本关于统计的书籍,受益匪浅,分享给大家~(资源在最下)
本书介绍了统计学学科基础的七个支柱,并非完整体系。从由来、引入开始娓娓道来。
(一)博尔赫斯写道:思维是忘却差异,是归纳,是抽象化。
聚合,也称观测的组合、均值。这种说法表达的思想即整体概括大于各部分的加总。取均值会丢弃数据中的大量信息,例如测量的顺序、不同的环境等等,每个观测值会失去个性,但要揭示一般性的趋势,就必须将观测视为一个集合,将数据置于背景之中。
聚合的方式包括很多种,如算术平均、几何平均、调和平均、最小二乘法。算术平均思想最早可追溯到修正指南针指针的变化。逐渐地,为了保持至少一个数据的个性特征,而加入最佳值、众数。
18世纪关于地球形状的研究,通过两个方程可以得到肯定的弧长。到了18世纪50年代,默柏斯科维奇面临着数据的窘境,一共有10个不等的十个解。这时,他给出了算法求解最佳值的办法,也就是现在的所谓“线性规划问题”。
之后又出现了最小二乘法,形式上是观测的加权平均,但又很容易扩展为其他更复杂的形式来决定多个未知量。
(二)观测获得的信息价值会因为观测的样本数量增加而增加吗?
信息,具体称信息度量。
刚开始研究发现:数据和的变化并不随着相加的独立项个数成比例上升,均值的标准差也不与项数成比例变化。在这一观点出现后,亚伯拉罕发现了二项分布的正态近似,皮埃尔证明了其一般形式——中心极限定理(即项数有2项推至n项),泊松提出柯西分布。数学运算的每个步骤引起的最大误差,会随着序列增大而增大,统计学家可以接受一个可能的统一补偿,这个补偿会随着序列增大而收缩。
这一观点之上,学者们提出了“纠缠的观测”,即数据间的相关性,以及这种相关性对方差的影响。
本书介绍了统计学的七个基本思想——聚合、信息、似然、相互比较、回归、设计、残差,从其由来到引入,从基本概念到对“统计”这门学科的深远影响,并由此深入阐述统计学的科学本质。
——摘录自豆瓣。
《统计学七支柱》[美]史蒂芬·斯蒂格勒 著,中文PDF,带目录,147页,内容文本可复制。
链接:https://pan.baidu.com/s/1t8C5ckSU7xUaEfLLkyh30w
提取码: c49c
各位喜欢我的分享请多多分享转发哦