分段三次埃尔米特插值:
y_hat = pchip(x,y,x_hat)【matlab】
y_hat = spline(x,y,x_hat)【matlab】
线性最小二乘法求解:
ps:使用R^2是在线性函数时,比较线性函数与其他类型看SSE即可
APP->Curve Fitting
置信区间为所求得参数范围,拟合的方法有多种,还可以自定义
对数据进行描述性统计:
首先你要确定两个变量之间是线性的关系,之后才可以用皮尔逊相关系数看他们的相关系数(可以通过画散点图:
计算相关系数:[R,P] = corrcoef(Test) R为相关系数表,P为每个相关系数的p值
通过[R,P] = corrcoef(Test) 的P矩阵,如果其小于0.05,则在95%的概率下拒绝原假设,即相关系数显著异于0
要想使用皮尔逊相关系数,首先得保证数据为正态分布:
[h,p] = jbtest(x,alpha) 当输出h等于1时,表示拒绝原假设;h等于0则代表不能拒绝原假设。
小样本直接查表(n<=30)
大样本:算其p值
SPSS:导入数据->调整变量类型->分析->相关->典型相关性
结果分析:
当显著性<0.05时表示在95%的置信水平下相关性有效(不有效的直接排除)
使用Stata
【数据描述性统计也可以用excel中的数据透视表】
导入数据->sum ***描述性统计定量数据->tab ***,gen(A)描述定性数据并产生虚拟变量
reg 自变量 因变量1 因变量2....(定性数据要以虚拟变量的形式加入)【另外stata会自动解决数据完全多重共线性的问题,即将虚拟变量组合当中的一个作为对照】
reg y x1 x2 ,b
在reg之后:
1.BP检验 estat hettest ,rhs iid
2.怀特检验:estat imtest,white
可以pe r b等同时使用
先进行数据的描述性统计->reg看prob>F是否小于0.05->异方差检验->(解决)->多重共线性检验->(解决)
无向图graph,有向图digraph
计算最短路径:[P,d] = shortestpath(G,start,end [,'Method',algorithm] ) 【method不指定的话会自动认定】
任意两点间距离矩阵:d = distances(G [,'Method',algorithm])
距离某一个点为x的点及距离:[nodeIDs,dist] = nearest(G,s,d [,'Method',algorithm])
1.提前对数据进行处理(如类A设置为1,B为0)或在SPSS中设置虚拟变量
2.逻辑回归利用sigmoid函数作为激活函数
下表可以看出预测的准确率
下表中的B即为函数当中的参数β
如果预测结果较差,可以加入平方项、交互项等:
确定合适的模型:将数据分为训练集和测试集(反复分)用训练集进行训练,测试集进行测试
下表中典则判别函数系数即为超平面wx=0的w,分类函数系数见图
不同于二分类的是,将范围写成对应的数字(如分类1234,则最小值1最大值4)
SPSS(++的区别就是聚类中心是轮盘法选出)
当各个值之间的量纲不同时:
其中最后一个阶段有一个类,29阶段2个....第一个阶段就是n-1,其中的系数就是所有类的总畸变程度(可用来画肘部图,依次来估计最优的聚类数目)【先对其降序排序然后画散点图】
另外如果指标数比较少的时候还可以画图(例如两个指标就可以画一个二维图,三个就可以三维图,更高维不可以做图)
代码见资料
如果是开头或者结尾的数据可以直接删除,中间的数据需要利用spss对其处理
产生的四个变量ERR、SAS、SAF、STC,季节性因子即SAF
之后再画时序图要加上新产生的四个变量,可以根据这四个变量的图像合理拟合等再组合产生对于y的预测
离群值全部勾选,选项那一部分是你想预测到什么时候
(小绿圈是均方误差最小的时候所在位置)
为了防止过拟合可以将数据分成训练集和测试集,通过调整神经元数量以及训练方法,使得SSEmin,之后再对新数据进行预测。
corrcoef计算相关系数矩阵,不用判断p(将标准化+协方差矩阵合二为一,z标准化:zscore,协方差:cov)
matlab中求的特征向量自动进行了归一化处理,diag返回主对角线元素
芜湖完结~接下来学习更新视频~