有n个要评价的对象,m个评价指标的标准化矩阵,可以使用层次分析法给这m个评价指标确定权重
∑ j = 1 m ω j = 1 \sum_{j=1}^m{\omega_j}=1 j=1∑mωj=1
层次分析法最大的缺点:判断矩阵的确定依赖于专家,如果专家的判断存在主观性的话,会对结果产生很大的影响。(主观性太强)
熵权法是一种客观赋权方法
依据的原理: 指标的变异程度越小,所反映的信息量也越少,其对应的权值也应该越低。(客观= 数据本身就可以告诉我们权重)
变异程度=方差/标准差
(一种极端的例子:对于所有的样本而言,这个指标都是相同的数值,那么我们可认为这个指标的权值为0,即这个指标对于我们的评价起不到任何帮助)
越有可能发生的事情,信息量越少,越不可能发生的事情,信息量就越多。
怎么衡量事情发生的可能性大小?概率
如果把信息量用字母I表示,概率用p表示,那么我们可以将它们建立一个函数关系:
假设x表示事件X可能发生的某种情况,p(x)表示这种情况发生的概率
我们可以定义:
I ( x ) = − l n ( p ( x ) ) 0 ⩽ p ( X ) ⩽ 1 I ( X ) ⩾ 0 I(x)=-ln(p(x))\\ 0 \leqslant p(X) \leqslant1\\ I(X)\geqslant0 I(x)=−ln(p(x))0⩽p(X)⩽1I(X)⩾0
如果事件X可能发生的情况分别为:x1,x2,…,xn
那么我们可以定义事件X 的信息熵为
H ( X ) = ∑ i = 1 n [ p ( x i ) I ( x i ) ] = − ∑ i = 1 n [ p ( x i ) l n ( p ( x i ) ) ] H(X)=\sum_{i=1}^n{[p(x_i)I(x_i)]=-\sum_{i=1}^n{[p(x_i)ln(p(x_i))]}} H(X)=i=1∑n[p(xi)I(xi)]=−i=1∑n[p(xi)ln(p(xi))]
从上面的公式可以看出,信息熵的本质就是对于信息量的期望值
可以证明的是:
当p(x1)=p(x2)=…=p(xn)=1/n时,H(X)取最大值,此时H(x)=ln n
随机变量的信息熵越大,则它的内容能补充的信息量越大,而知道这个值之前已有的信息量越小
对于熵权法而言,因为我们关注的是已有的信息,所以答案是越小。
(1)判断输入的矩阵中是否存在负数,如果有则要重新标准化到非负区间(后面计算概率时需要保证每一个元素为非负数)
假设有n个要评价的对象,m个评价指标(已经正向化了)构成的正向化矩阵如下,
x11 x12 ... x1m
X= x21 x22 ... x2m
... ... ... ...
xn1 xn2 ... xnm
那么,对其标准化的矩阵即为Z,Z中的每一个元素
z i j = x i j ∑ i = 1 n x i j 2 z_{ij}=\frac{x_{ij}}{\sqrt{\sum_{i=1}^{n}x_{ij}^2}} zij=∑i=1nxij2xij
判断Z矩阵中是否存在着负数,如果存在的话,需要对X使用另一种标准化方法,对矩阵X进行一次标准化得到Z 矩阵,其标准化的公式为
z x y ~ = x i j − m i n { x 1 j , x 2 j , . . . , x n j } m a x { x 1 j , x 2 j , . . . , x n j } − m i n { x 1 j , x 2 j , . . . , x n j } \tilde{z_{xy}}=\frac{x_{ij}-min{\{x_{1j},x_{2j},...,x_{nj}\}}}{max{\{x_{1j},x_{2j},...,x_{nj}\}-min\{x_{1j},x_{2j},...,x_{nj}\}}} zxy~=max{x1j,x2j,...,xnj}−min{x1j,x2j,...,xnj}xij−min{x1j,x2j,...,xnj}
(2)计算第j项指标下第i个样本所占的比重,并将其看作相对熵计算中用到的概率
假设有n个要评价的对象,m个评价指标,且经过了上一步处理得到的非负矩阵为:
z11 z12 ... z1m
Z= z21 z22 ... z2m
... ... ... ...
zn1 zn2 ... znm
我们计算概率矩阵P,其中P中每一个元素Pij的计算公式如下:
P i j = z ~ i j ∑ i = 1 n z ~ i j P_{ij}=\frac{\tilde{z}_{ij}}{\sum_{i=1}^n\tilde{z}_{ij}} Pij=∑i=1nz~ijz~ij
容易验证
∑ i = 1 n P i j = 1 \sum_{i=1}^nP_{ij}=1 i=1∑nPij=1
即保证了每一个指标所对应的概率和为1
(3)计算每个指标的信息熵,并计算信息效用值,并归一化得到每个指标的熵权
对于第j个指标而言,其信息熵的计算公式为
e j = − 1 l n n ∑ i = 1 n P i j l n ( P i j ) ( j = 1 , 2 , . . . , m ) e_j=-\frac{1}{lnn}\sum_{i=1}^nP_{ij}ln(P_{ij}) (j=1,2,...,m) ej=−lnn1i=1∑nPijln(Pij)(j=1,2,...,m)
为什么要除以lnn这个常数?在前面说过当p(x1)=p(x2)=…=p(xn)=1/n时,H(X)取最大值,此时H(x)=ln n
这里除以lnn能够使得信息熵始终位于[0,1]区间上面
ej越大,即第j个指标的信息熵越大,表明第j个指标的信息越多还是越少?
答案是越少,当p1j=…=pnj的时候,ej=1,此时上面定义的信息熵达到最大
但是,因为 P i j = z ~ i j ∑ i = 1 n z ~ i j P_{ij}=\frac{\tilde{z}_{ij}}{\sum_{i=1}^n\tilde{z}_{ij}} Pij=∑i=1nz~ijz~ij ,所以z1j=…=znj,即所有样本的指标值相同
信息效用值的定义: d j = 1 − e j d_j=1-e_j dj=1−ej ,那么信息效用值越大,对应的信息就越多
将信息效用值进行归一化,我们就能够得到每个指标的熵权
W j = d j ∑ i = 1 n d j ( j = 1 , 2 , . . . , m ) W_j=\frac{d_j}{\sum_{i=1}^nd_j}(j=1,2,...,m) Wj=∑i=1ndjdj(j=1,2,...,m)
熵权法是一种客观赋权方法
依据的原理: 指标的变异程度越小,所反映的信息量也越少,其对应的权值也应该越低。(客观= 数据本身就可以告诉我们权重)
我们可以用指标的标准差来衡量样本的变异程度,指标的标准差越大,其信息熵越小。
左图是蒙特卡洛的结果,随机生成一组有30个样本且位于区间[0,1]上的数据,计算其信息熵和标准差;将上述步骤重复100次,我们能够到100组信息熵和标准差的取值,将其绘制成散点图。可以发现,两个指标之间有很明显的负相关关系。
code_Monte_Carlo.m
熵权法的另一个问题:
因为概率p是位于0‐1之间,因此需要对原始数据进行标准化,我们应该选择哪种方式进行标准化呢?查看知网的文献会发现,并没有约定俗成的标准,每个人的选取可能都不一样。但是不同方式标准化得到的结果可能有很大差异,所以说熵权法也是存在着一定的问题的。
Entropy_Method.m 是熵权法计算权重的函数
mylog.m 用于替代MATLAB中的log函数,因为计算熵权法时需要判断p=0
code_Monte_Carlo.m 是PPT中用来蒙特卡洛模拟的函数
其他的几个函数就是之前第二节讲解的那些函数
%topsis.m
%% 第一步:把数据复制到工作区,并将这个矩阵命名为X
% (1)在工作区右键,点击新建(Ctrl+N),输入变量名称为X
% (2)在Excel中复制数据,再回到Excel中右键,点击粘贴Excel数据(Ctrl+Shift+V)
% (3)关掉这个窗口,点击X变量,右键另存为,保存为mat文件(下次就不用复制粘贴了,只需使用load命令即可加载数据)
% (4)注意,代码和数据要放在同一个目录下哦。
clear;clc
load data_water_quality.mat
%% 第二步:判断是否需要正向化
[n,m] = size(X);
disp(['共有' num2str(n) '个评价对象, ' num2str(m) '个评价指标'])
Judge = input(['这' num2str(m) '个指标是否需要经过正向化处理,需要请输入1 ,不需要输入0: ']);
if Judge == 1
Position = input('请输入需要正向化处理的指标所在的列,例如第2、3、6三列需要处理,那么你需要输入[2,3,6]: '); %[2,3,4]
disp('请输入需要处理的这些列的指标类型(1:极小型, 2:中间型, 3:区间型) ')
Type = input('例如:第2列是极小型,第3列是区间型,第6列是中间型,就输入[1,3,2]: '); %[2,1,3]
% 注意,Position和Type是两个同维度的行向量
for i = 1 : size(Position,2) %这里需要对这些列分别处理,因此我们需要知道一共要处理的次数,即循环的次数
X(:,Position(i)) = Positivization(X(:,Position(i)),Type(i),Position(i));
% Positivization是我们自己定义的函数,其作用是进行正向化,其一共接收三个参数
% 第一个参数是要正向化处理的那一列向量 X(:,Position(i)) 回顾上一讲的知识,X(:,n)表示取第n列的全部元素
% 第二个参数是对应的这一列的指标类型(1:极小型, 2:中间型, 3:区间型)
% 第三个参数是告诉函数我们正在处理的是原始矩阵中的哪一列
% 该函数有一个返回值,它返回正向化之后的指标,我们可以将其直接赋值给我们原始要处理的那一列向量
end
disp('正向化后的矩阵 X = ')
disp(X)
end
%% 作业:在这里增加是否需要算加权
% 补充一个基础知识:m*n维的矩阵A 点乘 n维行向量B,等于这个A的每一行都点乘B
% (注意:2017以及之后版本的Matlab才支持,老版本Matlab会报错)
% % 假如原始数据为:
% A=[1, 2, 3;
% 2, 4, 6]
% % 权重矩阵为:
% B=[ 0.2, 0.5 ,0.3 ]
% % 加权后为:
% C=A .* B
% 0.2000 1.0000 0.9000
% 0.4000 2.0000 1.8000
% 类似的,还有矩阵和向量的点除, 大家可以自己试试计算A ./ B
% 注意,矩阵和向量没有 .- 和 .+ 哦 ,大家可以试试,如果计算A.+B 和 A.-B会报什么错误。
%% 这里补充一个小插曲
% % 在上一讲层次分析法的代码中,我们可以优化以下的语句:
% % Sum_A = sum(A);
% % SUM_A = repmat(Sum_A,n,1);
% % Stand_A = A ./ SUM_A;
% % 事实上,我们把第三行换成:Stand_A = A ./ Sum_A; 也是可以的哦
% % (再次强调,新版本的Matlab才能运行哦)
%% 第三步:对正向化后的矩阵进行标准化
Z = X ./ repmat(sum(X.*X) .^ 0.5, n, 1);
disp('标准化矩阵 Z = ')
disp(Z)
%% 让用户判断是否需要增加权重
disp("请输入是否需要增加权重向量,需要输入1,不需要输入0")
Judge = input('请输入是否需要增加权重: ');
if Judge == 1
Judge = input('使用熵权法确定权重请输入1,否则输入0: ');
if Judge == 1
if sum(sum(Z<0)) >0 % 如果之前标准化后的Z矩阵中存在负数,则重新对X进行标准化
disp('原来标准化得到的Z矩阵中存在负数,所以需要对X重新标准化')
for i = 1:n
for j = 1:m
Z(i,j) = [X(i,j) - min(X(:,j))] / [max(X(:,j)) - min(X(:,j))];
end
end
disp('X重新进行标准化得到的标准化矩阵Z为: ')
disp(Z)
end
weight = Entropy_Method(Z);
disp('熵权法确定的权重为:')
disp(weight)
else
disp(['如果你有3个指标,你就需要输入3个权重,例如它们分别为0.25,0.25,0.5, 则你需要输入[0.25,0.25,0.5]']);
weight = input(['你需要输入' num2str(m) '个权数。' '请以行向量的形式输入这' num2str(m) '个权重: ']);
OK = 0; % 用来判断用户的输入格式是否正确
while OK == 0
if abs(sum(weight) -1)<0.000001 && size(weight,1) == 1 && size(weight,2) == m % 注意,Matlab中浮点数的比较要小心
OK =1;
else
weight = input('你输入的有误,请重新输入权重行向量: ');
end
end
end
else
weight = ones(1,m) ./ m ; %如果不需要加权重就默认权重都相同,即都为1/m
end
%% 第四步:计算与最大值的距离和最小值的距离,并算出得分
D_P = sum([(Z - repmat(max(Z),n,1)) .^ 2 ] .* repmat(weight,n,1) ,2) .^ 0.5; % D+ 与最大值的距离向量
D_N = sum([(Z - repmat(min(Z),n,1)) .^ 2 ] .* repmat(weight,n,1) ,2) .^ 0.5; % D- 与最小值的距离向量
S = D_N ./ (D_P+D_N); % 未归一化的得分
disp('最后的得分为:')
stand_S = S / sum(S)
[sorted_S,index] = sort(stand_S ,'descend')
% A = magic(5) % 幻方矩阵
% M = magic(n)返回由1到n^2的整数构成并且总行数和总列数相等的n×n矩阵。阶次n必须为大于或等于3的标量。
% sort(A)若A是向量不管是列还是行向量,默认都是对A进行升序排列。sort(A)是默认的升序,而sort(A,'descend')是降序排序。
% sort(A)若A是矩阵,默认对A的各列进行升序排列
% sort(A,dim)
% dim=1时等效sort(A)
% dim=2时表示对A中的各行元素升序排列
% A = [2,1,3,8]
% Matlab中给一维向量排序是使用sort函数:sort(A),排序是按升序进行的,其中A为待排序的向量;
% 若欲保留排列前的索引,则可用 [sA,index] = sort(A,'descend') ,排序后,sA是排序好的向量,index是向量sA中对A的索引。
% sA = 8 3 2 1
% index = 4 3 1 2
% % 注意:代码文件仅供参考,一定不要直接用于自己的数模论文中
% % 国赛对于论文的查重要求非常严格,代码雷同也算作抄袭
% % 如何修改代码避免查重的方法:https://www.bilibili.com/video/av59423231(必看)
%Positivization.m
% function [输出变量] = 函数名称(输入变量)
% 函数的中间部分都是函数体
% 函数的最后要用end结尾
% 输出变量和输入变量可以有多个,用逗号隔开
% function [a,b,c]=test(d,e,f)
% a=d+e;
% b=e+f;
% c=f+d;
% end
% 自定义的函数要单独放在一个m文件中,不可以直接放在主函数里面(和其他大多数语言不同)
function [posit_x] = Positivization(x,type,i)
% 输入变量有三个:
% x:需要正向化处理的指标对应的原始列向量
% type: 指标的类型(1:极小型, 2:中间型, 3:区间型)
% i: 正在处理的是原始矩阵中的哪一列
% 输出变量posit_x表示:正向化后的列向量
if type == 1 %极小型
disp(['第' num2str(i) '列是极小型,正在正向化'] )
posit_x = Min2Max(x); %调用Min2Max函数来正向化
disp(['第' num2str(i) '列极小型正向化处理完成'] )
disp('~~~~~~~~~~~~~~~~~~~~分界线~~~~~~~~~~~~~~~~~~~~')
elseif type == 2 %中间型
disp(['第' num2str(i) '列是中间型'] )
best = input('请输入最佳的那一个值: ');
posit_x = Mid2Max(x,best);
disp(['第' num2str(i) '列中间型正向化处理完成'] )
disp('~~~~~~~~~~~~~~~~~~~~分界线~~~~~~~~~~~~~~~~~~~~')
elseif type == 3 %区间型
disp(['第' num2str(i) '列是区间型'] )
a = input('请输入区间的下界: ');
b = input('请输入区间的上界: ');
posit_x = Inter2Max(x,a,b);
disp(['第' num2str(i) '列区间型正向化处理完成'] )
disp('~~~~~~~~~~~~~~~~~~~~分界线~~~~~~~~~~~~~~~~~~~~')
else
disp('没有这种类型的指标,请检查Type向量中是否有除了1、2、3之外的其他值')
end
end
% % 注意:代码文件仅供参考,一定不要直接用于自己的数模论文中
% % 国赛对于论文的查重要求非常严格,代码雷同也算作抄袭
% % 如何修改代码避免查重的方法:https://www.bilibili.com/video/av59423231(必看)
%mylog.m
% 重新定义一个mylog函数,当输入的p中元素为0时,返回0
function [lnp] = mylog(p)
n = length(p); % 向量的长度
lnp = zeros(n,1); % 初始化最后的结果
for i = 1:n % 开始循环
if p(i) == 0 % 如果第i个元素为0
lnp(i) = 0; % 那么返回的第i个结果也为0
else
lnp(i) = log(p(i));
end
end
end
% % 注意:代码文件仅供参考,一定不要直接用于自己的数模论文中
% % 国赛对于论文的查重要求非常严格,代码雷同也算作抄袭
% % 如何修改代码避免查重的方法:https://www.bilibili.com/video/av59423231(必看)
%Min2Max.m
function [posit_x] = Min2Max(x)
posit_x = max(x) - x;
% posit_x = 1 / x; 如果x全部都大于0,也可以这样正向化
end
% % 注意:代码文件仅供参考,一定不要直接用于自己的数模论文中
% % 国赛对于论文的查重要求非常严格,代码雷同也算作抄袭
% % 如何修改代码避免查重的方法:https://www.bilibili.com/video/av59423231(必看)
%Mid2Max.m
function [posit_x] = Mid2Max(x,best)
M = max(abs(x-best));
posit_x = 1 - abs(x-best) / M;
end
% % 注意:代码文件仅供参考,一定不要直接用于自己的数模论文中
% % 国赛对于论文的查重要求非常严格,代码雷同也算作抄袭
% % 如何修改代码避免查重的方法:https://www.bilibili.com/video/av59423231(必看)
%Inter2Max.m
function [posit_x] = Inter2Max(x,a,b)
r_x = size(x,1); % row of x
M = max([a-min(x),max(x)-b]);
posit_x = zeros(r_x,1); %zeros函数用法: zeros(3) zeros(3,1) ones(3)
% 初始化posit_x全为0
for i = 1: r_x
if x(i) < a
posit_x(i) = 1-(a-x(i))/M;
elseif x(i) > b
posit_x(i) = 1-(x(i)-b)/M;
else
posit_x(i) = 1;
end
end
end
% % 注意:代码文件仅供参考,一定不要直接用于自己的数模论文中
% % 国赛对于论文的查重要求非常严格,代码雷同也算作抄袭
% % 如何修改代码避免查重的方法:https://www.bilibili.com/video/av59423231(必看)
%Entropy_Method.m
function [W] = Entropy_Method(Z)
% 计算有n个样本,m个指标的样本所对应的的熵权
% 输入
% Z : n*m的矩阵(要经过正向化和标准化处理,且元素中不存在负数)
% 输出
% W:熵权,1*m的行向量
%% 计算熵权
[n,m] = size(Z);
D = zeros(1,m); % 初始化保存信息效用值的行向量
for i = 1:m
x = Z(:,i); % 取出第i列的指标
p = x / sum(x);
% 注意,p有可能为0,此时计算ln(p)*p时,Matlab会返回NaN,所以这里我们自己定义一个函数
e = -sum(p .* mylog(p)) / log(n); % 计算信息熵
D(i) = 1- e; % 计算信息效用值
end
W = D ./ sum(D); % 将信息效用值归一化,得到权重
end
% % 注意:代码文件仅供参考,一定不要直接用于自己的数模论文中
% % 国赛对于论文的查重要求非常严格,代码雷同也算作抄袭
% % 如何修改代码避免查重的方法:https://www.bilibili.com/video/av59423231(必看)
%code_Monte_Carlo.m
%% 蒙特卡洛模拟:指标的标准差和信息熵成反比
n = 30; % 样本个数
N = 100; % 试验的次数
result = zeros(N,2); % 初始化用来保存信息熵和标准差的矩阵,横坐标表示信息熵,纵坐标表示标准差
for i = 1:N
x = rand(n,1); % 随机生成n个位于区间[0,1]上面的样本 (随机数生成是视频第四讲的内容)
p = x / sum(x);
e = -sum(p .* mylog(p)) / log(n); % 计算信息熵
sd = std(x); % 计算标准差(描述性统计是视频第五讲的内容)
result(i,1) = e;
result(i,2) = sd;
end
plot(result(:,1),result(:,2),'o') %(画图是视频第三讲的内容)
xlabel('信息熵')
ylabel('标准差')
[r,p] = corrcoef(result(:,1),result(:,2)) % 计算相关系数和对应的p值(相关系数是视频第五讲的内容)
% % 注意:代码文件仅供参考,一定不要直接用于自己的数模论文中
% % 国赛对于论文的查重要求非常严格,代码雷同也算作抄袭
% % 如何修改代码避免查重的方法:https://www.bilibili.com/video/av59423231(必看)