熵值法+TOPSIS法确定决策方案

简介: 熵值法+TOPSIS法确定决策方案

解:

  1. 定义该方案的决策矩阵X

image.png

其中,造价和建设年限为负向指标,车流和车速为正向指标

采用熵值法确定各指标权重:

  1. 采用线性比例变换法求决策矩阵的标准化矩阵Y1

image.png

  1. 采用熵值法求解权重,对矩阵Y1进行归一化处理,计算归一化矩阵P

image.png

  1. 计算熵值e(取k=0.5):
    image.png
  2. 计算差异系数g

image.png

  1. 计算权重w

image.png

采用**理想解法(TOPSIS)**确定最有方案:

  1. 采用向量归一化法求决策矩阵的标准化矩阵Y2

image.png

  1. 计算加权标准化矩阵V


image.png

image.png

  1. 确定理想解V和负理想解V


image.png

  1. 计算各方案到理想解和负理想解的距离SS

image.png

  1. 计算各方案的相对贴近度C

image.png

  1. 找出相对贴近度最大的方案ibest
    image.png

方案3的相对贴近度最大,故选择方案3,即C厂应该中标。

附:matlab代码

%% 定义该方案的决策矩阵:
X = [1.1,1.8,4,80;
     1.2,1.5,3,110;
     1.5,1.3,5,100];
     
%% 采用线性比例变换法求决策矩阵的向量归一标准化矩阵Y1:
Y1 = [min(X(:,1:2)) ./ X(:,1:2),X(:,3:4) ./ max(X(:,3:4))];
% 对矩阵Y1进行归一化处理,计算归一化矩阵P:
P = Y1 ./ sum(Y1,1);
% 计算熵值e:
e = -0.5 * sum(P .* log(P));
% 计算差异系数g:
g = 1 - e;
% 计算权重w:
w = g / sum(g);
%% 采用向量归一化法求决策矩阵的标准化矩阵Y2:
Y2 = X ./ sqrt(sum(X.^2));
% 计算加权标准化矩阵V:
V = w .* Y2;
% 确定理想解V1和负理想解V0:
V1 = [min(V(:,1:2)),max(V(:,3:4))];
V0 = [max(V(:,1:2)),min(V(:,3:4))];
% 计算各方案到理想解和负理想解的距离S1和S0:
S1 = sqrt(sum((V - V1).^2,2));
S0 = sqrt(sum((V - V0).^2,2));
% 计算各方案的相对贴近度C:
C = S0 ./ (S0 + S1);
% 找出相对贴近度最大的方案ibest:
ibest = find(C == max(C));

线性比例变换法和向量归一化法是数据标准化的两种不同方法,各有其特点和应用场景。以下是它们的区别和各自的优缺点:

线性比例变换法

定义

线性比例变换法(Min-Max Normalization)通过将数据按比例缩放到指定范围(通常是0到1)。

公式

[ X’ = \frac{X - X_{min}}{X_{max} - X_{min}} ]

优点

  • 保留了原始数据的分布形状。
  • 易于理解和实现。
  • 适用于数据范围已知且固定的情况。

缺点

  • 对于存在异常值(outliers)的数据,缩放效果会受到极端值的影响。
  • 仅适用于线性变化,不适合非线性分布的数据。

向量归一化法

定义

向量归一化法(Vector Normalization)通过将每个样本的数据标准化为单位向量,即每个样本的各个特征值的平方和为1。

公式

[ X’ = \frac{X}{\sqrt{\sum X^2}} ]

优点

  • 适用于在同一数量级上的数据。
  • 减少了因不同数量级数据引起的影响,保留了方向信息。
  • 对于大数据集,计算效率较高。

缺点

  • 对于数据本身的分布没有特别考虑,所有特征都被缩放到单位向量。
  • 对于稀疏数据(大多数特征值为0),效果较差。

为什么在这里一个用线性比例变换法,一个用向量归一化法?

在上述决策模型中,采用了线性比例变换法和向量归一化法是基于不同的需求和标准化目的:

  1. 线性比例变换法
    目的是为了计算权重。在计算权重时,我们需要使用线性比例变换法将数据归一化到0到1的范围内,以便于计算熵值和差异系数。线性比例变换法在这里的优点是能保持数据的比例关系,有利于权重的合理分配。
  2. 向量归一化法
    目的是为了进行TOPSIS分析。在TOPSIS分析中,向量归一化法将数据标准化为单位向量,确保所有特征在同一数量级上,减少数量级差异对结果的影响。这样可以更有效地计算各方案到理想解和负理想解的距离。

综合应用

综合权重的计算和TOPSIS分析的标准化方法选择,分别采用线性比例变换法和向量归一化法,可以在保留数据原有比例关系的同时,确保不同特征之间的数量级一致性,从而得到更准确和合理的决策结果。

目录
相关文章
|
1月前
|
机器学习/深度学习 数据采集 搜索推荐
多模型DCA曲线:如何展现和解读乳腺癌风险评估模型的多样性和鲁棒性?
多模型DCA曲线:如何展现和解读乳腺癌风险评估模型的多样性和鲁棒性?
105 1
|
1月前
|
数据采集 机器学习/深度学习 算法
多维因素与学生辍学风险预测
多维因素与学生辍学风险预测
32 1
|
22天前
|
机器学习/深度学习 数据采集 数据可视化
基于聚类和回归分析方法探究蓝莓产量影响因素与预测模型研究
k均值聚类模型多元线性回归模型随机森林模型在数据分析项目中,选择合适的模型是至关重要的。本项目中,我们采用了三种不同的模型来分析蓝莓的生长条件和产量,以确保从不同角度全面理解数据。一、K均值聚类模型K均值聚类模型是一种无监督学习方法,用于根据数据的相似性将样本分成不同的组。在这个项目中,我们使用K均值聚类模型来识别具有相似特征的蓝莓品种。通过聚类分析,我们将蓝莓分为4个类别,每个类别代表了不同的生长条件和产量特性。这种分类有助于我们理解在不同环境条件下,哪些因素对蓝莓产量有显著影响。
26 0
|
1月前
|
机器学习/深度学习 数据采集 算法
R语言、WEKA关联规则、决策树、聚类、回归分析工业企业创新情况影响因素数据
R语言、WEKA关联规则、决策树、聚类、回归分析工业企业创新情况影响因素数据
|
1月前
|
机器学习/深度学习 数据可视化 算法
R语言贝叶斯广义线性混合(多层次/水平/嵌套)模型GLMM、逻辑回归分析教育留级影响因素数据
R语言贝叶斯广义线性混合(多层次/水平/嵌套)模型GLMM、逻辑回归分析教育留级影响因素数据
|
1月前
|
定位技术 计算机视觉 Windows
生态学建模:增强回归树(BRT)预测短鳍鳗生存分布和影响因素
生态学建模:增强回归树(BRT)预测短鳍鳗生存分布和影响因素
|
1月前
|
定位技术 计算机视觉 Windows
R语言生态学建模:增强回归树(BRT)预测短鳍鳗生存分布和影响因素
R语言生态学建模:增强回归树(BRT)预测短鳍鳗生存分布和影响因素
|
1月前
|
机器学习/深度学习 数据采集 算法
逻辑回归算法预测:哪些因素导致肥胖率上升?
逻辑回归算法预测:哪些因素导致肥胖率上升?
59 0
|
11月前
|
算法
基于马科维茨与蒙特卡洛模型的资产最优配置模型(Matlab代码实现)
基于马科维茨与蒙特卡洛模型的资产最优配置模型(Matlab代码实现)
基于马科维茨与蒙特卡洛模型的资产最优配置模型(Matlab代码实现)
|
10月前
|
算法 数据挖掘 调度
数据驱动的两阶段分布鲁棒(1-范数和∞-范数约束)的电热综合能源系统研究(Matlab代码实现)
数据驱动的两阶段分布鲁棒(1-范数和∞-范数约束)的电热综合能源系统研究(Matlab代码实现)