空间选择模型--既能帮决策,还可助推断

简介: 空间选择模型--既能帮决策,还可助推断

在上一篇多准则决策模型中,我们讨论出用打分的方法,对主体在不同维度进行评估,然后综合各项指标来比对做选择。今天我们再来学习一种简单实用,能帮我们做出更好决策的「空间选择模型」,这个模型由经济学家Harold Hotelling首先提出。

假设你在海里玩了一圈,回到沙滩上,饥渴难耐,你发现在左边50米处有个冰淇淋售货机;而在右边40米处也有一个冰淇淋自动售货机,正常情况下,你会飞奔向离你近的右边的冰淇淋售货机。

这就是空间选择模型,在地理空间中,我们会选择距离自己近的那个。当然,空间模型不仅限于地理空间,还可以拓展到其他方面。在我们的心中,对不同的偏好会有一个「理想点」,我们会挑选距离理想点最近的产品或服务购买。

比如,你手机坏了,要买一个新手机,你很喜欢看公众号文章,并经常对文章赞赏。在你心中,手机能不能方便的赞赏文章很重要。所以你买手机的时候,就会选择更加易于赞赏文章的安卓手机,而不选择苹果手机。

这个模型非常简单,也很好理解,如何用在具体决策中呢?我们举两个例子。

最近你对键盘长了草,在机械键盘和电容键盘HHKB之间犹豫不定。这时就可以用空间选择模型来辅助决策。

你找出两个最看重的键盘参数,比如一个是手感,一个是DIY特性,然后将这两个参数作为纵横坐标。我们将画出图来会更直观,五角星代表你,机械键盘的手感明显有优势,放在右下角的位置。

HHKB小巧,DIY特性好,可以适应几乎所有的系统和平台,它应该在左上角的位置。然后你用直线将五角星和两个键盘连起来,发现d1<d2,也就是说你更看重的是HHKB随身携带的便捷性和DIY特性。

空间选择模型帮助你做了决策,你喜欢的是HHKB。于是你打开了购物车,毫不犹豫的提交了一个2000多元的HHKB键盘订单。

我们再举一个吃货喜欢的。假设我理想中的汉堡成分是这样的:两块奶酪,两块肉,两片西红柿,四勺番茄酱,四勺蛋黄酱,四片酸黄瓜(嘴挺挑的哈)。我们把这些内容做一个表格如下:

这6个参数构成了一个六维空间。现在我饿了,去买一个巨无霸还是汉堡王呢?作为一个吃货,对各种汉堡的成分研究的非常细致,先看巨无霸的构成:

图中第三列为巨无霸的构成,最后一列是第三列(巨无霸构成)与第二列(理想的汉堡)的差值(取绝对值)。简单计算得出,巨无霸的总差值为2+1+2=5,即巨无霸与我们的理想汉堡距离的差值为5。我们再来看一下汉堡王里有什么:

直接将最后的差值绝对数相加,1+1=2,汉堡王与我们的理想汉堡的差值是2,显然2<5,经分析得出汉堡王更贴近我的需求。

我们建立模型,不仅要用它来解释一些现象,更重要的是用它推断出看不见的本质或者个人偏好。

假设我们看到一位朋友买了汉堡王而没有买巨无霸,那么我们可以推断出什么呢?

我们将巨无霸和汉堡王列在一张表上,你会发现,它们两个间,奶酪成分是一样的,番茄酱和蛋黄酱也是相同的,那就可以推断出这位朋友可能喜欢西红柿,或者他不爱吃酸黄瓜和肉。

这就是酷酷的空间选择模型,它能让我们决定去哪儿买冰淇淋,该买什么样的键盘,选择吃那种汉堡。

我们也可以在产品上使用这个模型,比较不同的产品,不同类型的手机,口味各异的咖啡等;我们也可以通过人们购买的键盘或者汉堡类型,来分析研究人们购物的决定,判断人们的偏好。

———今日小结———

空间选择模型既可以帮助我们做出更好的选择,也可以解释和推断人们为什么做出了那个选择。

注:今天的模型来自于Coursera 中的Model Thinking 课程。

目录
相关文章
|
2月前
|
机器学习/深度学习 编解码 测试技术
TimeMOE: 使用稀疏模型实现更大更好的时间序列预测
TimeMOE是一种新型的时间序列预测基础模型,通过稀疏混合专家(MOE)设计,在提高模型能力的同时降低了计算成本。它可以在多种时间尺度上进行预测,并且经过大规模预训练,具备出色的泛化能力。TimeMOE不仅在准确性上超越了现有模型,还在计算效率和灵活性方面表现出色,适用于各种预测任务。该模型已扩展至数十亿参数,展现了时间序列领域的缩放定律。研究结果显示,TimeMOE在多个基准测试中显著优于其他模型,特别是在零样本学习场景下。
403 64
|
2月前
|
机器学习/深度学习 数据可视化 数据建模
使用ClassificationThresholdTuner进行二元和多类分类问题阈值调整,提高模型性能增强结果可解释性
在分类问题中,调整决策的概率阈值虽常被忽视,却是提升模型质量的有效步骤。本文深入探讨了阈值调整机制,尤其关注多类分类问题,并介绍了一个名为 ClassificationThresholdTuner 的开源工具,该工具自动化阈值调整和解释过程。通过可视化功能,数据科学家可以更好地理解最优阈值及其影响,尤其是在平衡假阳性和假阴性时。此外,工具支持多类分类,解决了传统方法中的不足。
41 2
使用ClassificationThresholdTuner进行二元和多类分类问题阈值调整,提高模型性能增强结果可解释性
|
2月前
|
机器学习/深度学习 数据采集 算法
利用未标记数据的半监督学习在模型训练中的效果评估
本文将介绍三种适用于不同类型数据和任务的半监督学习方法。我们还将在一个实际数据集上评估这些方法的性能,并与仅使用标记数据的基准进行比较。
187 8
|
6月前
|
机器学习/深度学习 SQL 算法
如何在因果推断中更好地利用数据?
本报告从两个方面来介绍我们如何利用更多的数据来做好因果推断,一个是利用历史对照数据来显式缓解混淆偏差,另一个是多源数据融合下的因果推断。
|
5月前
|
机器学习/深度学习 决策智能
**批量归一化(BN)**是2015年提出的深度学习优化技术,旨在解决**内部协变量偏移**和**梯度问题**。
【6月更文挑战第28天】**批量归一化(BN)**是2015年提出的深度学习优化技术,旨在解决**内部协变量偏移**和**梯度问题**。BN通过在每个小批量上执行**标准化**,然后应用学习到的γ和β参数,确保层间输入稳定性,加速训练,减少对超参数的敏感性,并作为隐含的正则化手段对抗过拟合。这提升了模型训练速度和性能,简化了初始化。
51 0
|
6月前
|
机器学习/深度学习 数据可视化
数据分享|R语言生存分析模型因果分析:非参数估计、IP加权风险模型、结构嵌套加速失效(AFT)模型分析流行病学随访研究数据
数据分享|R语言生存分析模型因果分析:非参数估计、IP加权风险模型、结构嵌套加速失效(AFT)模型分析流行病学随访研究数据
|
6月前
|
机器学习/深度学习
R语言利用基线协变量提高随机对照试验的效率
R语言利用基线协变量提高随机对照试验的效率
|
6月前
|
机器学习/深度学习
R语言调整随机对照试验中的基线协变量
R语言调整随机对照试验中的基线协变量
|
6月前
|
数据采集
【大模型】大语言模型训练数据中的偏差概念及其可能的影响?
【5月更文挑战第5天】【大模型】大语言模型训练数据中的偏差概念及其可能的影响?
|
6月前
R语言估计多元标记的潜过程混合效应模型(lcmm)分析心理测试的认知过程
R语言估计多元标记的潜过程混合效应模型(lcmm)分析心理测试的认知过程
下一篇
无影云桌面