影响产品开发决策的认知偏见

简介: 影响产品开发决策的认知偏见

认知偏见存在于每个人的内心,并在不断影响人们的工作和生活。认识并承认自己有偏见,并寻求相应的解决方案,可以帮助我们更好的做出产品决策、团队建设和架构设计。原文: The cognitive biases that influence product development decisions



如果有人跟你说:"你有偏见",你的第一反应是什么?会不会觉得被冒犯了?你可能会觉得"他们怎么敢这么说!我没有偏见,对任何事情都特别注意公平、公开和诚实。"


然而现实情况是,很可能你确实有偏见,因为我们最终都是这样。重要的是要认识到,我们都有偏见,应该为此做出调整。


一般来说,偏见可以被描述为对某个特定想法或事物给予不成比例的支持或反对。偏见可以是固有的,也可以是后天养成的,并且通常会导致个人以一种封闭的、有害的或不公平的方式行事。


1972 年,研究人员 Amos Tversky 和 Daniel Kahneman 首次提出了认知偏见的概念。从那以后,研究人员找到了许多影响不同领域决策的偏见。在这篇文章中,我们将讨论几个会严重影响产品交付的偏见。


在进行产品开发、系统架构决策或编写代码时,每一个决定都会受到偏见的影响,接下来我们介绍几种主要偏见。

锚定偏见(Anchoring bias)

或者: 为什么我们依赖最初收到的信息


这种偏见与我们倾向于过度依赖最初收到的信息有关。


例如,如果你以前从未去过咖啡馆,第一次走进星巴克,你会看得一杯小杯脱脂香草拿铁的价格是 3.45 美元。假设你第二次去的咖啡馆是郊区的 Courtney 咖啡馆,在看菜单时,看到他们的小杯脱脂香草拿铁的价格是 2.5 美元,你会立即认为和 Courtney 咖啡馆的交易更好,只因为你会把它与最初的信息比较,认为脱脂香草拿铁的价格通常是 3.45 美元。


关于锚定偏见的原因,目前还在研究中。尽管如此,根据初始锚定值的来源,偏见背后的原因似乎有着轻微差异。


最初的 Tversky 和 Kahneman 关于锚定偏见的观察是基于对个体设定初始值以及从这一点开始进行后续调整的研究。相比之下,其他锚点可以由相关先验知识(选择可得性)甚至参与者的情绪来设置。


上下文对于决定项目进度或预测新特性的影响并不大。这种偏见倾向于影响我们对产品的看法,即使客观上看起来不合理,也会使我们坚持特定的价值。


对抗锚定偏见: 对抗这种偏见的一种方法是坐下来研究锚定值似乎不合适的所有原因。研究表明,这削弱了原锚点的锚固效果。

功能固着(Functional fixedness)

或者: 为什么要把人分类


这种偏见与我们倾向于只以特定方式看待物体或事物有关。


例如,你需要解决一个用户体验问题。尽管如此,你也不会考虑询问坐在对面的软件开发人员的意见,因为你知道他的专长是开发 API。


这种偏见最早是由德国心理学家卡尔·邓克尔在 1945 年发现的,并通过"蜡烛问题"加以证明。


他在研究中给参与者一根蜡烛、一盒图钉和一盒火柴,并让他们把蜡烛固定在墙上,要求不使用任何其他物品就能照亮房间。对大多数人来说,问题的解决之旅始于试图用图钉把蜡烛钉在墙上,因为图钉是用来把东西固定在墙上的,而需要固定的东西就是蜡烛。


只有放弃"功能固着"的想法,才能找到解决办法,比如点燃火柴,融化蜡烛底部,把蜡烛固定在图钉盒子里,然后把盒子钉在墙上。


产生功能固着的原因是为了理解世界,我们的大脑已经建立了事物如何组合和运作的心智模型。在许多情况下,这是有益的,可以帮助我们缩短生活中大部分决策时间。然而,当涉及到解决问题时(大部分产品开发都是如此),固定模型会限制我们的思维,因此也限制了解决方案。


对抗功能固着: 对抗这种偏见的一种方法是将特定问题从环境中抽象出来,从不同的来源(无论是人还是地方)中寻求灵感。

邓宁-克鲁格效应(The Dunning-Kruger effect)

或者: 为什么在组建团队时要小心


这种偏见是指在某一特定领域,能力/专业知识/经验较低的人倾向于高估他们在该领域的能力或知识。


例如,如果你让团队完成一个关于网络流量的测试,然后让他们评估自己在测试中的表现,那些对网络活动了解有限的人会高估自己的表现。


这种效应是以社会心理学家大卫·邓宁和贾斯汀·克鲁格的名字命名的,他们在 1999 年的一篇题为《不熟练和不知道: 难以认识到自己的无能如何导致自我评估膨胀(Unskilled and unaware of it: How difficulties in recognizing one’s own incompetence lead to inflated self-assessments)》的文章中描述了这种效应。


这种偏见在非产品环境中更为明显,这就是为什么你总能在派对上发现有人愿意就地方政治等话题发表自己的看法,然而他们很可能并不理解地方政治是如何运作的,或者在选秀节目的早期试镜阶段,有些人会大声反驳评委,说他们无法识别人才。


这种偏见产生于"不称职"的人倾向于高估自己的技能,无法认识到别人的真正技能,也无法认识到自己的错误。


就像上面提到的所有偏见一样,我们都容易患上邓宁-克鲁格综合症,但别担心,了解这些信息很有帮助,这样你就知道在房间里应该听哪些声音,知道什么时候应该大声说出来,什么时候应该听专家的意见。


克服邓宁-克鲁格现象: 要克服这种偏见,最简单的方法就是增加你在相关领域的知识和经验。然后,你的信心会下降到更现实的水平,而不是继续过度膨胀。

其他可能遇到的偏见
  • 行为者-观察者偏见(Actor-observer bias) 是指将自己的行为归因于外部原因,而将他人的行为归因于内部原因的倾向。例如,没有在最后期限前完成任务是因为别人给了你更多的工作,而其他人没有在最后期限前完成任务是因为他们的性格。
  • 注意力偏见(Attentional bias) ,倾向于注意一些事情而忽略其他的。例如,当决定优先考虑哪个功能时,你会在熟悉的领域推动变化,而忽略不熟悉领域的变化,即使它们有可能带来更大的回报。
  • 可用性启发式(Availability heuristic) ,倾向于认为更快想到的信息有更大的价值。例如,如果你被问及面临的最大挑战是什么,你更有可能想到最近的挑战,而不是那些可能让你更头疼的挑战。
  • 确认偏见(Confirmation bias) ,倾向于支持符合现有信念的信息,并忽视那些不匹配的信息。例如,你喜欢自己运动队的支持者,不喜欢对手的支持者,尽管你并不认识他们。
  • 错误共识效应(False consensus effect) ,倾向于高估其他人与你的一致程度。例如,当被问及谁同意你最近提出的功能改进建议时,你会觉得支持你的人比实际的更多。
  • 错误信息效应(Misinformation effect) ,事后信息干扰你对原始事件记忆的倾向。例如,在团队回顾中,如果多个参与者强调了他们的困难,即使你没有遇到同样的困难,也可能引起对某个特定问题的强烈感受。
  • 自私自利偏见(Self-serving bias) ,当坏事发生时,倾向于责怪外部力量,而当好事发生时,倾向于相信自己。例如,当客户数量上升时,认为是归功于你引入的一个新功能,但当下降时,认为是经济因素。
我们都有偏见

总之,我们应该学到的教训是,每个人都在某种程度上有偏见,解决这个问题的第一步是承认它的存在,一旦承认,就有机会采取措施将其影响降到最低,并有可能得到一个更适合当前试图解决的问题的解决方案。




你好,我是俞凡,在 Motorola 做过研发,现在在 Mavenir 做技术工作,对通信、网络、后端架构、云原生、DevOps、CICD、区块链、AI 等技术始终保持着浓厚的兴趣,平时喜欢阅读、思考,相信持续学习、终身成长,欢迎一起交流学习。

微信公众号:DeepNoMind

目录
相关文章
|
28天前
|
人工智能 自动驾驶 算法
智能时代的伦理困境:AI决策的道德边界
在人工智能技术飞速发展的今天,我们面临着前所未有的伦理挑战。本文探讨了AI决策中的道德边界问题,分析了技术发展与人类价值观之间的冲突,并提出了建立AI伦理框架的必要性和可能路径。通过深入剖析具体案例,揭示了AI技术在医疗、司法等领域的应用中所引发的道德争议,强调了在追求技术进步的同时,必须审慎考虑其对社会伦理的影响,确保科技发展服务于人类的福祉而非成为新的困扰源。
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
软件测试中的人工智能:提升效率与准确性的新途径
在当今快速发展的技术领域,人工智能(AI)正成为软件测试的重要工具。本文将探讨AI在软件测试中的应用,如何通过智能化手段提高测试的效率和准确性。从自动化测试到缺陷预测,我们将深入了解AI如何改变传统的软件测试方式,为软件开发流程带来革命性的变化。
|
3月前
|
存储 人工智能 算法
AI算法的道德与社会影响:探索技术双刃剑的边界
【8月更文挑战第22天】AI算法作为一把双刃剑,在推动社会进步的同时,也带来了诸多道德与社会挑战。面对这些挑战,我们需要以开放的心态、严谨的态度和创新的思维,不断探索技术发展与伦理规范之间的平衡之道,共同构建一个更加美好、更加公正的AI未来。
|
3月前
|
机器学习/深度学习 人工智能 算法
【AI伦理与社会责任】讨论人工智能在隐私保护、偏见消除、自动化对就业的影响等伦理和社会问题。
人工智能(AI)作为第四次产业革命的核心技术,在推动社会进步和经济发展的同时,也引发了一系列伦理和社会问题。以下从隐私保护、偏见消除以及自动化对就业的影响三个方面进行详细讨论。
69 2
|
3月前
|
机器学习/深度学习 人工智能 开发者
人工智能的伦理困境:机器决策与道德责任
【8月更文挑战第3天】 在人工智能技术飞速发展的今天,机器学习和自动化决策系统正逐步渗透到我们生活的方方面面。然而,随着技术的进步,一系列伦理问题也随之浮现。从数据偏见到隐私侵犯,再到机器自主性引发的责任归属问题,人工智能的伦理挑战不容忽视。本文将探讨AI技术中存在的几个关键伦理议题,并讨论如何通过制定合理的政策和技术框架来应对这些挑战。
76 3
|
6月前
|
数据采集 机器学习/深度学习 自然语言处理
数据更多更好还是质量更高更好?这项研究能帮你做出选择
【5月更文挑战第28天】研究探索了在机器学习中数据质量与规模的权衡,提出质量-数量权衡(QQT)概念和神经网络可扩展定律,考虑数据非同质性、效用衰减及多数据池交互。结果表明预训练时数据质量和规模同等重要,应根据情况权衡。但研究局限于模型预训练、特定类型模型和模拟数据验证。[[链接](https://arxiv.org/pdf/2404.07177.pdf)]
55 1
|
6月前
|
人工智能
Sora对商业公司的潜在影响
【2月更文挑战第9天】Sora对商业公司的潜在影响
61 2
Sora对商业公司的潜在影响
|
6月前
|
人工智能 物联网 区块链
拥抱不确定性:在技术迭代中培养适应性思维
【4月更文挑战第24天】 在快速变化的技术世界中,唯一不变的是变化本身。本文探讨了如何在不断演进的技术环境中发展适应性思维,以应对不确定性和复杂性。通过分析技术的发展趋势、挑战与机遇,提出了一个框架,旨在帮助技术人员和决策者保持敏捷和灵活。文章强调了持续学习、跨学科合作以及实验精神的重要性,并提供了实用的策略来促进个人和组织的适应性成长。
|
机器学习/深度学习 人工智能 自然语言处理
【认知计算】认知风险管理
【认知计算】认知风险管理
|
人工智能 搜索推荐 架构师