AI伦理:机器人伴侣可以代替人类伴侣?

简介: 机器人伴侣正被刻画为人类漫长而又孤独生活的灵丹妙药。人类的未来生活或许正从这里走向拐点。

云栖号:https://www.aliyun.com/#module-yedOfott8
第一手的上云资讯,不同行业精选的上云企业案例库,基于众多成功案例萃取而成的最佳实践,助力您上云决策!

image

机器人伴侣正被刻画为人类漫长而又孤独生活的灵丹妙药。人类的未来生活或许正从这里走向拐点。

在Constance Gemson把母亲送到养老院后,这位92岁的老人不仅生活变得更加孤独,头脑也越来越糊涂。即便有两个善良、细心的全职生活助手在全力照顾,她的所有社交需求也不能被完全满足。

直到有一天Gemson去探望母亲,并带去了一个新帮手——一只专为老年人设计的机器猫。它能发出呼噜呼噜的可爱声音,也能用鼻子和人蹭来蹭去。“虽然它不能替代护理,” Gemson说,“但它是我母亲可以拥抱和信任的可靠朋友。” 她的母亲于去年6月去世,享年95岁。

Gemson说:“当妈妈变得沮丧的时候,只要猫在她的身边,陪着她唱歌,她心情就会平静下来。”在生命的最后几天里,她将自己的爱意倾注给了这只机械猫。

护理机器人在老人和病人的家庭中扮演着重要的作用,提供人们急需的友谊和帮助。

不断加速的人口老龄化也助力了机器人看护业的兴起。专家预计,到2050年,全球65岁及以上的人口将增加一倍以上。与此同时,许多发达国家的劳动年龄人口也在不断减少,护理机器人正日益被视为人类老年生活的一剂良药。

现如今,护理机器人的形态各异,而且功能齐全。可爱的桌面机器人会提醒老年人按时吃药和定期散步;一些机器人可以将零食喂食给垂死的病人。据机器宠物制造公司称,自2016年机器宠物首次亮相以来,美国境内已经售出了十万多只专为老年人设计的机器宠物。根据国际机器人联合会(International Federation of Robotics)的数据,预计 2022年前,为老年人和残疾人设计的护理机器人的销量将以每年25%的速度增长。

对于护理机器人,我们还应该深切关注它们涉及的道德问题。因为这关乎人类的未来,也蕴含着关怀的终极意义,有关人类自由和尊严究竟是什么的道德问题急需解答。这些人工智能机器人最初是为帮助老年人而设计的,而它们凭借仿真的外表和一定程度的社交能力提供帮助的同时,伴随着道德风险。例如,奶奶的机器人宠物是会鼓励更多的家庭对话,还是会让她的亲人远离照顾老人的繁重工作?

塔夫茨大学(Tufts University)人机交互实验室的负责人、机器人专家Matthias Scheutz说:“我觉得道德上真正值得怀疑的,是当在这些机器只是一个个傀儡的时候,有人却在主推它们的社交功能。”

因为这就是道德困境开始的地方——凭借没有灵魂的算法,我们就能使机器人眨眼、唱歌,做出各种不同的智能动作。然而无论我们为机器人加入再多的智能化动作、语言,人们也只能从中得到略显怪诞的“关怀”。

对此,荷兰乌得勒支大学(University of Utrecht)研究人类与机器人互动伦理的Maartje de Graaf认为,社交型机器人最理想的情况是激发人类对它们的同理心。例如,有些机器人吸尘器的主人会在他们的机器人坏掉时感到悲伤;有些人会把机器人算作家庭成员。

该领域的许多专家也注意到了护理机器人所面临的紧张道德困境,但他们认为,好处可能大于风险。克莱姆森大学(Clemson University)的科学家 Richard Pak说,这项技术“旨在帮助老年人掌控他们的日常生活。如果这种代价在某种程度上是欺骗,也是有价值的。”但他也会时不时地怀疑自己的看法,“这样做真的对吗?”

目前,人们对机器人护理产生的长期影响知之甚少,而公众对此展现出的忧虑已是甚嚣尘上。在2017年的调查中,近60%的美国人表示,他们不希望使用机器人来照顾自己或家人。64%的人认为,这种照顾只会增加老年人的孤独感。与此同时,欧盟国家60%的人赞成禁止使用机器人来照顾儿童、老人和残疾人。这些担忧或许将为机器人的功能设计提供一定的参考。

而直到最近,老年群体们才开始发出自己的声音:一些老人表示愿意拥有一个护理机器人,并和它成为朋友。但研究表明,也有许多老年人不喜欢机器人那装模做样的陪伴。他们害怕被监视和控制,更害怕因此失去人类的关爱。一位参与调查的潜在用户则担心,机器人看护会使一些人受到歧视,使他们被认为“不值得得到人类的陪伴”。

“当唯一的目标是制造能够提高利润和效率的机器时,人性就不会被优先考虑。” 人工智能伦理指南倡议的执行董事John C. Havens说。AI伦理的关键、它的一个主要原则就是“透明度”,即反图灵测试。人类需要认识到他们正在和机器人互动。同时,还应该注意机器人社交功能的潜在副作用,比如“干扰人类伴侣之间的亲密关系”。

类似的AI指导方针可以帮助用户和设计师保持头脑的清醒,从而更好地使用和设计机器人。

今年上市的 “健康教练机器人”Mabu是一个典型的例子。最初,它是为心力衰竭等慢性疾病患者设计的。这款小机器人会向病人发出健康建议和喂药提醒。在某些情况下,它还能向医师发送用户的身体状况数据。Catalia公司在最初设计这个机器人时就强调,它并不是一个医生或护士,而是一个健康护理人员。

然而,该公司经常把Mabu描绘成一个真实的人。比如,该公司的广告就是这样说的:“我将是你的头号啦啦队长!”

根据该公司的说法,现在使用Mabu的几百人中,绝大多数都是老年人,他们平均每周只与机器人交流25分钟。然而,公司创始人兼首席执行官Cory Kidd曾说过,有些用户会给Mabu起名字、穿衣服,带它们一起去度假。

我问kidd:“Mabu作为护理机器人有足够透明度吗?”

“要理解用户和机器人的这种互动关系,还有很多工作要做。”他说。

一位退休的公共汽车司机,把他的Mabu视做自己的一个重要支柱。有些人则告诉我,他们认为机器人是朋友。

40岁的Kerri Hill因为心力衰竭而大部分时间呆在家里,在她独处时, Mabu的陪伴显得至关重要。但她不也想过多的依赖这么一个护理机器人。“机器人只是机器人,”Hill说,“除此之外,你仍然需要真实的人际互动。”

这些言论使我回想起母亲生命里的最后四年,想起我为了照顾母亲,不得不做出的艰难抉择。我在抚养两个不到6岁的孩子的同时,必须不断评估需要雇佣多少保姆,以及我暂离母亲之后她是否安全,是否会感到孤独。

如果当时有这么一个机器人能逗她笑、鼓励她进食、帮助她捡起掉在地上的汤匙,这对她来说会是一种轻视么?对我来说会是一种解脱么?这样会更好吗?

照顾母亲的那段日子,我承认自己过得很难,但我相信,即使当时存在这么一个机器人,我也会选择亲力亲为地去照顾她。因为我认为,在我们的生活中有这么一个地方,需要我们用温暖的双手去抚慰他人的不安,提供真正的关怀。

关怀和照顾他人是一项艰难的工作,伴随着不断的自我质疑。我们只有对那些关心人类的机器人保持怀疑和犹豫,才能保护这类工作的人性。

秋天里的一天,我和Gemson坐在曼哈顿的一家咖啡馆里。Gemson深情地谈起了当年护理人员带她母亲出去吃午饭,温柔地为她洗澡、喂饭的场景。她也真挚地回忆起了那只机器猫。她母亲去世后,她就把机器猫扔了。

云栖号:https://www.aliyun.com/#module-yedOfott8
第一手的上云资讯,不同行业精选的上云企业案例库,基于众多成功案例萃取而成的最佳实践,助力您上云决策!

原文发布时间:2019-12-25
本文作者:Maggie Jackson
本文来自阿里云云栖号合作伙伴“网易智能”,了解相关信息可以关注“网易智能

相关文章
|
2月前
|
人工智能 算法 自动驾驶
AI的伦理困境:我们是否准备好面对?
【10月更文挑战第40天】随着人工智能技术的飞速发展,它已经深入到我们生活的方方面面。然而,随之而来的伦理问题也日益凸显。本文将探讨AI技术中的一些伦理困境,包括数据隐私、算法偏见、自动化失业等,并提供一些可能的解决方案。我们将通过代码示例来展示如何在AI应用中实现这些解决方案。
|
11天前
|
数据采集 人工智能 算法
Seer:上海 AI Lab 与北大联合开源端到端操作模型,结合视觉预测与动作执行信息,使机器人任务提升成功率43%
Seer是由上海AI实验室与北大等机构联合推出的端到端操作模型,结合视觉预测与动作执行,显著提升机器人任务成功率。
50 20
Seer:上海 AI Lab 与北大联合开源端到端操作模型,结合视觉预测与动作执行信息,使机器人任务提升成功率43%
|
21天前
|
机器学习/深度学习 人工智能 自然语言处理
PeterCat:一键创建开源项目 AI 问答机器人,自动抓取 GitHub 仓库信息、文档和 issue 等构建知识库
PeterCat 是一款开源的智能答疑机器人,能够自动抓取 GitHub 上的文档和 issue 构建知识库,提供对话式答疑服务,帮助开发者和社区维护者高效解决技术问题。
97 7
PeterCat:一键创建开源项目 AI 问答机器人,自动抓取 GitHub 仓库信息、文档和 issue 等构建知识库
|
2月前
|
人工智能 自然语言处理 算法
具身智能高校实训解决方案 ----从AI大模型+机器人到通用具身智能
在具身智能的发展历程中,AI 大模型的出现成为了关键的推动力量。高校作为培养未来科技人才的摇篮,需要紧跟这一前沿趋势,开展具身智能实训课程。通过将 AI 大模型与具备 3D 视觉的机器人相结合,为学生搭建一个实践平台。
247 64
|
29天前
|
人工智能 安全 机器人
OpenAI重拾规则系统,用AI版机器人定律守护大模型安全
在人工智能领域,大语言模型(LLM)展现出强大的语言理解和生成能力,但也带来了安全性和可靠性挑战。OpenAI研究人员提出“规则基于奖励(RBR)”方法,通过明确规则引导LLM行为,确保其符合人类价值观和道德准则。实验显示,RBR方法在安全性与有用性之间取得了良好平衡,F1分数达97.1。然而,规则制定和维护复杂,且难以完全捕捉语言的多样性。论文:https://arxiv.org/pdf/2411.01111。
81 13
|
2月前
|
机器学习/深度学习 人工智能 监控
探索人工智能的伦理困境:我们如何确保AI的道德发展?
在人工智能(AI)技术飞速发展的今天,其伦理问题也日益凸显。本文将探讨AI伦理的重要性,分析当前面临的主要挑战,并提出相应的解决策略。我们将通过具体案例和代码示例,深入理解如何在设计和开发过程中嵌入伦理原则,以确保AI技术的健康发展。
73 11
|
2月前
|
人工智能 机器人 Shell
AI语音机器人安装方法 AI机器人安装代码
AI语音机器人安装方法 AI机器人安装代码
47 2
|
2月前
|
人工智能 自然语言处理 机器人
手把手带你搭建一个语音对话机器人,5分钟定制个人AI小助手(新手入门篇)
本文介绍了如何从零开始搭建一个语音对话机器人,涵盖自动语音识别(ASR)、自然语言处理(NLP)和文本到语音合成(TTS)三大核心模块。通过使用开源工具如FunASR、LLaMA3-8B和ChatTTS,以及FastAPI和Gradio等技术,详细指导读者轻松实现个人AI小助手的构建,适合技术新手快速上手。
595 1
|
3月前
|
人工智能 自动驾驶 数据安全/隐私保护
人工智能的伦理困境:我们如何确保AI的道德发展?
【10月更文挑战第21天】随着人工智能(AI)技术的飞速发展,其在各行各业的应用日益广泛,从而引发了关于AI伦理和道德问题的讨论。本文将探讨AI伦理的核心问题,分析当前面临的挑战,并提出确保AI道德发展的建议措施。
|
3月前
|
机器学习/深度学习 人工智能 自动驾驶
2024.10|AI/大模型在机器人/自动驾驶/智能驾舱领域的最新应用和深度洞察
本文介绍了AI和大模型在机器人、自动驾驶和智能座舱领域的最新应用和技术进展。涵盖多模态大语言模型在机器人控制中的应用、移动机器人(AMRs)的规模化部署、协作机器人的智能与安全性提升、AR/VR技术在机器人培训中的应用、数字孪生技术的优化作用、Rust语言在机器人编程中的崛起,以及大模型在自动驾驶中的核心地位、端到端自动驾驶解决方案、全球自动驾驶的前沿进展、智能座舱的核心技术演变和未来发展趋势。
311 2