等等,那头猪还不想被吃!这个系统能读懂猪的6种情绪,读图3780张,成功率85%

简介: 等等,那头猪还不想被吃!这个系统能读懂猪的6种情绪,读图3780张,成功率85%

要说这养猪啊,最近可是发展得红红火火。

2019年,文摘菌就发现了一个奇奇怪怪的招聘,根据主营生猪养殖的牧原食品股份有限公司发布的校招计划,公司针对复旦学子发起“精英管培生”引进计划,给出的薪资标准为:本科生首年月薪20000+,硕士22000+,博士24000+。

这养猪还需要高科技人才了?

还真是这样。

2018年,阿里就宣布,要开启“智能养猪”计划。每一头猪从出生起就要被打上数字ID标签,并围绕此建立起品种、体重、进食情况、运动频次、轨迹、免疫情况等资料在内的数据档案。

农场内的摄像头还会自动扫描这些数字ID,用来观察记录分析小猪的活动情况。通过计算机视觉技术,还能分析出一只猪一天能走多少步——那些运动不够的猪需要被赶出去继续操练。

阿里并非独一家把目光放到了养猪上的大厂。

今年2月,华为也宣布,将通过ICT技术帮助猪场实现智能化养猪,为猪场提供传感器、物联网技术及平台,以实现数字猪场。

但是,俗话说得好,你穿秋裤有两个原因,一个是因为你觉得冷,一个是因为你妈觉得你冷。

要把猪养好,不真正了解它们的心理想法可是不行的。

于是,荷兰瓦赫宁根大学的一位博士Suresh Neethirajan就做了这么一件事。首先,他收集到了全世界6个农场中成千上万头猪的养殖数据,随后他凭此创建了一个AI系统WUR Wolf,用于识别猪的情绪状态。

据了解,在85%的时间内,系统的判断都是准确的。

他希望能够利用这个系统,更好地了解动物的感受,帮助改善他们的生活条件和生活质量。

当然,除了猪以外,这个系统对牛也是适用的。

目前,该项研究已经以论文的形式进行了发表,链接如下:

论文链接:
https://www.biorxiv.org/content/10.1101/2021.04.09.439122v1.full.pdf

从耳朵识情绪,你养的猪感受到压力了吗?

论文指出,该系统使用的3780张图像,来自于235头猪和210头牛。

拿到视频或图像后,我们还需要对这些数据进行一些预处理,包括检测面部、面部对齐,以及输入标准化。

收集到的数据根据时间戳和RFID标签和标记进行了标注,面部提取利用到了MIT的LabelImg代码,用于标注不同模型边界框的注释是按照每个模型的标准格式进行的。

然后,我们就需要把农场动物的情绪进行分类,比如猪有6种情绪,牛有3种情绪等,再根据牛、猪的耳朵姿势、眼白等面部特征的相关性,将采集到的分组图像数据集分为9类,包括放松、警惕、兴奋等。

具体而言,如果牛的耳朵直立着,那代表着它目前可能正感到兴奋,但是如果它的耳朵指向前方,那它很有可能正被沮丧等负面情绪困扰着。

与牛类似,要了解猪的情绪状态,也可以直接从耳朵入手。比如,如果猪的耳朵在快速抽动,那表示它们可能正感到压力,如果猪的耳朵垂悬着并朝眼睛的方向翻转,则表明它正处于一种中性状态(neutral state)。

在接受采访时,Neethirajan博士说到:“有必要从单纯消除消极的情绪状态的做法,转变为向动物提供积极的状态,例如嬉戏的行为。”

他认为,这项技术需要数年时间才能真正在农场上实用,不过这种持续的监测所带来的福利,可能比目前的检查和审计系统所能带来的还要高。

论文中写道:“追踪和分析动物的情绪将成为建立动物福利审核工具的一项突破。”

“动物行为领域的技术进步是提高人类对与之共享这个世界的385种动物的理解的巨大一步,但未来仍有较大的发展空间。”

从面部表情理解情绪状况,能做到吗?

但要准确理解动物的情绪,真的这么简单吗?

去年12月,根据一篇发表于Nature的论文表示,世界不同角落的人们在面对生活中最有意义的情境时,表达情感的方式存在相当高的普遍性。

加州大学伯克利分校和谷歌的研究人员使用了一种 “深度神经网络” 的机器学习技术,分析了上传到YouTube上的约600万个视频片段中的面部表情,这些视频来自全球各地144个国家。

同时,研究人员还创建了一个在线互动地图,展示了该算法如何跟踪与16种情绪相关的面部表情变化。

在把面部表情与不同世界地区的背景和场景联系起来后,研究人员发现,跨越地理和文化边界的人们,在不同社会背景下使用面部表情的方式具有显著的相似性。

无论身处世界各地,这16种面部表情都会出现在类似的情境中。

研究结果表明, 我们用来表达情绪反应的70%的表情是跨文化共享的。

但是,人类毕竟是一种复杂的生物。

如今,我们日常使用的表情包已经不能代表我们内心真正所想,那表情呢?

心理学家Jessica Tracy和Disa Sauter认为,要理解面部表情,我们需要建立一个信息丰富的情感分类系统,不能把幸福(happiness)视为单一的情感。

研究人员应该对情感类别进行分解,幸福(happiness)项下涵盖了joy(愉悦)、pleasure(满足)、compassion(同情)、自豪(pride)等,每种情感的表情可能不同,可能重合。

俄亥俄州立大学哥伦布分校研究面部表情的教授Aleix Martinez表示,自动情绪检测只能揭示一类人一般的情绪反应。

例如,面向营销机构销售软件Affectiva声称,系统接受了来自87个国家700多万张面孔的训练,准确率达到了90%以上。公司还标榜到,该软件有助于预测某类客户对一个产品或营销活动的反应。

面部表达情绪存在差异,但当一个人某种情绪发作时,出现某些面部形态无疑会更加频繁。然而,出于对训练算法的数据的顾虑,以及学界尚存争论的事实,对于这类软件的功能性,或许我们最好保持着批判与质疑的态度。

相关文章
|
5月前
|
人工智能
答案抽取正确率达96.88%,xFinder断了大模型作弊的小心思
【6月更文挑战第26天】xFinder模型针对大语言模型(LLMs)的评估难题,提出了强化答案抽取的解决方案,显著提高了准确性至93.42%,超过传统RegEx的74.38%。xFinder设计用于减少模型对特定答案格式的依赖,提升评估可靠性。尽管依赖大量标注数据和需持续优化,该工作为LLM评估提供了新标准[(arxiv.org/abs/2405.11874)]。
43 4
|
6月前
|
XML 计算机视觉 数据格式
寒假太无聊?不如几十行写个人脸检测
寒假太无聊?不如几十行写个人脸检测
|
数据采集 存储 调度
文章马伊琍离婚后微博评论太多了...用代码来解决吧
文章马伊琍离婚后微博评论太多了...用代码来解决吧
|
6月前
|
前端开发 测试技术 数据库
电影网上购票系统设计与实现(论文+系统)_kaic
电影网上购票系统设计与实现(论文+系统)_kaic
|
机器学习/深度学习 存储 人工智能
【OpenVI-视觉评价系列之MOS评价实战篇】手机存储不够用,清理照片太痛苦?MOS评价帮你挑选“垃圾”照片
MOS(Mean Opinion Score)是一种常用的主观质量评价方法,常用于视频、图像等多媒体领域中的质量评价。MOS视觉评价通常是通过让受试者观看视频/图像,对视频的清晰度、锐度、颜色饱和度、运动模糊、噪声等方面进行评价。然而,MOS视觉评价也存在一些局限,例如需要大量的受试者,评估时间较长等。因此,近年来,研究者们也开始探索使用客观评价方法来替代或补充MOS视觉评价。
508 2
【OpenVI-视觉评价系列之MOS评价实战篇】手机存储不够用,清理照片太痛苦?MOS评价帮你挑选“垃圾”照片
|
存储 编解码 运维
让数据说话,获得“原来如此”的答案
随着数据分析和人工智能技术的快速发展,让数据说话已经成为了一种新的趋势。数据不仅可以帮助我们发现问题,解决问题,还可以让我们获得“原来如此”的答案。尤其是在日常生活中,数据无处不在,而且我们生活中的点点滴滴都脱离不了数据,通过数据可以知道自己的消费情况,通过数据可以知道自己喜欢的电影类型,通过数据可以知道自己在日常工作中的任务进度,等等这些通过数据分析和洞察,可以让某些困惑“真相大白”。
184 0
让数据说话,获得“原来如此”的答案
(拯救选择困难症)随机选择今天中午吃啥
(拯救选择困难症)随机选择今天中午吃啥
(拯救选择困难症)随机选择今天中午吃啥
|
消息中间件 JavaScript 小程序
ChatGPT 连夜迭代:你老婆不好使了
ChatGPT 连夜迭代:你老婆不好使了
|
安全 数据管理 生物认证
“人脸识别第一案”宣判:谨记脸不要随便就“刷”,可能存在巨大隐患!
对于人脸识别技术,人们之所以焦虑,就在于其信息的不透明和不对称。
221 0
“人脸识别第一案”宣判:谨记脸不要随便就“刷”,可能存在巨大隐患!
|
机器学习/深度学习 人工智能 自然语言处理
用魔法打败魔法!用狗屁不通文章生成器写高三作文,评分软件给分84.4,打败73.5%学生
用魔法打败魔法!用狗屁不通文章生成器写高三作文,评分软件给分84.4,打败73.5%学生
328 0