PRICAI 2016 论文精选 | 基于稀松K-SVD算法的自发性微表情识别

简介:

随着信息采集技术和传感器技术的迅速发展,利用计算机视觉技术识别微表情的相关研究实验已经越来越多。这些试验中,实际获取的图像数据的维数越来越高,如何有效地描述图像,方便后续处理,已成为图像处理、模式识别、机器学习等领域急需要解决的问题之一。在已有的众多的方法中,稀疏算法以其鲁棒性好、泛化能力和抗干扰能力强等优势,已成为目前研究的热点。本文被 PRICAI 2016 大会收录,探讨了基于稀松K-SVD算法的自发性微表情识别。

PRICAI 2016 论文精选 | 基于稀松K-SVD算法的自发性微表情识别

标题:基于稀松K-SVD算法的自发性微表情识别

摘要:微表情识别因为太过细微,一直是计算机视觉领域一个具有挑战性的问题,但往往很难隐藏。本文提出了一种稀松K-SVD算法(RK-SVD)来学习用于自发性微表情识别的稀疏字典。在RK-SVD中,考虑到重建误差和分类误差,将稀疏系数的方差最小化来处理同类相似性和异类差异性。通过K-SVD算法和随机梯度下降算法实现优化。最后,一个单独的过完备词典和一个最优线性分类器同时被学习。实验结果基于两个自发性微表情数据库,CASME和CASME II,表明新算法的性能优于其他先进算法。

关键词:K-SVD相关;字典学习;微表情识别


第一作者简介:

Hao Zheng

南京晓庄学院,信息工程学院,可信云计算和大数据分析重点实验室;

东南大学,计算机科学与工程学院,计算机网络及信息集成教育部重点实验室;

新型软件技术省级重点实验室。


via PRICAI 2016

论文原文件下载

雷锋网按: 本文由雷锋网(公众号:雷锋网)独家编译,未经许可禁止转载!

PRICAI 2016 论文精选 | 基于稀松K-SVD算法的自发性微表情识别


本文作者:陈杨英杰


本文转自雷锋网禁止二次转载,原文链接

相关文章
|
2月前
|
存储 机器学习/深度学习 编解码
双选择性信道下正交啁啾分复用(OCDM)的低复杂度均衡算法研究——论文阅读
本文提出统一相位正交啁啾分复用(UP-OCDM)方案,利用循环矩阵特性设计两种低复杂度均衡算法:基于带状近似的LDL^H分解和基于BEM的迭代LSQR,将复杂度由$O(N^3)$降至$O(NQ^2)$或$O(iNM\log N)$,在双选择性信道下显著提升高频谱效率与抗多普勒性能。
211 0
双选择性信道下正交啁啾分复用(OCDM)的低复杂度均衡算法研究——论文阅读
|
4月前
|
机器学习/深度学习 算法 数据挖掘
没发论文的注意啦!重磅更新!GWO-BP-AdaBoost预测!灰狼优化、人工神经网络与AdaBoost集成学习算法预测研究(Matlab代码实现)
没发论文的注意啦!重磅更新!GWO-BP-AdaBoost预测!灰狼优化、人工神经网络与AdaBoost集成学习算法预测研究(Matlab代码实现)
181 0
|
3月前
|
传感器 资源调度 算法
DDMA-MIMO雷达多子带相干累积目标检测算法——论文阅读
本文提出一种多子带相干累积(MSCA)算法,通过引入空带和子带相干处理,解决DDMA-MIMO雷达的多普勒模糊与能量分散问题。该方法在低信噪比下显著提升检测性能,实测验证可有效恢复目标速度,适用于车载雷达高精度感知。
542 4
DDMA-MIMO雷达多子带相干累积目标检测算法——论文阅读
|
3月前
|
机器学习/深度学习 算法 算法框架/工具
256KB内存约束下的设备端训练:算法与系统协同设计——论文解读
MIT与MIT-IBM Watson AI Lab团队提出一种创新方法,在仅256KB SRAM和1MB Flash的微控制器上实现深度神经网络训练。该研究通过量化感知缩放(QAS)、稀疏层/张量更新及算子重排序等技术,将内存占用降至141KB,较传统框架减少2300倍,首次突破设备端训练的内存瓶颈,推动边缘智能发展。
286 6
|
4月前
|
人工智能 算法 安全
【博士论文】基于局部中心量度的聚类算法研究(Matlab代码实现)
【博士论文】基于局部中心量度的聚类算法研究(Matlab代码实现)
165 0
|
8月前
|
机器学习/深度学习 人工智能 JSON
这个AI把arXiv变成代码工厂,快速复现顶会算法!Paper2Code:AI论文自动转代码神器,多智能体框架颠覆科研复现
Paper2Code是由韩国科学技术院与DeepAuto.ai联合开发的多智能体框架,通过规划、分析和代码生成三阶段流程,将机器学习论文自动转化为可执行代码仓库,显著提升科研复现效率。
1057 19
这个AI把arXiv变成代码工厂,快速复现顶会算法!Paper2Code:AI论文自动转代码神器,多智能体框架颠覆科研复现
|
12月前
|
机器学习/深度学习 自然语言处理 算法
调研180多篇论文,这篇综述终于把大模型做算法设计理清了
《A Systematic Survey on Large Language Models for Algorithm Design》综述了过去三年大型语言模型(LLMs)在算法设计中的应用。LLMs通过自然语言处理技术,助力生成、优化和验证算法,在优化、机器学习、数学推理等领域展现出广泛应用前景。尽管存在资源需求高、结果不确定等挑战,LLMs仍为算法设计带来新机遇。论文地址:https://arxiv.org/abs/2410.14716。
393 14
|
2月前
|
机器学习/深度学习 算法 机器人
【水下图像增强融合算法】基于融合的水下图像与视频增强研究(Matlab代码实现)
【水下图像增强融合算法】基于融合的水下图像与视频增强研究(Matlab代码实现)
280 0
|
2月前
|
数据采集 分布式计算 并行计算
mRMR算法实现特征选择-MATLAB
mRMR算法实现特征选择-MATLAB
213 2
|
3月前
|
传感器 机器学习/深度学习 编解码
MATLAB|主动噪声和振动控制算法——对较大的次级路径变化具有鲁棒性
MATLAB|主动噪声和振动控制算法——对较大的次级路径变化具有鲁棒性
227 3

热门文章

最新文章