PRICAI 2016 论文精选 | 基于稀松K-SVD算法的自发性微表情识别

简介:

随着信息采集技术和传感器技术的迅速发展,利用计算机视觉技术识别微表情的相关研究实验已经越来越多。这些试验中,实际获取的图像数据的维数越来越高,如何有效地描述图像,方便后续处理,已成为图像处理、模式识别、机器学习等领域急需要解决的问题之一。在已有的众多的方法中,稀疏算法以其鲁棒性好、泛化能力和抗干扰能力强等优势,已成为目前研究的热点。本文被 PRICAI 2016 大会收录,探讨了基于稀松K-SVD算法的自发性微表情识别。

PRICAI 2016 论文精选 | 基于稀松K-SVD算法的自发性微表情识别

标题:基于稀松K-SVD算法的自发性微表情识别

摘要:微表情识别因为太过细微,一直是计算机视觉领域一个具有挑战性的问题,但往往很难隐藏。本文提出了一种稀松K-SVD算法(RK-SVD)来学习用于自发性微表情识别的稀疏字典。在RK-SVD中,考虑到重建误差和分类误差,将稀疏系数的方差最小化来处理同类相似性和异类差异性。通过K-SVD算法和随机梯度下降算法实现优化。最后,一个单独的过完备词典和一个最优线性分类器同时被学习。实验结果基于两个自发性微表情数据库,CASME和CASME II,表明新算法的性能优于其他先进算法。

关键词:K-SVD相关;字典学习;微表情识别


第一作者简介:

Hao Zheng

南京晓庄学院,信息工程学院,可信云计算和大数据分析重点实验室;

东南大学,计算机科学与工程学院,计算机网络及信息集成教育部重点实验室;

新型软件技术省级重点实验室。


via PRICAI 2016

论文原文件下载

雷锋网按: 本文由雷锋网(公众号:雷锋网)独家编译,未经许可禁止转载!

PRICAI 2016 论文精选 | 基于稀松K-SVD算法的自发性微表情识别


本文作者:陈杨英杰


本文转自雷锋网禁止二次转载,原文链接

相关文章
|
6天前
|
机器学习/深度学习 自然语言处理 算法
调研180多篇论文,这篇综述终于把大模型做算法设计理清了
《A Systematic Survey on Large Language Models for Algorithm Design》综述了过去三年大型语言模型(LLMs)在算法设计中的应用。LLMs通过自然语言处理技术,助力生成、优化和验证算法,在优化、机器学习、数学推理等领域展现出广泛应用前景。尽管存在资源需求高、结果不确定等挑战,LLMs仍为算法设计带来新机遇。论文地址:https://arxiv.org/abs/2410.14716。
35 14
|
2月前
|
机器学习/深度学习 安全 算法
计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-23(下)
计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-23(下)
54 0
|
2月前
|
安全 搜索推荐 算法
计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-23(上)
计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-23(上)
40 0
|
2月前
|
自然语言处理 搜索推荐 算法
计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-21(下)
计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-21(下)
42 0
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-21(上)
计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-21(上)
34 0
|
2月前
|
机器学习/深度学习 人工智能 算法
计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-20(下)
计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-20(下)
31 0
|
2月前
|
机器学习/深度学习 存储 人工智能
计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-20(上)
计算机前沿技术-人工智能算法-大语言模型-最新论文阅读-2024-09-20(上)
32 0
|
6天前
|
机器学习/深度学习 算法
基于改进遗传优化的BP神经网络金融序列预测算法matlab仿真
本项目基于改进遗传优化的BP神经网络进行金融序列预测,使用MATLAB2022A实现。通过对比BP神经网络、遗传优化BP神经网络及改进遗传优化BP神经网络,展示了三者的误差和预测曲线差异。核心程序结合遗传算法(GA)与BP神经网络,利用GA优化BP网络的初始权重和阈值,提高预测精度。GA通过选择、交叉、变异操作迭代优化,防止局部收敛,增强模型对金融市场复杂性和不确定性的适应能力。
124 80
|
2天前
|
机器学习/深度学习 数据采集 算法
基于PSO粒子群优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目展示了基于PSO优化的CNN-GRU-SAM网络在时间序列预测中的应用。算法通过卷积层、GRU层、自注意力机制层提取特征,结合粒子群优化提升预测准确性。完整程序运行效果无水印,提供Matlab2022a版本代码,含详细中文注释和操作视频。适用于金融市场、气象预报等领域,有效处理非线性数据,提高预测稳定性和效率。
|
3天前
|
机器学习/深度学习 算法 索引
单目标问题的烟花优化算法求解matlab仿真,对比PSO和GA
本项目使用FW烟花优化算法求解单目标问题,并在MATLAB2022A中实现仿真,对比PSO和GA的性能。核心代码展示了适应度计算、火花生成及位置约束等关键步骤。最终通过收敛曲线对比三种算法的优化效果。烟花优化算法模拟烟花爆炸过程,探索搜索空间,寻找全局最优解,适用于复杂非线性问题。PSO和GA则分别适合快速收敛和大解空间的问题。参数调整和算法特性分析显示了各自的优势与局限。

热门文章

最新文章