分类预测 | MATLAB实现LSTM长短期记忆神经网络多特征分类预测

简介: 分类预测 | MATLAB实现LSTM长短期记忆神经网络多特征分类预测

✅作者简介:热爱科研的Matlab仿真开发者,修心和技术同步精进,matlab项目合作可私信。

🍎个人主页:Matlab科研工作室

🍊个人信条:格物致知。

更多Matlab仿真内容点击👇

智能优化算法  神经网络预测雷达通信 无线传感器

信号处理图像处理路径规划元胞自动机无人机 电力系统

⛄ 内容介绍

一种基于长短期记忆(LSTM)模型的多标签行业分类方法及装置,其方法包括:采集公司名,公司描述,公司经营范围数据;按类划分测试集,以及对所述采集的数据进行切分词等预处理操作;采用LSTM模型构建多个二分类器对所述预处理后的数据进行分类训练,以训练数据真实标签作为寻优方向,训练出多标签行业分类模型;以精度,召回率和F1值作为评估指标,实现对测试集数据的自动评估,并采集小部分新公司数据抽样进行人工评估,最终训练出精度更高的多标签行业分类模型;利用基于LSTM的多标签行业分类模型自动实现对待分类公司的多个行业标签预测.本发明的实施可大大降低人工标注成本,提高分类精度,且符合大多数公司非单一行业,而具有多个行业属性的情况.

⛄ 部分代码

% @=============================================================================

%

% Reference: Identifying Neuroimaging Biomarkers of Major Depressive Disorder

%            from Cortical Hemodynamic Responses

%            Using Machine Learning Approaches

%

% =============================================================================@

%

% This function is developed by Optical Imaging Lab, BME, NUS

% https://wiki.nus.edu.sg/display/OIL/NUS+Optical+Bioimaging+Laboratory

% The data is provided by fNIRS imaging team, iHealthTech, NUS

% https://ihealthtech.nus.edu.sg/

%

% @=============================================================================

function main()

   clc; clear; close all;

   

   % Add current path and all subfolders to the path.

   addpath(genpath(pwd));

   

   % -----------------------------------------------------------------

   % Pre-processed NIRS signals by: linear fitting, moving average, and

   %   removing artifact channels.

   % The generated ∆HbO dataset:

   %   samples_52ch_HbO.mat

   

   

   % -----------------------------------------------------------------

   % Three steps of fNRIS signals analysis for differing MDDs from HCs

   step = 3;

   

   if step == 1

       Method1_RankingFeatures();

       

   elseif step == 2

       Method2_GASelection();

       

   elseif step == 3

       Validation();

       

   end

   

end




%% ===================================================================

% Feature Selection Method I: Ranking Features by Statistical Test

%

function Method1_RankingFeatures()

   %   (1) A data matrix consists of 52 channels × 16 variables was extracted.

   %   (2) Statistical test was applied to find the significantly different

   %       channels on each variable, and subsequently generate feature channels

   %       as predictors for a classifier.

   stat_result = statistics_test_feature();

   % Results:

   %           Supplementary Figure 1 - Color Map

   %           Supplementary Figure 2 - count_sigdiff_channels

   %           Supplementary Table 3 - hc_cf_mstd, mdd_cf_mstd, pvalues_cluster

   

   

%     % generate feature set with significant difference

%     generate_sigdiff_feature(stat_result.feature_names, ...

%                               stat_result.diff_feature_cluster, ...

%                               stat_result.count_sigdiff_channels);

   


   %   (3) Five supervised models were implemented to learn pattern

   %       from feature channels

   %   (6)(10) Performances were evaluated by five-fold cross-validation and

   %       prediction accuracy

   data_type       = 'sigdiff_feature_topsigch';   % 'sigdiff_feature_topcluster'

   feature_type    = 'feature_channel';

   feature_fname   = 'featureset_sigdiff_5ch.mat';

   integral_type   = '';

   centroid_type   = '';

   model_type      = 'funcfit_nb';

   [pred_train, pred_test] = test_feature_performance(data_type, ...

                               feature_type, feature_fname, ...

                               integral_type, centroid_type, ...

                               model_type);

   % Result: Supplementary Table 6

   

   %   (10) performances were estimated by nested cross-validation

   [result_inner_cv, result_outer_train, result_outer_test] =      ...

                             nested_crossvalidation(data_type,     ...

                               feature_type, feature_fname,        ...

                               '', '', model_type);

   % Result: Supplementary Table 6

end



%% ===================================================================

% Feature Selection Method II: Two-phase Feature Selection by Genetic Algorithm

%    

function Method2_GASelection()

   % -------------- Phase-One --------------

   % The input is the candidate channels from one of the 10 significant variables,

   % while the output is a channel subset of the specific variable.

   % The optimization of channel selection was performed over all 10 variables.

   data_type       = 'integral';

   feature_type    = 'feature_channel';

   feature_fname   = '';

   integral_type   = 'integral_stim';

   centroid_type   = '';

   model_type      = 'funcfit_svm';

   func_pop        = @func_population_rand;

   binary_ga(data_type, feature_type, feature_fname, ...

               integral_type, centroid_type, model_type, func_pop);

   % Result: ga_ma50_integral_stim__svm_0.7316_0.7363.mat, etc.

   

   % -------------- Phase-Two --------------

   % The selected channel subsets from 10 significant variables were then

   % combined into a feature set, i.e., fusion features.

   generate_fusion_feature('svm');

   % Result: fusion_10variants_svm.mat, etc.

   

   % GA learned which feature channels contributed best to the accuracy

   % of a supervised model.

   data_type       = 'fusion_feature';

   feature_type    = 'feature_channel';

   feature_fname   = 'fusion_10variants_svm.mat';

   model_type      = 'funcfit_svm';

   func_pop        = @func_population_optm;

   binary_ga(data_type, feature_type, feature_fname, ...

                '', '', model_type, func_pop);

   % Results:  

   %           ga_fusion_features_svm_0.8053_0.7802.mat, etc.

   %           Supplementary Figure 3

end



%% ===================================================================

% Validate the Performance of Optimal Features

%

function Validation()

   % -----------------------------------------------------------------

   % Classification performances were reported by the

   % 5-fold cross-validation in training set and

   % prediction accuracy in test set.

   data_type       = 'ga_optimal_feature';

   feature_type    = 'feature_channel';

   feature_fname   = 'ga_fusion_features_svm_0.8053_0.7802.mat';

   model_type      = 'funcfit_svm';

   [pred_train, pred_test] = test_feature_performance(data_type,   ...

                               feature_type, feature_fname,        ...

                               '', '', model_type);

   % Result: TABLE 1 of main text

   

   % ----------------------------------------------------------------------

   % Classification performances were estimated by nested cross-validation

   [result_inner_cv, result_outer_train, result_outer_test] =      ...

                             nested_crossvalidation(data_type,     ...

                               feature_type, feature_fname,        ...

                               '', '', model_type);

   % Result: TABLE 1 of main text

   

   

   % -------------- Characteristics of optimal feature --------------

   p1_fus_feature_fname = 'fusion_10variants_svm.mat';

   p2_opt_feature_fname = 'ga_fusion_features_svm_0.8053_0.7802.mat';

   [pvalues_optfeatures, pvalues_roifeatures, ...

           hc_roi, mdd_roi, count_common_channels] = ...

       test_optimalfeature(p1_fus_feature_fname, p2_opt_feature_fname);

   % Results:

   %           Figure 2 of main text -- hc_roi, mdd_roi

   %           Figure 3 of main text -- count_common_channels

   %           Supplementary Table 4 -- hc_roi, mdd_roi, pvalues_roifeatures

   

   

   % -------------- Common features between different models --------------

%     test_common_features();

end

⛄ 运行结果

⛄ 参考文献

[1]易思宇. 基于LSTM心冲击信号的心率异常分类方法的研究.

[2]彭燕虹, 潘嵘, 周赖靖竞,等. 一种基于长短期记忆(LSTM)模型的多标签行业分类方法及装置:, CN106777335A[P]. 2017.

⛄ 完整代码

❤️部分理论引用网络文献,若有侵权联系博主删除
❤️ 关注我领取海量matlab电子书和数学建模资料


相关文章
|
2月前
|
机器学习/深度学习 算法 计算机视觉
基于CNN卷积神经网络的金融数据预测matlab仿真,对比BP,RBF,LSTM
本项目基于MATLAB2022A,利用CNN卷积神经网络对金融数据进行预测,并与BP、RBF和LSTM网络对比。核心程序通过处理历史价格数据,训练并测试各模型,展示预测结果及误差分析。CNN通过卷积层捕捉局部特征,BP网络学习非线性映射,RBF网络进行局部逼近,LSTM解决长序列预测中的梯度问题。实验结果表明各模型在金融数据预测中的表现差异。
161 10
|
4月前
|
机器学习/深度学习 TensorFlow 算法框架/工具
利用Python和TensorFlow构建简单神经网络进行图像分类
利用Python和TensorFlow构建简单神经网络进行图像分类
93 3
|
6月前
|
机器学习/深度学习 人工智能 算法
【新闻文本分类识别系统】Python+卷积神经网络算法+人工智能+深度学习+计算机毕设项目+Django网页界面平台
文本分类识别系统。本系统使用Python作为主要开发语言,首先收集了10种中文文本数据集("体育类", "财经类", "房产类", "家居类", "教育类", "科技类", "时尚类", "时政类", "游戏类", "娱乐类"),然后基于TensorFlow搭建CNN卷积神经网络算法模型。通过对数据集进行多轮迭代训练,最后得到一个识别精度较高的模型,并保存为本地的h5格式。然后使用Django开发Web网页端操作界面,实现用户上传一段文本识别其所属的类别。
182 1
【新闻文本分类识别系统】Python+卷积神经网络算法+人工智能+深度学习+计算机毕设项目+Django网页界面平台
|
5月前
|
机器学习/深度学习 PyTorch 算法框架/工具
深度学习入门案例:运用神经网络实现价格分类
深度学习入门案例:运用神经网络实现价格分类
|
6月前
|
机器学习/深度学习 数据采集 数据可视化
深度学习实践:构建并训练卷积神经网络(CNN)对CIFAR-10数据集进行分类
本文详细介绍如何使用PyTorch构建并训练卷积神经网络(CNN)对CIFAR-10数据集进行图像分类。从数据预处理、模型定义到训练过程及结果可视化,文章全面展示了深度学习项目的全流程。通过实际操作,读者可以深入了解CNN在图像分类任务中的应用,并掌握PyTorch的基本使用方法。希望本文为您的深度学习项目提供有价值的参考与启示。
|
7月前
|
机器学习/深度学习 人工智能 自然语言处理
7.1 NLP经典神经网络 RNN LSTM
该文章介绍了自然语言处理中的情感分析任务,探讨了如何使用深度神经网络,特别是循环神经网络(RNN)和长短时记忆网络(LSTM),来处理和分析文本数据中的复杂情感倾向。
|
8月前
|
机器学习/深度学习 数据采集 数据挖掘
Python实现循环神经网络RNN-LSTM回归模型项目实战(股票价格预测)
Python实现循环神经网络RNN-LSTM回归模型项目实战(股票价格预测)
|
7月前
|
安全
【2023高教社杯】D题 圈养湖羊的空间利用率 问题分析、数学模型及MATLAB代码
本文介绍了2023年高教社杯数学建模竞赛D题的圈养湖羊空间利用率问题,包括问题分析、数学模型建立和MATLAB代码实现,旨在优化养殖场的生产计划和空间利用效率。
282 6
【2023高教社杯】D题 圈养湖羊的空间利用率 问题分析、数学模型及MATLAB代码
|
7月前
|
存储 算法 搜索推荐
【2022年华为杯数学建模】B题 方形件组批优化问题 方案及MATLAB代码实现
本文提供了2022年华为杯数学建模竞赛B题的详细方案和MATLAB代码实现,包括方形件组批优化问题和排样优化问题,以及相关数学模型的建立和求解方法。
165 3
【2022年华为杯数学建模】B题 方形件组批优化问题 方案及MATLAB代码实现
|
7月前
|
数据采集 存储 移动开发
【2023五一杯数学建模】 B题 快递需求分析问题 建模方案及MATLAB实现代码
本文介绍了2023年五一杯数学建模竞赛B题的解题方法,详细阐述了如何通过数学建模和MATLAB编程来分析快递需求、预测运输数量、优化运输成本,并估计固定和非固定需求,提供了完整的建模方案和代码实现。
142 0
【2023五一杯数学建模】 B题 快递需求分析问题 建模方案及MATLAB实现代码

热门文章

最新文章