相关性分析代码片段

简介:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
ldcca_tms = img_To_4D_array( 'C:\Users\Administrator\Desktop\contrast\2014-05-20-17-10.img' );
spm_tms = img_To_4D_array( 'C:\Users\Administrator\Desktop\contrast\no_phycaa.img' );
 
% x = size(spm_tms, 1 );
% y = size(spm_tms, 2 );
% z = size(spm_tms, 3 );
%
% %spm_tms_1d = reshape(spm_tms ,[ 1 ,x*y*z] );
%
%
% x = size(ldcca_tms, 1 );
% y = size(ldcca_tms, 2 );
% z = size(ldcca_tms, 3 );
%
% % ldcca_tms_1d = reshape( ldcca_tms , [ 1 ,x*y*z] );
 
 
mask_ldcca_tms = ldcca_tms >  0 ;
 
inv_mask_ldcca_tms = ~mask_ldcca_tms;
 
mask_spm_tms = spm_tms >  0 ;
 
inv_mask_spm_tms = ~mask_spm_tms;
 
 
%% 先提取出被去噪去除的点的时间过程  实验结果,去除了 435 个点,
 
% left_spm_tms = spm_tms(inv_mask_ldcca_tms);
 
tmp_spm = spm_tms .* inv_mask_ldcca_tms;
 
 
%>>这是最后的模板
mask_big_left_spm_tms = tmp_spm> 0 ;
 
% big_left_spm_tms = left_spm_tms(left_spm_tms> 0 );
 
 
% aa = size(big_left_spm_tms)
 
 
%% 利用我们的去噪算法,得到的新的点,一个点都没有增加
 
% left_ldcca_tms = ldcca_tms(ldcca_tms);
 
tmp_ldcca = ldcca_tms .* inv_mask_spm_tms;
 
%>>这是最后的模板
mask_big_left_ldcca_tms = tmp_ldcca >  0 ;
 
  tmp_ldcca_data = tmp_ldcca> 0 ;
  
  tmp_ldcca_data_sum = size( tmp_ldcca(tmp_ldcca_data))
 
% big_left_ldcca_tms = left_ldcca_tms( left_ldcca_tms> 0  );
 
% bb = size(big_left_ldcca_tms)
 
 
 
%% 提取被去除的点的时间过程
%--brain functional 4d data
 
datacell_4d   = load_untouch_nii( 'C:\Users\Administrator\Desktop\workspace\phycaa_plus_2104_03_27\func_4d.nii' );
 
 
ldim = size(datacell_4d.img);
 
 
fullMsk = repmat( mask_big_left_spm_tms, [ 1 , 1 , 1 ,ldim( 4 )] );
 
 
 
  nii     = V; % copy nifti struct
  nii.img = fullMsk; % replace volume
                 
%nii.hdr.dime.dim( 5 ) = size(TMPVOL, 4 ); % adjust  for  #timepoints
           
save_untouch_nii(nii, 'mask_left_spm_tms_2d.nii' );
 
 
 
 
 
 
 
 
 
 
 
left_spm_tms_2d = reshape( datacell_4d.img(fullMsk> 0 ), [], ldim( 4 ) );
 
inv_fullMsk =  repmat( mask_spm_tms.*(~mask_big_left_spm_tms), [ 1 , 1 , 1 ,ldim( 4 )] );
inv_left_spm_tms_2d = reshape( datacell_4d.img(inv_fullMsk> 0 ), [], ldim( 4 ) );
 
 
 
  nii     = V; % copy nifti struct
  nii.img = inv_fullMsk; % replace volume
                 
%nii.hdr.dime.dim( 5 ) = size(TMPVOL, 4 ); % adjust  for  #timepoints
           
save_untouch_nii(nii, 'inv_left_spm_tms_2d.nii' );
 
 
%% 计算相关系数
reference_stimulus =[
     0  0  0  0  0  0  0  0  0  0  ...
     1  1  1  1  1  1  1  1  1  1  ...
     0  0  0  0  0  0  0  0  0  0  ...
     1  1  1  1  1  1  1  1  1  1  ...
     0  0  0  0  0  0  0  0  0  0  ...
     1  1  1  1  1  1  1  1  1  1  ...
     0  0  0  0  0  0  0  0  0  0
];
 
corr_left_spms=[];
intensitivity_spms=[];
 
for  i =  1 :size(left_spm_tms_2d, 1 )
    
%     corr_left_spms{i} = corrcoef(reference_stimulus ' , left_spm_tms_2d(i,:)' );
     corr_left_spms(i)= corr2(reference_stimulus ' , left_spm_tms_2d(i,:)' );
     intensitivity_spms(i)=mean( left_spm_tms_2d(i,:) );
end
 
mean_corr = mean(corr_left_spms);
median_corr = median(corr_left_spms);
min_corr = min(corr_left_spms);
 
max_corr = max(corr_left_spms);
 
 
%max_mask = ;
 
 
 
 
 
 
mean_intensitivity = mean(intensitivity_spms);
median_intensitivity = median(intensitivity_spms);
min_intensitivity = min(intensitivity_spms);
 
 
inv_corr_left_spms=[];
 
 
for  i =  1 :size(left_spm_tms_2d, 1 )
    
%     corr_left_spms{i} = corrcoef(reference_stimulus ' , left_spm_tms_2d(i,:)' );
     inv_corr_left_spms(i)= corr2(reference_stimulus ' , inv_left_spm_tms_2d(i,:)' );
     inv_intensitivity_spms(i)=mean( inv_left_spm_tms_2d(i,:) );
end
 
inv_mean_corr = mean(inv_corr_left_spms);
inv_median_corr = median(inv_corr_left_spms);
inv_min_corr = min(inv_corr_left_spms);
 
inv_max_corr = max(inv_corr_left_spms);
 
 
inv_mean_intensitivity = mean(inv_intensitivity_spms);
inv_median_intensitivity = median(inv_intensitivity_spms);
inv_min_intensitivity = min(inv_intensitivity_spms);
 
 
big_than_inv_min_corr = sum(  double ( corr_left_spms >inv_min_corr ));

  

本文转自二郎三郎博客园博客,原文链接:http://www.cnblogs.com/haore147/p/3795810.html,如需转载请自行联系原作者
相关文章
|
5月前
|
机器学习/深度学习
R语言使用 LOWESS技术图分析逻辑回归中的函数形式
R语言使用 LOWESS技术图分析逻辑回归中的函数形式
|
5月前
|
机器学习/深度学习 运维 算法
【视频】检测异常值的4种方法和R语言时间序列分解异常检测
【视频】检测异常值的4种方法和R语言时间序列分解异常检测
|
5月前
|
数据可视化 数据挖掘
Seaborn中的分类图:直观展示分类数据的差异
【4月更文挑战第17天】Seaborn是数据分析中的利器,尤其在展示分类数据差异方面。本文介绍了5种主要图表类型:1) 使用`barplot`创建条形图,便于比较不同分类的数值差异;2) `boxplot`生成箱线图,展示数据分布和离散程度;3) `stripplot`和`swarmplot`显示单个观测值分布,理解分类内变异性和差异;4) `scatterplot`结合`hue`参数,呈现分类在连续变量关系中的差异;5) 自定义分类图,调整样式以满足特定需求。通过这些图表,可以更深入地分析和传达分类数据的特性。
|
5月前
|
机器学习/深度学习 数据挖掘 BI
【数据挖掘】回归分析定义、概念、分类、过程讲解(图文解释 超详细)
【数据挖掘】回归分析定义、概念、分类、过程讲解(图文解释 超详细)
241 0
|
5月前
SPSS两变量相关性分析
SPSS两变量相关性分析
99 0
|
10月前
|
机器学习/深度学习 数据挖掘 Python
统计回归模型中的一些概念解释
统计回归模型中的一些概念解释
112 0
|
12月前
|
数据采集 机器学习/深度学习 数据处理
类别数据处理:你必须知道的技巧与方法
类别数据处理:你必须知道的技巧与方法
118 0
|
机器学习/深度学习 算法 数据挖掘
书写自动智慧文本分类器的开发与应用:支持多分类、多标签分类、多层级分类和Kmeans聚类
书写自动智慧文本分类器的开发与应用:支持多分类、多标签分类、多层级分类和Kmeans聚类
书写自动智慧文本分类器的开发与应用:支持多分类、多标签分类、多层级分类和Kmeans聚类
|
数据采集 机器学习/深度学习 自然语言处理
实现文本数据数值化、方便后续进行回归分析等目的,需要对文本数据进行多标签分类和关系抽取
实现文本数据数值化、方便后续进行回归分析等目的,需要对文本数据进行多标签分类和关系抽取
186 0
|
机器学习/深度学习 数据可视化 数据挖掘
8种交叉验证类型的深入解释和可视化介绍
8种交叉验证类型的深入解释和可视化介绍
290 3
8种交叉验证类型的深入解释和可视化介绍
下一篇
无影云桌面