m基于GRNN广义回归神经网络和HOG特征提取的人体姿态检测识别matlab仿真,样本集为TOF深度图
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了m基于GRNN广义回归神经网络和HOG特征提取的人体姿态检测识别matlab仿真,样本集为TOF深度图相关的知识,希望对你有一定的参考价值。
1.算法描述 GRNN建立在非参数核回归基础上,以样本数据为后验条件,通过执行诸如Parzen非参数估计,从观测样本里求得自变量和因变量之间的联结概率密度函数之后,直接计算出因变量对自变量的回归值。GRNN不需要设定模型的形式,但是其隐回归单元的核函数中有光滑因子,它们的取对网络有很大影响,需优化取值。GRNNb论具有良好的函数逼近性能,而且因为其网络训练更为方便,因此,GRNN在信号过程、结构分析、控制决策系统、金融领域、生物工程领域等各个科学和工程领域得到了广泛的应用。
广义回归神经网络的理论基础是非线性核回归分析,非独立变量y相对于独立变量x的回归分析实际上是计算具有最大概率值的y。设随机变量x和y的联合概率密度函数为f (x ,y),已知x的观测值为X,则y相对于X的回归,即条件均值为:
对于未知的概率密度函数f (x, y),可由x和y的观测样本经非参数估计得:
GRNN通常被用来进行函数逼近。它具有一个径向基隐含层和一个特殊的线性层。第一层和第二层的神经元数目都与输入的样本向量对的数目相等。GRNN结构如图所示,整个网络包括四层神经元:输入层、模式层、求和层与输出层。
输入层的神经元数目与学习样本中输入向量的维数m相等,每个神经元都是一个简单的分布单元,这些神经元直接将输入变量传递到隐含层中。
方向梯度直方图,也称为HOG,是一种特征描述符,类似于Canny边缘检测器。它用于计算机视觉和图像处理中的目标检测。
该技术统计图像局部区域中梯度方向的出现次数。该方法类似于边缘方向直方图和尺度不变特征变换(SIFT)。
HOG描述符关注对象的结构或形状。它比任何边缘描述符都好,因为它使用梯度的大小和角度来计算特征。对于图像区域,它使用梯度的大小和方向生成直方图。
2.仿真效果预览 matlab2022a仿真结果如下:
这里,通过TOF深度图拍摄相机获得人体不同动作姿态的深度图,其分辨率为1024*768,然后通过MATLAB软件设计本文所提出的动作姿态识别算法,通过该算法对TOF深度图进行识别,最后获得识别率。
1). TOF深度图的采集;
通过实验室的TOF深度图拍摄相机对不同人体动作姿态进行拍摄,获得一组动作姿态的连续图像序列。
2). TOF深度图的预处理;
对TOF深度图进行预处理,预处理主要通过MATLAB编程实现图像的预处理算法,主要包括图像灰度化,图像滤波去噪以及目标的提取等操作。
3). 特征数据获取;
对步骤2中获得的目标图像进行特征提取,将测试图像的特征数据随机分为两组,将一种一部分作为训练数据,另外一部分作为测试数据。
4). 数据训练;
通过训练算法对特征数据进行训练,获得识别模型。
5). 对未知数据的测试和识别;
3.MATLAB核心程序
%第一步由于采集到的深度图有的地方的深度值为零,首先用最邻近差值算法将为零的深度值用其周围的点代替
I2 = func_nearest_Interpolation(I1);
subplot(222);
imshow(uint8(I2));
title(最邻近差值图像);
%第二步:用中值滤波算法对上一步骤获得的图像进行处理,去噪声;
L = 5;
I3 = uint8(medfilt2(I2,[L,L]));
subplot(223);
imshow(I3);
title(中值滤波);
%第三步:获得二值图
I4(1:floor(5*R1/7),:) = im2bw(I3(1:floor(5*R1/7),:) , 0.9*graythresh(I3(1:floor(5*R1/7),:)));
I4(1+floor(5*R1/7):R1,:) = im2bw(I3(1+floor(5*R1/7):R1,:),1.25*graythresh(I3(1+floor(5*R1/7):R1,:)));
subplot(224);
imshow(I4);
title(二值图);
%第四步:边缘图
I5 = edge(I4,canny);
%第5步:提取上半身
[Is,indy] = func_bodycatch(I4);
Is2 = bwareaopen(Is,4000);
figure(2);
subplot(121);
imshow(Is);
title(提取上半身);
[RX,CX]= size(Is2);
IIIs = zeros(RX,CX);
for iii = 1:RX
for jjj = 1:CX
if Is2(iii,jjj) == 1
IIIs(iii,jjj) = I3(iii,jjj);
end
end
end
subplot(122);
imshow(uint8(IIIs));
title(提取上半身);
%人体的提取
ff = uint8(255*Is2);
[rows,cols] = size(ff);
[Ls,n] = bwlabel(ff);
X1 = [];
X2 = [];
Y1 = [];
Y2 = [];
flag = 0;
L1 = zeros(R,C,3);
S = [];
for i=1:n
[r,c] = find(Ls==i);
a1(i) = max(r);
a2(i) = min(r);
b1(i) = max(c);
b2(i) = min(c);
w(i) = b1(i)-b2(i);
h(i) = a1(i)-a2(i);
S(i) = w(i)*h(i);
X1 = [X1,a2(i)];
X2 = [X2,a1(i)];
Y1 = [Y1,b2(i)];
Y2 = [Y2,b1(i)];
L1(a2(i):a2(i)+2,b2(i):b1(i),1) = 0;
L1(a2(i):a2(i)+2,b2(i):b1(i),2) = 0;
L1(a2(i):a2(i)+2,b2(i):b1(i),3) = 255;
L1(1.2*a1(i)-2:1.2*a1(i),b2(i):b1(i),1) = 0;
L1(1.2*a1(i)-2:1.2*a1(i),b2(i):b1(i),2) = 0;
L1(1.2*a1(i)-2:1.2*a1(i),b2(i):b1(i),3) = 255;
L1(a2(i):1.2*a1(i),b1(i)-2:b1(i),1) = 0;
L1(a2(i):1.2*a1(i),b1(i)-2:b1(i),2) = 0;
L1(a2(i):1.2*a1(i),b1(i)-2:b1(i),3) = 255;
L1(a2(i):1.2*a1(i),b2(i):b2(i)+2,1) = 0;
L1(a2(i):1.2*a1(i),b2(i):b2(i)+2,2) = 0;
L1(a2(i):1.2*a1(i),b2(i):b2(i)+2,3) = 255;
end
if length(S) > 1
LL = L1;
[V,I] = sort(S);
inds = I(end-1:end);
[RR,CC] = size(Is2);
IF = zeros(RR,CC);
for i = 1:RR
for j = 1:CC
if Is2(i,j) == 1
IF(i,j) = I1(i,j);
else
IF(i,j) = 0;
end
end
end
if X1(inds(1)) < X1(inds(2))
IF1 = IF(X1(inds(1)):min(X2(inds(1)),RR),Y1(inds(1)):Y2(inds(1)));
XC1 = Y2(inds(1));
YC1 = X1(inds(1));
IF2 = IF(X1(inds(2)):min(X2(inds(2)),RR),Y1(inds(2)):Y2(inds(2)));
XC2 = Y2(inds(2));
YC2 = X1(inds(2));
else
IF2 = IF(X1(inds(1)):min(X2(inds(1)),RR),Y1(inds(1)):Y2(inds(1)));
XC2 = Y2(inds(1));
YC2 = X1(inds(1));
IF1 = IF(X1(inds(2)):min(X2(inds(2)),RR),Y1(inds(2)):Y2(inds(2)));
XC1 = Y2(inds(2));
YC1 = X1(inds(2));
end
end
if length(S) == 1
[IF1,IF2,CUT,IFS,L1] = func_body_fenge(Is2,X1,X2,Y1,Y2);
LL = L1;
XC1 = Y2-30;
YC1 = X1;
XC2 = CUT-30;
YC2 = X1;
end
基于GRNN广义回归神经网络的飞机引擎剩余使用周期预测算法的研究
目录
作者ID :fpga和matlab
CSDN主页:https://blog.csdn.net/ccsss22?type=blog
擅长技术:
1.无线基带,无线图传,编解码
2.机器视觉,图像处理,三维重建
3.人工智能,深度学习
4.智能控制,智能优化
5.其他
一、理论基础
1.1数据分析
1) unit number
2) time, in cycles
3) operational setting 1
4) operational setting 2
5) operational setting 3
6) sensor measurement 1
7) sensor measurement 2
...
26) sensor measurement 26
数据第一列是机器的编号,第二列是每个机器的运行的时间序列标号,3~5是对应的设置,6~最后一列是传感器的测量值。
数据举例:
1 1 -0.0007 -0.0004 100.0 518.67 641.82 1589.70 1400.60 14.62 21.61 554.36 2388.06 9046.19 1.30 47.47 521.66 2388.02 8138.62 8.4195 0.03 392 2388 100.00 39.06 23.4190
1 2 0.0019 -0.0003 100.0 518.67 642.15 1591.82 1403.14 14.62 21.61 553.75 2388.04 9044.07 1.30 47.49 522.28 2388.07 8131.49 8.4318 0.03 392 2388 100.00 39.00 23.4236
1 3 -0.0043 0.0003 100.0 518.67 642.35 1587.99 1404.20 14.62 21.61 554.26 2388.08 9052.94 1.30 47.27 522.42 2388.03 8133.23 8.4178 0.03 390 2388 100.00 38.95 23.3442
1 4 0.0007 0.0000 100.0 518.67 642.35 1582.79 1401.87 14.62 21.61 554.45 2388.11 9049.48 1.30 47.13 522.86 2388.08 8133.83 8.3682 0.03 392 2388 100.00 38.88 23.3739
1 5 -0.0019 -0.0002 100.0 518.67 642.37 1582.85 1406.22 14.62 21.61 554.00 2388.06 9055.15 1.30 47.28 522.19 2388.04 8133.80 8.4294 0.03 393 2388 100.00 38.90 23.4044
1 6 -0.0043 -0.0001 100.0 518.67 642.10 1584.47 1398.37 14.62 21.61 554.67 2388.02 9049.68 1.30 47.16 521.68 2388.03 8132.85 8.4108 0.03 391 2388 100.00 38.98 23.3669
1 7 0.0010 0.0001 100.0 518.67 642.48 1592.32 1397.77 14.62 21.61 554.34 2388.02 9059.13 1.30 47.36 522.32 2388.03 8132.32 8.3974 0.03 392 2388 100.00 39.10 23.3774
1 8 -0.0034 0.0003 100.0 518.67 642.56 1582.96 1400.97 14.62 21.61 553.85 2388.00 9040.80 1.30 47.24 522.47 2388.03 8131.07 8.4076 0.03 391 2388 100.00 38.97 23.3106
1 9 0.0008 0.0001 100.0 518.67 642.12 1590.98 1394.80 14.62 21.61 553.69 2388.05 9046.46 1.30 47.29 521.79 2388.05 8125.69 8.3728 0.03 392 2388 100.00 39.05 23.4066
1 10 -0.0033 0.0001 100.0 518.67 641.71 1591.24 1400.46 14.62 21.61 553.59 2388.05 9051.70 1.30 47.03 521.79 2388.06 8129.38 8.4286 0.03 393 2388 100.00 38.95 23.4694
1.2特征提取
这里,数据的维度较高,不直接使用数据进行训练,需要从数据矩阵中提取有效的特征数据作为训练特征数据。使用PCA降维算法。这个算法比较常用,主要是将高维的矩阵数据转换为低维度的特征数据。
1.3GRNN
GRNN建立在非参数核回归基础上,以样本数据为后验条件,通过执行诸如Parzen非参数估计,从观测样本里求得自变量和因变量之间的联结概率密度函数之后,直接计算出因变量对自变量的回归值。GRNN不需要设定模型的形式,但是其隐回归单元的核函数中有光滑因子,它们的取值对网络有很大影响,需优化取值。
GRNN论具有良好的函数逼近性能,而且因为其网络训练更为方便,因此,GRNN在信号过程、结构分析、控制决策系统、金融领域、生物工程领域等各个科学和工程领域得到了广泛的应用。
GRNN通常被用来进行函数逼近。它具有一个径向基隐含层和一个特殊的线性层。第一层和第二层的神经元数目都与输入的样本向量对的数目相等。GRNN结构如图所示,整个网络包括四层神经元:输入层、模式层、求和层与输出层。
输入层的神经元数目与学习样本中输入向量的维数m相等,每个神经元都是一个简单的分布单元,这些神经元直接将输入变量传递到隐含层中。
二、核心程序
clc;
clear;
close all;
warning off;
addpath 'func\\'
%%
%Step1
STR = 1;
Name_Test = ['data\\00',num2str(STR),'\\','test_FD00',num2str(STR),'.txt'];
Name_RUL = ['data\\00',num2str(STR),'\\','RUL_FD00',num2str(STR),'.txt'];
%读取数据
Data_Test = load(Name_Test);
Data_RUL = load(Name_RUL);
%%
%Step2
%计算每个机器的时间
%得到机器编号
Mach_No = unique(Data_Test(:,1));
ind = 0;
for i = Mach_No(1):Mach_No(end)
ind = ind+1;
Index = find(Data_Test(:,1) == i);
%平滑预处理
used = [7,8,9,12,13,14,16,17,18];
tmps = Data_Test(Index,used);
[R,C] = size(tmps);
dout = zeros(R,C);
for mm = 1:C
dout(:,mm) = [func_smooth(tmps(:,mm),32)]';
end
Mach_Infoind = dout;
end
%%
%Step3
%特征提取
P = [];
for i = 1:length(Mach_No)
tmps = Mach_Infoi;
Y = func_pca(tmps',1);
Y = Y';
for j = 1:length(Y)
P = [P;Mach_Infoi(j,1:6),Y(j,:)];
end
end
%%
%Step4
%使用神经网络进行训练
load train_net.mat
y = sim(net,P');
%计算预测得到的剩余寿命
for i = 1:length(Mach_No)
if i == 1
L1 = 1;
L2 = length(Mach_Infoi);
else
L1 = L2+1;
L2 = L1+length(Mach_Infoi)-1;
end
L = L2 - L1+1;
RULs(i) = abs(round((sum(y(L1:L2))-(1+L)*L/2)/L));
end
figure;
plot(RULs,'b-o');
hold on
plot(Data_RUL,'r-o');
legend('预测结果','真实结果');
disp('误差为:');
mean(abs(RULs'-Data_RUL))
三、仿真测试结果
A05-21
以上是关于m基于GRNN广义回归神经网络和HOG特征提取的人体姿态检测识别matlab仿真,样本集为TOF深度图的主要内容,如果未能解决你的问题,请参考以下文章
基于GRNN广义回归神经网络的飞机引擎剩余使用周期预测算法的研究
使用ORL人脸库,通过GRNN网络和HOG特征提取的人脸识别算法matlab仿真
基于TOF数据库和RGB-D的HOG特征提取和GRNN网络人体姿态识别方法研究
基于GRNN广义回归神经网络的车牌字符分割和识别matlab仿真
预测模型基于麻雀算法改进广义回归神经网络(GRNN)实现数据预测matlab代码
GRNN回归预测基于matlab有限增量进化广义回归神经网络LIEV-GRNN数据回归预测含Matlab源码 2132期