导航:首页 > 编程大全 > bp神经网络不会过拟合

bp神经网络不会过拟合

发布时间:2023-09-24 11:26:18

『壹』 bp神经网络为什么可以拟合任意非线性函数

样本变量不需要那么多,因为神经网络的信息存储能力有限,过多的样本会造成一些有用的信息被丢弃。如果样本数量过多,应增加隐层节点数或隐层数目,才能增强学习能力。一、隐层数一般认为,增加隐层数可以降低网络误差(也有文献认为不一定能有效降低),提高精度,但也使网络复杂化,从而增加了网络的训练时间和出现“过拟合”的倾向。一般来讲应设计神经网络应优先考虑3层网络(即有1个隐层)。一般地,靠增加隐层节点数来获得较低的误差,其训练效果要比增加隐层数更容易实现。对于没有隐层的神经网络模型,实际上就是一个线性或非线性(取决于输出层采用线性或非线性转换函数型式)回归模型。因此,一般认为,应将不含隐层的网络模型归入回归分析中,技术已很成熟,没有必要在神经网络理论中再讨论之。二、隐层节点数在BP 网络中,隐层节点数的选择非常重要,它不仅对建立的神经网络模型的性能影响很大,而且是训练时出现“过拟合”的直接原因,但是目前理论上还没有一种科学的和普遍的确定方法。 目前多数文献中提出的确定隐层节点数的计算公式都是针对训练样本任意多的情况,而且多数是针对最不利的情况,一般工程实践中很难满足,不宜采用。事实上,各种计算公式得到的隐层节点数有时相差几倍甚至上百倍。为尽可能避免训练时出现“过拟合”现象,保证足够高的网络性能和泛化能力,确定隐层节点数的最基本原则是:在满足精度要求的前提下取尽可能紧凑的结构,即取尽可能少的隐层节点数。研究表明,隐层节点数不仅与输入/输出层的节点数有关,更与需解决的问题的复杂程度和转换函数的型式以及样本数据的特性等因素有关。

『贰』 什么算法可以防止bp神经网络过拟合

你好复,遗传算法在一定程制度上可以防止过拟合。 遗传算法主要是针对神经网络的优化的。他是通过交叉和突变来实现对神经网络的优化。 过拟合其实是说模型太过严格,泛化不够。容错性不够好。 因为遗传算法通过交叉和突变,他可以提升模型的泛化能力。

『叁』 BP神经网络可以用于拟合函数吗

可以。

既然是函数拟合,那么事先就已经有函数表达式了。拟合的只是函数表达式中未知的参数。用神经网络对函数进行拟合,输出的就是未知参数的高精近似值。

人工神经网络就是模拟人思维的第二种方式。这是一个非线性动力学系统,其特色在于信息的分布式存储和并行协同处理。虽然单个神经元的结构极其简单,功能有限,但大量神经元构成的网络系统所能实现的行为却是极其丰富多彩的。

(3)bp神经网络不会过拟合扩展阅读:

如果待定函数是线性,就叫线性拟合或者线性回归(主要在统计中),否则叫作非线性拟合或者非线性回归。表达式也可以是分段函数,这种情况下叫作样条拟合。

一组观测结果的数字统计与相应数值组的吻合。形象的说,拟合就是把平面上一系列的点,用一条光滑的曲线连接起来。因为这条曲线有无数种可能,从而有各种拟合方法。拟合的曲线一般可以用函数表示,根据这个函数的不同有不同的拟合名字。

在MATLAB中可以用polyfit 来拟合多项式。

拟合以及插值还有逼近是数值分析的三大基础工具,通俗意义上它们的区别在于:拟合是已知点列,从整体上靠近它们;插值是已知点列并且完全经过点列;逼近是已知曲线,或者点列,通过逼近使得构造的函数无限靠近它们。

『肆』 bp神经网络人口预测程序(matlab实现)

x=[54167
55196
56300
57482
58796
60266
61465
62828
64653
65994
67207
66207
65859
67295
69172
70499
72538
74542
76368
78534
80671
82992
85229
87177
89211
90859
92420
93717
94974
96259
97542
98705
100072
101654
103008
104357
105851
107507
109300
111026
112704
114333
115823
117171
118517
119850
121121
122389
123626
124761
125786
126743
127627
128453
129227
129988
130756
131448
132129
132802
134480
135030
135770
136460
137510]';
% 该脚本用来做NAR神经网络预测
% 作者:Macer程
lag=3; % 自回归阶数
iinput=x; % x为原始序列(行向量)
n=length(iinput);

%准备输入和输出数据
inputs=zeros(lag,n-lag);
for i=1:n-lag
inputs(:,i)=iinput(i:i+lag-1)';
end
targets=x(lag+1:end);

%创建网络
hiddenLayerSize = 10; %隐藏层神经元个数
net = fitnet(hiddenLayerSize);

% 避免过拟合,划分训练,测试和验证数据的比例
net.divideParam.trainRatio = 70/100;
net.divideParam.valRatio = 15/100;
net.divideParam.testRatio = 15/100;

%训练网络
[net,tr] = train(net,inputs,targets);
%% 根据图表判断拟合好坏
yn=net(inputs);
errors=targets-yn;
figure, ploterrcorr(errors) %绘制误差的自相关情况(20lags)
figure, parcorr(errors) %绘制偏相关情况
%[h,pValue,stat,cValue]= lbqtest(errors) %Ljung-Box Q检验(20lags)
figure,plotresponse(con2seq(targets),con2seq(yn)) %看预测的趋势与原趋势
%figure, ploterrhist(errors) %误差直方图
%figure, plotperform(tr) %误差下降线


%% 下面预测往后预测几个时间段
fn=7; %预测步数为fn。


f_in=iinput(n-lag+1:end)';
f_out=zeros(1,fn); %预测输出
% 多步预测时,用下面的循环将网络输出重新输入
for i=1:fn
f_out(i)=net(f_in);
f_in=[f_in(2:end);f_out(i)];
end
% 画出预测图
figure,plot(1949:2013,iinput,'b',2013:2020,[iinput(end),f_out],'r')

图1自相关


图3预测

上面的程序是可以通用的,只要你根据自己需要是可以修改用在其他地方的,基本思想就是用前lag年的人口数来预测下一年的人口,至于lag等于几你是可以自己改的。还有在对结果好坏的判断中,仅仅看误差图是不够的,如果是一个好的预测,那么自相关性图中除了0阶自相关外,其他的自相关系数系数都不应该超过上下置信区间。还有其他的统计量和图表都都写在”%“后面了,如果需要,去掉就可用。最后的预测值为f_out,我的预测值为

138701.065269972 139467.632609654 140207.209707364 141210.109373609 141981.285378849 142461.332139592 143056.073139776


『伍』 bp神经网络训练样本增加很多,但是隐含层节点数还是不变会不会欠拟合,或者过拟合求大神告知!

学习神经网络这段时间,有一个疑问,BP神经网络中训练的次数指的网络的迭代次数,如果有a个样本,每个样本训练次数n,则网络一共迭代an次,在n>>a 情况下 , 网络在不停的调整权值,减小误差,跟样本数似乎关系不大。而且,a大了的话训练时间必然会变长。 
换一种说法,将你的数据集看成一个固定值, 那么样本集与测试集 也可以按照某种规格确定下来如7:3 所以如何看待 样本集的多少与训练结果呢? 或者说怎么使你的网络更加稳定,更加符合你的所需 。

我尝试从之前的一个例子中看下区别

如何用70行Java代码实现深度神经网络算法

作者其实是实现了一个BP神经网络 ,不多说,看最后的例子

一个运用神经网络的例子 
最后我们找个简单例子来看看神经网络神奇的效果。为了方便观察数据分布,我们选用一个二维坐标的数据,下面共有4个数据,方块代表数据的类型为1,三角代表数据的类型为0,可以看到属于方块类型的数据有(1,2)和(2,1),属于三角类型的数据有(1,1),(2,2),现在问题是需要在平面上将4个数据分成1和0两类,并以此来预测新的数据的类型。


图片描述

我们可以运用逻辑回归算法来解决上面的分类问题,但是逻辑回归得到一个线性的直线做为分界线,可以看到上面的红线无论怎么摆放,总是有一个样本被错误地划分到不同类型中,所以对于上面的数据,仅仅一条直线不能很正确地划分他们的分类,如果我们运用神经网络算法,可以得到下图的分类效果,相当于多条直线求并集来划分空间,这样准确性更高。 

图片描述

简单粗暴,用作者的代码运行后 训练5000次 。根据训练结果来预测一条新数据的分类(3,1)



预测值 (3,1)的结果跟(1,2)(2,1)属于一类 属于正方形

这时如果我们去掉 2个样本,则样本输入变成如下

//设置样本数据,对应上面的4个二维坐标数据 double[][] data = new double[][]{{1,2},{2,2}}; //设置目标数据,对应4个坐标数据的分类 double[][] target = new double[][]{{1,0},{0,1}};

1

2

3

『陆』 如何让利用神经网络进行预测,怎么在进行训练之后,怎么看出训练模型的好坏如何进行评判

可以用MATLAB神经抄网络工具箱,先提取样本,用mapminmax函数归一化,再newff函数建立网络,设置好训练参数后,使用train函数训练,最后用sim函数看预测结果。

在训练过程中,有一个performance可以观察,它的训练目标就是你设置的goal。在训练过程中,它会自动分出一部分样本作为validation验证,可以保证不过拟合。具体要评价效果还是应该看最后预测的精度。

附件是一个BP预测的实例。

『柒』 如何提高pb神经网络分类的准确率

要想提高BP神经网络分类的准确率,关键在于提高网络性能,使网络能够反映数据的内部非线性规律。一般有以下几种措施:

  1. 保证学习样本质量。网络的输出结果质量不可能超出原始训练数据的质量,一定要保证样本准确、典型、规模足够大。

  2. 选定合适的输入向量方案。输入向量的配置方案不是固定的,可以添加自变量,增加因素。

  3. 选定适当的隐层节点数。过少学习能力不足,过多可能过拟合并且学习较慢。

  4. 调整参数,如学习率、学习目标等。

  5. 与其他算法结合进行改进。如带动量项的BP算法、与GA算法融合的GA-BP算法等。

  6. 效果不理想时,可考虑增加隐层数量。

阅读全文

与bp神经网络不会过拟合相关的资料

热点内容
如何利用编程做多文件数据合并 浏览:666
java如何用tcp发送16进制协议 浏览:975
js获取当天 浏览:637
在什么网站看战狼2 浏览:881
win7桌面工具栏不见了 浏览:346
qq群几个管理员 浏览:598
录光盘怎么找不到文件 浏览:885
flip5怎么连app 浏览:273
五个g的文件怎么传到u盘 浏览:316
如何用编程编译运行出心形图案 浏览:486
linuxcentos64vpn 浏览:328
桔城pdf转换成word转换器 浏览:754
java数组排重 浏览:846
1703版win10 浏览:357
windows文件上传 浏览:111
精通jsp编程技术 浏览:139
电脑软件删不了提示找不到文件 浏览:223
宁波哪里有学It编程的地方 浏览:808
win10最新预览版续航 浏览:705
web服务器更新代码 浏览:603

友情链接