BP神经网络的初始权值
来源:学生作业帮助网 编辑:作业帮 时间:2024/11/17 17:08:09
你这相当于软测量建模,你说的Targe是matlab神经网络工具箱中的吧?我也做了一个神经网络仿真,没有用那个工具箱,直接编的程,我的是二个输入四个输出,其实很简单,一看就懂,想要把qq邮箱给我,我发
BP网络多次训练得到的结果是不同的,原因就是权值的伪随机生成.权值给定值和伪随机数有可能产生不同影响,最终得到的权值可能会改变.原因是这样的,BP神经网络权值的迭代是局部寻优,往往找到的是极小值.给一
收敛和迭代算法有关.反向传播算法是定义一个误差er(往往是输出结果与预想结果之间的某个范数),然后求出满足误差极小的权向量.如果把误差看成一个连续函数(泛函)的话,求对权向量各分量的偏导为0即可,但是
%由于数据比较大,我又懒得用归一化,所以直接把数据降了3个数量级,%不过我觉得应该没问题,但用归一化结果应该更准确些.%由于初始权值和阀值均是随机给的,所以每次仿真都有点点不同,这是正常的.p=[11
p_test=[.];out=sim(net,p_test)训练结束后用验证样本检验网络的预测效果,.是验证数据的输入,模型会自动给出预测输出值,将预测值与真实值对比看看模型是否可信...
你的程序训练完毕后根本就没达到目标误差,就是说训练效果不好,不能进行预测,只有训练结果好了才能预测仿真,你再改一下隐含层神经元数或者训练和传递函数试试吧~另外输入层的值可以归一化也可以不归一化,归一化
从原理上来说,神经网络是可以预测未来的点的.实际上,经过训练之后,神经网络就拟合了输入和输出数据之间的函数关系.只要训练的足够好,那么这个拟合的关系就会足够准确,从而能够预测在其他的输入情况下,会有什
mse表示均方差,当然越小越好.但是这与你训练样本的多少,训练次数都有很大关系.你试试看径向基神经网络和高斯型网络能不能更好的减低训练误差,神经网络就是一个不断调试的学习过程.再问:这个我也知道,但是
你的T 少了一个.
说实话,就这些数据实在太少,预测效果太差,除非你只是想要用一用神经网络,否则建议你换个灰色预测之类的方法再问:嗯,谢谢你的回答,我也想到数据太少所以效果会很差,但是这是一个测试实验,我要写毕业论文,然
假设输入的是5个参数,输出1个参数.神经网络的节点结构为5-N-1(N是中间层节点数,数目根据实验效果确定,可选5~10个)关于输入延迟,不清楚意思.是否可以做这样的数据处理:假设t时间的5个输入数据
P=[];‘输入,开盘价,最高价,最低价,收盘价成交量依次5天的数据’T=[];’输出,即第二日的收盘’net=newff(minmax(P),[7,1],{'tansig','logsig'},'t
友情提醒百度知道上面的专家是很少的,大部分都是想赚赚积分闲人.以后有比较专业或者难一点的问题最好上专业的论坛上去问,百度知道只能算一个值得一试的补充.-------------------------
你这是不是用遗传算法优化权值和阀值啊?我不知道你x的哪里来的?所以也不知道你是如何确定初始权值和阀值.不过我们平常写程序时这些值都是随机赋予的.再问:就是看不明白,比如说B1中,怎么又有乘法又有加法,
这得看你用的什么激活函数,一般用sigmoid函数,不过情况是一样的.用权值乘以输入值,然后带入激活函数,这就是隐层的输出,再与隐层到输出层的权值相乘求和,这就是最后的输出.不过建议你看看关于神经网络
初始连接权重关系到网络训练速度的快慢以及收敛速率,在基本的神经网络中,这个权重是随机设定的.在网络训练的过程中沿着误差减小的方向不断进行调整.针对这个权重的随机性不确定的缺点,有人提出了用遗传算法初始
训练好后用“save网络名”保存好网络,保存好的网络下次还可以用.用net.iw{1,1}net.lw{2,1}net.b{1}net.b{2}分别来查看网络的权值和阈值.再问:能麻烦你给我写个实例程
你训练就是为了得到权值啊!ijklijkl第i个神经元到第j个神经元的权值格式再问:每次训练权值都会变怎么办,还有权值怎么保存和下次使用?
p和t后面加个‘!你的p和t维数不对,这样输入不对了!
这个包底下怎么做我不太确定,如果你是自己写训练的话,就每更新一步再乘以个矩阵让你想要保持为0的元素为0就行了再问:嗯,谢谢你的帮助!!自己编也行,只是觉得挺麻烦,如果可以利用一些函数或者技巧,会省很多