Matlab 版 (精华区)
发信人: feifeifool (爱芳), 信区: Matlab
标 题: [合集] 懂神经网络的DX来看 (转载)
发信站: 哈工大紫丁香 (Fri Jul 7 09:43:24 2006), 站内
────────────────────────────────────────
DrBurnie (哈哈哈哈哈哈) 于 (Fri Jun 30 19:37:25 2006) 说道:
发信人: SuperHIT (5月13日之前暂停灌水), 信区: P_leonado
标 题: 懂神经网络的DX来看
发信站: 哈工大紫丁香 (Fri Jun 30 19:31:50 2006), 站内
发信人: SuperHIT (5月13日之前暂停灌水), 信区: Computer
标 题: 懂神经网络的DX来看
发信站: 哈工大紫丁香 (Fri Jun 30 19:31:38 2006), 转信
P=-1:0.1:1;
T=[-0.9602 -0.5770 -0.0729 0.3771 0.6405 0.6600 0.4609 0.1336 -0.2013 -0.
4344 -0.5000 -0.3930 -0.1647 0.0988 0.3072 0.3960 0.3449 0.1816 -0.0312 -
0.2189 -0.3201];
s=3:8;
res=1:6;
for i=1:6
net=newff(minmax(P),[s(i),1],{'tansig','logsig'},'traingdx');
net.trainParam.epochs=2000;
net.trainParam.goal=0.001;
net=train(net,P,T);
y=sim(net,P);
error=y-T;
res(i)=norm(error);
plot(P,T,'r+');
hold on
plot(P,y,'.');
end
用神经网络模拟一个非线性的映射,P是输入,T是输出,按照书上编的,可是出来的结果却大相径庭,哪位DX,能看看是什么毛病。
────────────────────────────────────────
fenghuazhao (风华) 于 (Fri Jun 30 20:41:13 2006) 说道:
y=sim(net,P);
这一句是在神经网络训练好以后来用来测试的
怎么用的测试数据和训练的数据一样??
应该换一组数据
【 在 DrBurnie (哈哈哈哈哈哈) 的大作中提到: 】
: 发信人: SuperHIT (5月13日之前暂停灌水), 信区: P_leonado
: 标 题: 懂神经网络的DX来看
: 发信站: 哈工大紫丁香 (Fri Jun 30 19:31:50 2006), 站内
: 发信人: SuperHIT (5月13日之前暂停灌水), 信区: Computer
: 标 题: 懂神经网络的DX来看
: 发信站: 哈工大紫丁香 (Fri Jun 30 19:31:38 2006), 转信
: P=-1:0.1:1;
: T=[-0.9602 -0.5770 -0.0729 0.3771 0.6405 0.6600 0.4609 0.1336 -0.2013 -0.
: ...................
────────────────────────────────────────
DrBurnie (哈哈哈哈哈哈) 于 (Fri Jun 30 22:44:06 2006) 说道:
T就是测试数据
我做的是函数的逼近,训练数据就是测试数据
【 在 fenghuazhao (风华) 的大作中提到: 】
: y=sim(net,P);
: 这一句是在神经网络训练好以后来用来测试的
: 怎么用的测试数据和训练的数据一样??
: ...................
────────────────────────────────────────
fenghuazhao (风华) 于 (Fri Jun 30 23:02:05 2006) 说道:
神经网络就是用来逼近的啊
【 在 DrBurnie (哈哈哈哈哈哈) 的大作中提到: 】
: T就是测试数据
: 我做的是函数的逼近,训练数据就是测试数据
────────────────────────────────────────
DrBurnie (哈哈哈哈哈哈) 于 (Sat Jul 1 00:43:44 2006) 说道:
... ...你没看明白
我这个是证明3层神经网络可以模拟任意非线性分布
【 在 fenghuazhao (风华) 的大作中提到: 】
: 神经网络就是用来逼近的啊
────────────────────────────────────────
fenghuazhao (风华) 于 (Sat Jul 1 01:48:48 2006) 说道:
那我就不知道了
不好意思
【 在 DrBurnie (哈哈哈哈哈哈) 的大作中提到: 】
: ... ...你没看明白
: 我这个是证明3层神经网络可以模拟任意非线性分布
────────────────────────────────────────
DrBurnie (哈哈哈哈哈哈) 于 (Sat Jul 1 02:28:40 2006) 说道:
我把logsid换成puerlin就OK了... ...purelin是what函数啊
【 在 fenghuazhao (风华) 的大作中提到: 】
: 那我就不知道了
: 不好意思
────────────────────────────────────────
herosimon (樱花泪) 于 (Sat Jul 1 10:28:48 2006) 说道:
【 在 DrBurnie (哈哈哈哈哈哈) 的大作中提到: 】
: 发信人: SuperHIT (5月13日之前暂停灌水), 信区: P_leonado
: 标 题: 懂神经网络的DX来看
: 发信站: 哈工大紫丁香 (Fri Jun 30 19:31:50 2006), 站内
: 发信人: SuperHIT (5月13日之前暂停灌水), 信区: Computer
: 标 题: 懂神经网络的DX来看
: 发信站: 哈工大紫丁香 (Fri Jun 30 19:31:38 2006), 转信
: P=-1:0.1:1;
: T=[-0.9602 -0.5770 -0.0729 0.3771 0.6405 0.6600 0.4609 0.1336 -0.2013 -0.
: ...................
哈哈 我毕设就用得ANN
不过不是用matlab 呵呵
────────────────────────────────────────
fenghuazhao (风华) 于 (Sat Jul 1 11:57:15 2006) 说道:
linear transfer function
【 在 DrBurnie (哈哈哈哈哈哈) 的大作中提到: 】
: 我把logsid换成puerlin就OK了... ...purelin是what函数啊
────────────────────────────────────────
newmajia ((新马甲)) 于 (Sat Jul 1 19:29:54 2006) 说道:
【 在 DrBurnie (哈哈哈哈哈哈) 的大作中提到: 】
: 发信人: SuperHIT (5月13日之前暂停灌水), 信区: P_leonado
: 标 题: 懂神经网络的DX来看
: 发信站: 哈工大紫丁香 (Fri Jun 30 19:31:50 2006), 站内
: 发信人: SuperHIT (5月13日之前暂停灌水), 信区: Computer
: 标 题: 懂神经网络的DX来看
: 发信站: 哈工大紫丁香 (Fri Jun 30 19:31:38 2006), 转信
: P=-1:0.1:1;
: T=[-0.9602 -0.5770 -0.0729 0.3771 0.6405 0.6600 0.4609 0.1336 -0.2013 -0.
: ...................
logsig好象不能输出负值,另外训练函数最好改为trainlm.再试一下.
────────────────────────────────────────
fenglang (乘风破浪) 于 (Mon Jul 3 15:49:12 2006) 说道:
最后一层的输出一般采用purelin
这个是线性函数
【 在 DrBurnie (哈哈哈哈哈哈) 的大作中提到: 】
: 发信人: SuperHIT (5月13日之前暂停灌水), 信区: P_leonado
: 标 题: 懂神经网络的DX来看
: 发信站: 哈工大紫丁香 (Fri Jun 30 19:31:50 2006), 站内
: 发信人: SuperHIT (5月13日之前暂停灌水), 信区: Computer
: 标 题: 懂神经网络的DX来看
: 发信站: 哈工大紫丁香 (Fri Jun 30 19:31:38 2006), 转信
: P=-1:0.1:1;
: T=[-0.9602 -0.5770 -0.0729 0.3771 0.6405 0.6600 0.4609 0.1336 -0.2013 -0.
: ...................
Powered by KBS BBS 2.0 (http://dev.kcn.cn)
页面执行时间:3.845毫秒