当前位置:文档之家› 人工神经网络例题

人工神经网络例题

人工神经网络例题
人工神经网络例题

1、什么就是 BP 网络得泛化能力?如何保证 BP 网络具有较好得泛化能力?(5分)

解:

(1)BP网络训练后将所提取得样本对中得非线性映射关系存储在权值矩阵中,在其后得工作阶段,当向网络输入训练时未曾见过得非样本数据时,网络也能完成由输入空间向输出空间得正确映射。这种能力称为多层感知器得泛化能力,它就是衡量多层感知器性能优劣得一个重要方面。

(2)网络得性能好坏主要瞧其就是否具有很好得泛化能力,而对泛化能力得测试不能用训练集得数据进行,要用训练集以外得测试数据来进行检验。在隐节点数一定得情况下,为获得更好得泛化能力,存在着一个最佳训练次数t

,训练时将训

练与测试交替进行,每训练一次记录一训练均方误差,然后保持网络权值不变,用测试数据正向运行网络,记录测试均方误差,利用两种误差数据得出两条均方误差随训练次数变化得曲线,测试、训练数据均方误差曲线如下图1所示。训练次称为最佳训练次数,当超过这个训练次数后,训练误差次数减小而测试误差数t

则开始上升,在此之前停止训练称为训练不足,在此之后称为训练过度。

图1、测试、训练数据均方误差曲线

2、什么就是 LVQ 网络?它与 SOM 网络有什么区别与联系?(10 分)

解:

(1)学习向量量化(learning vector quantization,LVQ)网络就是在竞争网络结构得基础上提出得,LVQ将竞争学习思想与监督学习算法相结合,减少计算量与储存量,其特点就是网络得输出层采用监督学习算法而隐层采用竞争学习策略,结构就是由输入层、竞争层、输出层组成。

(2)在LVQ网络学习过程中通过教师信号对输入样本得分配类别进行规定,从而克服了自组织网络采用无监督学习算法带来得缺乏分类信息得弱点。自组织映射可以起到聚类得作用,但还不能直接分类与识别,因此这只就是自适应解决模式分类问题中得第一步,第二步就是学习向量量化,采用有监督方法,在训练中加入教师信号作为分类信息对权值进行细调,并对输出神经元预先指定其类别。

3、设计一个神经网络对图一中得三类线性不可分模式进行分类,期望输出向量分别用(1, -1, -1)T、 (-1, 1, -1) T、 (-1, -1, 1) T代表三类,输入用样本坐标。要

求:

(1) 选择合适得隐节点数;

(2)用 BP 算法训练网络,对图中得 9 个样本进行正确分类。(15 分)

分析:

对于一个BP 神经网络,首先要明确输入,输出, 隐层节点个数。对于本题,输入就是点坐标组成得2*9得矩阵,输入节点个数为2,期望输出向量分别用(1, -1, -1)T 、 (-1, 1, -1)T 、 (-1, -1, 1)T 表示,至于隐层节点得个数并没有确切得方法, 根据经验公式α++=l n m (m 为隐层节点数;n 为输入层节点数;l 为输出节点数;α为1~10之间得常数),首先确定隐层节点数为5,逐渐增加隐层节点数量,然后观察其对训练误差得影响,最终选出最合适得隐层节点数量。

隐层节点数 误差精度 训练次数 分类结果正确率

5 0、3 66491 100% 7 0、3 31981 100% 9 0、3 25338 100% 10 0、3 20770 100% 12 0、3 14052 100% 14 0、3 11622 100%

录不同隐层节点数得情况下达到相同得训练精度所需要得训练次数,当隐层节点数为M=5时,在训练次数为66491时,结果达到训练精度; 当隐层节点数M=7时,在训练次数到达31981时,结果达到训练精度;当隐层节点数M=9时时,在训练次数达到25338时,结果达到训练精度;当隐层节点数M=10时,在训练次数达到20770时,结果达到训练精度;当隐层节点数M=12时,在训练次数达到14052时,结果达到训练精度;当隐层节点数M=14时,在训练次数达到11622时,结果达到训练精度,由此可见,在一定范围内,隐层节点数越多,达到训练精度时所用得训练次数越少,所用训练时间则越少。因此选择隐层节点数为14。

学习率0、3,误差精度在0、1以下,输出结果与导师信号对比,输出结果都为正确,正确率达到100%。具体程序见附件一或者BPclassify 、m 。

4、试设计一个吸引子为X a =(0110) T,X b =(1001)T 得离散Hopfield 人工神经网络。其权值与阈值在 [-1,1]区间取值,试求权值与阈值。(10 分) 解:

吸引子得分布就是由网络得权值(包括阈值)决定得,设计吸引子得核心就就

是如何设计一组合适得权值。为了使所设计得权值满足要求,权值矩阵应符合以下要求:

(a) 为保证异步方式工作时网络收敛,W 应为对称阵。 (b) 为保证同步方式工作时网络收敛,W 应为非负定对称阵。 (c) 保证给定得样本就是网络得吸引子,并且要有一定得吸引域。 具体设计时,这里采用了联立方程法:

以 4 节点 DHNN 为例,说明权值设计得联立方程法。 考虑到w ij = w ji ,w ii = 0,对稳态x(t +1) = x(t)。 对于状态 X a = (1001)T ,各节点净输入应满足:

net1=w 12×0+w 13×0+w 14×1?T1=w 14?T1>0 (1) net2=w 12×1+w 23×0+w 24×1?T2=w 12+w 24?T2<0 (2) net3=w 13×1+w 23×0+w 34×1?T3=w 13+w 34?T3<0 (3) net4=w 14×1+w 24×0+w 34×0–T4=w 14–T4>0 (4) 对于 X b = (0110)T 状态,各节点净输入应满足:

net1=w 12×1+w 13×1+w 14×0?T1=w 12+w 13?T1<0 (5) net2=w 12×0+w 23×1+w 24×0?T2=w 23?T2>0 (6) net3=w 13×0+w 23×1+w 34×0?T3=w 23?T3>0 (7) net4=w 14×0+w 24×1+w 34 ×1–T4=w 24+w 34–T4<0 (8)

联立以上8项不等式,可求出未知量得允许取值范围。如取w 14 =0、7,则由式(1) 有 -1≤T 1<0、7,取T 1= 0、6;则由式(4)有 -1≤T 4<0、7,取T 4= 0、6;取w 12 =0、4,由式(5),有 -1≤w 13< 0、2,取w 13 = 0、1;取w 24 =0、2由式(2),

有0、6

?????????

???=03.02.07.03.009.01.02.09.004.07.01.04.00W ????

?

?

??????=6.04.08.06.0T

5、下面给出得训练集由玩具兔与玩具熊组成。输入样本向量得第一个分量代表玩具得重量,第二个分量代表玩具耳朵得长度,教师信号为-1表示玩具兔,

教师信号为1表示玩具熊。

(1) 用 matlab 训练一个感知器,求解此分类问题。(需附上 matlab 程序)

(2) 用输入样本对所训练得感知器进行验证。(15 分)

分析:

对于本题,输入就是样本组成得2*8得矩阵,输入节点个数为2,输出由导师信号可知分为两类。两个输入分量在几何上构成一个二维平面,输入样本可以用该平面上得一个点表示,玩具重量与长度在坐标中标出,可以瞧出明显分布在两个区域,可以用一条线分开分为两类,在线上方得输出结果应大于0,在线下方得输出结果应小于0。

权向量为2*9得矩阵,输入得第一个权向量权值赋予较小得非零随机数,每一个新得权向量都由上一个权向量调整,下一次循环第1个权向量由第9个权向量来调整。对于这样得样本线性可分,经过几次调整后就稳定到一个权向量,将样本正确分类得权向量不就是唯一得。具体程序见附件二或者ganzhiqi、m。输出分类结果如下图所示。

训练次数分类结果正确率

4 100%

3 100%

5 100%

图2、感知器在二维平面得分类结果

附件一:

第三题程序

clear all;

%%BP算法初始化

D=[1,-1,-1; 1,-1,-1; 1,-1,-1; -1,1,-1; -1,1,-1;

-1,1,-1; -1,-1,1; -1,-1,1; -1,-1,1]';

X=[0、75,0、75; 0、75,0、125; 0、25,0、25; 0、25,0、75; 0、5,0、125; 0、75,0、25; 0、25,0、5; 0、5,0、5; 0、75,0、5]'; [N,n]=size(X);

[L,Pd]=size(D);

%M=ceil(sqrt(N*L))+7;ceil函数为正无穷方向取整

m=14; %隐层节点数

%初始化权矩阵

%输入层到隐层权矩阵

V=rand(N,m);

%隐层到输出层权矩阵

W=rand(m,L);

%开始训练,转移函数选择双极性Sigmoid函数

Q=100000;%训练次数计数器

E=zeros(Q,1);%误差

Emin=0、3; %训练要求精度

learnr=0、2; %学习率

q=1;%训练次数计数,批训练

%%权值调整

while q

netj=V、'*X;

Y=(1-exp(-netj))、/(1+exp(-netj));

netk=W、'*Y;

O=(1-exp(-netk))、/(1+exp(-netk));

E(q)=sqrt(sum(sum((D-O)、^2))/2); %计算总误差

if E(q)

break;

end

Delta_o=(D-O)、*(1-O、^2)、/2;

W=W+learnr*(Delta_o*Y、')、'; %隐层与输出层间得权矩阵调整

Delta_y=(W*Delta_o)、*(1-Y、^2)、/2;

V=V+learnr*(Delta_y*X、')、'; %输入层与隐层间得权矩阵调整

q=q+1;

end

%%输出结果

q

O=sign(O) %符号函数取整

A=find(O~=D); %与计算输出与导师信号不同得个数

length(A) %分类结果错误得个数

附件二:

第五题程序

clc;clear

%%单层感知器初始化

X=[1,4;1,5;2,4;2,5;3,1;3,2;4,1;4,2]; %输入信号

d=[-1;-1;-1;-1;1;1;1;1]; %输入导师信号

w=zeros(2,9);

w(:,1)=rand(2,1); %第一组权值赋予较小得非零随机数

o=zeros(8,1); %输出结果

net=zeros(8,1); %净输入net

learnr=0、01; %学习率为0、1

n=0; %循环次数

%%调整权值

while n<100 %训练次数最大设为100次

for i=1:8

net(i)=X(i,:)*w(:,i); %计算净输入net

o(i)=sign(net(i)); %计算输出,转移函数为符号函数

w(:,i+1)=w(:,i)+learnr*(d(i)-o(i))*X(i,:)'; %调整权值

w(:,1)=w(:,9); %最后一组权值赋值给第一组权

end

n=n+1

if d==o %如果输出等于导师信号,那么训练停止

break

end

end

%%结果输出

x1=[1,1,2,2]; %将两组数据在图中标出

y1=[4,5,4,5];

x2=[3,3,4,4];

y2=[1,2,1,2];

scatter(x1,y1,'r')%画点

hold on;

scatter(x2,y2,'b')

x=-1:0、01:5;

y=-w(1,1)/w(2,1)*x;%得到训练过后得权都一样,取出第一组权确定直线,将两组数据分开

hold on;

plot(x,y)

人工智能期末试题及答案完整版

xx学校 2012—2013学年度第二学期期末试卷 考试课程:《人工智能》考核类型:考试A卷 考试形式:开卷出卷教师: 考试专业:考试班级: 一单项选择题(每小题2分,共10分) 1.首次提出“人工智能”是在(D )年 A.1946 B.1960 C.1916 D.1956 2. 人工智能应用研究的两个最重要最广泛领域为:B A.专家系统、自动规划 B. 专家系统、机器学习 C. 机器学习、智能控制 D. 机器学习、自然语言理解 3. 下列不是知识表示法的是 A 。 A:计算机表示法B:“与/或”图表示法 C:状态空间表示法D:产生式规则表示法 4. 下列关于不确定性知识描述错误的是 C 。 A:不确定性知识是不可以精确表示的 B:专家知识通常属于不确定性知识 C:不确定性知识是经过处理过的知识 D:不确定性知识的事实与结论的关系不是简单的“是”或“不是”。 5. 下图是一个迷宫,S0是入口,S g是出口,把入口作为初始节点,出口作为目标节点,通道作为分支,画出从入口S0出发,寻找出口Sg的状态树。根据深度优先搜索方法搜索的路径是 C 。 A:s0-s4-s5-s6-s9-sg B:s0-s4-s1-s2-s3-s6-s9-sg C:s0-s4-s1-s2-s3-s5-s6-s8-s9-sg D:s0-s4-s7-s5-s6-s9-sg 二填空题(每空2分,共20分) 1.目前人工智能的主要学派有三家:符号主义、进化主义和连接主义。 2. 问题的状态空间包含三种说明的集合,初始状态集合S 、操作符集合F以及目标

状态集合G 。 3、启发式搜索中,利用一些线索来帮助足迹选择搜索方向,这些线索称为启发式(Heuristic)信息。 4、计算智能是人工智能研究的新内容,涉及神经计算、模糊计算和进化计算等。 5、不确定性推理主要有两种不确定性,即关于结论的不确定性和关于证据的不确 定性。 三名称解释(每词4分,共20分) 人工智能专家系统遗传算法机器学习数据挖掘 答:(1)人工智能 人工智能(Artificial Intelligence) ,英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等 (2)专家系统 专家系统是一个含有大量的某个领域专家水平的知识与经验智能计算机程序系统,能够利用人类专家的知识和解决问题的方法来处理该领域问题.简而言之,专家系统是一种模拟人类专家解决领域问题的计算机程序系统 (3)遗传算法 遗传算法是一种以“电子束搜索”特点抑制搜索空间的计算量爆炸的搜索方法,它能以解空间的多点充分搜索,运用基因算法,反复交叉,以突变方式的操作,模拟事物内部多样性和对环境变化的高度适应性,其特点是操作性强,并能同时避免陷入局部极小点,使问题快速地全局收敛,是一类能将多个信息全局利用的自律分散系统。运用遗传算法(GA)等进化方法制成的可进化硬件(EHW),可产生超出现有模型的技术综合及设计者能力的新颖电路,特别是GA独特的全局优化性能,使其自学习、自适应、自组织、自进化能力获得更充分的发挥,为在无人空间场所进行自动综合、扩展大规模并行处理(MPP)以及实时、灵活地配置、调用基于EPGA的函数级EHW,解决多维空间中不确定性的复杂问题开通了航向 (4)机器学习 机器学习(Machine Learning)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。它是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域,它主要使用归纳、综合而不是演绎 (5)数据挖掘 数据挖掘是指从数据集合中自动抽取隐藏在数据中的那些有用信息的非平凡过程,这些信息的表现形式为:规则、概念、规律及模式等。它可帮助决策者分析历史数据及当前数据,并从中发现隐藏的关系和模式,进而预测未来可能发生的行为。数据挖掘的

药学导论英语索引

P30:糖类(carbohydrates)、苷类(glycosides)、香豆素类(coumarins)、黄酮类(flavonoids)、鞣质类(tannins)、挥发油类(volatile oils)、萜类(terpenes)、生物碱类(alkaloids)、脂类(lipids)、有机酸类(organic acid)、植物色素类(phytochromes)、树脂类(resins)、无机成分(inorganic constituents)。 P41:青蒿素(artemisinin)、左旋麻黄素(L-ephedrine)、甘草酸(glycyrrhizin)。 P43:超临界流体萃取(supercritical fluid extraction)、超声提取(ultrasonic wave extraction)、微波萃取法(micro wavee xtraction method) P46:质子噪声去偶(proton noised ecupliong)、偏振子去偶(off resonance decoupling,OFR)。 P47:选择氢核去偶(selective proton decoupling,SEL)、DEPT、对角峰(diagonal peak)、分子离子(molecular ion)、碎片离子(fragment ion)。 P51:构效关系(structure-activity relationship,SAR)。 P55:钙拮抗剂(calcium antagonist)、组合化学(combinatorial chemistry)。 P57:结构非特异性药物(structurally nonspecific drug)、结构特异性药物(structurally specific drug)。 P62:结合反应(conjugation reaction)。 P64:先导化合物(lead compound)、原型物(prototype)。

《神经网络》试题

《神经网络》试题 (2004年5月9日) 张翼王利伟 一、填空 1.人工神经元网络(ANN)是由大量神经元通过极其丰富和完善 的连接而构成的自适应非线形动力学系统。 2.神经元(即神经细胞)是由细胞体、树突、轴突和突触四 部分构成。 3.大量神经元相互连接组成的ANN将显示出人脑的分布存储和容 错性、大规模并行处理、自学习、自组织和自适应性、复杂的非线形动态系统、处理复杂、不确定问题。 4.ANN发展大体可为早期阶段、过度期、新高潮、热潮。 5.神经元的动作特征主要包括空间性相加,时间性相加,阈值 作用,不应期,疲劳和可塑性。 6.神经元与输入信号结合的两种有代表的结合方式是粗结合和 密结合。 7.1943年由美国心理学家McCulloch和数学家Pitts提出的形式神经 元数学模型简称为MP 模型,它规定了神经元之间的联系方式只 有兴奋、抑制联系两种。 8.目前,神经网络模型按照网络的结构可分为前馈型和反馈型, 按照学习方式可分为有导师和无导师学习。 9.神经网络工作过程主要由学习期和工作期两个阶段组成。 10.反馈网络历经状态转移,直到它可能找到一个平衡状态,这个平

衡状态称为 吸引子 。 二、问答题 1.简述Hebb 学习规则。 Hebb 学习规则假定:当两个细胞同时兴奋时,它们之间的连接强度应该增强,这条规则与“条件反射”学说一致。 在ANN 中Hebb 算法最简单可描述为:如果一个处理单元从另一处理单元接受输入激励信号,而且如果两者都处于高激励电平,那么处理单元间加权就应当增强。用数学来表示,就是两节点的连接权将根据两节点的激励电平的乘积来改变,即 ()()i i n ij n ij ij x y ηωωω=-=?+1 其中()n ij ω表示第(n+1)是第(n+1)次调节后,从节点j 到节点i 的连接权值;η为学习速率参数;x j 为节点j 的输出,并输入到节点i ;i y 为节点i 的输出。 2、简述自组织特征映射网络的算法。 自组织特征映射网络的算法分以下几步: (1) 权连接初始化 就是说开始时,对所有从输入节点到输出节点的连接权值都赋以随机的小数。时间设置t=0。 (2) 网络输入模式为 ),,,(21n b x x x =X (3) 对X k 计算X k 与全部输出节点所连接权向量T j W 的距离

人工神经网络原理及实际应用

人工神经网络原理及实际应用 摘要:本文就主要讲述一下神经网络的基本原理,特别是BP神经网络原理,以及它在实际工程中的应用。 关键词:神经网络、BP算法、鲁棒自适应控制、Smith-PID 本世纪初,科学家们就一直探究大脑构筑函数和思维运行机理。特别是近二十年来。对大脑有关的感觉器官的仿生做了不少工作,人脑含有数亿个神经元,并以特殊的复杂形式组成在一起,它能够在“计算"某些问题(如难以用数学描述或非确定性问题等)时,比目前最快的计算机还要快许多倍。大脑的信号传导速度要比电子元件的信号传导要慢百万倍,然而,大脑的信息处理速度比电子元件的处理速度快许多倍,因此科学家推测大脑的信息处理方式和思维方式是非常复杂的,是一个复杂并行信息处理系统。1943年Macullocu和Pitts融合了生物物理学和数学提出了第一个神经元模型。从这以后,人工神经网络经历了发展,停滞,再发展的过程,时至今日发展正走向成熟,在广泛领域得到了令人鼓舞的应用成果。本文就主要讲述一下神经网络的原理,特别是BP神经网络原理,以及它在实际中的应用。 1.神经网络的基本原理 因为人工神经网络是模拟人和动物的神经网络的某种结构和功能的模拟,所以要了解神经网络的工作原理,所以我们首先要了解生物神经元。其结构如下图所示: 从上图可看出生物神经元它包括,细胞体:由细胞核、细胞质与细胞膜组成;

轴突:是从细胞体向外伸出的细长部分,也就是神经纤维。轴突是神经细胞的输出端,通过它向外传出神经冲动;树突:是细胞体向外伸出的许多较短的树枝状分支。它们是细胞的输入端,接受来自其它神经元的冲动;突触:神经元之间相互连接的地方,既是神经末梢与树突相接触的交界面。 对于从同一树突先后传入的神经冲动,以及同一时间从不同树突输入的神经冲动,神经细胞均可加以综合处理,处理的结果可使细胞膜电位升高;当膜电位升高到一阀值(约40mV),细胞进入兴奋状态,产生神经冲动,并由轴突输出神经冲动;当输入的冲动减小,综合处理的结果使膜电位下降,当下降到阀值时。细胞进入抑制状态,此时无神经冲动输出。“兴奋”和“抑制”,神经细胞必呈其一。 突触界面具有脉冲/电位信号转换功能,即类似于D/A转换功能。沿轴突和树突传递的是等幅、恒宽、编码的离散电脉冲信号。细胞中膜电位是连续的模拟量。 神经冲动信号的传导速度在1~150m/s之间,随纤维的粗细,髓鞘的有无而不同。 神经细胞的重要特点是具有学习功能并有遗忘和疲劳效应。总之,随着对生物神经元的深入研究,揭示出神经元不是简单的双稳逻辑元件而是微型生物信息处理机制和控制机。 而神经网络的基本原理也就是对生物神经元进行尽可能的模拟,当然,以目前的理论水平,制造水平,和应用水平,还与人脑神经网络的有着很大的差别,它只是对人脑神经网络有选择的,单一的,简化的构造和性能模拟,从而形成了不同功能的,多种类型的,不同层次的神经网络模型。 2.BP神经网络 目前,再这一基本原理上已发展了几十种神经网络,例如Hopficld模型,Feldmann等的连接型网络模型,Hinton等的玻尔茨曼机模型,以及Rumelhart 等的多层感知机模型和Kohonen的自组织网络模型等等。在这众多神经网络模型中,应用最广泛的是多层感知机神经网络。 这里我们重点的讲述一下BP神经网络。多层感知机神经网络的研究始于50年代,但一直进展不大。直到1985年,Rumelhart等人提出了误差反向传递学习算法(即BP算),实现了Minsky的多层网络设想,其网络模型如下图所示。它可以分为输入层,影层(也叫中间层),和输出层,其中中间层可以是一层,也可以多层,看实际情况而定。

《人工神经网络原理与应用》试题

1 / 1 《人工神经网络原理与应用》试题 试论述神经网络的典型结构,常用的作用函数以及各类神经网络的基本作用,举例说明拟定结论。 试论述BP 算法的基本思想,讨论BP 基本算法的优缺点,以及改进算法的思路和方法。以BP 网络求解XOR 问题为例,说明BP 网络隐含层单元个数与收敛速度,计算时间之间的关系。要求给出计算结果的比较表格,以及相应的计算程序(.m 或者.c )试论述神经网络系统建模的几种基本方法。利用BP 网络对以下非线性系统进行辨识。 非线性系统 )(5.1) 1()(1)1()()1(22k u k y k y k y k y k y +-++-=+ 首先利用[-1,1]区间的随机信号u(k),样本点500,输入到上述系统,产生y(k), 用于训练BP 网络;网络测试,利用u(k)=sin(2*pi*k/10)+1/5*sin(2*pi*k/100),测试点300~500,输入到上述系统,产生y(k),检验BP 网络建模效果要求给出程序流程,matlab 程序否则c 程序,训练样本输入输出图形,检验结果的输入输出曲线。 试列举神经网络PID 控制器的几种基本形式,给出相应的原理框图。 试论述连续Hopfield 网络的工作原理,讨论网络状态变化稳定的条件。 谈谈学习神经网络课程后的心得体会,你准备如何在你的硕士(博士)课题中应用神经网络理论和知识解决问题(给出一到两个例)。《人工神经网络原理与应用》试题 试论述神经网络的典型结构,常用的作用函数以及各类神经网络的基本作用,举例说明拟定结论。 试论述BP 算法的基本思想,讨论BP 基本算法的优缺点,以及改进算法的思路和方法。以BP 网络求解XOR 问题为例,说明BP 网络隐含层单元个数与收敛速度,计算时间之间的关系。要求给出计算结果的比较表格,以及相应的计算程序(.m 或者.c )试论述神经网络系统建模的几种基本方法。利用BP 网络对以下非线性系统进行辨识。 非线性系统 )(5.1) 1()(1)1()()1(22k u k y k y k y k y k y +-++-=+ 首先利用[-1,1]区间的随机信号u(k), 样本点500,输入到上述系统,产生y(k), 用于训练BP 网络;网络测试,利用u(k)=sin(2*pi*k/10)+1/5*sin(2*pi*k/100),测试点300~500,输入到上述系统,产生y(k),检验BP 网络建模效果要求给出程序流程,matlab 程序否则c 程序,训练样本输入输出图形,检验结果的输入输出曲线。 试列举神经网络PID 控制器的几种基本形式,给出相应的原理框图。 试论述连续Hopfield 网络的工作原理,讨论网络状态变化稳定的条件。 谈谈学习神经网络课程后的心得体会,你准备如何在你的硕士(博士)课题中应用神经网络理论和知识解决问题(给出一到两个例)。

神经网络控制

人工神经网络控制 摘要: 神经网络控制,即基于神经网络控制或简称神经控制,是指在控制系统中采用神经网络这一工具对难以精确描述的复杂的非线性对象进行建模,或充当控制器,或优化计算,或进行推理,或故障诊断等,亦即同时兼有上述某些功能的适应组合,将这样的系统统称为神经网络的控制系统。本文从人工神经网络,以及控制理论如何与神经网络相结合,详细的论述了神经网络控制的应用以及发展。 关键词: 神经网络控制;控制系统;人工神经网络 人工神经网络的发展过程 神经网络控制是20世纪80年代末期发展起来的自动控制领域的前沿学科之一。它是智能控制的一个新的分支,为解决复杂的非线性、不确定、不确知系统的控制问题开辟了新途径。是(人工)神经网络理论与控制理论相结合的产物,是发展中的学科。它汇集了包括数学、生物学、神经生理学、脑科学、遗传学、人工智能、计算机科学、自动控制等学科的理论、技术、方法及研究成果。 在控制领域,将具有学习能力的控制系统称为学习控制系统,属于智能控制系统。神经控制是有学习能力的,属于学习控制,是智能控制的一个分支。神经控制发展至今,虽仅有十余年的历史,已有了多种控制结构。如神经预测控制、神经逆系统控制等。 生物神经元模型 神经元是大脑处理信息的基本单元,人脑大约含1012个神经元,分成约1000种类型,每个神经元大约与102~104个其他神经元相连接,形成极为错综复杂而又灵活多变的神经网络。每个神经元虽然都十分简单,但是如此大量的神经元之间、如此复杂的连接却可以演化出丰富多彩的行为方式,同时,如此大量的神经元与外部感受器之间的多种多样的连接方式也蕴含了变化莫测的反应方式。 图1 生物神经元传递信息的过程为多输入、单输出,神经元各组成部分的功能来看,信息的处理与传递主要发生在突触附近,当神经元细胞体通过轴突传到突触前膜的脉冲幅度达到一定强度,即超过其阈值电位后,突触前膜将向突触间隙释放神经传递的化学物质,突触有两

人工神经网络复习题

《神经网络原理》 一、填空题 1、从系统的观点讲,人工神经元网络是由大量神经元通过极其丰富和完善的连接而构成的自适应、非线性、动力学系统。 2、神经网络的基本特性有拓扑性、学习性和稳定收敛性。 3、神经网络按结构可分为前馈网络和反馈网络,按性能可分为离散型和连续型,按学习方式可分为有导师和无导师。 4、神经网络研究的发展大致经过了四个阶段。 5、网络稳定性指从t=0时刻初态开始,到t时刻后v(t+△t)=v(t),(t>0),称网络稳定。 6、联想的形式有两种,它们分是自联想和异联想。 7、存储容量指网络稳定点的个数,提高存储容量的途径一是改进网络的拓扑结构,二是改进学习方法。 8、非稳定吸引子有两种状态,一是有限环状态,二是混沌状态。 9、神经元分兴奋性神经元和抑制性神经元。 10、汉明距离指两个向量中对应元素不同的个数。 二、简答题 1、人工神经元网络的特点? 答:(1)、信息分布存储和容错性。 (2)、大规模并行协同处理。 (3)、自学习、自组织和自适应。 (4)、人工神经元网络是大量的神经元的集体行为,表现为复杂

的非线性动力学特性。 (5)人式神经元网络具有不适合高精度计算、学习算法和网络设计没有统一标准等局限性。 2、单个神经元的动作特征有哪些? 答:单个神经元的动作特征有:(1)、空间相加性;(2)、时间相加性;(3)、阈值作用;(4)、不应期;(5)、可塑性;(6)疲劳。 3、怎样描述动力学系统? 答:对于离散时间系统,用一组一阶差分方程来描述: X(t+1)=F[X(t)]; 对于连续时间系统,用一阶微分方程来描述: dU(t)/dt=F[U(t)]。 4、F(x)与x 的关系如下图,试述它们分别有几个平衡状态,是否为稳定的平衡状态? 答:在图(1)中,有两个平衡状态a 、b ,其中,在a 点曲线斜率|F ’(X)|>1,为非稳定平稳状态;在b 点曲线斜率|F ’(X)|<1,为稳定平稳状态。 在图(2)中,有一个平稳状态a ,且在该点曲线斜率|F ’(X)|>1,为非稳定平稳状态。

人工神经网络大作业

X X X X大学 研究生考查课 作业 课程名称:智能控制理论与技术 研究生姓名:学号: 作业成绩: 任课教师(签名) 交作业日时间:2010年12月22日

人工神经网络(artificial neural network,简称ANN)是在对大脑的生理研究的基础上,用模拟生物神经元的某些基本功能元件(即人工神经元),按各种不同的联结方式组成的一个网络。模拟大脑的某些机制,实现某个方面的功能,可以用在模仿视觉、函数逼近、模式识别、分类和数据压缩等领域,是近年来人工智能计算的一个重要学科分支。 人工神经网络用相互联结的计算单元网络来描述体系。输人与输出的关系由联结权重和计算单元来反映,每个计算单元综合加权输人,通过激活函数作用产生输出,主要的激活函数是Sigmoid函数。ANN有中间单元的多层前向和反馈网络。从一系列给定数据得到模型化结果是ANN的一个重要特点,而模型化是选择网络权重实现的,因此选用合适的学习训练样本、优化网络结构、采用适当的学习训练方法就能得到包含学习训练样本范围的输人和输出的关系。如果用于学习训练的样本不能充分反映体系的特性,用ANN也不能很好描述与预测体系。显然,选用合适的学习训练样本、优化网络结构、采用适当的学习训练方法是ANN的重要研究内容之一,而寻求应用合适的激活函数也是ANN研究发展的重要内容。由于人工神经网络具有很强的非线性多变量数据的能力,已经在多组分非线性标定与预报中展现出诱人的前景。人工神经网络在工程领域中的应用前景越来越宽广。 1人工神经网络基本理论[1] 1.1神经生物学基础 可以简略地认为生物神经系统是以神经元为信号处理单元,通过广泛的突触联系形成的信息处理集团,其物质结构基础和功能单元是脑神经细胞即神经元(neu ron)。(1)神经元具有信号的输入、整合、输出三种主要功能作用行为。突触是整个神经系统各单元间信号传递驿站,它构成各神经元之间广泛的联接。(3)大脑皮质的神经元联接模式是生物体的遗传性与突触联接强度可塑性相互作用的产物,其变化是先天遗传信息确定的总框架下有限的自组织过程。 1.2建模方法 神经元的数量早在胎儿时期就已固定,后天的脑生长主要是指树突和轴突从神经细胞体中长出并形成突触联系,这就是一般人工神经网络建模方法的生物学依据。人脑建模一般可有两种方法:①神经生物学模型方法,即根据微观神经生物学知识的积累,把脑神经系统的结构及机理逐步解释清楚,在此基础上建立脑功能模型。②神经计算模型方法,即首先建立粗略近似的数学模型并研究该模型的动力学特性,然后再与真实对象作比较(仿真处理方法)。 1.3概念 人工神经网络用物理可实现系统来模仿人脑神经系统的结构和功能,是一门新兴的前沿交叉学科,其概念以T.Kohonen.Pr的论述最具代表性:人工神经网络就是由简单的处理单元(通常为适应性)组成的并行互联网络,它的组织能够模拟生物神经系统对真实世界物体所作出的交互反应。 1.4应用领域 人工神经网络在复杂类模式识别、运动控制、感知觉模拟方面有着不可替代的作用。概括地说人工神经网络主要应用于解决下述几类问题:模式信息处理和模式识别、最优化问题、信息的智能化处理、复杂控制、信号处理、数学逼近映射、感知觉模拟、概率密度函数估计、化学谱图分析、联想记忆及数据恢复等。 1.5理论局限性 (1)受限于脑科学的已有研究成果由于生理试验的困难性,目前对于人脑思维与记忆机制的认识尚很肤浅,对脑神经网的运行和神经细胞的内部处理机制还没有太多的认识。 (2)尚未建立起完整成熟的理论体系目前已提出的众多人工神经网络模型,归纳起来一般都是一个由节点及其互连构成的有向拓扑网,节点间互连强度构成的矩阵可通过某种学

《遥感导论》教案.doc

1 单波段摄影像片的解译 (1) 可见光黑白像片和黑白红外像片的解译 (2) 彩色像片与彩红外像片的解译 2 多光谱扫描图像的解译 (1) 多光谱扫描图像的特点 (2) 多光谱扫描图像的解译方法 3 热红外图像的解译 4 雷达图像的解译 (1) 雷达图像的解译要素及其特点 (2) 雷达图像的处理3 目视解译的认知过程 (3) 典型地物的散射特征与图像解译 第八章遥感图像的计算机分类 一、章节教案 1.教学目标及基本要求 (1)回顾数字图像的性质与特点、表示方法; (2)掌握数字图像分类原理、监督分类、非监督分类的具体方法及两种分类方法的区别; (3)了解遥感图像多种特征的抽取; (4)了解基于知识的分类、面向对象的分类、人工神经网络分类、模糊分类等分类方法的原理与过程; (5)掌握遥感图形分类结果的误差与精度评价方法。 2.教学内容及学时分配 第一节概述 第二节监督分类(2学时) 第三节非监督分类(2学时) 第四节其他分类方法(2学时) 第五节误差与精度评价(2学时) 3.教学重点和难点 重点: 数字图像的性质与特点、表示方法、数字图像分类原理、监督分类、非监督分类、遥感图像多种特征的抽取、遥感图像分类的其他先进方法。 难点: 监督分类和非监督分类。 4.教学内容的深化和拓宽 利用ENVI软件和Landsat数据进行演示。 5.教学方式(手段)及教学过程中应注意的问题 教学方式(手段):

讲授法、演示法 教学过程中应注意的问题: 注重培养从的软件操作能力。 6.主要参考书目及网络资源 《遥感技术基础与应用》,张安定等,科学出版社,2014。 《遥感导论》,梅安新,彭望琭,秦其明,等编著,北京:高等教育出版社,2001年。 《遥感概论》,彭望碌主编著,北京:高等教育出版社,2002年。 《遥感概论》修订版,吕国楷、洪启旺、郝允充等编著,北京:高等教育出版社,1995年。 《遥感应用分析原理与方法》,赵英时等编著.北京:科学出版社,2003年。 7.思考题和习题 比较监督分类和非监督分类的优缺点? 二、每课时单元教案 1.教学时数 2学时 2.教学方式(手段) 讲授法、演示法 3.师生活动设计 教师提问,学生回答。 4.讲课提纲、板书设计 采用多媒体教学 5.教学内容 第一节概述 遥感图像的计算机分类,是对给定的遥感图像上所有像元的地表属性进行识别归类的过程。 1.图像分类的物理基础 遥感图像是传感器记录地物发射或反射的电磁辐射的结果,遥感图像中像元的亮度是地物发射或反射光谱特征的反映。 同一类地物在同一波段的遥感图像上应该表现为相同的亮度,在同一图像的多个波段上呈现出相同的亮度变化规律。 不同的地物在同一波段图像上一般表现出互不相同的亮度,在同一图像的多个波段上呈现出各异的亮度变化规律。 在特征空间中?同一地物将会形成一个相对集中的点簇?多类地物会形成多个点簇。 2.特征变量与特征提取

《人工智能导论》课程研究报告总结

《人工智能导论》课程研究报告题目:BP神经网络的非线性函数拟合 班级:自动化1303班 姓名:汪洋、房亮、彭正昌、蔡博、刘航、范金祥 学号: 2016年1月1日

目录 第一章人工智能相关介绍 1.1人工神经网络与matlab (3) 1.2人工神经网络的研究背景和意义 (3) 1.3神经网络的发展与研究现状 (4) 1.4神经网络的应用 (5) 第二章神经网络结构及BP神经网络 (5) 2.1神经元与网络结构 (5) 2.2 BP神经网络及其原理 (9) 2.3 BP神经网络的主要功能 (11) 第三章基于matlab的BP神经网络的非线性函数拟合 3.1运用背景 (5) 3.2模型建立 (9) 3.3MatLab实现 (11) 参考文献 (15) 附录 (17)

人工智能相关介绍 1.1人工神经网络与matlab 人工神经网络(Artificial Neural Networks,NN)是由大量的、简单的处理单元(称为神经元)广泛地互相连接而形成的复杂网络系统,它反映了人脑功能的许多基本特征,是一个高度复杂的非线性动力学系统。神经网络具有大规模并行、分布式存储和处理、自组织、自适应和自学习能力,特别适合处理需要同时考虑许多因素和条件的、不精确和模糊的信息处理问题。神经网络的发展与神经科学、数理科学、认知科学、计算机科学、人工智能、信息科学、控制论、机器人学、微电子学、心理学、微电子学、心理学、光计算、分子生物学等有关,是一门新兴的边缘交叉学科。 神经网络具有非线性自适应的信息处理能力,克服了传统人工智能方法对于直觉的缺陷,因而在神经专家系统、模式识别、智能控制、组合优化、预测等领域得到成功应用。神经网络与其他传统方法相组合,将推动人工智能和信息处理技术不断发展。近年来,神经网络在模拟人类认知的道路上更加深入发展,并与模糊系统、遗传算法、进化机制等组合,形成计算智能,成为人工智能的一个重要方向。 MATLAB是一种科学与工程计算的高级语言,广泛地运用于包括信号与图像处理,控制系统设计,系统仿真等诸多领域。为了解决神经网络问题中的研究工作量和编程计算工作量问题,目前工程领域中较为流行的软件MATLAB,提供了现成的神经网络工具箱(Neural Network Toolbox,简称NNbox),为解决这个矛盾提供了便利条件。神经网络工具箱提供了很多经典的学习算法,使用它能够快速实现对实际问题的建模求解。在解决实际问题中,应用MATLAB 语言构造典型神经网络的激活传递函数,编写各种网络设计与训练的子程序,网络的设计者可以根据需要调用工具箱中有关神经网络的设计训练程序,使自己能够从烦琐的编程中解脱出来,减轻工程人员的负担,从而提高工作效率。 1.2 人工神经网络的研究背景和意义 人工神经网络是由具有适应性的简单单元组成的广泛并行互连的网络,它的组织能够模拟生物神经系统对真实世界物体所作出的交互反应。 人工神经网络就是模拟人思维的一种方式,是一个非线性动力学系统,其特色在于信息的分布式存储和并行协同处理。虽然单个神经元的结构极其简单,功能有限,但大量神经元构成的网络系统所能实现的行为却是极其丰富多彩的。 近年来通过对人工神经网络的研究,可以看出神经网络的研究目的和意义有以下三点:(1)通过揭示物理平面与认知平面之间的映射,了解它们相互联系和相互作用的机理,从而揭示思维的本质,探索智能的本源。(2)争取构造出尽可能与人脑具有相似功能的计算机,即神经网络计算机。(3)研究仿照脑神

人工智能 经典考试试题答案

一、选择题(每题1分,共15分) 1、AI的英文缩写是 A)Automatic Intelligence B)Artifical Intelligence C)Automatice Information D)Artifical Information 2、反演归结(消解)证明定理时,若当前归结式是()时,则定理得证。 A)永真式B)包孕式(subsumed)C)空子句 3、从已知事实出发,通过规则库求得结论的产生式系统的推理方式是 A)正向推理B)反向推理C)双向推理 4、语义网络表达知识时,有向弧AKO 链、ISA 链是用来表达节点知识的()。 A)无悖性B)可扩充性C)继承性 5、(A→B)∧A => B是 A)附加律B)拒收律C)假言推理D)US 6、命题是可以判断真假的 A)祈使句B)疑问句C)感叹句D)陈述句 7、仅个体变元被量化的谓词称为 A)一阶谓词B)原子公式C)二阶谓词D)全称量词 8、MGU是 A)最一般合一B)最一般替换C)最一般谓词D)基替换 9、1997年5月,著名的“人机大战”,最终计算机以3.5比2.5的总比分将世界国际象棋棋王卡斯帕罗夫击败,这台计算机被称为() A)深蓝B)IBM C)深思D)蓝天 10、下列不在人工智能系统的知识包含的4个要素中 A)事实B)规则C)控制和元知识D)关系 11、谓词逻辑下,子句, C1=L∨C1‘, C2= ? L∨C2‘,若σ是互补文字的(最一般)合一置换,则其归结式C=() A) C1’σ∨C2’σB)C1’∨C2’C)C1’σ∧C2’σD)C1’∧C2’ 12、或图通常称为 A)框架网络B)语义图C)博亦图D)状态图 13、不属于人工智能的学派是 A)符号主义B)机会主义C)行为主义D)连接主义。 14、人工智能的含义最早由一位科学家于1950年提出,并且同时提出一个机器智能的测试模型,请问这个科学家是 A)明斯基B).扎德C)图林D)冯.诺依曼 15.要想让机器具有智能,必须让机器具有知识。因此,在人工智能中有一个研究领域,主要研究计算机如何自动获取知识和技能,实现自我完善,这门研究分支学科叫()。 A)专家系统B)机器学习C)神经网络D)模式识别 二、填空题(每空1.5分,共30分) 1、不确定性类型按性质分:,, ,。 2、在删除策略归结的过程中删除以下子句:含有的子句;含 有的子句;子句集中被别的子句的子句。 3、对证据的可信度CF(A)、CF(A1)、CF(A2)之间,规定如下关系: CF(~A)=、CF(A1∧A2 )=、 CF(A1∨A2 )= 4、图:指由和组成的网络。按连接同一节点的各边的逻辑关系又可分为和。 5、合一算法:求非空有限具有相同谓词名的原子公式集的 6、产生式系统的推理过程中,从可触发规则中选择一个规则来执行,被执行的规则称为。

智能控制导论论文(人工神经网络)

智 能 控 制 导 论 论 文 ●系别: ●班级: ●学号: ●姓名: ●日期:

人工神经网络 关键词:人工神经网络、产生、发展、应用 内容摘要: 人工神经网络是二十世纪科学技术所取得的重大成果之一,是人类认识自然道路上的又一座里程碑。90年代以来,国际学术界掀起了研究人工神经网络的热潮,但是探讨其哲学思想方面的研究相对薄弱。我们知道,任何一门影响巨大、意义深远的科学技术,其发展过程必然揭示了科学技术发展的基本规律以及影响其发展的主要因素。 人工神经网络(Artificial Neural Networks, ANN),一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型。这种网络依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而达到处理信息的目的。人工神经网络具有自学习和自适应的能力,可以通过预先提供的一批相互对应的输入-输出数据,分析掌握两者之间潜在的规律,最终根据这些规律,用新的输入数据来推算输出结果,这种学习分析的过程被称为“训练”。人工神经网络是一门发展十分迅速的交叉学科,它是由大量处理单元组成的非线性大规模自适应动力系统,具有学习能力、记忆能力、计算能力以及智能处理能力,并在不同程度和层次上模仿人脑神经系统的信息处理、存储及检索功能。同时,人工神经网络具有非线性、非局域性、非定常性、非凸性等特点,因此在智能控制、模式识别、计算机视觉、自适应滤波和信号处理、非线性优化、自动目标识别、连续语音识别、声纳信号的处理、知识处理、智能传感技术与机器人、生物医学工程等方面都有了长足的发展。 人工神经网络产生的背景 自古以来,关于人类智能本源的奥秘,一直吸引着无数哲学家和自然科学家的研究热情。生物学家、神经学家经过长期不懈的努力,通过对人脑的观察和认识,认为人脑的智能活动离不开脑的物质基础,包括它的实体结构和其中所发生的各种生物、化学、电学作用,并因此建立了神经元网络理论和神经系统结构理论,而神经元理论又是此后神经传导理论和大脑功能学说的基础。在这些理论基础之上,科学家们认为,可以从仿制人脑神经系统的结构和功能出发,研究人类智能活动和认识现象。另一方面,19世纪之前,无论是以欧氏几何和微积分为代表的经典数学,还是以牛顿力学为代表的经典物理学,从总体上说,这些经典科学都是线性科学。然而,客观世界是如此的纷繁复杂,非线性情况随处可见,人脑神经系统更是如此。复杂性和非线性是连接在一起的,因此,对非线性科学的研究也是我们认识复杂系统的关键。为了更好地认识客观世界,我们必须对非线性科学进行研究。人工神经网络作为一种非线性的、与大脑智能相似的网络模型,就这样应运而生了。所以,人工神经网络的创立不是偶然的,而是20世纪初科学技术充分发展的产物。 发展历史 人工神经网络的研究始于20世纪40年代,至今已有60多年的历史,其发展很不平衡,既有其繁花似锦、兴旺昌盛的高速发展期,又有其困难重重、步履维艰的低潮期,甚至曾经有人对此理论持悲观态度,认为该理论“已走入死胡同,无发展的余地”。

人工神经网络基础_ANN课程笔记 2、深度神经网络

第二章深度神经网络 一、概述 1、基本概念 深度学习(Deep Learning)是一种没有人为参与的特征选取方法,又被称为是无监督的特征学习(Unsupervised Feature Learning)。 深度学习思想的神经网络利用隐含层从低到高依次学习数据的从底层到高层、从简单到复杂、从具体到抽象的特征,而这一特性决定了深度学习模型可以学习到目标的自适应特征,具有很强的鲁棒性。 深度学习的另外一个思想是贪婪算法(greedy algorithm)的思想,其在训练的时候打破了几十年传统神经网络训练方法的“桎梏”,采用逐层训练(greedy layer-wise)的贪婪思想,并经过最后的微调(fine-tuning),这一训练算法的成功也使得深度学习获得了巨大成功。 传统的模式识别方法: 机器学习过程 从最初的传感器得到原始的数据,到经过预处理,都是为了第三步和第四步的特征提取和特征选择,而这个耗时耗力的工作一般要靠人工完成。 这种靠人工的,需要大量的专业知识的启发式的特征提取方法注定要限制机器学习的发展,而深度学习的非监督学习阶段的“盲学习”的特性能够解决该问题,即:深度学习在特征提取和选择时是完全自主的,不需要任何的人工干预。 2、神经网络发展受限之处

?多隐含层的网络容易收敛到参数空间的局部最优解,即偏导数为0 的点,尤其在目标识别中,由于图像的信噪比很低,神经网络很容易陷入局部极小点;?训练算法与网络的初始参数有很大关系,比较容易过拟合; ?训练速度慢; ?在误差反向传播的训练算法中,层数越深,误差越小,甚至接近于0,造成训练失败。 ?误差反向传播算法必须要用到带标签的数据(有导师学习、监督学习),获取带标签的数据十分困难。 3、深度学习的学习算法 深度学习的基本模型从形式上来看和神经网络一致,基本的结构单元都是神经元,由神经元组成网络层,整个网络由输入层,隐含层和输出层组成。 在深度学习理论中,一个网络的学习算法每运行一次,只调整一层网络的参数。在依次对所有层进行这种贪婪(greedy)算法训练之后,再对网络进行一次整体调优(fine-tune),其中第一步称之为预训练(pre-training)。这是整个深度学习理论中的训练算法思想。 在这种训练方式下,即先经过贪婪训练,再整体调优,高维度参数空间中的局部极小点对于最终的训练结果造成的影响可以忽略。 将深度学习的训练思想与误差反向传播算法相对比,将算法第一步的贪婪算法看作是对网络参数的初始化,第二步的整体调优实际中一般用的就是误差反向传播算法,因此深度学习训练算法第一步可以看作是对BP 神经网络进行一个参数空间上比较“合理”的即比较容易达到最优解的初始化,而这种初始化的方式要比误差反向传播算法的初始化方法(随机初始化)要“高明”的多,因为其更有理

人工神经网络综述

人工神经网络综述 摘要:人工神经网络是属于人工智能的一个组成部分,它的提出是基于现代神经科学的相关研究,并且在诸多领域得到了广泛的应用,为人工智能化的发展提供了强大的动力。首先论述了人工神经网络的发展历程,并介绍了几种常见的模型及应用现状,最后总结了当前存在的问题及发展方向。 关键词:神经网络、分类、应用 0引言 多年以来,科学家们不断从医学、生物学、生理学、哲学、信息学、计算机科学、认知学、组织协同学等各个角度探索人脑工作的秘密,希望能制作模拟人脑的人工神经元。特别是近二十年来。对大脑有关的感觉器官的仿生做了不少工作,人脑含有数亿个神经元,并以特殊的复杂形式组成在一起,它能够在计算某些问题(如难以用数学描述或非确定性问题等)时,比目前最快的计算机还要快许多倍。大脑的信号传导速度要比电子元件的信号传导要慢百万倍,然而,大脑的信息处理速度比电子元件的处理速度快许多倍,因此科学家推测大脑的信息处理方式和思维方式是非常复杂的,是一个复杂并行信息处理系统。在研究过程中,近年来逐渐形成了一个新兴的多学科交叉技术领域,称之为“人工神经网络”。神经网络的研究涉及众多学科领域,这些领域互相结合、相互渗透并相互推动。 1人工神经网络概述 1.1人工神经网络的发展 人工神经网络是20世纪80年代以来人工智能领域中兴起的研究热点,因其具有独特的结构和处理信息的方法,使其在许多实际应用中取得了显著成效。 1.1.1人工神经网络发展初期 1943年美国科学家家Pitts和MeCulloch从人脑信息处理观点出发,采用数理模型的方法研究了脑细胞的动作和结构及其生物神经元的一些基本生理特性,他们提出了第一个神经计算模型,即神经元的阈值元件模型,简称MP模型,这是人类最早对于人脑功能的模仿。他们主要贡献在于结点的并行计算能力很强,为计算神经行为的某此方面提供了可能性,从而开创了神经网络的研究。1958年Frank Rosenblatt提出了感知模型(Pereeptron),用来进行分类,并首次把神经网络的研究付诸于工程实践。1960年Bernard Widrow等提出自适应线形元件ADACINE网络模型,用于信号处理中的自适应滤波、预测和模型识别。 1.1.2人工神经网络低谷时期

2008年研究生神经网络试题A卷参考答案

研究生神经网络试题A卷参考答案 一、名词解释(共5题,每题5分,共计25分) 1、泛化能力 答:泛化能力又称推广能力,是机器学习中衡量学习机性能好坏的一个重要指标。泛化能力主要是指经过训练得到的学习机对未来新加入的样本(即测试样本)数据进行正确预测的能力。 2、有监督学习 答:有监督学习又被称为有导师学习,这种学习方式需要外界存在一个“教师”,她可以对一组给定输入提供应有的输出结果,学习系统可根据已知输出与实际输出之间的差值来调节系统参数。 3、过学习 答:过学习(over-fitting),也叫过拟和。在机器学习中,由于学习机器过于复杂,尽管保证了分类精度很高(经验风险很小),但由于VC维太大,所以期望风险仍然很高。也就是说在某些情况下,训练误差最小反而可能导致对测试样本的学习性能不佳,发生了这种情况我们称学习机(比如神经网络)发生了过学习问题。典型的过学习是多层前向网络的BP算法 4、Hebb学习规则 答:如果两个神经元同时兴奋(即同时被激活),则它们之间的突触连接加强。如果用、表示神经元i和j的激活值(输出),表示两个神经元之间的连接权,则Hebb学习规则可以表示为:,这里表示学习速率。Hebb 学习规则是人工神经网络学习的基本规则,几乎所有神经网络的学习规则都可以看作Hebb学习规则的变形。

5、自学习、自组织与自适应性 答:神经网络结构上的特征是处理单元的高度并行性与分布性,这种特征使神经网络在信息处理方面具有信息的分布存储与并行计算而且存储与处理一体化的特点。而这些特点必然给神经网络带来较快的处理速度和较强的容错能力。能力方面的特征是神经网络的自学习、自组织与自性适应性。自适应性是指一个系统能改变自身的性能以适应环境变化的能力,它包含自学习与自组织两层含义。自学习是指当外界环境发生变化时,经过一段时间的训练或感知,神经网络能通过自动调整网络结构参数,使得对于给定输入能产生期望的输出。自组织是指神经系统能在外部刺激下按一定规则调整神经元之间的突触连接,逐渐构建起神经网络。也就是说自组织神经元的学习过程,完全是一种自我学习的过程,不存在外部教师的示教。 二、问答题(共7题,每题8分,共计56分) 1、试述遗传算法的基本原理,并说明遗传算法的求解步骤。 答:遗传算法的基本原理如下:通过适当的编码方式把问题结构变为位串形式(染色体),在解空间中取一群点作为遗传开始的第一代,染色体的优劣程度用一个适应度函数来衡量,每一代在上一代的基础上随机地通过复制、遗传、变异来产生新的个体,不断迭代直至产生符合条件的个体为止。迭代结束时,一般将适应度最高的个体作为问题的解。 一般遗传算法的主要步骤如下: (1) 随机产生一个由确定长度的特征字符串组成的初始群体。 (2) 对该字符串群体迭代的执行下面的步 (a) 和 (b) ,直到满足停止标准: (a) 计算群体中每个个体字符串的适应值; (b) 应用复制、交叉和变异等遗传算子产生下一代群体。 (3) 把在后代中出现的最好的个体字符串指定为遗传算法的执行结果,这个结果可以表示问题的一个解。 2、什么是进化计算?它包括哪些内容?它们的出发点是什么?

相关主题
文本预览
相关文档 最新文档