您的当前位置:首页正文

中科院模式识别考题总结(详细答案)

2021-04-02 来源:客趣旅游网


1 .简述模式的概念及其直观特性,模式识别的分类,有

哪几种方法。(6')

答(1):什么是模式?广义地说,存在于时间和空间中可观察的物体,如果我们可以区别它们是否相 同或是否相似,都可以称之为模式。

模式所指的不是事物本身,而是从事物获得的信息,因此,模式往往表现为具有时间和空间分布的信 息。 模式的直观特性:可观察性;可区分性;相似性. 答(2):模式识别的分类:

假说的两种获得方法(模式识别进行学习的两种方法): • •

监督学习、概念驱动或归纳假说: 非监督学习、数据驱动或演绎假说。

模式分类的主要方法: •

数据聚类:用某种相似性度量的方法将原始数据组织成有意义的和有用的各种数据集。是一种 非监督学习的方法,解决方案是数据驱动的。 •

统计分类:基于概率统计模型得到各类别的特征向量的分布,以取得分类的方法。特征向量分 布的获得是基于一个类别已知的训练样本集。是一种监督分类的方法,分类器是概念驱动的。 • •

结构模式识别:该方法通过考虑识别对象的各部分之间的联系来达到识别分类的目的。(句法模 式识别) 神经网络:由一系列互相联系的、相同的单元(神经元)组成。相互间的联系可以在不同的神 经元之间传递增强或抑制信号。增强或抑制是通过调整神经元相互间联系的权重系数来(weight) 实现。神经网络可以实现监督和非监督学习条件下的分类。

2 .什么是神经网络?有什么主要特点?选择神经网络模式应该考虑什么因素?(8,)

• (1 ):所谓△工神经网络就是基于模仿生物大脑的结构和功能而构成的二种值息处理系统计算机Z

由于我们建立的信息处理系统实际上是模仿生理神经网络, 的因此称它为人工神经网络。这种网络依靠系统 从复杂程度,通过调整内部大量节点之间相互连接的关系, 人工而达到处理信息的目的。 神经网络的两种操作过程:训练学习、正常操作 答(2):(回忆操作)。 人工神经网络的特点:

• • • •

固有的并行结构和并行处理; 知识的分布存储, 有较强的容错性, 有一定的自适应性,

人工神经网络的局限性: • • • • • • 包括I

• •

网络大小; 所需输出类型:

人工神经网络不适于高精度的计算; 人工神经网络不适于做类似顺序计数的工作; 人工神经网络的学习和训练往往是一个艰难的过程; 人工神经网络必须克服时间域顺序处理方面的困难; 硬件限制:

正确的训练数据的收集。

的要求和人工神经网络模型的能力间的匹配,主要考虑

答⑶:选取人工神经网络模型,要基于 因索

• • •

联想记忆类型, 训练方法; 时间的限定.

3 .画出句法模式识别的框图,并解释其工作原理。(8,)

答(1):句法模式识别框图如下:

答(2):句法模式识别系统的组成:图像预处理,图像分割,基元及其关系识别,句法分析。

基于描述模式的结构信息,用形式语言中的规则进行分类,可以更典型地应用于景物图片的分析。 因为在这类问题中,所研究的模式通常十分复杂,需要的特征也很多,仅用数值上的特征不足以反映 它们的类别。

句法模式识别系统处理过程:基元本身包含的结构信息已不多,仅需少量特征即可识别。如果用有限 个字符代表不同的基元,则由基元按一定结构关系组成的子图或图形可以用一个有序的字符串来代表。假 如事先用形式语音的规则从字符串中推断出能生成它的文法,则可以通过句法分析,按给定的句法(文法) 来辨识由基元字符组成的句子,从而判别它是否属于由该给定文法所能描述的横式类,达到分类的目的。 4. (1)解释线性判别函数进行模式分类的概念;(2)既然有了线性判别函数,为什么还要用非线性判别 函数进行模式分类?(3)两类模式,每类包括5个3维不同的模式,且良好分布.如果它们是线性可分 的,问权向量至少需要几个系数分量?假如要建立二次的多项式判别函数,又至少需要几个系数分量?(设 模式的良好分布不因模式变化而改变。)(8')

答(1):模式识别系统的主要作用是判别各个模式所属的类别。线性判别函数分类就是使用线性判别 函数将多类样本模式分开。

一个n维线性判别函数的一般形式:

其中” = (% 吗,…,吗尸称为权向量(或参数向量),X= (xpX2,...,Xn)r o

d(x)也可表示为:J(x) = wx

r其中,X = (A:[,*2,…,X\",1)丁称为增广模式向量,WO=(WI,卬2,…,吗,吗+1)丁称为增广权向量。

两类情况:判别函数d(x):

多类情况:设模式可分成助,色,…,%共M类,则有三种划分方法: •

多类情况1

用线性判别函数将属于牡类的模式及不属于外类的模式分开,其判别函数为:

这种情况称为Q /可两分法,即把M类多类问题分成M个两类问题,因此共有M个判别函数,对应 的判别函数的权向量为叱∙,i = 1,2….,n+l。

多类情况2

采用每对划分,即3,∙ I叼两分法,此时•个判别界面只能分开两种类别,但不能把它及其余所有的 界面分开。

其判别函数为:4(x) = Mx若4z(x)>0, Y/\则X£? 重要性质:4二—%

襄分近M类模式*BWIhn也b判别国熨L

不确定区域:若所有41),找不到v∕≠i, 4z∙(x)>0的情况。 •

多类情况3 (多类情况2的特例)

这是没有不确定区域的QI叼两分法。假若多类情况2中的4了可分解成:

djj(x) = di(x)-dj(x) = (wi - wj) X,则 4/>0 相当于 4(x)>dj(x), V/wi。这时不

τ存在不确定区域。此时,对M类情况应有M个判别函数:

即 di(x) > dj(x) , V∕≠Z , i,j = l,2,…M ,则 X ∈ 例,也可写成,若

4G) = max{4(x),k = 1,2,...,M},则XECDi o

该分类的特点是把M类情况分成M-I个两类问题。

模式分类若可用任一个线性函数来划分,则这些模式就称为线性可分的,否则就是非线性可分的。一 旦线性函数的系数Wk被确定,这些函数就可用作模式分类的基础。

对于M类模式的分类,多类情况1需要M个判别函数,而多类情况2需要M*(MT)∕2个判别函数,当

M较大时,后者需要更多的判别式(这是多类情况2的一个缺点)。

采用多类情况1时,每一个判别函数都要把一种类别的模式及其余MT种类别的模式分开,而不是将 一种

类别的模式仅及另一种类别的模式分开。

由于一种模式的分布要比MT种模式的分布更为聚集,因此多类情况2对模式是线性可分的可能性比 多类情况1更大一些(这是多类情况2的一个优点)。

答(2)广义线性判别函数出发点: • • •

线性判别函数简单,容易实现; 非线性判别函数复杂,不容易实现;

若能将非线性判别函数转换为线性判别函数,则有利于模式分类的实现。

采用广义线性判别回教的Ii盒,F以通过增加擎&来得到线性判别匚但缰⅛的大您加会值在低维空

间里在解析和计算上行得通的: 在高雄空间遇到困难,增加计算的复杂性。所以某些情况下使用非线性 判别函

数或分段线性判别函数效果更好。 解(3)假设该两类模式是线性可分的,则在三维空间中一个线性平面可以将这两类模式分开,所以 判别函数可以写成:

所以权向量需要4个系数。

对于n维X向量,采用r次多项式,d(x)的权系数W的项数为: 当 r=2, n=3 时,

所以,此时权向量需要10个系数分量。

5.设一有限态自动机A = ({0,l},{%,q∣,%},N%,%}, b定义如下:

试求等价的正则文法,使得L(G)=T(A)・(10')

解:设由A得一正则文法G = (VNM,尸,S),则九=⑸%,/},%∙={0,l}, S = q。

由3(%, 1)二qI,得生成式S --------- >lxl

由S(%,0) = %,得生成式S ---------- >0,S -------- >0x2

由=

得生成式为 ------- >15

由3(q,0) 二夕2,得生成式为 ------ >0,x1 ------- >0x2 由3(%,1) = %,得生成式电 --------- >lx∣

由S(%,0) = %,得生成式电 --------- >0,x2 ------- >0x2 对比实例:当扫描字符串1110时,A按以下状态序列接受该字符串 用对应的正则文法G推导,得: • 按有限态自动机确定正则文法

给定一个有限态自动机A = (Σ,Q,5,%,产),可确定一个正则文法G = (VN,%,P,S),使得L(G)

=T(A)0

由 Q = {%,%,…,%,/+]},夕〃+ι £ 尸,可确定:½v ={S,XPX2,...,XM,XΛ+I} , S = q0,

Xi= % , Vτ = Σ o

从b求G中的生成式P可按如下原则:

(1) ^δ{qi,a) = qj, W∣J xi → axj

(2)若 3(0, α) = qll+i,则 Xi → α, xi → OXrI+ι

6 . K-均值算法聚类:K=2,初始聚类中心为内,马,数据为:(10')

算法:

第一步:选K个初始聚类中心,z1(l),z2(l),...,zλ(l),其中括号内的序号为寻找聚类中心的迭代 运算的次序

号。可选开始的K个模式样本的向量值作为初始聚类中心。

第二步:逐个将需分类的模式样本{x}按最小距离准则分配给K个聚类中心中的某•个Zj(1)。即 D.(k) =

min{∣∣x-z.(Λ)∣∣,/ = 1,2,∙∙∙/CJ ,则x∈y.(A),其中% 为迭代运算的 次序号,第一次

迭代左=1, Sj表示第,个聚类,其聚类中心为Zj。

第三步:计算各个聚类中心的新的向量值,zyU+ 1)J = 1,2,...,/C

求各聚类域中所包含样本的均值向量:

其中Nj为第j个聚类域Sj中所包含的样本个数。以均值向量作为新的聚类中心,可 使如卜.聚类准则函数最小:

在这一步中要分别计算κ个聚类中的样本均值向量,所以称之为K-均值算法。

第四步:若Zj(Z+ 1) WZj(A),则返回第二步,将模式样本逐个重新分类,重复迭代运算:

若Zj(k + D = Zj(Z),则算法收敛,计算结束。

7 .给出两类模式分布,每一列代表一个样本:

试用K-L变换来做一维特征的提取(12,).

解:首先将所有样本看作一个整体,求出样本均值向量:

由于均值为0,符合K-L变换的最佳条件。如果均值不为0,则所有样本要减去均值向量。由于必和 刃2的样本数相同,所以认为他们的先验概率相同,即:

求出总体的自相关矩阵R或协方差矩阵C: 解特征方程∣H-4∕∣=0,求出H的特征值: 求出对应于特征值的特征向量Ra = λiφi :

选取为对应的特征向量作为变换矩阵①,由y =①得出变换后的一维模式:

8 .用第二类势函数的算法进行分类(10')

选择指数型势函数,取α=L在二维情况下势函数为:

这里:,类为 X①=(0 0)τ, 电(2 0)τ, s2类为 X③=(1 l)τ, X④=(I-I)T

解:可以看出,这两类模式是线性不可分的。穿法步骤如下: 第一步:取入⑴=(O,O)T ∈g ,则 第二步:取玉2)=(2,0)T ∈3

因 exp[-(4+0)J = exp(-4) > 0, 故 K?(x) = KI(X) = exp[-(x12 +x22)] 第三步:取工⑶=(1,1)T ∈fi⅜

因 exp[-(l + 1)J = exp(-2) > 0, 故

后面同理,就是不断将样本带入,如果分类正确,则势函数保持不变,即: 如果分类错误,则有两种情况:

• •

⅛+D ∈ ,K£(X(k+∣)) ≤0,则 Km(X) = Kk(X) + KhIj ⅞<+∣) e%K式々k+∣))N°,则K*x) = KKX)-K(X,4旬)

经过迭代,全部模式都已正确分类,因此算:法收敛于判别函数。 得出:

_ \"[(\"1-1)2+5 T)2 J -e-[(Λl-l)2+(x2+l)2l +e4(x∣-2)2+xl]

9.有一种病,正常为他,不正常为”2 ,已知:

现对某人进行检查,结果为由概率曲线查出: 风险代价矩阵为, 对该检查者进行判决;

(1)用贝叶斯最小错误概率判别,求出判决函数和决策分界面。 (2)用贝叶斯最小风险判别,求出判别函数和决策分界面。

解(1): 由于 所以X∈O 解(2): 由于 所以X∈O

10.阐述误差反传算法(BP算法)的原理,并写出其训练步骤。

答(1):

• BP算法推算过程:

当加入第k个输入时,隐蔽层h结点的输入加权和为:

如果令第一层的加权矩阵为” ,则还可以表示为: 相应节点的输出为: 写成矩阵形式为:

同样,输出层j结点的输入加权和为: 令第二次的加权矩阵为吗,则可以写成: 相应点的输出: 写成矩阵形式为:

这里,各结点的阈值等效为一个连接的加权得力或H⅛,这些连接由各结点连到具有固定值T 的偏置结点,其连接加权也是可调的,同其它加权一样参及调节过程。

误差函数为:

为了使误差函数最小,用梯度下降法求得最优的加权,权值先从输出层开始修正,然后依次修正前层 权值,因此含有反传的含义.根据梯度下降法,由障蔽层到输出层的连接的加权调节量为I

其中为输出结点的误差信号:

1

在BP算法中常采用Sigmoid函数:y = PXs) = ξ ~

1 + 6

其导数为:F'(5)=/(S)(I — JF(S)) = γ(l- y) 对应的误差为:岑=yj(l- yj )(Tj - y;)

k对于输入层到隐蔽层结点连接的加权修正量AWih ,必须考虑将E(W)对wih求导,因此利用分层链 路法,有:

其中:

这样就可以根据AWhj和AW泡分别调整输出层和隐层的权值了。

• BP训练算法实现步骤

准备:设网络具有m层,y;表示第m层中第j个结点的输出,yj (零层输出)等于Xj,即第j 个输入。表示从到y;的连接加权。这里,m代表层号,而不是向量的类号。

1 .(初始化加权矩阵)将各加权随机置为小的随机数。可用均匀分布的随机数,以保证网络不被大的 加

权值所饱和。

2

.(输入数据)从训练数据组中选一数据对(x\),将输入向量加到输入层(m=0),使得对所有

端点i: M) = %/, k表示向量类号。

3 .(输出预测数据)信号通过网络向前传播,即利用关系式:

,计算从第一层开始的各层内每个结点i的输出yj,直到输出层的每个结点的输出计算完为止。

4 5

.(计算输出层误差)计算输出层每个结点的误差值,对SigInod函数:

.(误差反传)计算前面各层各结点的误差值

它是由实际输出和要求目标值之差获得。

这里逐层计算反传误差,直到将每层内每个结点的误差值算出为止。

6

.(修改权值)利用加权修正公式:

修正所有连接权。一般\" = 0.01~L称为训练速率系数。

7 .(运算至权值收敛)返回第2步,为卜.一个输入向量重凭上述步骤,直至网络收敛。

因篇幅问题不能全部显示,请点此查看更多更全内容