第3课 基于信息论的独立分量分析算法

第3课 基于信息论的独立分量分析算法

ID:1340568

大小:382.00 KB

页数:9页

时间:2017-11-10

第3课 基于信息论的独立分量分析算法_第1页
第3课 基于信息论的独立分量分析算法_第2页
第3课 基于信息论的独立分量分析算法_第3页
第3课 基于信息论的独立分量分析算法_第4页
第3课 基于信息论的独立分量分析算法_第5页
资源描述:

《第3课 基于信息论的独立分量分析算法》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库

1、31第3章基于信息论的独立分量分析算法第3章基于信息论的独立分量分析算法3.1引言由于没有任何参照目标,学习只能是自组织的。学习过程的第一步:建立一个以为变元的目标函数,如果某个能使达到极大(小)值,该即为所需的解。第二步:用一种有效的算法求。按照定义的不同和求的方法不同可以构成各种ICA算法。ICA方法可归结为如下式子:ICA方法=目标函数+优化算法。由ICA的性质可知ICA以统计独立为基本原则,统计独立的衡量为ICA算法的关键。因此需选择一个恰当的目标函数。目标函数给定后,可以采用经典的优化算法最优化目标函数,如梯度法、拟牛顿法等。ICA方法的特性取决于目

2、标函数和优化算法两项。ICA方法的统计特性(如一致性、鲁棒性)取决于目标函数的选取;算法特性(收敛速度、内存要求)取决于优化算法的选择。对于同一个目标函数可以有不同的优化算法,同一个优化算法可应用于不同的目标函数。衡量一个优化算法的主要性能指标有收敛速度,占用内存情况,稳定性等。算法的研究可分为基于信息论准则的迭代估计方法和基于统计学的代数方法两大类,从原理上来说,它们都是利用了源信号的独立性和非高斯性。基于信息论的方法研究中,各国学者从最大熵、最小互信息、最大似然和负熵最大化等角度提出了一系列估计算法。如FastICA算法,Infomax算法,最大似然估计算

3、法等。基于统计学的方法主要有二阶累积量、四阶累积量等高阶累积量方法。在此我们主要讨论基于信息论的几种独立分量分析算法。3.2数据的预处理一般情况下,所获得的数据都具有相关性,所以通常都要求对数据进行初步的白化或球化处理,因为白化处理可去除各观测信号之间的相关性,从而简化了后续独立分量的提取过程,而且,通常情况下,数据进行白化处理与不对数据进行白化处理相比,算法的收敛性较好。若一零均值的随机向量满足,其中:为单位矩阵,我们称这个向量为白化向量。白化的本质在于去相关,这同主分量分析的目标是一样的。在ICA中,对于为零均值的独立源信号,有:,且协方差矩阵是单位阵,因

4、此,源信号是白色的。对观测信号,我们应该寻找一个线性变换,使投影到新的子空间后变成白化向量,即:(3.1)其中,为白化矩阵,为白化向量。31第3章基于信息论的独立分量分析算法利用主分量分析,我们通过计算样本向量得到一个变换其中和分别代表协方差矩阵的特征向量矩阵和特征值矩阵。可以证明,线性变换满足白化变换的要求。通过正交变换,可以保证。因此,协方差矩阵:(3.2)再将式代入,且令,有(3.3)由于线性变换连接的是两个白色随机矢量和,可以得出一定是一个正交变换。如果把上式中的看作新的观测信号,那么可以说,白化使原来的混合矩阵简化成一个新的正交矩阵。证明也是简单的:

5、(3.4)其实正交变换相当于对多维矢量所在的坐标系进行一个旋转。在多维情况下,混合矩阵是的,白化后新的混合矩阵由于是正交矩阵,其自由度降为,所以说白化使得ICA问题的工作量几乎减少了一半。白化这种常规的方法作为ICA的预处理可以有效地降低问题的复杂度,而且算法简单,用传统的PCA就可完成。用PCA对观测信号进行白化的预处理使得原来所求的解混合矩阵退化成一个正交阵,减少了ICA的工作量。此外,PCA本身具有降维功能,当观测信号的个数大于源信号个数时,经过白化可以自动将观测信号数目降到与源信号维数相同。3.3基于信息论的独立分量分析算法3.3.1FastICA算法

6、[1][30][31]FastICA算法,又称固定点(Fixed-Point)算法,是由芬兰赫尔辛基大学Hyvärinen等人提出来的。是一种快速寻优迭代算法,与普通的神经网络算法不同的是这种算法采用了批处理的方式,即在每一步迭代中有大量的样本数据参与运算。但是从分布式并行处理的观点看该算法仍可称之为是一种神经网络算法。FastICA算法有基于峭度、基于似然最大、基于负熵最大等形式,这里,我们介绍基于负熵最大的FastICA算法。它以负熵最大作为一个搜寻方向,可以实现顺序地提取独立源,充分体现了投影追踪(Projection31第3章基于信息论的独立分量分析算

7、法Pursuit)这种传统线性变换的思想。此外,该算法采用了定点迭代的优化算法,使得收敛更加快速、稳健。因为FastICA算法以负熵最大作为一个搜寻方向,因此先讨论一下负熵判决准则。由信息论理论可知:在所有等方差的随机变量中,高斯变量的熵最大,因而我们可以利用熵来度量非高斯性,常用熵的修正形式,即负熵。根据中心极限定理,若一随机变量由许多相互独立的随机变量之和组成,只要具有有限的均值和方差,则不论其为何种分布,随机变量较更接近高斯分布。换言之,较的非高斯性更强。因此,在分离过程中,可通过对分离结果的非高斯性度量来表示分离结果间的相互独立性,当非高斯性度量达到最

8、大时,则表明已完成对各独立分量的分离。

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。