网站首页

人工智能P2P分享搜索全网发布信息网站地图标签大全

当前位置:诺佳网 > 电子/半导体 > 嵌入式技术 >

线性判别分析LDA背后的数学原理

时间:2023-04-19 11:30

人气:

作者:admin

标签: LDA  线性  函数 

导读:线性判别分析(LDA)是一种降维技术,其目标是将数据集投影到较低维度空间中。线性判别分析也被称为正态判别分析(NDA)或判别函数分析,是Fisher线性判别的推广。...

线性判别分析(LDA)是一种降维技术,其目标是将数据集投影到较低维度空间中。线性判别分析也被称为正态判别分析(NDA)或判别函数分析,是Fisher线性判别的推广。

线性判别分析(LDA)和主成分分析(PCA)都是常用的线性变换技术,用于降低数据的维度。

PCA可以描述为“无监督”算法,因为它“忽略”类别标签,其目标是找到最大化数据集方差的方向(所谓的主成分)。

与PCA不同,LDA是“有监督的”,它计算出能够最大化多个类别之间间隔的轴(“线性判别”)。

图片

LDA是如何工作的?

LDA使用Fisher线性判别方法来区分类别。

Fisher线性判别是一种分类方法,它将高维数据投影到一维空间中,并在这个一维空间中进行分类。

投影最大化类别均值之间的距离,同时最小化每个类别内部的方差。

图片

类别:1、2和3

类别均值:µ1、µ2和µ3

类别间散布:SB1、SB2和SB3

类别内散布:SW1、SW2和SW3

数据集均值:µ

它的思想是最大化类别间散布SB,同时最小化类别内散布SW。

数学公式

图片

图片

动机

  • 寻找一个方向,可以放大类间差异。

  • 最大化投影后的均值之间的(平方)差异。

    (通过找到最大化类别均值之间差异的方向,LDA可以有效地将数据投影到一个低维子空间中,其中类别更容易分离)

图片

  • 最小化每个类别内的投影散布

    (通过找到最大化类别均值之间差异的方向,LDA可以有效地将数据投影到一个低维子空间中,其中类别更容易分离)

    图片

散布

图片

图片

均值差异

图片

散布差异

图片

Fischer 指数

图片

图片

这意味着在选择特征值时,我们将始终选择C-1个特征值及其相应的特征向量。其中,C为数据集中的类别数。

例子

**数据集

**

图片

步骤1:计算类内散布矩阵(SW)

图片

计算每个类别的协方差矩阵

类别1:

图片

Class 1

均值矩阵:

图片

协方差:

图片

图片

图片

将S1到 S5加在一起就得到了 Sc1

图片

类别2:

图片

Class 2

均值矩阵:

图片

图片

和 Sc1一样, 将S6 到S10加到一起, 就得到了协方差 Sc2 -

图片

将Sc1和Sc2相加就得到了类内散布矩阵Sw。

图片

步骤2:计算类间散布矩阵(SB)

图片

我们已经有了类别1和类别2每个特征的均值。

图片

步骤3:找到最佳LDA投影向量

与PCA类似,我们使用具有最大特征值的特征向量来找到最佳投影向量。该特征向量可以用以下形式表示。

图片

我们已经计算得到了SB和SW。

图片

解出lambda后,我们得到最高值lambda = 15.65。现在,对于每个lambda值,解出相应的向量。

图片

图片

图片

步骤4:将样本转换到新子空间上。

图片

因此,使用LDA我们进行了如下转换。

图片

温馨提示:以上内容整理于网络,仅供参考,如果对您有帮助,留下您的阅读感言吧!
相关阅读
本类排行
相关标签
本类推荐

CPU | 内存 | 硬盘 | 显卡 | 显示器 | 主板 | 电源 | 键鼠 | 网站地图

Copyright © 2025-2035 诺佳网 版权所有 备案号:赣ICP备2025066733号
本站资料均来源互联网收集整理,作品版权归作者所有,如果侵犯了您的版权,请跟我们联系。

关注微信