首页 . 管理学 . 情报学 . 信息检索 . 信息检索技术 . 特征降维

特征降维

/feature dimensionality reduction/
条目作者李旭晖

李旭晖

最后更新 2023-12-29
浏览 175
最后更新 2023-12-29
浏览 175
0 意见反馈 条目引用

将高维度的特征经过某个映射变换降至低维度特征的过程。

英文名称
feature dimensionality reduction
所属学科
情报学

在机器学习应用场景中,提取出的特征数目往往十分庞大,极易造成维数灾难,使得计算复杂性大大增加。通过降维的方式,可以获得少部分对任务有效的特征,不仅可以节省计算资源,还能够去除相关噪声。

特征降维的方法可分为线性特征降维和非线性特征降维两大类。①线性特征降维方法。最常见的是主分量分析。主分量分析通过求解协方差矩阵的前若干个最大的特征值对应的特征向量来将可能存在相关性的特征转换为一系列线性不相关的特征,这些转换之后的线性不相关的特征即为主分量。由于主分量的数目一般小于原始特征的数目,因此通过主分量分析,可使特征数量大大减少,实现降维目的。②非线性特征降维方法。旨在解决当原始特征之间存在非线性相关时的特征降维问题。核主分量分析是基于主分量分析的非线性特征降维方法,它通过核函数可将特征从低维空间映射到高维空间,使得数据在高维空间中具有更好的特征表达效果。流形学习也是一种非线性特征降维方法,它将高维空间中的数据与潜在的低维流形上的点相映射,从而找到其低维特征表示。此外在机器学习相关领域中,非线性特征降维方法还有随机森林、自组织映射等。

在大多数情况下,降维会造成信息的损失,信息丢失过多会大大降低后续任务的准确率。特征降维的效果需要进行科学的评价才能证明其有效性。而如何评价原始特征与降维后特征的相关度是特征降维的关键问题之一。常用的评价度量方法分为一致性度量和相关性度量两类。一致性度量旨在找出与完整特征集测试结果一致的最小特征子集,也可以用不一致性来相对地解释一致性。相关度一般可以用欧几里得距离、皮尔逊相关系数余弦相似度等来表示,主要用于描述数据或特征之间的相似性。在相关性度量下,如果一个特征与测试结果表明该特征与此结果相关,同时该特征与其他特征的关联性较低,则认为该特征是对该任务有效的特征。

特征降维在机器学习、人工智能等领域被广泛使用。以文本分类为例,可从文本集合中抽取词频最高的前若干个词汇作为原始特征空间,进而采用主分量分析,并将每一个文本表达为主分量空间上的特征向量,投入分类器进行训练。随着相关方面研究的不断深入,特征降维的应用领域也从传统的静态文本分析转向对半结构化或非结构化的互联网数据的挖掘,对多媒体资源的模式识别等。

  • WOLD S, ESBENSEN K H, GELADI P.Principal component analysis.Chemometrics and intelligent laboratory systems,1987,2(1-3):37-52.

相关条目

阅读历史

    意见反馈

    提 交

    感谢您的反馈

    我们会尽快处理您的反馈!
    您可以进入个人中心的反馈栏目查看反馈详情。
    谢谢!