百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术分类 > 正文

用Python进行机器学习(11)-主成分分析PCA

ztj100 2025-06-15 20:40 2 浏览 0 评论

我们在机器学习中有时候需要处理很多个参数,但是这些参数有时候彼此之间是有着各种关系的,这个时候我们就会想:是否可以找到一种方式来降低参数的个数呢?这就是今天我们要介绍的主成分分析,英文是Principal Component Analysis,通常简写为PCAPCA通过线性变换把高维数据投影到低维空间,同时会保留数据的主要特征,这也就是主成分的意思。

听上去有点抽象,让我们来举一个具体的例子,比如我们统计了人的好几个特征,其中就包括人的身高和手臂的长度,因为通常来说人的身高越高手臂的长度也就越长,那么是否这两个特征就可以合并成一个特征呢?注意,这里是把两个特征合并为一个新的特征,不是只使用其中的一个特征

来看一组具体的数据吧,比如我的数据(x,y)的格式包括(1,2.1)、(2,4.3)、(3,6.5)、(4,8.9)、(5,10.9)这么五条数据,我们可以发现每个括号里的x和y大体上符合y是x的2.2倍,那么我们应该就可以对x和y合成一个新的特征。

这里直接来看一下具体的代码范例吧,还是老规矩使用了sklearn这个代码库:

import numpy as np
import matplotlib.pyplot as plt
from sklearn.decomposition import PCA
from sklearn.preprocessing import StandardScaler

# 随机种子
np.random.seed(42)

# 创建示例数据 
mean = [0, 0] # 平均值
cov = [[1, 0.8], [0.8, 1]]  # 协方差
X = np.random.multivariate_normal(mean, cov, 100)

# 数据标准化(PCA通常需要先标准化)
scaler = StandardScaler()
X_scaled = scaler.fit_transform(X)

# 原始数据可视化
plt.figure(figsize=(12, 5))
plt.subplot(1, 2, 1)
plt.scatter(X_scaled[:, 0], X_scaled[:, 1], alpha=0.7)
plt.title('Original 2D Data')
plt.xlabel('Feature 1')
plt.ylabel('Feature 2')
plt.axhline(y=0, color='gray', linestyle='--')
plt.axvline(x=0, color='gray', linestyle='--')
plt.grid(True)

# 应用PCA降为1维
pca = PCA(n_components=1)
X_pca = pca.fit_transform(X_scaled)

# 将1维数据反向投影回2维空间以便可视化
X_reconstructed = pca.inverse_transform(X_pca)

# 可视化降维结果
plt.subplot(1, 2, 2)
# 绘制原始数据点
plt.scatter(X_scaled[:, 0], X_scaled[:, 1], alpha=0.3, label='Original Data')
# 绘制降维后的投影点
plt.scatter(X_reconstructed[:, 0], X_reconstructed[:, 1], alpha=0.7, color='red', label='PCA Projection')
# 绘制主成分方向
plt.quiver(0, 0, pca.components_[0, 0], pca.components_[0, 1], 
           color='green', scale=3, label='Principal Component')
plt.title('PCA: 2D → 1D')
plt.xlabel('Feature 1')
plt.ylabel('Feature 2')
plt.legend()
plt.axhline(y=0, color='gray', linestyle='--')
plt.axvline(x=0, color='gray', linestyle='--')
plt.grid(True)

plt.tight_layout()
plt.show()

# 打印PCA信息
print("主成分方向:", pca.components_[0])
print("解释方差比例:", pca.explained_variance_ratio_[0])

使用PCA的话倒是比较简单,直接实例化一个PCA类的实例,然后调用它的fit_transform方法即可,然后这里需要注意的就是我们使用了inverse_transform来进行升维,这样可以比较方便的和原来的数据做对比。

这里来看一下原始数据的可视化内容,如下:

然后是用PCA做了主成分分析后的数据,如下:

这里的关键要说明的内容就是,我们可以用这串红色的点来近似的代替原来的蓝色的点,而这个红色的点可以理解为蓝色的点在这条线上的投影。我们再看一下控制台的输出吧,如下所示:

我们这里是演示了一个从二维数据向一维数据进行压缩的例子,当然在实际场景中可能会把维数更高的数据压成二维的数据,这样可以方便我们对数据的可视化

相关推荐

再说圆的面积-蒙特卡洛(蒙特卡洛方法求圆周率的matlab程序)

在微积分-圆的面积和周长(1)介绍微积分方法求解圆的面积,本文使用蒙特卡洛方法求解圆面积。...

python编程:如何使用python代码绘制出哪些常见的机器学习图像?

专栏推荐...

python创建分类器小结(pytorch分类数据集创建)

简介:分类是指利用数据的特性将其分成若干类型的过程。监督学习分类器就是用带标记的训练数据建立一个模型,然后对未知数据进行分类。...

matplotlib——绘制散点图(matplotlib散点图颜色和图例)

绘制散点图不同条件(维度)之间的内在关联关系观察数据的离散聚合程度...

python实现实时绘制数据(python如何绘制)

方法一importmatplotlib.pyplotaspltimportnumpyasnpimporttimefrommathimport*plt.ion()#...

简单学Python——matplotlib库3——绘制散点图

前面我们学习了用matplotlib绘制折线图,今天我们学习绘制散点图。其实简单的散点图与折线图的语法基本相同,只是作图函数由plot()变成了scatter()。下面就绘制一个散点图:import...

数据分析-相关性分析可视化(相关性分析数据处理)

前面介绍了相关性分析的原理、流程和常用的皮尔逊相关系数和斯皮尔曼相关系数,具体可以参考...

免费Python机器学习课程一:线性回归算法

学习线性回归的概念并从头开始在python中开发完整的线性回归算法最基本的机器学习算法必须是具有单个变量的线性回归算法。如今,可用的高级机器学习算法,库和技术如此之多,以至于线性回归似乎并不重要。但是...

用Python进行机器学习(2)之逻辑回归

前面介绍了线性回归,本次介绍的是逻辑回归。逻辑回归虽然名字里面带有“回归”两个字,但是它是一种分类算法,通常用于解决二分类问题,比如某个邮件是否是广告邮件,比如某个评价是否为正向的评价。逻辑回归也可以...

【Python机器学习系列】拟合和回归傻傻分不清?一文带你彻底搞懂

一、拟合和回归的区别拟合...

推荐2个十分好用的pandas数据探索分析神器

作者:俊欣来源:关于数据分析与可视化...

向量数据库:解锁大模型记忆的关键!选型指南+实战案例全解析

本文较长,建议点赞收藏,以免遗失。更多AI大模型应用开发学习视频及资料,尽在...

用Python进行机器学习(11)-主成分分析PCA

我们在机器学习中有时候需要处理很多个参数,但是这些参数有时候彼此之间是有着各种关系的,这个时候我们就会想:是否可以找到一种方式来降低参数的个数呢?这就是今天我们要介绍的主成分分析,英文是Princip...

神经网络基础深度解析:从感知机到反向传播

本文较长,建议点赞收藏,以免遗失。更多AI大模型应用开发学习视频及资料,尽在...

Python实现基于机器学习的RFM模型

CDA数据分析师出品作者:CDALevelⅠ持证人岗位:数据分析师行业:大数据...

取消回复欢迎 发表评论: