百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术分类 > 正文

从实践的角度理解主成分分析(实践的主体即主观)

ztj100 2024-10-28 21:15 24 浏览 0 评论

主成分分析是提高机器学习算法处理大量数据和特征的性能的最常用方法之一。然而,有时PCA可能太复杂,太技术化,甚至太乏味,无法正确理解基本原理,因此,我决定写这篇文章,以实际的方式阐明每一步,并易于初学者理解。

首先我们需要更好地理解为什么需要在机器学习中使用PCA:

  1. 去除噪声数据:有时在一个数据集中,有太多的数据需要分析,我们是否需要包括或删除它,以提高算法的性能。然而,使用PCA,它会过滤掉噪声数据,只留下突出的数据;
  2. 提高性能:通过从数据集中去除大量不相关的特征,将自动大大减少机器学习中的训练时间;
  3. 简化可视化:太多的特征迫使我们分析太多的图形,这些图形有时看起来很混乱,无论是对我们还是对客户来说,都是为了消化数据。通过去掉那些没有影响的特征,我们将能够简单地将数据可视化,并使其更易于理解;
  4. 减少过拟合:有许多发生过拟合仅仅是因为太多的特征。PCA显然有助于缓解这一问题。

实现

在本文中,我们通过下载的Kaggle数据集实现PCA(https://www.kaggle.com/tomk23/hr-dataset/download)。通过pandas的head函数,我们可以看到数据集的特征和数据如下:

数据清理

如我们所见,原始数据集由10个特征组成,还有一些离散数据。机器学习算法不能消化离散数据,我们需要将它们转换为有序数据。

对于PCA,同样的情况下,需要将销售和薪资特征转换为有序数据,如下所示:

data['salary'] = data['salary'].map( {'low': 1, 'medium': 2, 'high':3} ).astype(int)
data['sales'] = data['sales'].map( {'accounting': 1, 'hr': 2, 'IT':3, 'management':4, 'marketing':5, 'product_mng':6, 'RandD':7, 'sales':8, 'support':9, 'technical':10} ).astype(int)

这将为我们提供一个没有任何离散数据的新数据集,如下所示:

如我们所见,left 特征是一个标签,因此,在接下来的几个步骤中,可以更方便地将其设置在数据列的最左侧,以便进行数据拆分。首先,我们需要将特征转换为列表,以便能够重新排列列。

columns = data.columns.tolist()

然后将left特征放到第一列。

columns.insert(0, columns.pop(columns.index('left')))

然后再次从列表形式转换为列。

data = data.reindex(columns= columns)

相关性矩阵

随后,我们可以通过相关性矩阵分析每个特征之间的相关性,相关矩阵可以通过以下seaborn库构建:

correlation = data.corr()
plt.figure(figsize=(10,10))
sns.heatmap(correlation, vmax=1, square=True,annot=True,cmap='viridis')

plt.title('Correlation between features')

数据划分

由于left特征是一个标签,我们可以对数据集随机化,然后将数据拆分为X和Y,如下X为训练数据,y为标签数据:

X = data.iloc[:,1:10].values
y = data.iloc[:,0].values
X

训练数据如下:

现在我们有9个训练数据的特征:

数据标准化

现在我们已经进入了PCA的第一步,这是数据标准化,这是执行PCA之前的必要步骤。基本上,数据标准化的目的是通过使用平均值和标准差来均衡所有数据。

例如,1-A班的安迪在数学考试中得了80分,满分为100分,标准差为6分,而1-B班的海伦在数学考试中得了320分,因为她的老师用的是450分,标准差为68分。因此,为了了解谁的分数更高,我们用百分比来标准化分数,例如,安迪得到80%,海伦得到71%。这样,我们知道安迪的分数比海伦高。

在Python中,我们可以使用sklearn的StandardScaler函数对数据进行标准化,如下所示:

from sklearn.preprocessing import StandardScaler
X_std = StandardScaler().fit_transform(X)

Sklearn的StandardScaler的原理是用平均值减去值,再除以标准差:

  • z: 标准化数据
  • x: 原始数据
  • μ:平均值
  • σ: 标准差值

平均值:

  • N: 数据数量

标准差:

现在,我们的数据集已经通过使用sklearn函数实现了标准化,输出如下:

协方差矩阵

在标准化之后,我们想再次找出每个特征之间的相关性。这可以通过使用以下公式来实现:

或者可以用如下Python代码:

mean_vec = np.mean(X_std)
cov_mat = (X_std - mean_vec).T.dot((X_std - mean_vec)) / (X_std.shape[0]-1)
print('Covariance matrix', cov_mat)

或者简单地使用Numpy的协方差函数:

print('NumPy covariance matrix:', np.cov(X_std.T))

如果两个代码将提供相同的输出:

求主分量的特征向量和特征值

既然我们通过协方差矩阵了解了每个特征之间的关系,就可以通过计算特征向量和特征值来确定它的主成分。

从上图理解,协方差矩阵被视为A,因此,可以使用下面的Numpy函数来确定特征向量和特征值:

eig_vals, eig_vecs = np.linalg.eig(cov_mat)

print('Eigenvectors', eig_vecs)
print('\nEigenvalues', eig_vals)

这两个矩阵都显示为:

特征值排序

既然已经找到了特征值和特征向量,我们需要对特征值进行排序,以确定哪个特征向量在数据集中最相关。首先,我们需要将每个特征值和特征向量组合成一列特征对:

eig_pairs = [(np.abs(eig_vals[i]), eig_vecs[:,i]) for i in range(len(eig_vals))]

之后,可以将特征对从最高值到最低值进行排序:

eig_pairs.sort(key=lambda x: x[0], reverse=True)

我们可以得到如下所示的有序特征值:

print('Sorted Eigenvalues:')
for i in eig_pairs:
    print(i[0])

确定主成分

现在我们可以从排序后的特征值中得到主成分。主成分的值,这是所谓的解释方差,表明如何突出一个特征。我们目前有9个不同的主成分,因此我们将产生9个不同的百分比方差。

解释方差可通过以下公式确定:

tot = sum(eig_vals)
var_exp = [(i / tot)*100 for i in sorted(eig_vals, reverse=True)]

然后我们可以使用Matplotlib绘制出每个主成分的值:

with plt.style.context('bmh'):
    plt.figure(figsize=(6, 4))
    
plt.bar(range(9), var_exp, alpha=0.5, align='center')
    plt.ylabel('Explained Variance')
    plt.xlabel('Principal components')
    plt.tight_layout()

通过上面的图表,我们可以确定最大方差在20.5%左右。最后两个特征与其他特征相比影响比较小,因为它们的方差小于7.5%。因此,我们可以放弃这两个特征。

构造新矩阵

既然决定去掉最后两个特征,我们就可以构造只包含前7个特征的新矩阵。

PCA_matrix = np.hstack((eig_pairs[0][1].reshape(9,1), 
                      eig_pairs[1][1].reshape(9,1),
                      eig_pairs[2][1].reshape(9,1), 
                      eig_pairs[3][1].reshape(9,1),
                      eig_pairs[4][1].reshape(9,1), 
                      eig_pairs[5][1].reshape(9,1),
                      eig_pairs[6][1].reshape(9,1),
                    ))

然后利用点积法,利用Y=X?W建立新的特征空间。

Y = X_std.dot(PCA_matrix)

然后我们可以创建一个新的数据集,其中包含每个主成分的数据,包括如下标签:

principalDf = pd.DataFrame(data = Y , columns = ['principal component 1', 'principal component 2', 'principal component 3', 'principal component 4', 'principal component 5', 'principal component 6', 'principal component 7']) 
finalDf = pd.concat([principalDf,pd.DataFrame(y,columns = ['left'])], axis = 1)

这将为我们提供一个新的数据集,该数据集已通过PCA处理为:

结论

关于放弃多少特征,我们有很多选择,无论是放弃2个还是3个,甚至只留下2个特征。我们已经明白,至少第一个特征是最突出的一个。因此,通过机器学习算法,如线性回归、随机森林等,处理这类数据的速度要比处理整个数据集快得多。

希望这篇文章能帮助你更多的了解PCA,谢谢阅读。

相关推荐

再说圆的面积-蒙特卡洛(蒙特卡洛方法求圆周率的matlab程序)

在微积分-圆的面积和周长(1)介绍微积分方法求解圆的面积,本文使用蒙特卡洛方法求解圆面积。...

python编程:如何使用python代码绘制出哪些常见的机器学习图像?

专栏推荐...

python创建分类器小结(pytorch分类数据集创建)

简介:分类是指利用数据的特性将其分成若干类型的过程。监督学习分类器就是用带标记的训练数据建立一个模型,然后对未知数据进行分类。...

matplotlib——绘制散点图(matplotlib散点图颜色和图例)

绘制散点图不同条件(维度)之间的内在关联关系观察数据的离散聚合程度...

python实现实时绘制数据(python如何绘制)

方法一importmatplotlib.pyplotaspltimportnumpyasnpimporttimefrommathimport*plt.ion()#...

简单学Python——matplotlib库3——绘制散点图

前面我们学习了用matplotlib绘制折线图,今天我们学习绘制散点图。其实简单的散点图与折线图的语法基本相同,只是作图函数由plot()变成了scatter()。下面就绘制一个散点图:import...

数据分析-相关性分析可视化(相关性分析数据处理)

前面介绍了相关性分析的原理、流程和常用的皮尔逊相关系数和斯皮尔曼相关系数,具体可以参考...

免费Python机器学习课程一:线性回归算法

学习线性回归的概念并从头开始在python中开发完整的线性回归算法最基本的机器学习算法必须是具有单个变量的线性回归算法。如今,可用的高级机器学习算法,库和技术如此之多,以至于线性回归似乎并不重要。但是...

用Python进行机器学习(2)之逻辑回归

前面介绍了线性回归,本次介绍的是逻辑回归。逻辑回归虽然名字里面带有“回归”两个字,但是它是一种分类算法,通常用于解决二分类问题,比如某个邮件是否是广告邮件,比如某个评价是否为正向的评价。逻辑回归也可以...

【Python机器学习系列】拟合和回归傻傻分不清?一文带你彻底搞懂

一、拟合和回归的区别拟合...

推荐2个十分好用的pandas数据探索分析神器

作者:俊欣来源:关于数据分析与可视化...

向量数据库:解锁大模型记忆的关键!选型指南+实战案例全解析

本文较长,建议点赞收藏,以免遗失。更多AI大模型应用开发学习视频及资料,尽在...

用Python进行机器学习(11)-主成分分析PCA

我们在机器学习中有时候需要处理很多个参数,但是这些参数有时候彼此之间是有着各种关系的,这个时候我们就会想:是否可以找到一种方式来降低参数的个数呢?这就是今天我们要介绍的主成分分析,英文是Princip...

神经网络基础深度解析:从感知机到反向传播

本文较长,建议点赞收藏,以免遗失。更多AI大模型应用开发学习视频及资料,尽在...

Python实现基于机器学习的RFM模型

CDA数据分析师出品作者:CDALevelⅠ持证人岗位:数据分析师行业:大数据...

取消回复欢迎 发表评论: