使用NumPy从头开始进行K最近邻分类
ztj100 2024-11-21 00:30 20 浏览 0 评论
在这篇文章中,我将实现K最近邻(KNN),这是一种机器学习算法,可用于分类和回归,它属于监督学习算法的范畴。它对标记的数据集进行操作,并预测测试数据的类别(分类)或数值(回归)。
我将使用NumPy实现它,并将使用其他库来实现数据可视化。
import numpy as np
from sklearn.datasets import make_classification
我们首先导入库和函数:
- numpy:它将被用于多维数组的数值计算,因为我们正在处理高维向量。
- make_classification:我们将使用它来创建我们的分类数据集。我们可以决定所需的类和特征的数量,是否要对样本进行聚类等。
def euclidian_distance(a, b):
return np.sqrt(np.sum((a-b)**2, axis=1))
在KNN算法中,我们需要一个函数来计算训练数据点与我们想要分类的数据之间的距离。在这里,我选择了欧氏距离,因为它在机器学习应用中被广泛使用。可以尝试使用其他距离度量,如曼哈顿距离、Chebychev距离等。
def kneighbors(X_test, return_distance=False):
n_neighbors = 5
dist = []
neigh_ind = []
point_dist = [euclidian_distance(x_test, X_train) for x_test in X_test]
for row in point_dist:
enum_neigh = enumerate(row)
sorted_neigh = sorted(enum_neigh, key=lambda x: x[1])[:n_neighbors]
ind_list = [tup[0] for tup in sorted_neigh]
dist_list = [tup[1] for tup in sorted_neigh]
dist.append(dist_list)
neigh_ind.append(ind_list)
if return_distance:
return np.array(dist), np.array(neigh_ind)
return np.array(neigh_ind)
数据点是否接近由上面实现的欧几里得距离函数确定。在这里,数据点之间距离的实际值并不重要,我们感兴趣的是这些距离的顺序。
在训练过程之前,我们选择一个数字作为我们的超参数(k)。因此,例如,当k=5时,我们指的是前5个最近的数据点。
在上面的kneighbors函数中,我们找到测试数据集(我们要分类的数据点)中的每个点与数据集其余部分(即训练数据)之间的距离。我们将这些距离存储在point_dist中,其中每一行对应一个测试数据点到所有训练数据之间的距离列表。我们遍历每一行,对其进行枚举,然后根据距离对它排序。我们枚举每一行的原因是,我们不想丢失用来计算距离的训练数据点的索引,因为我们将在以后引用它们。
sorted_neigh包含测试数据点的前k个最近邻,并且根据其欧氏距离对它们进行排序。然后,我们从sorted_neigh中提取索引和距离值并返回它们。
def predict(X_test, weights='uniform'):
class_num = 3
if weights=='uniform':
neighbors = kneighbors(X_test)
y_pred = np.array([np.argmax(np.bincount(y_train[neighbor])) for neighbor in neighbors])
return y_pred
if weights=='distance':
dist, neigh_ind = kneighbors(X_test, return_distance=True)
inv_dist = 1/dist
mean_inv_dist = inv_dist / np.sum(inv_dist, axis=1)[:, np.newaxis]
proba = []
for i, row in enumerate(mean_inv_dist):
row_pred = self.y_train[neigh_ind[i]]
for k in range(class_num):
indices = np.where(row_pred==k)
prob_ind = np.sum(row[indices])
proba.append(np.array(prob_ind))
predict_proba = np.array(proba).reshape(X_test.shape[0], class_num)
y_pred = np.array([np.argmax(item) for item in predict_proba])
return y_pred
找到k个最近邻后,我们尝试预测我们的测试数据点所属的类。在这里,我们有k个neighbors,每个neighbor在决定类别标签时都有投票权。但是,投票机制可能会根据所选标准而有所不同。在上面的predict函数中,如果权重被选择为一致的,则意味着每个neighbor在决定类别标签时都具有相等的投票权重,而与他们的距离无关。
假设我们的测试数据点有5个最近邻,其中3个属于A类,其中2个属于B类。我们不考虑neighbors之间的距离,因为大部分neighbors都是A类的,所以我们认为测试数据点属于A类。但是,如果选择权重作为距离,那么这意味着neighbors的距离确实很重要。因此,最接近测试数据点的任何neighbor都具有与其距离的倒数成比例的最大权重(投票)。因此,对于前面的例子,如果属于类A的那2个点比其他3个点更接近测试数据点,那么,这个事实本身可能会在决定数据点的类标签时起到很大的作用。
在predict函数中,如果权重是一致的,则很容易预测数据点的标签。首先,我们获得neighbors的索引,然后使用这些索引从训练数据集中获取其相应的类标签。neighbors中的每一行对应于每个测试数据点具有的neighbors集合。然后,我们使用numpy的 bincount函数查找类标签的出现次数,并获取与预测的类标签对应的最大出现次数的索引。
这里,我们找到neighbors距离的均值倒数,并为每个测试数据点计算类概率。
def score(X_test, y_test):
y_pred = predict(X_test)
return float(sum(y_pred == y_test))/ float(len(y_test))
score函数作为一个非常简单的准确度指标广泛用于分类问题。我们只是返回正确分类标签的百分比。这很简单!
from sklearn.datasets import make_classification
X, y = make_classification(n_samples = 1000, n_features=2, n_redundant=0, n_informative=2,
n_clusters_per_class=1, n_classes=3, random_state=21)
mu = np.mean(X, 0)
sigma = np.std(X, 0)
X = (X - mu ) / sigma
我们利用sklearn.dataset的make_classification函数填充数据集。然后,我们通过减去平均值然后除以标准差来对每个数据点进行归一化。
data = np.hstack((X, y[:, np.newaxis]))
np.random.shuffle(data)
split_rate = 0.7
train, test = np.split(data, [int(split_rate*(data.shape[0]))])
X_train = train[:,:-1]
y_train = train[:, -1]
X_test = test[:,:-1]
y_test = test[:, -1]
y_train = y_train.astype(int)
y_test = y_test.astype(int)
创建数据集后,我们在训练阶段实现了随机拆分,从而获得了训练和测试集。
kneighbors(X_test)
现在该测试我们的knn实现了。
predict(X_test)
正如预期的那样,predict函数输出测试数据的预测类标签。
score(X_test, y_test)
#0.99
看起来我们的实现做得还可以,因为它的精确度很高。
K最近邻的类实现
import numpy as np
class KNearestNeighbors():
def __init__(self, X_train, y_train, n_neighbors=5, weights='uniform'):
self.X_train = X_train
self.y_train = y_train
self.n_neighbors = n_neighbors
self.weights = weights
self.n_classes = 3
def euclidian_distance(self, a, b):
return np.sqrt(np.sum((a - b)**2, axis=1))
def kneighbors(self, X_test, return_distance=False):
dist = []
neigh_ind = []
point_dist = [self.euclidian_distance(x_test, self.X_train) for x_test in X_test]
for row in point_dist:
enum_neigh = enumerate(row)
sorted_neigh = sorted(enum_neigh,
key=lambda x: x[1])[:self.n_neighbors]
ind_list = [tup[0] for tup in sorted_neigh]
dist_list = [tup[1] for tup in sorted_neigh]
dist.append(dist_list)
neigh_ind.append(ind_list)
if return_distance:
return np.array(dist), np.array(neigh_ind)
return np.array(neigh_ind)
def predict(self, X_test):
if self.weights == 'uniform':
neighbors = self.kneighbors(X_test)
y_pred = np.array([
np.argmax(np.bincount(self.y_train[neighbor]))
for neighbor in neighbors
])
return y_pred
if self.weights == 'distance':
dist, neigh_ind = self.kneighbors(X_test, return_distance=True)
inv_dist = 1 / dist
mean_inv_dist = inv_dist / np.sum(inv_dist, axis=1)[:, np.newaxis]
proba = []
for i, row in enumerate(mean_inv_dist):
row_pred = self.y_train[neigh_ind[i]]
for k in range(self.n_classes):
indices = np.where(row_pred == k)
prob_ind = np.sum(row[indices])
proba.append(np.array(prob_ind))
predict_proba = np.array(proba).reshape(X_test.shape[0],
self.n_classes)
y_pred = np.array([np.argmax(item) for item in predict_proba])
return y_pred
def score(self, X_test, y_test):
y_pred = self.predict(X_test)
return float(sum(y_pred == y_test)) / float(len(y_test))
在实现所有必要的函数之后,很容易创建knn的类实现。这里只有新添加的_init__函数。
将我们的实现与Sklearn的KNeighborsClassifier进行比较
from sklearn.datasets import load_iris
from KNearestNeighbors import KNearestNeighbors
from sklearn.model_selection import train_test_split
from sklearn.neighbors import KNeighborsClassifier
import pandas as pd
dataset = load_iris()
X = dataset.data
y = dataset.target
mu = np.mean(X, 0)
sigma = np.std(X, 0)
X = (X - mu ) / sigma
X_train, X_test, y_train, y_test = train_test_split(\
X, y, test_size=0.3, random_state=45)
our_classifier = KNearestNeighbors(X_train, y_train, n_neighbors=3)
sklearn_classifier = KNeighborsClassifier(n_neighbors=3).fit(X_train, y_train)
our_accuracy = our_classifier.score(X_test, y_test)
sklearn_accuracy = sklearn_classifier.score(X_test, y_test)
pd.DataFrame([[our_accuracy, sklearn_accuracy]],
['Accuracy'],
['Our Implementation', 'Sklearn\'s Implementation'])
我们自己的实现和sklearn的实现的准确性看起来是基本相同的。
相关推荐
- sharding-jdbc实现`分库分表`与`读写分离`
-
一、前言本文将基于以下环境整合...
- 三分钟了解mysql中主键、外键、非空、唯一、默认约束是什么
-
在数据库中,数据表是数据库中最重要、最基本的操作对象,是数据存储的基本单位。数据表被定义为列的集合,数据在表中是按照行和列的格式来存储的。每一行代表一条唯一的记录,每一列代表记录中的一个域。...
- MySQL8行级锁_mysql如何加行级锁
-
MySQL8行级锁版本:8.0.34基本概念...
- mysql使用小技巧_mysql使用入门
-
1、MySQL中有许多很实用的函数,好好利用它们可以省去很多时间:group_concat()将取到的值用逗号连接,可以这么用:selectgroup_concat(distinctid)fr...
- MySQL/MariaDB中如何支持全部的Unicode?
-
永远不要在MySQL中使用utf8,并且始终使用utf8mb4。utf8mb4介绍MySQL/MariaDB中,utf8字符集并不是对Unicode的真正实现,即不是真正的UTF-8编码,因...
- 聊聊 MySQL Server 可执行注释,你懂了吗?
-
前言MySQLServer当前支持如下3种注释风格:...
- MySQL系列-源码编译安装(v5.7.34)
-
一、系统环境要求...
- MySQL的锁就锁住我啦!与腾讯大佬的技术交谈,是我小看它了
-
对酒当歌,人生几何!朝朝暮暮,唯有己脱。苦苦寻觅找工作之间,殊不知今日之事乃我心之痛,难道是我不配拥有工作嘛。自面试后他所谓的等待都过去一段时日,可惜在下京东上的小金库都要见低啦。每每想到不由心中一...
- MySQL字符问题_mysql中字符串的位置
-
中文写入乱码问题:我输入的中文编码是urf8的,建的库是urf8的,但是插入mysql总是乱码,一堆"???????????????????????"我用的是ibatis,终于找到原因了,我是这么解决...
- 深圳尚学堂:mysql基本sql语句大全(三)
-
数据开发-经典1.按姓氏笔画排序:Select*FromTableNameOrderByCustomerNameCollateChinese_PRC_Stroke_ci_as//从少...
- MySQL进行行级锁的?一会next-key锁,一会间隙锁,一会记录锁?
-
大家好,是不是很多人都对MySQL加行级锁的规则搞的迷迷糊糊,一会是next-key锁,一会是间隙锁,一会又是记录锁。坦白说,确实还挺复杂的,但是好在我找点了点规律,也知道如何如何用命令分析加...
- 一文讲清怎么利用Python Django实现Excel数据表的导入导出功能
-
摘要:Python作为一门简单易学且功能强大的编程语言,广受程序员、数据分析师和AI工程师的青睐。本文系统讲解了如何使用Python的Django框架结合openpyxl库实现Excel...
- 用DataX实现两个MySQL实例间的数据同步
-
DataXDataX使用Java实现。如果可以实现数据库实例之间准实时的...
- MySQL数据库知识_mysql数据库基础知识
-
MySQL是一种关系型数据库管理系统;那废话不多说,直接上自己以前学习整理文档:查看数据库命令:(1).查看存储过程状态:showprocedurestatus;(2).显示系统变量:show...
- 如何为MySQL中的JSON字段设置索引
-
背景MySQL在2015年中发布的5.7.8版本中首次引入了JSON数据类型。自此,它成了一种逃离严格列定义的方式,可以存储各种形状和大小的JSON文档,例如审计日志、配置信息、第三方数据包、用户自定...
你 发表评论:
欢迎- 一周热门
-
-
MySQL中这14个小玩意,让人眼前一亮!
-
旗舰机新标杆 OPPO Find X2系列正式发布 售价5499元起
-
【VueTorrent】一款吊炸天的qBittorrent主题,人人都可用
-
面试官:使用int类型做加减操作,是线程安全吗
-
C++编程知识:ToString()字符串转换你用正确了吗?
-
【Spring Boot】WebSocket 的 6 种集成方式
-
PyTorch 深度学习实战(26):多目标强化学习Multi-Objective RL
-
pytorch中的 scatter_()函数使用和详解
-
与 Java 17 相比,Java 21 究竟有多快?
-
基于TensorRT_LLM的大模型推理加速与OpenAI兼容服务优化
-
- 最近发表
- 标签列表
-
- idea eval reset (50)
- vue dispatch (70)
- update canceled (42)
- order by asc (53)
- spring gateway (67)
- 简单代码编程 贪吃蛇 (40)
- transforms.resize (33)
- redisson trylock (35)
- 卸载node (35)
- np.reshape (33)
- torch.arange (34)
- npm 源 (35)
- vue3 deep (35)
- win10 ssh (35)
- vue foreach (34)
- idea设置编码为utf8 (35)
- vue 数组添加元素 (34)
- std find (34)
- tablefield注解用途 (35)
- python str转json (34)
- java websocket客户端 (34)
- tensor.view (34)
- java jackson (34)
- vmware17pro最新密钥 (34)
- mysql单表最大数据量 (35)