深度聚类的可视化解释(深度聚类存在的问题和研究展望)
ztj100 2024-10-31 16:13 14 浏览 0 评论
作者:Amit Chaudhary
编译:ronghuaiyang
导读
视觉上的自监督学习方法,结合聚类,将无监督转变为有监督。
许多自监督方法使用[pretext tasks](https://amitness.com/2020/02/illustrated-selfsupervision -learning/)来生成代理标签,并将无监督学习问题转化为有监督学习的问题。一些例子包括旋转预测,图像着色,拼图等。然而,这样的pretext任务是依赖于领域的,需要专业知识来设计它们。
DeepCluster是Facebook AI研究的Caron等人提出的一种自监督方法,带来了一种不同的方法。这种方法不需要特定于领域的知识,可以用于学习缺乏注释数据的场景的深层表示。
DeepCluster
DeepCluster结合了两部分:无监督聚类和深度神经网络。提出了一种端到端联合学习深度神经网络参数及其表示的聚类分配的方法。这些特征被迭代地生成和聚合,最后得到一个训练过的模型和标签作为输出结果。
Deep Cluster Pipeline
现在让我们了解一下深度聚类的pipleline是如何工作的。
简介:
如上图所示,将拍摄未标记的图像并对其应用图像增强。然后,使用AlexNet或vgg16等ConvNet架构作为特征提取器。首先,对ConvNet进行随机权值初始化,并在最终的分类头之前从层中取特征向量。然后使用PCA对特征向量进行降维,同时进行白化和L2归一化。最后,将处理后的特征传递到K-means,对每幅图像进行聚类分配。
这些聚类分配被用作伪标签,并训练ConvNet来预测这些聚类。用交叉熵损失来衡量模型的性能。模型训练了100个epoch,每个epoch进行一次聚类的操作。最后,我们可以将学到的表示用于下游任务。
手把手的例子
让我们通过一个从输入数据到输出标签的整个pipeline的一步步例子来看看DeepCluster是如何实际应用的:
1. 训练数据
我们从ImageNet数据集中提取未标记的图像,该数据集包括130万张图像,均匀分布在1000个类中。这些图像的minibatch为256。
N幅图像的训练集在数学上可以表示为:
2. 图像增强
将各种变换应用于图像,以便学习到的不受增强的影响的特征。分别在训练模型学习表示和将图像表示发送到聚类算法时进行了两种不同的增强:
Case 1: 聚类时使用的变换
当要把模型表示送去进行聚类时,不使用随机增强。图像简单地调整为256×256,并使用中心剪裁得到224×224的图像。然后应用归一化。
在PyTorch中,可以这样实现:
from PIL import Image
import torchvision.transforms as transforms
im = Image.open('dog.png')
t = transforms.Compose([transforms.Resize(256),
transforms.CenterCrop(224),
transforms.ToTensor(),
transforms.Normalize(mean=[0.485, 0.456, 0.406],
std=[0.229, 0.224, 0.225])])
aug_im = t(im)
Case 2: 训练模型时候的变换
当模型在图像和标签上进行训练时,我们使用随机增强。图像裁剪为随机大小和高宽比,然后调整为224*224。然后,图像水平翻转的概率为50%。最后,利用ImageNet均值和方差对图像进行归一化。
在PyTorch中,可以这样实现:
from PIL import Image
import torchvision.transforms as transforms
im = Image.open('dog.png')
t = transforms.Compose([transforms.RandomResizedCrop(224),
transforms.RandomHorizontalFlip(),
transforms.ToTensor(),
transforms.Normalize(mean=[0.485, 0.456, 0.406],
std=[0.229, 0.224, 0.225])])
aug_im = t(im)
Sobel变换
一旦我们得到了归一化的图像,我们就把它转换成灰度。然后,我们使用Sobel滤波器增加图像的局部对比度。
下面是改编自作者实现的简化代码片段,我们可以将它应用到上面得到的增强图像aug_im上。
import torch
import torch.nn as nn
# Fill kernel of Conv2d layer with grayscale kernel
grayscale = nn.Conv2d(3, 1, kernel_size=1, stride=1, padding=0)
grayscale.weight.data.fill_(1.0 / 3.0)
grayscale.bias.data.zero_()
# Fill kernel of Conv2d layer with sobel kernels
sobel = nn.Conv2d(1, 2, kernel_size=3, stride=1, padding=1)
sobel.weight.data[0, 0].copy_(
torch.FloatTensor([[1, 0, -1],
[2, 0, -2],
[1, 0, -1]])
)
sobel.weight.data[1, 0].copy_(
torch.FloatTensor([[1, 2, 1],
[0, 0, 0],
[-1, -2, -1]])
)
sobel.bias.data.zero_()
# Combine the two
combined = nn.Sequential(grayscale, sobel)
# Apply
batch_image = aug_im.unsqueeze(dim=0)
sobel_im = combined(batch_image)
3. 确定聚类的数量(类别数)
要进行聚类,我们需要决定聚类的数量。这将是模型将要训练的类的数量。
默认情况下,ImageNet有1000个类,但是本文使用了10,000个聚类,因为这样可以对未标记的图像进行更细粒度的分组。例如,如果你以前有一组猫和狗,你增加聚类,然后可以创建猫和狗品种的分组。
4. 模型结构
本文主要采用AlexNet架构,由5个卷积层和3个全连接层组成。删除LRN层,使用Batch Normalization。也添加了Dropout。使用的卷积尺寸为2012年比赛所用的:96, 256, 384, 384, 256。
另外,本文还尝试用带batch normalization的vgg16替换AlexNet,以查看对性能的影响。
5. 生成初始的标签
为了生成用于训练的模型的初始标签,我们使用随机权重初始化AlexNet,并去除最后一个完全连接的层FC3。我们在图像上对模型进行前向传递,并在图像上取来自模型的第二个全连接层FC2的特征向量。该特征向量的维数为4096。
对整个数据集的batch中的所有图像重复此过程。因此,如果我们有N幅图像,我们将得到一个图像特征矩阵[N, 4096]。
6. 聚类
在聚类之前,对图像特征矩阵进行降维处理。
在降维方面,采用主成分分析(PCA)方法,将特征从4096维降至256维,然后进行白化。本文使用faiss库来进行大规模操作。Faiss提供了一种有效的PCA实现方法,可以应用于图像特征矩阵x:
import faiss
# Apply PCA with whitening
mat = faiss.PCAMatrix(d_in=4096, d_out=256, eigen_power=-0.5)
mat.train(x)
x_pca = mat.apply_py(x)
然后,对PCA后得到的值进行L2归一化处理。
import numpy as np
norm = np.linalg.norm(x_pca, axis=1)
x_l2 = x_pca / norm[:, np.newaxis]
这样,我们最终得到了N幅图像的矩阵(N, 256)。现在对预处理后的特征进行K-means聚类,得到图像及其对应的聚类。这些聚类将充当伪标签,模型将在其上进行训练。
本文使用Johnson的K-means实现,faiss库里有。因为聚类必须在所有图像上运行,所以它需要花费总训练时间的三分之一。
聚类完成后,将创建新的图像batch,这样来自每个聚类的图像都有相同的被包含的机会。对这些图像进行随机增强。
7. 表示学习
一旦我们有了图像和聚类,我们就像训练常规的监督学习一样训练我们的ConvNet模型。我们使用256的batch size,并使用交叉熵损失来比较模型预测和ground truth聚类标签。模型可以学习到有用的表示。
8. 在模型训练和聚类之间切换
这个模型训练了500个epochs。聚类步骤在每个epoch开始时运行一次,为整个数据集生成伪标签。然后,对所有batch继续使用交叉熵损失对卷积神经网络进行常规训练。本文采用动量为0.9、学习率为0.05、权值衰减为10^-5^的SGD优化器。使用用Pascal P100 GPU进行训练。
DeepCluster的代码实现
官方实现:https://github.com/facebookresearch/deepcluster,还有AlexNet和Resnet-50的预训练权重:https://github.com/facebookresearch/deepcluster#pre-trained-models。
英文原文:https://amitness.com/2020/04/deepcluster/
相关推荐
- 如何将数据仓库迁移到阿里云 AnalyticDB for PostgreSQL
-
阿里云AnalyticDBforPostgreSQL(以下简称ADBPG,即原HybridDBforPostgreSQL)为基于PostgreSQL内核的MPP架构的实时数据仓库服务,可以...
- Python数据分析:探索性分析
-
写在前面如果你忘记了前面的文章,可以看看加深印象:Python数据处理...
- C++基础语法梳理:算法丨十大排序算法(二)
-
本期是C++基础语法分享的第十六节,今天给大家来梳理一下十大排序算法后五个!归并排序...
- C 语言的标准库有哪些
-
C语言的标准库并不是一个单一的实体,而是由一系列头文件(headerfiles)组成的集合。每个头文件声明了一组相关的函数、宏、类型和常量。程序员通过在代码中使用#include<...
- [深度学习] ncnn安装和调用基础教程
-
1介绍ncnn是腾讯开发的一个为手机端极致优化的高性能神经网络前向计算框架,无第三方依赖,跨平台,但是通常都需要protobuf和opencv。ncnn目前已在腾讯多款应用中使用,如QQ,Qzon...
- 用rust实现经典的冒泡排序和快速排序
-
1.假设待排序数组如下letmutarr=[5,3,8,4,2,7,1];...
- ncnn+PPYOLOv2首次结合!全网最详细代码解读来了
-
编辑:好困LRS【新智元导读】今天给大家安利一个宝藏仓库miemiedetection,该仓库集合了PPYOLO、PPYOLOv2、PPYOLOE三个算法pytorch实现三合一,其中的PPYOL...
- C++特性使用建议
-
1.引用参数使用引用替代指针且所有不变的引用参数必须加上const。在C语言中,如果函数需要修改变量的值,参数必须为指针,如...
- Qt4/5升级到Qt6吐血经验总结V202308
-
00:直观总结增加了很多轮子,同时原有模块拆分的也更细致,估计为了方便拓展个管理。把一些过度封装的东西移除了(比如同样的功能有多个函数),保证了只有一个函数执行该功能。把一些Qt5中兼容Qt4的方法废...
- 到底什么是C++11新特性,请看下文
-
C++11是一个比较大的更新,引入了很多新特性,以下是对这些特性的详细解释,帮助您快速理解C++11的内容1.自动类型推导(auto和decltype)...
- 掌握C++11这些特性,代码简洁性、安全性和性能轻松跃升!
-
C++11(又称C++0x)是C++编程语言的一次重大更新,引入了许多新特性,显著提升了代码简洁性、安全性和性能。以下是主要特性的分类介绍及示例:一、核心语言特性1.自动类型推导(auto)编译器自...
- 经典算法——凸包算法
-
凸包算法(ConvexHull)一、概念与问题描述凸包是指在平面上给定一组点,找到包含这些点的最小面积或最小周长的凸多边形。这个多边形没有任何内凹部分,即从一个多边形内的任意一点画一条线到多边形边界...
- 一起学习c++11——c++11中的新增的容器
-
c++11新增的容器1:array当时的初衷是希望提供一个在栈上分配的,定长数组,而且可以使用stl中的模板算法。array的用法如下:#include<string>#includ...
- C++ 编程中的一些最佳实践
-
1.遵循代码简洁原则尽量避免冗余代码,通过模块化设计、清晰的命名和良好的结构,让代码更易于阅读和维护...
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- idea eval reset (50)
- vue dispatch (70)
- update canceled (42)
- order by asc (53)
- spring gateway (67)
- 简单代码编程 贪吃蛇 (40)
- transforms.resize (33)
- redisson trylock (35)
- 卸载node (35)
- np.reshape (33)
- torch.arange (34)
- node卸载 (33)
- npm 源 (35)
- vue3 deep (35)
- win10 ssh (35)
- exceptionininitializererror (33)
- vue foreach (34)
- idea设置编码为utf8 (35)
- vue 数组添加元素 (34)
- std find (34)
- tablefield注解用途 (35)
- python str转json (34)
- java websocket客户端 (34)
- tensor.view (34)
- java jackson (34)