C++ std:shared_ptr自定义allocator引入内存池
ztj100 2025-01-21 23:12 40 浏览 0 评论
当C++项目里做了大量的动态内存分配与释放,可能会导致内存碎片,使系统性能降低。当动态内存分配的开销变得不容忽视时,一种解决办法是一次从操作系统分配一块大的静态内存作为内存池进行手动管理,堆对象内存分配时从内存池中分配一块类对象大小的内存,释放时并不实际将内存归还给操作系统,而是交给自定义的内存管理模块处理。本文介绍基于std::shared_ptr自定义allocator引入内存池的方法。
尝试重写new和delete运算符
项目中大量使用std::shared_ptr且与多个模块耦合, 如果直接将 std::shared_ptr 重构为手动管理裸指针的实现,改动量太大,而且可能会带来不可预料的问题。于是尝试了重写new和delete运算符并添加了打印,发现 std::shared_ptr 的创建并不会直接调用 new和 delete, 原因在于std::shared_ptr 有自己的内存分配机制。
std::allocate_shared
于是,想到了STL的一大组件 Allocator。C++提供了 std::alloc_shared 函数,可以自定义std::shared_ptr 的内存分配方式,其定义如下:
std::allocate_shared<T>(custom_alloc, std::forward<Args>(args)...);
仅需传入自定义分配器allocator和T的构造参数列表。
实际上, std::make_shared 就是对以上函数进行了封装,使用了默认的分配器。
MemoryPool的使用
内存池直接采用了相关开源项目的定义:
可以选用
https://github.com/DevShiftTeam/AppShift-MemoryPool
或
Fast Efficient Fixed-Sized Memory Pool
MemoryPoolManager 管理内存池的类
- 分配内存池
内存池需要拥有静态生命周期,因此将内存池管理类 MemoryPoolManager 设计为全局单例模式实现,定义Alloc() 和 Free() 方法,实现了内存池与自定义分配器解耦。
- 引入自旋锁实现线程安全
由于使用的相关开源内存池不是线程安全的,因此引入了自旋锁在内存池做内存分配和释放时加锁。自旋锁采用了以下文章中的实现:
Correctly implementing a spinlock in C++
MemoryPoolManager 的完整实现如下:
class MemoryPoolManager {
public:
static MemoryPoolManager& GetInstance();
void* Alloc(size_t sz);
void Free(void* p);
~MemoryPoolManager();
private:
MemoryPoolManager();
MemoryPoolManager(const MemoryPoolManager&)=delete;
MemoryPoolManager& operator=(const MemoryPoolManager&)=delete;
MemoryPool* pool_;
SpinLock spin_lock_;
};
MemoryPoolManager& MemoryPoolManager::GetInstance() {
static MemoryPoolManager instance;
return instance;
}
MemoryPoolManager::MemoryPoolManager() {
pool_ = new MemoryPool();
}
MemoryPoolManager::~MemoryPoolManager() {
std::lock_guard<SpinLock> lock(spin_lock_);
delete pool_;
}
void* MemoryPoolManager::Alloc(size_t sz) {
std::lock_guard<SpinLock> lock(spin_lock_);
return pool_->allocate(sz);
}
void MemoryPoolManager::Free(void* p) {
std::lock_guard<SpinLock> lock(spin_lock_);
pool_->free(p);
}
自定义分配器Custom Allocator
为了使用 std::alloc_shared ,还需要实现 Custom Allocator 。其中包含了需要的函数和别名定义,相关文章可参考: Building Your Own Allocators。以下接口中许多成员在C++20中被移除。
template <typename T>
class CustomAllocator {
public:
using value_type = T;
using size_type = std::size_t;
using difference_type = std::ptrdiff_t;
CustomAllocator() = default;
~CustomAllocator() = default;
template <typename U>
CustomAllocator(const CustomAllocator<U>&) noexcept {}
T* allocate(size_t n) {
return static_cast<T*>(MemoryPoolManager::GetInstance().Alloc(n * sizeof(T)));
}
void deallocate(T* p, size_t) {
MemoryPoolManager::GetInstance().Free(p);
}
size_type max_size() const noexcept {
return std::numeric_limits<size_type>::max() / sizeof(T);
}
private:
template <typename U>
friend class CustomAllocator;
};
其中T* allocate(size_t n)方法实现内存的分配, 直接调用了MemoryPoolManager的 Alloc方法;void deallocate(T* p, size_t) 做内存的释放,直接调用了MemoryPoolManager的 Free 方法。
我们知道 new操作会分配内存并会调用类的构造函数 ,那么allocate 了需要手动调用构造函数吗?
在自定义分配器中,一般不需要手动实现 construct 和 destroy,因为标准库中的 std::allocator_traits 会处理这些工作。std::allocator_traits 默认会使用 placement new 来调用对象的构造函数,并调用对象的析构函数。
相当于在CustomAllocator 中增加以下函数:
template<typename U, typename... Args>
void construct(U* p, Args&&... args) {
::new((void*)p) U(std::forward<Args>(args)...);
}
template<typename U>
void destroy(U* p) {
p->~U();
}
使用std::allocate_shared
接下来就可以使用std::allocate_shared了 ,需传入自定义分配器allocator对象和类的构造函数参数列表。仿照 std::make_shared的实现,基于可变长参数模板做了一层函数封装:
template <typename T, typename... Args>
std::shared_ptr<T> AllocateShared(Args&&... args) {
return std::allocate_shared<T>(CustomAllocator<T>(), std::forward<Args>(args)...);
}
这样,使用AllocateShared 直接就可以返回一个std::shared_ptr<Object>对象:
std::shared_ptr<Object> = AllocateShared<Object>();
实验
对这两种方法进行了对比,使用 AppShift-MemoryPool 作为内存池,一次创建N个 std::shared_ptr<object>的耗时,其中Object的大小大约2kb左右,测试结果如下,引入内存池后有明显性能提升,引入内存池后有明显性能提升,大约快了3倍:
方法\创建数量 | 1000 | 3000 |
std::shared_ptr | 1.8ms | 4.2ms |
std::alloc_shared | 0.6ms | 1.5ms |
完整代码地址
https://github.com/qiangcraft/alloc_shared/
参考
- https://docs.oracle.com/cd/E19205-01/819-3703/15_3.htm
- https://en.cppreference.com/w/cpp/memory/allocator
相关推荐
- 其实TensorFlow真的很水无非就这30篇熬夜练
-
好的!以下是TensorFlow需要掌握的核心内容,用列表形式呈现,简洁清晰(含表情符号,<300字):1.基础概念与环境TensorFlow架构(计算图、会话->EagerE...
- 交叉验证和超参数调整:如何优化你的机器学习模型
-
准确预测Fitbit的睡眠得分在本文的前两部分中,我获取了Fitbit的睡眠数据并对其进行预处理,将这些数据分为训练集、验证集和测试集,除此之外,我还训练了三种不同的机器学习模型并比较了它们的性能。在...
- 机器学习交叉验证全指南:原理、类型与实战技巧
-
机器学习模型常常需要大量数据,但它们如何与实时新数据协同工作也同样关键。交叉验证是一种通过将数据集分成若干部分、在部分数据上训练模型、在其余数据上测试模型的方法,用来检验模型的表现。这有助于发现过拟合...
- 深度学习中的类别激活热图可视化
-
作者:ValentinaAlto编译:ronghuaiyang导读使用Keras实现图像分类中的激活热图的可视化,帮助更有针对性...
- 超强,必会的机器学习评估指标
-
大侠幸会,在下全网同名[算法金]0基础转AI上岸,多个算法赛Top[日更万日,让更多人享受智能乐趣]构建机器学习模型的关键步骤是检查其性能,这是通过使用验证指标来完成的。选择正确的验证指...
- 机器学习入门教程-第六课:监督学习与非监督学习
-
1.回顾与引入上节课我们谈到了机器学习的一些实战技巧,比如如何处理数据、选择模型以及调整参数。今天,我们将更深入地探讨机器学习的两大类:监督学习和非监督学习。2.监督学习监督学习就像是有老师的教学...
- Python 模型部署不用愁!容器化实战,5 分钟搞定环境配置
-
你是不是也遇到过这种糟心事:花了好几天训练出的Python模型,在自己电脑上跑得顺顺当当,一放到服务器就各种报错。要么是Python版本不对,要么是依赖库冲突,折腾半天还是用不了。别再喊“我...
- 神经网络与传统统计方法的简单对比
-
传统的统计方法如...
- 自回归滞后模型进行多变量时间序列预测
-
下图显示了关于不同类型葡萄酒销量的月度多元时间序列。每种葡萄酒类型都是时间序列中的一个变量。假设要预测其中一个变量。比如,sparklingwine。如何建立一个模型来进行预测呢?一种常见的方...
- 苹果AI策略:慢哲学——科技行业的“长期主义”试金石
-
苹果AI策略的深度原创分析,结合技术伦理、商业逻辑与行业博弈,揭示其“慢哲学”背后的战略智慧:一、反常之举:AI狂潮中的“逆行者”当科技巨头深陷AI军备竞赛,苹果的克制显得格格不入:功能延期:App...
- 时间序列预测全攻略,6大模型代码实操
-
如果你对数据分析感兴趣,希望学习更多的方法论,希望听听经验分享,欢迎移步宝藏公众号...
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- idea eval reset (50)
- vue dispatch (70)
- update canceled (42)
- order by asc (53)
- spring gateway (67)
- 简单代码编程 贪吃蛇 (40)
- transforms.resize (33)
- redisson trylock (35)
- 卸载node (35)
- np.reshape (33)
- torch.arange (34)
- npm 源 (35)
- vue3 deep (35)
- win10 ssh (35)
- vue foreach (34)
- idea设置编码为utf8 (35)
- vue 数组添加元素 (34)
- std find (34)
- tablefield注解用途 (35)
- python str转json (34)
- java websocket客户端 (34)
- tensor.view (34)
- java jackson (34)
- vmware17pro最新密钥 (34)
- mysql单表最大数据量 (35)