0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

内存池主要解决的问题

科技绿洲 来源:Linux开发架构之路 作者:Linux开发架构之路 2023-11-13 15:23 次阅读

内存池的定义

1.池化技术

池 是在计算机技术中经常使用的一种设计模式,其内涵在于:将程序中需要经常使用的核心资源

先申请出来,放到一个池内,由程序自己管理,这样可以提高资源的使用效率,也可以保证本程

序占有的资源数量。 经常使用的池技术包括内存池、线程池和连接池等,其中尤以内存池和线程

池使用最多。

2.内存池

内存池是指程序预先从操作系统申请一块足够大内存,此后,当程序中需要申请内存的时候,不是直接 向操作系统申请,而是直接从内存池中获取;同理,当程序释放内存的时候,并不真正将内存返回给操作系统,而是返回内存池。当程序退出( 或者特定时间 ) 时,内存池才将之前申请的内存真正释放。

3.内存池主要解决的问题

内存池主要解决的当然是效率的问题,其次如果作为系统的内存分配器的角度,还需要解决一下内存碎片的问题。那么什么是内存碎片呢?

图片

再需要补充说明的是内存碎片分为外碎片和内碎片,上面我们讲的外碎片问题。外部碎片是一些空闲的连续内存区域太小,这些内存空间不连续,以至于合计的内存足够,但是不能满足一些的内存分配申请需求。内部碎片是由于一些对齐的需求,导致分配出去的空间中一些内存无法被利用。内碎片问题,我们后面项目就会看到,那会再进行更准确的理解。

4.malloc

C/C++ 中我们要动态申请内存都是通过 malloc 去申请内存,但是我们要知道,实际我们不是直接去堆获取内存的,而malloc 就是一个内存池。 malloc() 相当于向操作系统 “ 批发 ” 了一块较大的内存空间,然后 “ 零售 ” 给程序用。当全部“ 售完 ” 或程序有大量的内存需求时,再根据实际需求向操作系统 “ 进货 ” 。 malloc 的实现方式有很多种,一般不同编译器平台用的都是不同的。比如windows 的 vs 系列用的微软自己写的一套,linux gcc用的 glibc 中的 ptmalloc 。

图片

定长内存池

作为程序员 (C/C++) 我们知道申请内存使用的是 malloc , malloc 其实就是一个通用的大众货,什么场景下都可以用,但是什么场景下都可以用就意味着什么场景下都不会有很高的性能 ,下面我们就先来设计一个定长内存池做个开胃菜,当然这个定长内存池在我们后面的高并发内存池中也是有价值的,所以学习他目的有两层,先熟悉一下简单内存池是如何控制的,第二他会作为我们后面内存池的一个基础组件。

什么是定长内存池?

我们设计这个内存池之前,我们先来设计一个定长的内存池,什么是定长内存池呢,它就像new 一个对象一样,每次new的时候对象的大小是固定的。也就是说申请内存的大小是已经创建出的类的对象固定大小,这个时候相当于我们为这个类创建一个内存池,每次申请的都是这个类的对象大小,为一个确定的值。

定长内存池变量介绍

template< class T >
class ObjectPool
{
 private:
	char* _memory = nullptr; // 指向大块内存的指针
	size_t _remainBytes = 0; // 大块内存在切分过程中剩余字节数
	void* _freeList = nullptr; // 还回来过程中链接的自由链表的头指针
};

图片

因此,定长内存池当中包含三个成员变量:

  • _memory:指向大块内存的指针。
  • _remainBytes:大块内存切分过程中剩余字节数。
  • _freeList:还回来过程中链接的自由链表的头指针。

定长内存池申请一个对象大小空间实现

template< class T >
class ObjectPool
{
public:
	T* New()
	{
		T* obj = nullptr;

		// 优先把还回来内存块对象,再次重复利用
		if (_freeList)
		{
			void* next = *((void**)_freeList);
			obj = (T*)_freeList;
			_freeList = next;
		}
		else
		{
			// 剩余内存不够一个对象大小时,则重新开大块空间
			if (_remainBytes < sizeof(T))
			{
				_remainBytes = 128 * 1024;
				_memory = (char*)malloc(_remainBytes);
				if (_memory == nullptr)
				{
					throw std::bad_alloc();
				}
			}

			obj = (T*)_memory;
			size_t objSize = sizeof(T) < sizeof(void*) ? sizeof(void*) : sizeof(T);
			_memory += objSize;
			_remainBytes -= objSize;
		}

		// 定位new,显示调用T的构造函数初始化
		new(obj)T;

		return obj;
	}

这里有一个很巧妙的构造,为了让释放后的内存块在freelist中链接起来,由于32位下,一个指针的大小是4字节,所以我们可以取这个对象的头四个字节的内容填充下一个回收对象的首地址,这样就实现了把他们链接起来。

还有一处很好的设计,就是我们在32位下指针是4个字节,但是在64位下,指针就是8个字节,我们应该如何来做呢?

(void)在这里就是一个很好的设计,当在64位下的时候,void是指针类型8字节,void也是指针类型,8字节,我对void解引用,得到的是void*8字节,这个时候,我们就可以在64位下拿到前8个字节,而32位下,就void照样是4个字节。这样就使得了void在32位和64位下都适用了。

总结申请步骤:先看回收链表中有没有剩余,如果有的话,将剩余链表中头删一个对象,然后给obj。如果没有了,就看下现在的剩余内存池够不够创建一个对象的,如果不够的话,找系统申请一个128K的空间,然后在新申请的内存空间中切一个obj给他,当然还有一种情况,就是确实有剩余,但是对象本身不够一个指针大小(32位下4字节),这个时候我们就可以直接给他一个指针大小就可以了。

定长内存池释放一个对象大小空间

void Delete(T* obj)
	{
		// 显示调用析构函数清理对象
		obj- >~T();

		// 头插
		*(void**)obj = _freeList;
		_freeList = obj;
	}

图片

就是一个简单的头插即可,但是这个地方要注意的是我们在申请和释放的时候都需要显示的调用我们的构造函数和析构函数,因为在这里创建对象和删除对象的操作都是我们自己写的接口,一旦我们自己写了,系统就不会进行自动调用,我们就必须显示的调用构造函数和析构函数来进行该类的初始化和清理工作,因为构造函数和析构函数的作用并不是仅仅开辟空间和销毁空间,他们也有可能在其中做了很多其他的操作,所以我们必须进行显示调用。

高并发内存池整体框架设计

现代很多的开发环境都是多核多线程,在申请内存的场景下,必然存在激烈的锁竞争问题。 malloc 本身其实已经很优秀,那么我们项目的原型tcmalloc 就是在多线程高并发的场景下更胜一筹,所以这次我们

实现的 内存池需要考虑以下几方面的问题 。

  1. 性能问题。
  2. 多线程环境下,锁竞争问题。
  3. 内存碎片问题。

concurrent memory pool 主要由以下 3 个部分构成:

  1. thread cache :线程缓存是每个线程独有的,用于小于 256KB 的内存的分配, 线程从这里申请内 存不需要加锁,每个线程独享一个 cache ,这也就是这个并发线程池高效的地方 。
  2. central cache :中心缓存是所有线程所共享, thread cache 是 按需从 central cache 中获取 的对象。central cache 合适的时机回收 thread cache 中的对象,避免一个线程占用了太多的内存,而

其他线程的内存吃紧, 达到内存分配在多个线程中更均衡的按需调度的目的 。 central cache 是存

在竞争的,所以从这里取内存对象是需要加锁, 首先这里用的是桶锁,其次只有 thread cache 的

没有内存对象时才会找 central cache ,所以这里竞争不会很激烈 。

  1. page cache :页缓存是在 central cache 缓存上面的一层缓存,存储的内存是以页为单位存储及分配的,central cache 没有内存对象时,从 page cache 分配出一定数量的 page ,并切割成定长大小的小块内存,分配给central cache 。 当一个 span 的几个跨度页的对象都回收以后, page cache 会回收 central cache 满足条件的 span 对象,并且合并相邻的页,组成更大的页,缓解内存碎片 的问题

图片

Threadcache

Threadcache设计框架

之前我们实现定长内存池的时候是一个永远申请一个固定字节的大小,现在我们想要申请随机空间的大小,那么这个时候我们可以采取一个类似于哈希桶的结构,当我们想要开辟某个大小空间的时候,我们就从对应的下标的桶中取出一个对象大小。

图片

内存碎片问题

那么现在问题又来了,我们需要开辟一个多大的哈希桶呢来存储呢?我们这里可以定义最大一次性申请128K的空间,一次性申请超过128K的情况我们后边再说。现在我们是想把这128K划分成不同的情况,因为我们不可能开辟128*1024大小数组,开销太大了,在每次申请的时候,我们都给它申请差不多的空间。

这个时候我们就需要做一个平衡了,就是说我们如果给的空间与实际要的空间差距很小的话,那么证明我们需要开辟数组的大小更大(因为精确度提高,单位密度划线就更大),如果我们开辟的空间与实际需求空间太小,我们就会造成空间的浪费,所以这里我们引入一个机制,就是内存对齐的机制。

那么我们需要开辟多大的空间呢,如果都按照8字节来进行对齐的话,那么就要128*1024/8=32768,所以我们就引入了下面这个机制。

图片

我们计算一下空间的利用率

根据上面的公式,我们要得到某个区间的最大浪费率,就应该让分子取到最大,让分母取到最小。比如129~1024这个区间,该区域的对齐数是16,那么最大浪费的字节数就是15,而最小对齐后的字节数就是这个区间内的前16个数所对齐到的字节数,也就是144,那么该区间的最大浪费率也就是15 ÷ 144 ≈ 10.42 %左右,而1025+128=1052,而最大浪费空间就是127,这个是最小对齐数是127÷1152≈11.02%,同理1023÷9216≈11.10%。也就是说,我们可以把空间碎片率控制在百分之11左右。

FreeList的结构

static void*& NextObj(void* obj)
{
	return *(void**)obj;
}

class FreeList
{
public:
	void Push(void* obj)
	{
		assert(obj);

		// 头插
		//*(void**)obj = _freeList;
		NextObj(obj) = _freeList;
		_freeList = obj;

		++_size;
	}

	void PushRange(void* start, void* end, size_t n)
	{
		NextObj(end) = _freeList;
		_freeList = start;

		_size += n;
	}

	void PopRange(void*& start, void*& end, size_t n)
	{
		assert(n <= _size);
		start = _freeList;
		end = start;

		for (size_t i = 0; i < n - 1; ++i)
		{
			end = NextObj(end);
		}

		_freeList = NextObj(end);
		NextObj(end) = nullptr;
		_size -= n;
	}

	void* Pop()
	{
		assert(_freeList);

		// 头删
		void* obj = _freeList;
		_freeList = NextObj(obj);
		--_size;

		return obj;
	}

	bool Empty()
	{
		return _freeList == nullptr;
	}

	size_t& MaxSize()
	{
		return _maxSize;
	}

	size_t Size()
	{
		return _size;
	}

private:
	void* _freeList = nullptr;
	size_t _maxSize = 1;
	size_t _size = 0;
};

这里就与前面的定长内存池实现就差不多了,size记录freelist的个数,这里统一用Nextobj来直接去这个对象的前四个字节。

根据申请大小计算对齐数及桶号

计算对齐数

static inline size_t RoundUp(size_t bytes)
{
	if (bytes <= 128)
	{
		return _RoundUp(bytes, 8);
	}
	else if (bytes <= 1024)
	{
		return _RoundUp(bytes, 16);
	}
	else if (bytes <= 8 * 1024)
	{
		return _RoundUp(bytes, 128);
	}
	else if (bytes <= 64 * 1024)
	{
		return _RoundUp(bytes, 1024);
	}
	else if (bytes <= 256 * 1024)
	{
		return _RoundUp(bytes, 8 * 1024);
	}
	else
	{
		assert(false);
		return -1;
	}
}


static inline size_t _RoundUp(size_t bytes, size_t alignNum)
{
	size_t alignSize = 0;
	if (bytes%alignNum != 0)
	{
		alignSize = (bytes / alignNum + 1)*alignNum;
	}
	else
	{
		alignSize = bytes;
	}
	return alignSize;
}

我们可以通过这种方式在计算其对齐数的大小,相当于对于一个非对齐数的值,往下加一个对应区间内的对齐数,就是该对齐数的值,比较通俗易懂,而其实谷歌的大佬也为我们提供了另一种写法,是这个样子的,两种达到的效果是一样的。

static inline size_t _RoundUp(size_t bytes, size_t alignNum)
	{
		return ((bytes + alignNum - 1) & ~(alignNum - 1));
	}

二、计算对应的哈希桶桶号

size_t _Index(size_t bytes, size_t alignNum)
	{
	   if (bytes % alignNum == 0)
	  {
	return bytes / alignNum - 1;
	  }
	   else
	   {
	return bytes / alignNum;
	  }
	}

	// 计算映射的哪一个自由链表桶
	static inline size_t Index(size_t bytes)
	{
		assert(bytes <= MAX_BYTES);

		// 每个区间有多少个链
		static int group_array[4] = { 16, 56, 56, 56 };
		if (bytes <= 128){
			return _Index(bytes, 8);
		}
		else if (bytes <= 1024){
			return _Index(bytes - 128, 16) + group_array[0];
		}
		else if (bytes <= 8 * 1024){
			return _Index(bytes - 1024, 128) + group_array[1] + group_array[0];
		}
		else if (bytes <= 64 * 1024){
			return _Index(bytes - 8 * 1024, 1024) + group_array[2] + group_array[1] + group_array[0];
		}
		else if (bytes <= 256 * 1024){
			return _Index(bytes - 64 * 1024, 8*1024) + group_array[3] + group_array[2] + group_array[1] + group_array[0];
		}
		else{
			assert(false);
		}

		return -1;
	}

原理也是显而易见的,我们先计算他在这个区间排在第几个位置,再加上这个区间之前的全部的桶号就是这个申请大小锁要去找的桶号,就是这个桶号的下标。

static inline size_t _Index(size_t bytes, size_t align_shift)
	{
		return ((bytes + (1 < < align_shift) - 1) > > align_shift) - 1;
	}

当然,谷歌程序员也给我们提供了一种更高效的算法,其效果与我们之前实现的是一样的。

static const size_t MAX_BYTES = 256 * 1024;
static const size_t NFREELIST = 208;

按照刚才的设计,计算出来一共是208个桶,我们定义最大申请大小是256K,这样的话就把刚才的内容和现在的联系起来了。

Threadcache类的设计

class ThreadCache
{
public:
	// 申请和释放内存对象
	void* Allocate(size_t size);
	void Deallocate(void* ptr, size_t size);

	// 从中心缓存获取对象
	void* FetchFromCentralCache(size_t index, size_t size);

	// 释放对象时,链表过长时,回收内存回到中心缓存
	void ListTooLong(FreeList& list, size_t size);
private:
	FreeList _freeLists[NFREELIST];
};

// TLS thread local storage
static _declspec(thread) ThreadCache* pTLSThreadCache = nullptr;

TLS无锁获取机制

我们设计的目的是想让每一个线程都可以拿到自己独有的 threadcache,而想要在一个线程中获取到属于自己的资源就必须加锁进行保护,而加锁必定会浪费时间资源,这个地方我们可以使用TLS机制来进行访问。

一、申请内存对象

void* ThreadCache::Allocate(size_t size)
{
	assert(size <= MAX_BYTES);
	size_t alignSize = SizeClass::RoundUp(size);
	size_t index = SizeClass::Index(size);

	if (!_freeLists[index].Empty())
	{
		return _freeLists[index].Pop();
	}
	else
	{
		return FetchFromCentralCache(index, alignSize);
	}
}

原理很简单,就是先判断是否小于256K,然后计算字节对齐数和桶号,在到对应的哈希桶下面去弹出一个桶大小的对象给它,但是如果对应表没有了,那么这个时候我们就需要到对应的下一层centralcache去拿数据了。

二、向中心缓存获取对象

这个时候问题就来了,我们一次向中心缓存获取多少个对象比较好呢,如果一次申请太少,而后面我们需要这个空间大小的对象申请很多的话,那么就会造成频繁向中心缓存申请的问题,造成效率下降,但是如果一次性申请太多的话,用不了就可能造成资源的浪费,所以我们这里可以用一个慢增长的机制。

什么是慢增长机制呢?

就是在申请对象的时候,刚刚开始给1,往后再申请的时候,我们让最大值+1,当然也不能一直加下去,我们可以设定一个最高值,就是用最大申请大小/这个申请大小,来表示这个大小一次性申请的最大上限,然后最终两者取小即可。

void* ThreadCache::FetchFromCentralCache(size_t index, size_t size)
{
	// 慢开始反馈调节算法
	// 1、最开始不会一次向central cache一次批量要太多,因为要太多了可能用不完
	// 2、如果你不要这个size大小内存需求,那么batchNum就会不断增长,直到上限
	// 3、size越大,一次向central cache要的batchNum就越小
	// 4、size越小,一次向central cache要的batchNum就越大
	size_t batchNum = min(_freeLists[index].MaxSize(), SizeClass::NumMoveSize(size));
	if (_freeLists[index].MaxSize() == batchNum)
	{
		_freeLists[index].MaxSize() += 1;
	}

	void* start = nullptr;
	void* end = nullptr;
	size_t actualNum = CentralCache::GetInstance()- >FetchRangeObj(start, end, batchNum, size);
	assert(actualNum > 0);

	if (actualNum == 1)
	{
		assert(start == end);
		return start;
	}
	else
	{
		_freeLists[index].PushRange(NextObj(start), end, actualNum-1);
		return start;
	}
}

三、释放内存对象

void ThreadCache::Deallocate(void* ptr, size_t size)
{
	assert(ptr);
	assert(size <= MAX_BYTES);

	// 找对映射的自由链表桶,对象插入进入
	size_t index = SizeClass::Index(size);
	_freeLists[index].Push(ptr);

	// 当链表长度大于一次批量申请的内存时就开始还一段list给central cache
	if (_freeLists[index].Size() >= _freeLists[index].MaxSize())
	{
		ListTooLong(_freeLists[index], size);
	}
}

void ThreadCache::ListTooLong(FreeList& list, size_t size)
{
	void* start = nullptr;
	void* end = nullptr;
	list.PopRange(start, end, list.MaxSize());

	CentralCache::GetInstance()- >ReleaseListToSpans(start, size);
}

我们先断言一下是否归还的大小大于最大值,然后计算桶号,把归还回来的插入对应的桶,插入桶之后,桶里的对象就增加了,当增加到一定程度的时候我们就应该把一部分对象归还给该对象。

Centralache

Centralache的整体设计

我们在这里选择与threadache哈希桶一一对应的模式,只不过这次挂的并不是一个一个对象了,而是一个又一个span,span块的大小是以页为单位的(这里页我们设计成8K的大小),每一个span都按照对应桶号的字节对齐大小且成了一个又一个的小对象,然后span与span之间的关系我们不再用头四个字节存地址了(因为存的是下一个小对象的地址),我们用双向链表来维护他们之间的关系。

图片

span的结构设计

struct Span
{
	PAGE_ID _pageId = 0; // 大块内存起始页的页号
	size_t  _n = 0;      // 页的数量

	Span* _next = nullptr;	// 双向链表的结构
	Span* _prev = nullptr;

	size_t _useCount = 0; // 切好小块内存,被分配给thread cache的计数
	void* _freeList = nullptr;  // 切好的小块内存的自由链表

	bool _isUse = false;          // 是否在被使用
};

图片

由于是双向循环的链表,我们就按照之前的双向链表来定义前后指针,以及这个span是否正在被使用,以及_usecount来表示用了多少块了,如果usecount=0,就证明全部的内存块都还回来了。以及freelist,就是span下面切的小对象的链表。

在这里我们详细谈一下页号,当我们在32位系统下,我们有2的32次方个地址空间,而64位系统下,有2的64次方个地址空间。我们以8K作为1页的大小,那么32位系统下就有2的19次方页,而64位系统下,就有2的51次方页,这里我们如何来表示页号呢,就可以使用size_t来表示32位的大小,用longlong来表示64位下的大小。

#ifdef _WIN64
	typedef unsigned long long PAGE_ID;
#elif _WIN32
	typedef size_t PAGE_ID;
#else
	// linux
#endif

另外64位下也是可以识别32位的,所以要先把64位下的情况写在前面。

SpanList结构设计

class SpanList
{
public:
	SpanList()
	{
		_head = new Span;
		_head- >_next = _head;
		_head- >_prev = _head;
	}

	Span* Begin()
	{
		return _head- >_next;
	}

	Span* End()
	{
		return _head;
	}

	bool Empty()
	{
		return _head- >_next == _head;
	}

	void PushFront(Span* span)
	{
		Insert(Begin(), span);
	}

	Span* PopFront()
	{
		Span* front = _head- >_next;
		Erase(front);
		return front;
	}

	void Insert(Span* pos, Span* newSpan)
	{
		assert(pos);
		assert(newSpan);

		Span* prev = pos- >_prev;
		// prev newspan pos
		prev- >_next = newSpan;
		newSpan- >_prev = prev;
		newSpan- >_next = pos;
		pos- >_prev = newSpan;
	}

	void Erase(Span* pos)
	{
		assert(pos);
		assert(pos != _head);

		Span* prev = pos- >_prev;
		Span* next = pos- >_next;

		prev- >_next = next;
		next- >_prev = prev;
	}

private:
	Span* _head;
public:
	std::mutex _mtx; // 桶锁
};

这里就是一个简单的双向链表的各种操作,但是唯一与双向链表不同的是,在这里我们定义了一个桶锁,当两个线程需要访问同一个桶的时候,这个时候我们就需要进行加锁了。

Centralache类的设计

class CentralCache
{
public:
	static CentralCache* GetInstance()
	{
		return &_sInst;
	}

	// 获取一个非空的span
	Span* GetOneSpan(SpanList& list, size_t byte_size);

	// 从中心缓存获取一定数量的对象给thread cache
	size_t FetchRangeObj(void*& start, void*& end, size_t batchNum, size_t size);

	// 将一定数量的对象释放到span跨度
	void ReleaseListToSpans(void* start, size_t byte_size);
private:
	SpanList _spanLists[NFREELIST];

private:
	CentralCache()
	{}

	CentralCache(const CentralCache&) = delete;

	static CentralCache _sInst;
};

由于这里不再是单个线程独有的部分了,而是被所有线程共用一个的装置,所以我们需要在这里设计成单例模式,其实不需要设计成饿汉模式,那样的话就比较复杂,在这里设计成懒汉模式就够了。

获取一个新的Span

Span* CentralCache::GetOneSpan(SpanList& list, size_t size)
{
	// 查看当前的spanlist中是否有还有未分配对象的span
	Span* it = list.Begin();
	while (it != list.End())
	{
		if (it- >_freeList != nullptr)
		{
			return it;
		}
		else
		{
			it = it- >_next;
		}
	}

	// 先把central cache的桶锁解掉,这样如果其他线程释放内存对象回来,不会阻塞
	list._mtx.unlock();

	// 走到这里说没有空闲span了,只能找page cache要
	PageCache::GetInstance()- >_pageMtx.lock();
	Span* span = PageCache::GetInstance()- >NewSpan(SizeClass::NumMovePage(size));
	span- >_isUse = true;
	PageCache::GetInstance()- >_pageMtx.unlock();

	// 对获取span进行切分,不需要加锁,因为这会其他线程访问不到这个span

	// 计算span的大块内存的起始地址和大块内存的大小(字节数)
	char* start = (char*)(span- >_pageId < < PAGE_SHIFT);
	size_t bytes = span- >_n < < PAGE_SHIFT;
	char* end = start + bytes;

	// 把大块内存切成自由链表链接起来
	// 1、先切一块下来去做头,方便尾插
	span- >_freeList = start;
	start += size;
	void* tail = span- >_freeList;
	int i = 1;
	while (start < end)
	{
		++i;
		NextObj(tail) = start;
		tail = NextObj(tail); // tail = start;
		start += size;
	}

	// 切好span以后,需要把span挂到桶里面去的时候,再加锁
	list._mtx.lock();
	list.PushFront(span);

	return span;
}

获取一个非空的span,注意span并不是像obj一样分发完了就不存在了,它的结构是一个固定的结构,所以我们每次都要遍历一遍在这个桶的spanlist的链表,看是否有空的span。

如果没有的话我们就应该往下一层pageache中去获取span,获取完成以后,把span的使用设置成正在被使用的状态,这个时候问题又来了,我们获取一个几页的span比较合适呢?

static size_t NumMovePage(size_t size)
	{
		size_t num = NumMoveSize(size);
		size_t npage = num*size;

		npage > >= PAGE_SHIFT;
		if (npage == 0)
			npage = 1;

		return npage;
	}

我们可以先找到对应的申请大小一次往centralache一次最多拿多少个对象,然后用最大申请的对象*每个对象的大小,得到的是threadache一次向centralache最多获取的字节数,然后÷8K就是我们要申请多少页的span。

然后把页号转化为地址,然后把页号*页字节数(8K),就是这个span一共有多少个字节,用本页的起始地址+字节数就是这个span结尾地址,这个时候我们就拿到了span的两端,即start和end。把一个span切成对应对象的大小(先切下一个头节点方便尾插)前4个字节存下一个的地址。

关于锁的问题

         我们这里的加锁是以桶为单位的,只有两个线程访问到了同一个桶的时候,我们这个时候才需要加锁,当centralache不够的时候,需要往pageache中拿而这个时候就可以把桶锁释放掉,因为我们现在是要到pageache中进行操作,而有可能其他线程这个时候正想把一些对象还回来,所以我们这里的操作就是把桶锁放开。

       而我们向pageache拿到一个span后,需要把大锁放开,因为这个span是我们新申请的,其他的线程就算是再去pageache中申请,也不可能拿到当前已经申请完成的span,所以这里我们可以把大锁放开,然后再进行span的切分操作。

      还有一个问题就是,当切分好了对象的span插入到对应的桶的时候,这个时候的在对应的桶里进行插入操作,需要把桶锁加回来,有可能会造成一个线程在插入,另一个线程在获取,两个线程就可能对同一个桶同时进行操作,线程就不安全了。

从中心缓存获取一定数量的对象给thread cache

size_t CentralCache::FetchRangeObj(void*& start, void*& end, size_t batchNum, size_t size)
{
	size_t index = SizeClass::Index(size);
	_spanLists[index]._mtx.lock();

	Span* span = GetOneSpan(_spanLists[index], size);
	assert(span);
	assert(span- >_freeList);

	// 从span中获取batchNum个对象
	// 如果不够batchNum个,有多少拿多少
	start = span- >_freeList;
	end = start;
	size_t i = 0;
	size_t actualNum = 1;
	while ( i < batchNum - 1 && NextObj(end) != nullptr)
	{
		end = NextObj(end);
		++i;
		++actualNum;
	}
	span- >_freeList = NextObj(end);
	NextObj(end) = nullptr;
	span- >_useCount += actualNum;

	_spanLists[index]._mtx.unlock();

	return actualNum;
}

当上层threadache中的对象不够的时候,此时就向中心缓存centralache中的对应位置的哈希桶内获取一个span(刚刚已经写了获取span的函数),在这里定义start和end为输出型参数,把span的头节点给start,因为span已经执行完了切对象的操作(把每个对象个大小的内存块的),所以我们直接通过前4个字节遍历对应span下的_freelist的内存块,获取对应的对象个数,并把获取的结尾位置给end。

当然,有可能因为span中的对象个数不足我们想要获取的,这个时候有多少拿多少,然后每获取一个实际对象,使用块计数++(方便判断都还回来的时候,那时usecount==0,此时就可以归还这个span给pageache),完成操作之后把锁解开。

【误区:这个时候不要担心一次性获取不完足够的对象,然后再去找pageache中获取新的span再拿没获取完的对象,没有必要,因为我们每次申请空间实际上只需要弹出一个对象就够了(因为那1个对象的大小就是经过计算、对齐之后的本次申请大小,大小必然是大于等于我们的申请空间),所以说只要span不为空,只要还有一次对象,相当于就满足了这次的申请空间的需求,而下次再申请的时候,如果对应spanlist中一个对象都没有的话,Getonespan函数就会到对应的pageache获取,所以这里不够时,就多少拿多少就行。】

把threadache中的对象还给span

void CentralCache::ReleaseListToSpans(void* start, size_t size)
{
	size_t index = SizeClass::Index(size);
	_spanLists[index]._mtx.lock();
	while (start)
	{
		void* next = NextObj(start);

		Span* span = PageCache::GetInstance()- >MapObjectToSpan(start);
		NextObj(start) = span- >_freeList;
		span- >_freeList = start;
		span- >_useCount--;

		// 说明span的切分出去的所有小块内存都回来了
		// 这个span就可以再回收给page cache,pagecache可以再尝试去做前后页的合并
		if (span- >_useCount == 0)
		{
			_spanLists[index].Erase(span);
			span- >_freeList = nullptr;
			span- >_next = nullptr;
			span- >_prev = nullptr;

			// 释放span给page cache时,使用page cache的锁就可以了
			// 这时把桶锁解掉
			_spanLists[index]._mtx.unlock();

			PageCache::GetInstance()- >_pageMtx.lock();
			PageCache::GetInstance()- >ReleaseSpanToPageCache(span);
			PageCache::GetInstance()- >_pageMtx.unlock();

			_spanLists[index]._mtx.lock();
		}

		start = next;
	}

	_spanLists[index]._mtx.unlock();
}

void ThreadCache::ListTooLong(FreeList& list, size_t size)
{
	void* start = nullptr;
	void* end = nullptr;
	list.PopRange(start, end, list.MaxSize());

	CentralCache::GetInstance()- >ReleaseListToSpans(start, size);
}

当threadache中的freelist长度超过一次性申请的最大长度MaxSize的时候,我们就可以把threadahche中的MaxSize对象还给centralache,可以利用popRange先把MaxSize对象在threadache中删去,又因为popRange的start与end是输出型参数,我们可以拿到删除部分的头节点,popRange可以把结尾部分的对象的下一个节点是空,所以回收这些对象的时候可以顺着start一直访问到空的时候就可以了。

我们传入size,先计算这个对象在对应的哪一个桶,加上桶锁,然后找到一个对应span(具体怎么对应,后面讲),找出其下面的freelist往里面一个对象一个对象进行头插,每插入一个对象,相当于换回来一个切分块,所以usecount需要进行减一的操作。

当usecount减到0的时候,说明这一个span全部还回来了,这个时候我们就把span继续还给下一层的pageache,然后再把start=next插入下一个对象,直到全部插入完成。

接着来说到锁的问题,当span的usecount==0即都还回来的时候,我们先把span的删除,然后再把这个桶锁放开,因为现在span已经删除,不在链表中,所以其他线程访问不到span,这个时候加大锁去pageache中归还这个span即可。
归还完成之后放开大锁,再把桶锁加上,因为归还的每一个对象不一定来自同一个span,所以下一个对象可能是这个桶中别的span,此时还未归还完,所以要加上再桶锁,具体如何找到对应的span,后面讲。

Pageache

Pageache的整体设计框架

图片

与threadache和centralache不同的是,Pageache的基本单位是span,而其哈希桶下标所对应的下标是表示这个哈希桶挂着的是一个几页的span,这也是方便了centralache向pageache中获取的时候直接以n页的span为目的获取。

Pageache类的设计

class PageCache
{
public:
	static PageCache* GetInstance()
	{
		return &_sInst;
	}

	// 获取从对象到span的映射
	Span* MapObjectToSpan(void* obj);

	// 释放空闲span回到Pagecache,并合并相邻的span
	void ReleaseSpanToPageCache(Span* span);

	// 获取一个K页的span
	Span* NewSpan(size_t k);

	std::mutex _pageMtx;
private:
	SpanList _spanLists[NPAGES];

	std::unordered_map< PAGE_ID, Span* > _idSpanMap;

	PageCache()
	{}
	PageCache(const PageCache&) = delete;


	static PageCache _sInst;
};

(难点)两个关系的转化与映射

页号与地址的对应

图片

由于我们刚开始的时候需要向系统申请一块256K的空间 ,这个空间的地址必然是连续的,既然是连续的,我们的地址其实可以看作16进制,我们把转成十进制后依然是连续的,我们除以每页的大小,就是这个页的页号,然后通过页号1页的大小(这里是4K,41024),就可以找到本页的首地址。

页号与span的对应关系

这个时候重点的来了,我使用的时候拿到的是threadache给我提供的一个个对象,而这一个个对象必然是来自某些span,然后这些对象用完了会随机释放到freelist的中,freelist达到Maxsize个对象就把一些对象还回centralache中的span,现在问题是我怎么知道这些对象之前来自哪个span?

我们退一步说,我们为什么要知道这个对象来自哪个span?或者说我们为什么要建立span和页号的对应关系?原因有两个:
1.我们当时申请内存是申请一大块连续内存,为了高效,我们释放的时候也需要释放一大块连续内存,而申请上来的连续内存又被切分成了一个个span,而span是如何表示其内存的连续关系呢?是通过页号,一个span中有n页,我们通过找到最前面的页和最后面页的页号,将他们转化为地址,来找到当时申请时前后的连续空间的地址对应的span。以实现前后页的合并,最终将一大块连续内存还给操作系统。
2.当span被切分之后,就成了一个又一个的小对象,而刚开始还未使用的span中每一个对象空间地址必然是连续的,切分之后我们需要让他们找到曾经被切分的span,当usecount减到0的时候,说明所有的span中所有的切的小对象大小都回来了,这个时候可能freelist中的所有对象块不是连续的(因为回来的时间可能不是按序到达,只是来一个头插一个)这都无所谓,但是假设可以把他们排列组合,就会发现就是我们曾经申请的span的那一个地址区间。这样一个span找好了,就可以完成刚刚说的合并了。而一个对象的查找所属span,我们可以通过对象的地址,来找到其所属页,再通过页号与span的映射关系来完成。

问题来啦,我们怎么实现页表与span的映射呢,我们可以用哈希map来实现,我们通过了解“获取一个K页的span来深度解析一下这个过程”。

获取一个K页的span

在之前我们说到,当centralache中span没有对象的时候,就会根据Maxsize()×一个对象空间的字节数除以一页的大小,计算出获取一个K页的span找pageache进行获取。

Span* PageCache::NewSpan(size_t k)
{
	assert(k > 0 && k < NPAGES);

	// 先检查第k个桶里面有没有span
	if (!_spanLists[k].Empty())
	{
		Span* kSpan = _spanLists- >PopFront();	
       for (PAGE_ID i = 0; i < kSpan- >_n; ++i)
		{
			//_idSpanMap[kSpan- >_pageId + i] = kSpan;
			_idSpanMap.set(kSpan- >_pageId + i, kSpan);
		}	
            return kspan;
	}

	// 检查一下后面的桶里面有没有span,如果有可以把他它进行切分
	for (size_t i = k+1; i < NPAGES; ++i)
	{
		if (!_spanLists[i].Empty())
		{
			Span* nSpan = _spanLists[i].PopFront();
			Span* kSpan = new Span;

			// 在nSpan的头部切一个k页下来
			// k页span返回
			// nSpan再挂到对应映射的位置
			kSpan- >_pageId = nSpan- >_pageId;
			kSpan- >_n = k;

			nSpan- >_pageId += k;
			nSpan- >_n -= k;

			_spanLists[nSpan- >_n].PushFront(nSpan);
			// 存储nSpan的首位页号跟nSpan映射,方便page cache回收内存时
			// 进行的合并查找
			_idSpanMap[nSpan- >_pageId] = nSpan;
			_idSpanMap[nSpan- >_pageId + nSpan- >_n - 1] = nSpan;


			// 建立id和span的映射,方便central cache回收小块内存时,查找对应的span
			for (PAGE_ID i = 0; i < kSpan- >_n; ++i)
			{
				_idSpanMap[kSpan- >_pageId + i] = kSpan;
			}

			return kSpan;
		}
	// 走到这个位置就说明后面没有大页的span了
	// 这时就去找堆要一个128页的span
	//Span* bigSpan = new Span;
	Span* bigSpan = _spanPool.New();
	void* ptr = SystemAlloc(NPAGES - 1);
	bigSpan- >_pageId = (PAGE_ID)ptr > > PAGE_SHIFT;
	bigSpan- >_n = NPAGES - 1;

	_spanLists[bigSpan- >_n].PushFront(bigSpan);

	return NewSpan(k);
	}

拿到k页请求之后,先进行一下断言,看下是否符合在1-128页的span范围之内,,然后看对应K页span的桶是否有对象,如果有,就开始从这个span的开始页 建立每一页和span的映射关系,因为这个span需要去切成小对象,小对象通过自己的地址找到首页页号,这个页号因为必然建立过与span的映射,所以可以找到span。

而如果一个span没有的话,那么我们不是直接向系统申请,而是顺着向后面的桶寻找,如果后面的某个桶中有的话,那么就从这个span中切下K页大小,然后把剩下的N页挂到第N号桶上去。并把span的页数,首页页号等进行一下修改。

切之后的span也是需要建立页号与span的映射的,但是这里不用把每一页都建立,因为如果后面使用到这个span(这里是指把这个span拿到centralache中)那个时候我们自然会建立每页与span的映射,而此时暂时用不到它,这时建立映射的目的只是为了后面实现span与span的合并,而合并的时候,我们是查找对应span相邻的页,我们只需要把这个span的首页和尾页与span建立起联系即可。

如果后面的桶中一个对象都没用,这个时候直接找系统要一个128页的span,然后把这个大span插入到128号桶上,再重复调用一下这个函数,这个时候128页的span不为空,所以就可以切下K页,把128-K页挂到对应的桶上去。

映射函数设计

Span* PageCache::MapObjectToSpan(void* obj)
{
	PAGE_ID id = ((PAGE_ID)obj > > PAGE_SHIFT);

	std::unique_lock< std::mutex > lock(_pageMtx);

	auto ret = _idSpanMap.find(id);
	if (ret != _idSpanMap.end())
	{
		return ret- >second;
	}
	else
	{
		assert(false);
		return nullptr;
	}
}

这里是已知对象首地址,来查找span,我们先把地址转化成页号,然后再从map中查找对应页号映射的*span。并把对应的span返回,如果没有,就报错。

这里是要加锁的,因为我们在访问map的时候,其他线程可能在执行插入的操作,如果插入满了就可能会造成unordered_map的扩容,熟悉unordered_map都知道,扩容后所有数据要根据数组进行重新映射,这个时候有线程读,就会造成数据和错乱的问题,所以一定要加上锁。

模拟原来储存的形式:

图片

若有线程插入数据导致扩容后的储存形式:

图片

发现此时储存形式发生了改变,为了防止一个线程正在读,另一个线程正在建立映射造成这种问题。所以说是需要加锁的。

pageache回收span

当一个span的usecount--到0的时候,说明span里面的小对象已经全部还回来了,这个时候我们就可以把这个span还给pageache了。

void PageCache::ReleaseSpanToPageCache(Span* span)
{
	// 大于128 page的直接还给堆
	if (span- >_n > NPAGES-1)
	{
		void* ptr = (void*)(span- >_pageId < < PAGE_SHIFT);
		SystemFree(ptr);
		//delete span;
		_spanPool.Delete(span);

		return;
	}

	// 对span前后的页,尝试进行合并,缓解内存碎片问题
	while (1)
	{
		PAGE_ID prevId = span- >_pageId - 1;
		auto ret = _idSpanMap.find(prevId);
		// 前面的页号没有,不合并了
		if (ret == _idSpanMap.end())
		{
			break;
		}

		// 前面相邻页的span在使用,不合并了
		Span* prevSpan = ret- >second;
		if (prevSpan- >_isUse == true)
		{
			break;
		}

		// 合并出超过128页的span没办法管理,不合并了
		if (prevSpan- >_n + span- >_n > NPAGES-1)
		{
			break;
		}

		span- >_pageId = prevSpan- >_pageId;
		span- >_n += prevSpan- >_n;

		_spanLists[prevSpan- >_n].Erase(prevSpan);
		//delete prevSpan;
		_spanPool.Delete(prevSpan);
	}

	// 向后合并
	while (1)
	{
		PAGE_ID nextId = span- >_pageId + span- >_n;
		auto ret = _idSpanMap.find(nextId);
		if (ret == _idSpanMap.end())
		{
			break;
		}

		Span* nextSpan = ret- >second;
		if (nextSpan- >_isUse == true)
		{
			break;
		}

		if (nextSpan- >_n + span- >_n > NPAGES-1)
		{
			break;
		}

		span- >_n += nextSpan- >_n;

		_spanLists[nextSpan- >_n].Erase(nextSpan);
		//delete nextSpan;
		_spanPool.Delete(nextSpan);
	}

	_spanLists[span- >_n].PushFront(span);
	span- >_isUse = false;
	_idSpanMap[span- >_pageId] = span;
	_idSpanMap[span- >_pageId+span- >_n-1] = span;
}

先判断这个span是否大于128,如果大于128,则直接还给堆。

我们分别向前向后进行合并页面,只要碰到一下的情况,就不再合并了:

1.前后页还没有开辟出来(没有出现再映射关系中)。

2.前后页的span正在使用中。

3.合并页数超过128,就不在往后合并了。

符合合并条件之后,把span的页数加上新合并的页数,再把之前合并前的那个span删去,并把合并后的大span插入到对应页数的哈希桶上,并把前后页加入映射关系中,方便下一次的合并。

项目优化与测试

优化一 利用定长内存池代替new

我们在前面已经实现了一个定长的内存池,我们经过测试,发现效率是要比new和delete高的,所以我们在这里把new和delete代替。

//单例模式
class PageCache
{
public:
	//...
private:
	ObjectPool _spanPool;
};

//申请span对象
Span* span = _spanPool.New();
//释放span对象
_spanPool.Delete(span);

//通过TLS,每个线程无锁的获取自己专属的ThreadCache对象
if (pTLSThreadCache == nullptr)
{
	static std::mutex tcMtx;
	static ObjectPool< ThreadCache > tcPool;
	tcMtx.lock();
	pTLSThreadCache = tcPool.New();
	tcMtx.unlock();
}

//带头双向循环链表
class SpanList
{
public:
	SpanList()
	{
		_head = _spanPool.New();
		_head- >_next = _head;
		_head- >_prev = _head;
	}
private:
	Span* _head;
	static ObjectPool _spanPool;
};

优化二 释放对象时不传对象大小

我们销毁对象的时候,必须要传入size来计算其桶号,然后找到对应的桶进行释放,其实可以不传入size,只需要在span中加入一个objsize,下次获取span时候同时在span上记录下size的值,销毁的时候只需要用对象的地址找到对应的页号,在利用页号在map中映射到对应的span,获取objsize(
PageCache::MapObjectToSpan函数)即可

//管理以页为单位的大块内存
struct Span
{
	PAGE_ID _pageId = 0;        //大块内存起始页的页号
	size_t _n = 0;              //页的数量

	Span* _next = nullptr;      //双链表结构
	Span* _prev = nullptr;

	size_t _objSize = 0;        //切好的小对象的大小
	size_t _useCount = 0;       //切好的小块内存,被分配给thread cache的计数
	void* _freeList = nullptr;  //切好的小块内存的自由链表

	bool _isUse = false;        //是否在被使用
};




Span* span = PageCache::GetInstance()- >NewSpan(SizeClass::NumMovePage(size));
span- >_objSize = size;



static void ConcurrentFree(void* ptr)
{
	Span* span = PageCache::GetInstance()- >MapObjectToSpan(ptr);
	size_t size = span- >_objSize;
	if (size > MAX_BYTES) //大于256KB的内存释放
	{
		PageCache::GetInstance()- >_pageMtx.lock();
		PageCache::GetInstance()- >ReleaseSpanToPageCache(span);
		PageCache::GetInstance()- >_pageMtx.unlock();
	}
	else
	{
		assert(pTLSThreadCache);
		pTLSThreadCache- >Deallocate(ptr, size);
	}
}

优化三 利用基数树代替unordered_map优化

图片

通过调试发现,最消耗效率的是map中的锁,因为每次页号查找span的时候我们都需要进行加锁解锁操作耗费了大量的时间。

在这里我们需要仔细想一想,就是说我们加锁的目的之前已经说过,就是为了防止一边在读,另一边在插入导致unordered_map扩容,数据与内存不匹配的问题,要想解决这个问题,我们主要的方法就是防止扩容。

怎么才能防止扩容,其核心策略就是把所有页号个数的数组开辟出来,这样我们就引入了基数树。

基数数是直接开辟所有可能的页下标数组,是一个固定的结构,数据只有存在和不存在两种状态,而且因为页号固定属于一个span,所以不可能存在更改映射关系的可能,只能在新的span被使用的时候往里面不断写入映射,而上层使用映射来做什么的时候,使用的必定是已经建立好映射的关系。

那么我们这个树需要开辟多大呢,在32位下,一页8K的话,我们2的32次方÷2的13次方是2的19次方,我们一个数组的一个元素需要存一个span的指针,也就是4个字节,算下来需要开辟2的19次方4字节=2M大小,是可以的,但是在64位,下,2的64次方÷2的13次方是2的51次方,一个指针8字节,2的51次方×8大概是2的24次方G,绝对是行不通的,所以这里我们要引入3层基数树。

图片

我们以32位下,一页8K为例,需要表示页号大概是要19和比特位,我们把这19个比特位进行拆分映射,第一次先拿5个比特位,然后再拿后面5个比特位进行二次映射,最后拿剩下的比特位找到对应的span指针。

其三层的好处是,我们不需要一上来就把2M的空间开辟出来,我们当用到某一个区域的地址页号映射要求的时候,我们才开辟对应的空间,这样又进一步提高了效率。

基数树代码:

//二层基数树
template < int BITS >
class TCMalloc_PageMap2
{
private:
	static const int ROOT_BITS = 5;                //第一层对应页号的前5个比特位
	static const int ROOT_LENGTH = 1 < < ROOT_BITS; //第一层存储元素的个数
	static const int LEAF_BITS = BITS - ROOT_BITS; //第二层对应页号的其余比特位
	static const int LEAF_LENGTH = 1 < < LEAF_BITS; //第二层存储元素的个数
	//第一层数组中存储的元素类型
	struct Leaf
	{
		void* values[LEAF_LENGTH];
	};
	Leaf* root_[ROOT_LENGTH]; //第一层数组
public:
	typedef uintptr_t Number;
	explicit TCMalloc_PageMap2()
	{
		memset(root_, 0, sizeof(root_)); //将第一层的空间进行清理
		PreallocateMoreMemory(); //直接将第二层全部开辟
	}
	void* get(Number k) const
	{
		const Number i1 = k > > LEAF_BITS;        //第一层对应的下标
		const Number i2 = k & (LEAF_LENGTH - 1); //第二层对应的下标
		if ((k > > BITS) > 0 || root_[i1] == NULL) //页号值不在范围或没有建立过映射
		{
			return NULL;
		}
		return root_[i1]- >values[i2]; //返回该页号对应span的指针
	}
	void set(Number k, void* v)
	{
		const Number i1 = k > > LEAF_BITS;        //第一层对应的下标
		const Number i2 = k & (LEAF_LENGTH - 1); //第二层对应的下标
		assert(i1 < ROOT_LENGTH);
		root_[i1]- >values[i2] = v; //建立该页号与对应span的映射
	}
	//确保映射[start,start_n-1]页号的空间是开辟好了的
	bool Ensure(Number start, size_t n)
	{
		for (Number key = start; key <= start + n - 1;)
		{
			const Number i1 = key > > LEAF_BITS;
			if (i1 >= ROOT_LENGTH) //页号超出范围
				return false;
			if (root_[i1] == NULL) //第一层i1下标指向的空间未开辟
			{
				//开辟对应空间
				static ObjectPool< Leaf > leafPool;
				Leaf* leaf = (Leaf*)leafPool.New();
				memset(leaf, 0, sizeof(*leaf));
				root_[i1] = leaf;
			}
			key = ((key > > LEAF_BITS) + 1) < < LEAF_BITS; //继续后续检查
		}
		return true;
	}
	void PreallocateMoreMemory()
	{
		Ensure(0, 1 < < BITS); //将第二层的空间全部开辟好
	}
};

测试与总结

以下是测试代码,来对比我们写的内存池与malloc和free的效率

// ntimes 一轮申请和释放内存的次数
// rounds 轮次
void BenchmarkMalloc(size_t ntimes, size_t nworks, size_t rounds)
{
	std::vector< std::thread > vthread(nworks);
	size_t malloc_costtime = 0;
	size_t free_costtime = 0;

	for (size_t k = 0; k < nworks; ++k)
	{
		vthread[k] = std::thread([&, k]() {
			std::vector< void* > v;
			v.reserve(ntimes);

			for (size_t j = 0; j < rounds; ++j)
			{
				size_t begin1 = clock();
				for (size_t i = 0; i < ntimes; i++)
				{
					//v.push_back(malloc(16));
					v.push_back(malloc((16 + i) % 8192 + 1));
				}
				size_t end1 = clock();

				size_t begin2 = clock();
				for (size_t i = 0; i < ntimes; i++)
				{
					free(v[i]);
				}
				size_t end2 = clock();
				v.clear();

				malloc_costtime += (end1 - begin1);
				free_costtime += (end2 - begin2);
			}
		});
	}

	for (auto& t : vthread)
	{
		t.join();
	}

	printf("%u个线程并发执行%u轮次,每轮次malloc %u次: 花费:%u msn",
		nworks, rounds, ntimes, malloc_costtime);

	printf("%u个线程并发执行%u轮次,每轮次free %u次: 花费:%u msn",
		nworks, rounds, ntimes, free_costtime);

	printf("%u个线程并发malloc&free %u次,总计花费:%u msn",
		nworks, nworks*rounds*ntimes, malloc_costtime + free_costtime);
}


// 单轮次申请释放次数 线程数 轮次
void BenchmarkConcurrentMalloc(size_t ntimes, size_t nworks, size_t rounds)
{
	std::vector< std::thread > vthread(nworks);
	size_t malloc_costtime = 0;
	size_t free_costtime = 0;

	for (size_t k = 0; k < nworks; ++k)
	{
		vthread[k] = std::thread([&]() {
			std::vector< void* > v;
			v.reserve(ntimes);

			for (size_t j = 0; j < rounds; ++j)
			{
				size_t begin1 = clock();
				for (size_t i = 0; i < ntimes; i++)
				{
					//v.push_back(ConcurrentAlloc(16));
					v.push_back(ConcurrentAlloc((16 + i) % 8192 + 1));
				}
				size_t end1 = clock();

				size_t begin2 = clock();
				for (size_t i = 0; i < ntimes; i++)
				{
					ConcurrentFree(v[i]);
				}
				size_t end2 = clock();
				v.clear();

				malloc_costtime += (end1 - begin1);
				free_costtime += (end2 - begin2);
			}
		});
	}

	for (auto& t : vthread)
	{
		t.join();
	}

	printf("%u个线程并发执行%u轮次,每轮次concurrent alloc %u次: 花费:%u msn",
		nworks, rounds, ntimes, malloc_costtime);

	printf("%u个线程并发执行%u轮次,每轮次concurrent dealloc %u次: 花费:%u msn",
		nworks, rounds, ntimes, free_costtime);

	printf("%u个线程并发concurrent alloc&dealloc %u次,总计花费:%u msn",
		nworks, nworks*rounds*ntimes, malloc_costtime + free_costtime);
}

int main()
{
	size_t n = 10000;
	cout < < "==========================================================" < < endl;
	BenchmarkConcurrentMalloc(n, 4, 10);
	cout < < endl < < endl;

	BenchmarkMalloc(n, 4, 10);
	cout < < "==========================================================" < < endl;

	return 0;
}

测试中遇到的问题

1.总结一下测试过程中的一些问题,刚开始我们是以指定的一个固定大小进行不断的测试,发现效率很低,其根本原因是因为我们指定了固定大小,每次都往那一个桶里拿数据,释放数据,不停的加锁与解锁,影响了效率。

2.我们没有考虑一种情况,当内存大于128K的时候,我们此时应该给它进行一步优化。

//不再申请threadache,直接找pageache,让它向系统申请
static void* ConcurrentAlloc(size_t size)
{
	if (size > MAX_BYTES) //大于256KB的内存申请
	{
		//计算出对齐后需要申请的页数
		size_t alignSize = SizeClass::RoundUp(size);
		size_t kPage = alignSize > > PAGE_SHIFT;

		//向page cache申请kPage页的span
		PageCache::GetInstance()- >_pageMtx.lock();
		Span* span = PageCache::GetInstance()- >NewSpan(kPage);
		PageCache::GetInstance()- >_pageMtx.unlock();

		void* ptr = (void*)(span- >_pageId < < PAGE_SHIFT);
		return ptr;
	}
	else
	{
		//通过TLS,每个线程无锁的获取自己专属的ThreadCache对象
		if (pTLSThreadCache == nullptr)
		{
			pTLSThreadCache = new ThreadCache;
		}
		cout < < std::this_thread::get_id() < < ":" < < pTLSThreadCache < < endl;

		return pTLSThreadCache- >Allocate(size);
	}
}


//获取向上对齐后的字节数
static inline size_t RoundUp(size_t bytes)
{
	if (bytes <= 128)
	{
		return _RoundUp(bytes, 8);
	}
	else if (bytes <= 1024)
	{
		return _RoundUp(bytes, 16);
	}
	else if (bytes <= 8 * 1024)
	{
		return _RoundUp(bytes, 128);
	}
	else if (bytes <= 64 * 1024)
	{
		return _RoundUp(bytes, 1024);
	}
	else if (bytes <= 256 * 1024)
	{
		return _RoundUp(bytes, 8 * 1024);
	}
	else
	{
		//大于256KB的按页对齐
		return _RoundUp(bytes, 1 < < PAGE_SHIFT);
	}
}

//pageage 直接找堆申请

Span* PageCache::NewSpan(size_t k)
{
	assert(k > 0);
	if (k > NPAGES - 1) //大于128页直接找堆申请
	{
		void* ptr = SystemAlloc(k);
		Span* span = new Span;
		span- >_pageId = (PAGE_ID)ptr > > PAGE_SHIFT;
		span- >_n = k;
		//建立页号与span之间的映射
		_idSpanMap[span- >_pageId] = span;
		return span;
	}
}


//释放
static void ConcurrentFree(void* ptr, size_t size)
{
	if (size > MAX_BYTES) //大于256KB的内存释放
	{
		Span* span = PageCache::GetInstance()- >MapObjectToSpan(ptr);

		PageCache::GetInstance()- >_pageMtx.lock();
		PageCache::GetInstance()- >ReleaseSpanToPageCache(span);
		PageCache::GetInstance()- >_pageMtx.unlock();
	}
//....
}

void PageCache::ReleaseSpanToPageCache(Span* span)
{
	// 大于128 page的直接还给堆
	if (span- >_n > NPAGES-1)
	{
		void* ptr = (void*)(span- >_pageId < < PAGE_SHIFT);
		SystemFree(ptr);
		//delete span;
		_spanPool.Delete(span);

		return;
}

inline static void SystemFree(void* ptr)
{
#ifdef _WIN32
	VirtualFree(ptr, 0, MEM_RELEASE);
#else
	// sbrk unmmap等
#endif
}

我们可以看到,经过上面10轮的申请释放内存,我们写的内存池要比free和malloc的效率更加高。

图片

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 内存
    +关注

    关注

    8

    文章

    2767

    浏览量

    72765
  • 操作系统
    +关注

    关注

    37

    文章

    6284

    浏览量

    121882
  • 程序
    +关注

    关注

    114

    文章

    3631

    浏览量

    79543
  • 计算机技术
    +关注

    关注

    1

    文章

    89

    浏览量

    13158
收藏 人收藏

    评论

    相关推荐

    Linux内核的内存管理详解

    内存管理的主要工作就是对物理内存进行组织,然后对物理内存的分配和回收。但是Linux引入了虚拟地址的概念。
    发表于 08-31 14:46 425次阅读
    Linux内核的<b class='flag-5'>内存</b>管理详解

    内存可以调节内存的大小吗

    嵌入式–内存直接上代码,自己体会。嵌入式设备,一般keil提供的堆很小,一般都不使用。使用内存,自己可以调节内存大小。头文件 mallo
    发表于 12-17 07:00

    内存的概念和实现原理概述

    { //一:内存的概念和实现原理概述//malloc:内存浪费,频繁分配小块内存,则浪费更加显得明显//“内存
    发表于 12-17 06:44

    关于RT-Thread内存管理的内存简析

    这篇文章继续介绍 RT-Thread 内存管理剩下的部分——内存。为何引入内存内存堆虽然方
    发表于 04-06 17:02

    VxWorks内存管理机制的分析与研究

    实时性、可靠性是嵌入式开发对内存管理的基本要求,本文探讨了操作系统内存管理的主要问题,对嵌入式操作系统Vxworks 的内存管理机制进行分析,给出了Vxworks 高效
    发表于 01-07 12:35 23次下载

    ddr4和ddr3内存的区别,可以通用吗

    虽然新一代电脑/智能手机用上了DDR4内存,但以往的产品大多还是用的DDR3内存,因此DDR3依旧是主流,DDR4今后将逐渐取代DDR3,成为新的主流,下面我们再来看看DDR4和DDR3内存都有哪些区别。相比上一代DDR3,新一
    发表于 11-08 15:42 3.1w次阅读

    如何辨别U盘和内存卡?两者概念上的区别是什么

    本文首先介绍了辨别U盘和内存卡方法及概念上的区别,其次对u盘不同格式优缺点进行了分析,最后介绍了内存主要分类及手机内存卡的作用。
    发表于 05-14 10:00 4.6w次阅读

    芝奇推出新一代大容量豪华内存套装 主要面向X299及TRX40平台

    这两天AMD及Intel同时推出了新一代HEDT平台,前者是最多32核64线程的锐龙Threadripper第三代,搭配TRX40平台,售价最高1.5万元/1999美元,而后者是最多18核36线程的十代酷睿X,搭配X299平台,售价最高979美元。
    发表于 11-27 16:41 773次阅读

    内存条的什么属性重要应该如何选择

    买电脑内存主要看什么呢?由于内存条的种类和品牌非常的多,消费者在选择内存条的时候就需要认识内存主要
    的头像 发表于 12-01 12:02 5290次阅读

    如何选择合适的内存条?内存条的什么属性最重要

    买电脑内存主要看什么呢?由于内存条的种类和品牌非常的多,消费者在选择内存条的时候就需要认识内存主要
    的头像 发表于 04-12 09:14 6855次阅读

    RT-Thread内存管理的学习过程总结

    在单片机芯片上,如果不考虑出厂固化的ROM空间的话,通常开发者能接触到的存储空间主要分两种:掉电可保存数据的片内FLASH和掉电不可保存数据的片内RAM。 片内RAM(通常理解为内存)的访问速度比较
    的头像 发表于 03-02 14:13 1873次阅读
    RT-Thread<b class='flag-5'>内存</b>管理的学习过程总结

    DDR4与DDR5内存模块的主要区别

    数据及其相关存储对于所有计算应用程序都至关重要,无论是笔记本电脑、便携式电脑还是尖端服务器和数据中心。所有领导智慧城市发展的现代技术,例如5G、物联网、工厂自动化以及无人驾驶汽车等,均依赖于数据存储及数据处理。
    的头像 发表于 02-07 18:07 3445次阅读

    jvm调优主要是调哪里

    JVM调优主要涉及内存管理、垃圾回收、线程管理与锁优化等方面。下面将详细介绍每个方面的调优技术和策略以及如何进行优化。 内存管理 JVM的内存管理
    的头像 发表于 12-05 11:37 543次阅读

    什么是内存泄漏?android中导致内存泄漏的主要几个点

    当一个对象已经不需要在使用了,本应该被回收,而另一个正在使用的对象持有它的引用,导致对象不能被回收。
    的头像 发表于 02-20 10:17 226次阅读
    什么是<b class='flag-5'>内存</b>泄漏?android中导致<b class='flag-5'>内存</b>泄漏的<b class='flag-5'>主要</b>几个点

    美光发布DDR5-6000超频内存,支持Intel XMP 3.0

    值得注意的是,尽管英睿达早前已终止电竞超频内存产品线铂胜 Ballistix,却迅速带来了具备散热马甲的 Pro 内存系列,然而此间 Pro 内存产品主要追求即插即用特性,并不涉及超频
    的头像 发表于 02-21 16:06 326次阅读