自我实现tcmalloc的项目简化版本

news2024/11/23 11:38:39

项目介绍

该项目是基于现代多核多线程的开发环境和谷歌项目原型tcmalloc的自我实现的简化版本,相比于本身就比较优秀的malloc来说,能够略胜一筹,因为其考虑了 性能,多线程环境,锁竞争和内存碎片的问题,主要利用了池化思想来管理内存分配,对于每个线程,都有自己的私有缓存池,内部包含若干个不同大小的内存块。

对于一些小容量的内存申请,可以使用线程的私有缓存,私有缓存不足或大容量内存申请时再从全局缓存中进行申请。在线程内分配时不需要加锁,因此在多线程的情况下可以大大提高分配效率。

该项目主要由以下3个部分构成:

  1. thread cache:线程缓存是每个线程独有的,用于小于256KB的内存的分配,线程从这里申请内存不需要加锁,每个线程独享一个cache,之所以不加锁是采用了TLS线程本地存储技术,这也就是这个并发线程池高效的地方。

  2. central cache:中心缓存是所有线程所共享,thread cache是按需从central cache中获取的对
    象。central cache合适的时机回收thread cache中的对象,避免一个线程占用了太多的内存,而
    其他线程的内存吃紧,达到内存分配在多个线程中更均衡的按需调度的目的。central cache是存
    在竞争的,所以从这里取内存对象是需要加锁,首先这里用的是桶锁,其次只有thread cache的
    没有内存对象时才会找central cache,所以这里竞争不会很激烈

  3. page cache:页缓存是在central cache缓存上面的一层缓存,存储的内存是以页为单位存储及分
    的,central cache没有内存对象时,从page cache分配出一定数量的page,并切割成定长大小
    的小块内存,分配给central cache。当一个span的几个跨度页的对象都回收以后,page cache
    会回收central cache满足条件的span对象,并且合并相邻的页,组成更大的页,缓解内存碎片
    的问题

总体结构

该项目的结构分为三层,由下到上分别是 ThreadCache–>CentralCache–>PageCache,内存的申请和释放顺序同上,数量上呈现为多—>单—>单

threadcache结构

class ThreadCache {
public:
	//从ThreaCache申请和释放内存对象
	void* Allocate(size_t size);
	void Deallocate(void* ptr, size_t size);
private:
	//从CentralCache申请内存对象
	void* FetchFromCentralCache(size_t index, size_t alignSizeBlock);
	//批量归还一部分内存给CentralCache
	void ListTooLong(FreeList& list, size_t size);
private:  //数组形式哈希桶
	FreeList _freelist[NFREELIST];  //NFREELIST=208
};

ThreadCache结构是一个208数量的哈希桶,桶中装的是将反馈给某线程固定byte大小的内存块自由链表.

而这个固定大小是按照一定的字节对齐算出来的,对齐规则如下:

                                  
 线程申请字节范围:              对齐数:             桶索引范围:          桶挂的内存块大小:      
  [1,128]                     8 bytes align   freelist[0,15]       8,16,24,32...(8     ↑)
  [128+1,1024]               16 bytes align   freelist[16,71]      144,160,176..(16    ↑)
  [1024+1,8*1024]           128 bytes align   freelist[72,127]     1152,1280....(128   ↑)
  [8*1024+1,64*1024]       1024 bytes align   freelist[128,183]    9216,10240...(1024  ↑)
  [64*1024+1,256*1024]   8*1024 bytes align   freelist[184,207]    73728,81920..(8*1024↑)

解释:

  • 线程A通过调用该ThreadCache进行申请一个13字节的内存块,该大小在范围[1,128]中,由于对齐数是8,所以ThreadCache应该反馈一个16字节的内存块给线程A,而16字节对应的桶索引是1;

  • 线程B通过调用该ThreadCache进行申请了一个1026字节的内存块,改大小在范围[1024+1,8*1024]中,由于对齐数是128,所以ThreadCache应该反馈一个1152字节的内存块给线程B,而1152字节对应的桶索引是72;

内存申请逻辑

检测线程申请内存大小,根据对齐数换算出需要反馈的字节大小和桶索引,然后检查该索引下的内存块链表上是否挂载了切割好的内存,如果有直接取出交给线程,如果没有,则向CentralCache申请需求 (该动作也是一个ThreadCache下的模块);

内存释放逻辑

检测线程释放内存大小,根据对齐数换算出该内存块在哪一个索引之下,然后挂载到该索引下的链表,此时并没有完毕,这个时候再看该链表下挂载的内存数量是否比较多和空闲,如果是,则取出一批内存块返还给CentralCache(判断内存数量是否空闲也是一个模块);

CentralCache结构

class CentralCache {
public:
    static CentralCache* GetInstance() {    //单例模式
        return &_ccinstance;
    }
    //向pagecache要一个非空span
    Span* GetNEmptySpan(SpanList& sl, size_t alignSizeBlock);
    //拿出batch数量的alignSizeBlock大小的内存块
    size_t FetchRangeObj(void*& head, void*& tail, size_t batch, size_t alignSizeBlock);
    //把从ThreadCache还回来的批量内存归位到相应span;
    void ReleaseListToSpans(void* start, size_t byte_size);
private:
	CentralCache() {}
	CentralCache(const CentralCache& cc) = delete;
	CentralCache& operator=(const CentralCache& cc) = delete;
private:
	SpanList _spanlist[NFREELIST];      //数组形式哈希桶
	static CentralCache _ccinstance;
};

CentralCache也是一个208数量的哈希桶,和ThreadCache的桶结构相对应,但不同的是CentralCache桶中挂载的是一个以页为单位的span的带头双向链表,然后span把页内存切割成了该索引对应大小的内存块自由链表,挂载在该span内部.

第二层采用带头循环双向链表原因是,可以只在O(1)复杂度情况下,取出和插入span.而第一层仅仅用单链表是因为线程只需要一个可以使用的内存,对于内存块之间的顺序和定位后修改无要求,那么仅仅通过头删头插就可以满足;

span的结构

// Span管理一个具有跨度,以页为单位且连续多个页的结构
struct Span
{
    PAGE_ID _pageId = 0; // 大块内存起始页的页号ID 
    size_t _n = 0; // 页的数量
    Span* _next = nullptr; // 双向链表的结构
    Span* _prev = nullptr;
    size_t _objSize = 0; // 切好的小对象的大小
    size_t _useCount = 0; // 切好小块内存后,被分配给thread_cache的计数
    void* _freeList = nullptr; // 切好的小块内存所挂载的自由链表
    bool _isUse = false; // 是否正在被使用
};

内存申请逻辑

当收到ThreadCache的批量内存块请求后,检测这些内存块大小,根据该大小算出索引,然后在该索引下查找挂载了内存块的span,再取出批量内存块反馈给ThreadCache,倘若该索引下没有非空span,就向PageCache索要;

内存释放逻辑

当收到ThreadCache的批量内存块请求后,检测这些内存块大小,根据该大小算出索引,然后在该索引下根据pageid和span的映射关系,找出这些内存块原本所归属的span,再把这些内存放进该span,然后检测span下的_useCount的值是否为0,倘若为0,则把该span提交给PageCache,让PageCache进行页合并

PageCache结构

class PageCache {
public:
	static PageCache* GetInstance() {   //单例模式
		return &_pcinstance;
	}
	//查找pageid 和 span的映射关系;
	Span* MapObjectToSpan(void* obj);
	// 对从central归还回来的span,进行前后合并
	void ReleaseSpanToPageCache(Span* span);  
	Span* NewSpan(size_t n_page); //获得一个page页的page
	void LOCK();
	void UNLOCK();
private:
	PageCache() {};
	PageCache(const PageCache& pc) = delete;
	PageCache& operator=(const PageCache& pc) = delete;
private:
	SpanList _spanlist[NPAGE];  //数组形式哈希桶
	std::mutex _mutex;   //整体锁
	static PageCache _pcinstance;
	std::unordered_map<PAGE_ID, Span*> _idSpanMap; //用来存储页id和span的映射关系;
};

PageCache是一个128数量的哈希桶,并且每个索引代表的内存大小不再是按照对齐数对齐的字节大小,而是以页为单位的page,索引下挂载的仍然是带头双向循环链表和span,但span里面只有索引数量单位的page,这里不进行对页的切割;

内存申请逻辑

接收CentralCache申请的n个page请求,然后查找索引n下是否有span,如果有,则反馈给CentralCache,如果该索引下没有,则依次向后查找,直到找到为止;若所有桶都没找到span,则向系统申请以页为单位的128页的span;有了span后就对该span进行页切割,切割成n页和span->num -n页的span,然后把前者提交给CentralCache,后者插入索引为span->num-n的桶内;

内存释放逻辑

接收CentralCache返还的span,然后根据该span的id,以及前后id和映射关系,查护被切割出去的页span,如果它们未被使用,则合并为更大的span,重新归位PageCache;

两个链表结构

单链表

针对ThreadCache的单链表结构,需要满足针对单一内存块的增删和针对批量内存块的增删

class FreeList {
public:
	//针对单一内存块
	void Push(void* obj);
    void* Pop();
    //针对批量内存块
	void PushRange(void* head, void* tail,size_t size);  //放size个内存块,head和tail首尾接收
	void  PopRange(void*& head, void*& tail, size_t size);
	bool Empty();
	size_t& MAXSIZE();    //慢反馈算法需要用到的一个比较值
	size_t Size();       //返回链表所挂载结点数量
private:
	void* _freelist = nullptr;
	size_t _max_size = 1;
	size_t _size = 0; //记录链表上挂载的记录结点;   
};

双链表

针对CentralCache和PageCache的带头双向循环链表,由于这两层结构都是面向全局的,将会形成线程竞争问题,那么该链表除了正常的增删改查之外还需要就需要上锁和解锁;

class SpanList {
public:
	SpanList();
	Span* Begin();
	Span* End();
	void PushFront(Span* NewSpan);
	Span* PopFront() ;
	void Insert(Span* pos, Span* NewSpan);
	void Erase(Span* pos);
	void LOCK();
	void UNLOCK();
	bool Empty();
private:
	Span* _head;
	std::mutex _mutex;
};
  • 注意事项:

这个是链表锁,也就是桶锁,是CentralCache中的每个索引都会拥有并使用的,PageCache虽然也是该链表结构,但是并不会使用桶锁,而是在PageCache里面封装一个整体锁;

  • 原因:

对于CentralCache来说,不同线程访问的桶大概率是不同位置的,而且只单一访问某一个桶不会影响其他桶,对于这种情况来说使用桶锁是比较合适的,如果使用整体锁把CentralCache锁住,将会造成过多线程等待,以至于效率大大降低

对于PageCache来说,情况就不一样了,每个线程可能进行范围索引访问,并且多个线程访问的桶就可能大概率重复,如果给PageCache使用桶锁,就会频繁的加锁解锁,造成效率降低,相反,如果使用整体锁,每个线程就只需要加解一次锁;

重要模块实现

清楚了总体结构以后,就需要针对性的根据功能进行实现,这里根据申请和释放逻辑画了一个结构图:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-gRS99LER-1668241942145)(高并发项目.assets/image-20221109200814787.png)]

内存申请路径

ThreadCache下的allocate

这是一个对外线程的接口,接收其申请的字节,然后计算相关索引和对齐的内存块大小,根据索引查找是否有内存块

void* ThreadCache::Allocate(size_t bytes){
	assert(bytes <= MAX_BYTES);
	size_t alignSizeBlock = SizeClass::RoundUp(bytes);
	size_t index = SizeClass::Index(bytes);

	//如果桶空,则从centralcache中获取,否则拿出一个
	if (!_freelist[index].Empty()) {
		return _freelist[index].Pop();
	}
	else {
		return FetchFromCentralCache(index, alignSizeBlock);
	}
}

假设我们在该索引下没找到内存块,那么就需要向CentralCache进行申请了,而在申请之前,ThreadCache有一些细节处理,比如我们每次向CentralCache申请时,都只申请一块吗,如果申请多块应该怎么控制呢?

答: 每次申请并不是只申请一块,因为这样子明显就失去了池化技术的精髓,因此每次申请的都是多块,如果申请的是大内存,则给少一点,如果申请的是小内存,则给多一点思路,然后在外面根据一个值,进行慢增长;

大内存多给数量,小内存少给数量

static size_t NumMoveSizeCentral(size_t bytes) {
		assert(bytes);
		size_t batch = MAX_BYTES / bytes;
		if (batch < 2) { 
			batch = 2;
		}
		else if (batch > 512) {
			batch = 512;
		}
		return batch;
	}

ThreadCache下的FetchFromCentralCache

上面提到了大给少,小给多,那么当多个线程都申请到小内存时候,按照这个多来看,ThreadCache总计申请到的内存将是会非常庞大的,并且后续也可能使用不完,这个多和少都应该有个阈值(maxsize),这就是慢反馈调解算法(下面的7-11行)

void* ThreadCache::FetchFromCentralCache(size_t index, size_t alignSizeBlock) {
	//慢开始反馈调解算法
	/*
		最开始不会一次性向central要太多,可能使用不完,numMoveSize是MAXSIZE的一个界限
		MAXSIZE会逐渐向NumMoveSize趋近
	*/
	size_t batch = min(_freelist[index].MAXSIZE(), SizeClass::NumMoveSizeCentral(alignSizeBlock));
	//慢增长
	if (batch == _freelist[index].MAXSIZE()) {
		_freelist[index].MAXSIZE() += 1;
	}
	void* head = nullptr;void* tail = nullptr;
	size_t ActualNum = CentralCache::GetInstance()->FetchRangeObj(head, tail, batch, alignSizeBlock);
	assert(ActualNum > 0);  //检验实际获取多少个内存块
	if (ActualNum == 1) {  //如果只有一个,链表首尾应该相等
		assert(head == tail);
		return head;
	}
	//有多个内存块时候,把除了head外,其余内存块放进freelist
	_freelist[index].PushRange(NextObj(head), tail,ActualNum-1); 
	return head;
}

CentralCache下的FetchRangeObj

该函数的作用是在目标索引下,提取一个非空span,通过输出型参数,把span的自由链表上挂载的内存块输出给ThreadCache一部分,并返回所真实反馈给ThreadCache的内存块数量;由于是在第二层结构中操纵某索引下的span以及其下的内存块,所以需要上锁;

执行逻辑:

取非空span,然后取该span自由链表下挂载的批量内存块,取出多少,span中的_use_count就进行记录多少(++)

//申请batch数量的大小为alignSizeBlock的内存块,这些内存块的头为head,尾为tail
size_t CentralCache::FetchRangeObj(void*& head, void*& tail, size_t batch, size_t alignSizeBlock)
{
	size_t index = SizeClass::Index(alignSizeBlock);
	_spanlist[index].LOCK();  //给桶上锁
	Span* span = GetNEmptySpan(_spanlist[index], alignSizeBlock);
	assert(span);
	assert(span->_freelist);
	//初始化head 和 tail
	head = tail = span->_freelist;
	//从span中获取目标数量内存块,如果不够有多少拿取多少
	//第二个判断条件是防止请求数量越界
	size_t actualNum = 1;
	for (size_t i = 0; (i < (batch - 1)) && NextObj(tail); i++) {
		tail = NextObj(tail);
		actualNum++;
	}
	span->_freelist = NextObj(tail); 
	span->_use_count += actualNum; //内存块拿出去,usecount就++,还回来就--
	NextObj(tail) = nullptr;  //截取range(head,tail)

	_spanlist[index].UNLOCK();
	return actualNum;
}

CentralCache下的GetNEmptySpan

该函数的作用是返回某桶中的一个非空span,倘若找不到,就向PageCache申请一个span;

执行逻辑:

首先查找CentralCache下该桶是否拥有非空span,如果没有就向PageCache申请一个,由于申请的span是整页的大内存,所以我们需要对页进行切割成对齐数所对齐的大小内存块,挂载在span的自由链表上,然后返回span.

Span* CentralCache::GetNEmptySpan(SpanList& sl, size_t alignSizeBlock) {
	//查找非空位span
	Span* it = sl.Begin();
	while (it != sl.End()) {
		if (it->_freelist != nullptr) { 
			return it;
		}
		it = it->_next;
	}
	//这里可以先把桶锁释放了,为其他thread归还内存让位置;
	sl.UNLOCK();
	PageCache::GetInstance()->LOCK();
	//如果找不到,就去Page找更大的span,然后插入central桶
	Span* span = PageCache::GetInstance()->NewSpan(SizeClass::NumMovePage(alignSizeBlock));
	span->_isUse = true;
	PageCache::GetInstance()->UNLOCK();
	//获取到了span后不着急给桶锁上锁,因为后面是在切分span,并不会和其他线程竞争
	//把page span中的页连续块切分成自由链表,并且计算页内存的始末地址和叶内存大小
	char* begin = (char*)(span->_page_id << PAGE_SHIFT); //所有页内存的始地址
	size_t size = span->_page_num << PAGE_SHIFT;         //总体页的大小
	char* end = begin + size;                 //所有页内存的始地址
	//先切下一块做头,方便尾插
	void* tail = span->_freelist = begin;
	begin += alignSizeBlock;
	//切分 
	while (begin < end) {
		NextObj(tail) = begin;
		tail = begin;
		begin += alignSizeBlock;
	}
	//这里就需要重新上桶锁了,因为插入新span会造成竞争
	sl.LOCK();
	sl.PushFront(span);
	return span;
}

对页内存进行切割原理:

因为span具有page_id 和 page_num,以及每页的大小,所以:

page_id * 页大小就是span的所有页的起始地址;

page_num * 页大小就是span所拥有的所有页大小的总和;

起始地址 + 总和 就是span的所有也的末尾地址的下一个地址;

有了内存的起始地址,那么用一个循环对地址进行对齐数大小的整数加减,就可以切割内存了;

例如,假设一页的大小为1KB,那么page_id和地址与数量之间的关系就如下图:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-CGGovDAp-1668241942147)(高并发项目.assets/image-20221109220542528.png)]

假设我的span只有中间阴影部分的叶内存,那么我的span结构中重要数据应该如下:

struct Span
{
    PAGE_ID _pageId = 2; // 大块内存起始页的页号ID 
    size_t _n = 3; // 页的数量
};

很明显,page_num * 1024(页大小) = 3072,也就是span所拥有的内存大小;page_num*1024 = 2048,也就是span拥有的页的起始地址;同理也可以计算出末尾地址的下一位

PageCache下的Newspan

该函数利用了递归原理,因此像普通情况一样进行加解锁,就会造成死锁.解决这种情况的办法有两种:

第一种是在调用该函数的函数里面对该函数进行加解锁,类似下面结构:

void func1(){
    lock();
    func2(); //func2是递归函数
    unlokc();
}

第二种是利用C++里面的递归锁recursive_mutex,它会自我解决死锁问题;

本函数采用了第一种用法,也就是在CentralCache中的GetNEmptySpan函数里面对本函数进行上锁;

该函数的作用就是提交给CentralCache一个n_page页的span,如果n_page页的span没有,就向后查找更大的,如果找到了,就把大page页进行分割成n_page页的span和剩余page的span,如果后面都没有,就直接向系统申请一个128page的span,然后再切割成n_page页的span和剩余page的span,最后提交n_page的span给CentralCache,把剩余page的span挂入PageCache;

而在这个函数里面还有一个工作就是对n_page的span中的所有page_id和该span进行映射,以及对剩余page的span中的首尾page_id和span进行映射;此映射在归还内存时会起到提高效率的作用

//从span中切割页给CentralCache
Span* PageCache::NewSpan(size_t n_page) {
	assert(n_page > 0 && n_page < NPAGE);
	//检查第n_page个桶是否为空,不为空则拿出来
	if (!_spanlist[n_page].Empty()) {
		Span* span = _spanlist[n_page].PopFront();
		for (int i = 0; i < span->_page_num; i++) {
			_idSpanMap[span->_page_id + i] = span;
		}
		return span;
	}
	//为空,则检查后面的桶是否有span,并进行切分
	for (int i = n_page; i < NPAGE; i++) {
		if (!_spanlist[i].Empty()) {
			Span* n_p_span = _spanlist[i].PopFront();
			Span* s_p_span = new Span;   //存储切割后的目的大小page
			//切割成目的大小page给s_p_span;
			s_p_span->_page_id = n_p_span->_page_id;
			s_p_span->_page_num = n_page;
			//调整好剩余page
			n_p_span->_page_id = s_p_span->_page_id + s_p_span->_page_num;
			n_p_span->_page_num -= s_p_span->_page_num;
			//把剩余的page挂入桶
			_spanlist[n_p_span->_page_num].PushFront(n_p_span);

			//对于切割出去给CentralCache的页,需要保留每个pageID,
			//因为都可能用到(CentralCache层面)
			for (int i = 0; i < s_p_span->_page_num; i++) {
				_idSpanMap[s_p_span->_page_id + i] = s_p_span;
			}
			//而对于切割剩下的span,只需要保留首尾pageid,
			//因为在PageCache层面,只可能用到首尾
			//(span合并,只需要看两边的pageid,这两个id只可能存在于span首尾)
			_idSpanMap[n_p_span->_page_id] = n_p_span;
			_idSpanMap[n_p_span->_page_num-1] = n_p_span;
			//注意需要剪去一个1,才是最后一个id
			return s_p_span;
		}
	}
	//如果往后面都没找到,就向系统申请一个128页的span;
	Span* bigSpan = new Span;
	void* ptr = SystemAlloc(NPAGE-1);
	bigSpan->_page_id = ((PAGE_ID)ptr) >> PAGE_SHIFT;  //转换为大叶内存的ID
	bigSpan->_page_num = NPAGE - 1;
	_spanlist[bigSpan->_page_num].PushFront(bigSpan);
	//申请到的内存,挂入桶里面,然后再次切分页内存(递归调用一次)
	return NewSpan(n_page);
}

内存归还路径

ThreadCache下的Deallocate

接收线程发给的内存块,然后重新插入ThreadCache里面,插入后检查当前挂载数量是否大于等于满反馈那个阈值,如果是则返回阈值数量的内存块给CentralCache;

void ThreadCache::Deallocate(void* ptr, size_t bytes) {
	assert(ptr);
	assert(bytes <= MAX_BYTES);
	//计算出对应的桶位置,然后还原("释放")
	size_t index = SizeClass::Index(bytes);
	_freelist[index].Push(ptr);

	//当太多内存需要还时(即目前挂载的数量大于等于申请的批数量),
	//就还一部分给centralcache
	if (_freelist[index].Size() >= _freelist[index].MAXSIZE()) {
		ListTooLong(_freelist[index],bytes);
	}
}

ThreadCache下的ListTooLong

用来取出阈值数量的内存块,然后提交给CentralCache;

void ThreadCache::ListTooLong(FreeList& list, size_t size) {
	void* start = nullptr;
	void* end = nullptr;
	//当挂载数量大于申请批量时候,就归还申请批量数量结点
	list.PopRange(start,end,list.MAXSIZE());

	//归还给CentralCache;
	CentralCache::GetInstance()->ReleaseListToSpans(start,size);
}

CentralCache下的ReleaseListToSpans

接收ThreadCache的批量内存,然后把每个内存块归位到对应的span

//之所以名字叫spans,而不是span,因为还回来的内存卡不一定来自同一个span
void CentralCache::ReleaseListToSpans(void* start, size_t byte_size) {
	size_t index = SizeClass::Index(byte_size);
	_spanlist[index].LOCK();

	while (start) {
		void* next = NextObj(start);
		Span* span = PageCache::GetInstance()->MapObjectToSpan(start);
		NextObj(start) = span->_freelist;
		span->_freelist = start;  //把内存小块归还给span
		span->_use_count--;

		if (span->_use_count == 0) { //说明span的所有分割出去内存都收回
			//说明该span可以归还给pagecache;
			_spanlist[index].Erase(span);
			//把span从CentralCache取出,然后把span的除了id和num之外的数据置空
			span->_freelist = nullptr;
			span->_next = span->_prev = nullptr;

			//然后交给PageCache看是否可以合并页
			//在把span提交给pagecache时候,可以把自己桶锁解开,让出自己的资源;
			_spanlist[index].UNLOCK();

			//再调用PageCache时候,记得上整体锁;
			PageCache::GetInstance()->LOCK();
			PageCache::GetInstance()->ReleaseSpanToPageCache(span);
			PageCache::GetInstance()->UNLOCK();
			_spanlist[index].LOCK();
		}
		start = next;
	}
	_spanlist[index].UNLOCK();
}

PageCache下的ReleaseSpanToPageCache

接收CentralCache下的span,然后检测span前后的page_id的span,再进行页合并

void PageCache::ReleaseSpanToPageCache(Span* span) {
	//对span前后的页,尝试进行合并,然后缓解内碎片
	while (true) {
		PAGE_ID prev_id = span->_page_id - 1;
		auto ret = _idSpanMap.find(prev_id);
		//再向前合并时候,如果查找不到id对于span,则停止合并
		if (ret == _idSpanMap.end()) { break; }
		
		//或者前面span正在使用,则停止合并
		Span* prevspan = ret->second;
		if (prevspan->_isUse == true) { break; }

		//或者如果向前合并后page_num大于128,则停止合并
		//合并大于128的可能情况:两个128page的span刚好是连续的,
		//但是合并的起点并不是一个span的首尾ID)
		if(prevspan->_page_num + span->_page_num >= NPAGE) {break; }
		
		//合并
		span->_page_id = prevspan->_page_id;
		span->_page_num += prevspan->_page_num;
		
		//把前面的span从PageCache取出并释放;
		_spanlist[span->_page_num].Erase(prevspan);
		delete prevspan;
	}
	while (true) {
		PAGE_ID next_id = span->_page_id + span->_page_num;
		auto ret = _idSpanMap.find(next_id);
		if (ret == _idSpanMap.end()) { break; }
		
		Span* nextspan = ret->second;
		if (nextspan->_isUse == true) {break;}			
		if (nextspan->_page_num + span->_page_num >= NPAGE) {break;}
		//合并
		span->_page_id = nextspan->_page_id;
		span->_page_num += nextspan->_page_num;

		//把前面的span从PageCache取出并释放;
		_spanlist[span->_page_num].Erase(nextspan);
		delete nextspan;
	}

	_spanlist[span->_page_num].PushFront(span);
	//调整span使用状态为FALSE
	span->_isUse = false;
	//映射首尾ID
	_idSpanMap[span->_page_id] = span;
	_idSpanMap[span->_page_id + span->_page_num - 1] = span;
}

项目总结

博主这里仅仅只是取出该项目的重要结构进行了讲解,对于一些细节优化,这里并没有阐述,例如: 线程申请的内存大小大于256KB时候,便直接向PageCache申请; 利用基数树优化哈希表结构减少锁竞争的开销;利用定长内存池代替new和delete;

想比较细致的观看该项目,可以点击项目源码

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/5093.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

鸿蒙开发套件全面升级,助力鸿蒙生态蓬勃发展

目录 1. 全场景分布式系统 2. HarmonyOS的超能力&#xff1a;ArkTS API万箭齐发 3.解锁“鸿蒙开发套件”的新技能 &#xff08;1&#xff09; 智能代码编辑器 &#xff08;2&#xff09;Hvigor编译构建 &#xff08;3&#xff09;热重载&#xff1a;向看直播一样查看运行…

MySQL : 彻底搞懂一条SQL的执行过程

整体流程 组件介绍 连接器 处理客户端的连接&#xff0c;一般处理我们这个命令&#xff0c;判断是否满足接入server的条件 mysql ‐h host[数据库地址] ‐u root[用户] ‐p root[密码] ‐P root查询缓存 在8.0之前&#xff0c;如果用户开启了查询缓存的开关&#xff0c;那么…

vue2.6 + ts 使用vuex

目录vue2.6 ts 使用vuex安装01&#xff1a;直接使用 store / index.ts的数据store / index.tsmain.ts001&#xff1a;同步mutation操作vuex数据与获取getters001&#xff1a;效果002&#xff1a;异步action、mutation操作vuex数据002&#xff1a;效果02&#xff1a;引入其他模…

CANoe 简介

&#x1f345; 我是蚂蚁小兵&#xff0c;专注于车载诊断领域&#xff0c;尤其擅长于对CANoe工具的使用&#x1f345; 寻找组织 &#xff0c;答疑解惑&#xff0c;摸鱼聊天&#xff0c;博客源码&#xff0c;点击加入&#x1f449;【相亲相爱一家人】&#x1f345; 玩转CANoe&…

Go 语言项目源码解析:定时任务库 cron

环境准备 首先我们将源码克隆&#xff08;Fork&#xff09;为自己的个人仓库&#xff0c;只需要在 GitHub 项目主页点击 Fork 按钮&#xff0c;然后输入项目名称点击确认即可。克隆完毕后&#xff0c;可以下载到本地&#xff0c;或者直接在科隆后的 GitHub 仓库主页上点击 Cre…

RabbitMQ

RabbitMQ 1.MQ引言 MessageQueue: 消息队列 模块之间的耦合度多高&#xff0c;导致一个模块宕机后&#xff0c;全部功能都不能用了&#xff0c;并且同步通讯的成本过高&#xff0c;用户体验差。 1.1什么是MQ MQ&#xff08;Message Queue&#xff09;消息队列&#xff0c;是基…

Android Studio App开发实战项目之广告轮播(附源码 可用于大作业)

需要图片集和源码请点赞关注收藏后评论区留言即可~~~ 电商App的首页上方&#xff0c;都在明显位置放了一栏广告条&#xff0c;并且广告条会轮播&#xff0c;非常吸引眼球&#xff0c;这种广告轮播的功能&#xff0c;为推广热门事物出力甚大。 轮播视频已上传至我的主页&#x…

【云原生】docker 搭建ElasticSearch7

前言 本篇演示如何基于docker环境快速搭建起es7的环境 安装es7.6 1、拉取镜像 docker pull elasticsearch:7.6.2 2、执行下面的命令进行安装 docker run -p 9200:9200 -p 9300:9300 -e "discovery.typesingle-node" -e ES_JAVA_OPTS"-Xms512m -Xmx512m"…

Android Studio App开发实战项目之计时器(附源码 简单易懂,适合新手学习)

运行有问题或需要源码请点赞关注收藏后评论区留言~~~ 一、Handler的延迟机制 活动页面的Java代码通常是串行工作的&#xff0c;而且App界面很快就加载完成容不得半点延迟&#xff0c;不过偶尔也需要某些控件时不时的动一下&#xff0c;好让界面呈现动画效果更加活泼&#xff0…

shiro框架04会话管理+缓存管理+Ehcache使用

目录 一、会话管理 1.基础组件 1.1 SessionManager 1.2 SessionListener 1.3 SessionDao 1.4 会话验证 1.5 案例 二、缓存管理 1、为什么要使用缓存 2、什么是ehcache 3、ehcache特点 4、ehcache入门 5、shiro与ehcache整合 1&#xff09;导入相关依赖&#xff0…

2019银川F,ccpc威海D - Sternhalma 2022

1401D - Maximum Distributed Tree 求每个边经过的次数&#xff0c;假设求u,v这条边的次数&#xff0c;边的左端是u这个集合一共有n-siz[v]个点&#xff0c;右端是v这个集合有siz[v]个端点&#xff0c;经过这条边的次数就是siz[v]*(n-siz[v]),然后再按照次数多的乘以大的质因数…

【附源码】Python计算机毕业设计汽车租赁管理系统

项目运行 环境配置&#xff1a; Pychram社区版 python3.7.7 Mysql5.7 HBuilderXlist pipNavicat11Djangonodejs。 项目技术&#xff1a; django python Vue 等等组成&#xff0c;B/S模式 pychram管理等等。 环境需要 1.运行环境&#xff1a;最好是python3.7.7&#xff0c;…

Go 语言中的 Moduels 管理(Let‘s Go 三十四)

在 Go 1.11以前使用包管理一直被开发者所诟病。既然GOPATH这种包管理引起了一线开发者的一片骂声&#xff0c;所以&#xff0c;Go官方体恤一线开发者对GOPATH这种包管理的情绪&#xff0c;一直致力努力提供对一线开发者友好的包管理解决方法而奋斗。从最初的GOPATH到GO VENDOR&…

基于遗传算法、元胞自动机邻域和随机重启爬山混合优化算法(GA-RRHC)的柔性车间调度研究(Matlab代码实现)

&#x1f4a5;&#x1f4a5;&#x1f49e;&#x1f49e;欢迎来到本博客❤️❤️&#x1f4a5;&#x1f4a5; &#x1f3c6;博主优势&#xff1a;&#x1f31e;&#x1f31e;&#x1f31e;博客内容尽量做到思维缜密&#xff0c;逻辑清晰&#xff0c;为了方便读者。 ⛳️座右铭&a…

LeetCode50天刷题计划第二季(Day 27 — 寻找旋转排序数组中的最小值(9.50- 11.20)

提示&#xff1a;文章写完后&#xff0c;目录可以自动生成&#xff0c;如何生成可参考右边的帮助文档 文章目录前言一、题目寻找旋转排序数组中的最小值示例提示&#xff1a;二、思路三、代码前言 芜湖 一、题目 寻找旋转排序数组中的最小值 已知一个长度为 n 的数组&#…

web前端期末大作业——基于HTML+CSS+JavaScript实现中国茶文化(30页)

&#x1f389;精彩专栏推荐 &#x1f4ad;文末获取联系 ✍️ 作者简介: 一个热爱把逻辑思维转变为代码的技术博主 &#x1f482; 作者主页: 【主页——&#x1f680;获取更多优质源码】 &#x1f393; web前端期末大作业&#xff1a; 【&#x1f4da;毕设项目精品实战案例 (10…

大数据开发是做什么的?怎样入门?

其实现在有很多小伙伴看中了大数据的发展前景&#xff0c;但是其实不知道大数据开发具体是做什么的&#xff0c;又该怎么学习&#xff1f;学习了之后又该做什么&#xff1f; 下面具体给你分析下大数据开发是做什么的&#xff0c;又需要学习和掌握哪些技能~ 大数据开发做什么&a…

致远OA ajax.do 任意文件上传 (CNVD-2021-01627) 漏洞复现

为方便您的阅读&#xff0c;可点击下方蓝色字体&#xff0c;进行跳转↓↓↓01 漏洞描述02 影响范围03 验证方式04 利用方式05 修复方案01 漏洞描述 致远OA是一套办公协同管理软件。由于致远OA旧版本某些接口存在未授权访问&#xff0c;以及部分函数存在过滤不足&#xff0c;攻…

大数据实战之前戏

开发背景 因为要开发一套通话详单系统。该系统上每天产生1亿条通话话单&#xff0c;要保存一个月的通话话单。也就是保存30亿条通话&#xff0c;能够做到准实时的通话详单查询。于是采用大数据架构进行话单的保存和查询。 服务器规划 为了验证系统的可用性&#xff0c;我先搭…

从零学习 InfiniBand-network架构(七) ——IB协议中数据如何传输

从零学习 InfiniBand-network架构&#xff08;七&#xff09; —— IB协议中数据如何传输 &#x1f508;声明&#xff1a; &#x1f603;博主主页&#xff1a;王_嘻嘻的CSDN主页 &#x1f511;未经作者允许&#xff0c;禁止转载 &#x1f6a9;本专题部分内容源于《InfiniBand-n…