0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Linux内核虚拟内存管理中的mmu_gather操作

xCb1_yikoulinux 来源:Linux内核远航者 作者:Linux内核远航者 2022-05-20 14:37 次阅读

1开场白

环境:

  • 处理器架构:arm64

  • 内核源码:linux-5.10.50

  • ubuntu版本:20.04.1

  • 代码阅读工具:vim+ctags+cscope

本文讲解Linux内核虚拟内存管理中的mmu_gather操作,看看它是如何保证刷tlb和释放物理页的顺序的,又是如何将更多的页面聚集起来统一释放的。

通常在进程退出或者执行munmap的时候,内核会解除相关虚拟内存区域的页表映射,刷/无效tlb,并释放/回收相关的物理页面,这一过程的正确顺序如下:

1)解除页表映射

2)刷相关tlb

3)释放物理页面

在刷相关虚拟内存区域tlb之前,绝对不能先释放物理页面,否则可能导致不正确的结果,而mmu-gather(mmu 积聚)的作用就是保证这种顺序,并将需要释放的相关的物理页面聚集起来统一释放。

2.源代码解读

2.1 重要数据结构体

首先我们先介绍一下,与mmu-gather相关的一些重要结构体,对于理解源码很有帮助。

相关的主要数据结构有三个:

struct mmu_gather

struct mmu_table_batch

struct mmu_gather_batch

1)mmu_gather

来表示一次mmu积聚操作,在每次解除相关虚拟内存区域时使用。

structmmu_gather{
structmm_struct*mm;

#ifdefCONFIG_MMU_GATHER_TABLE_FREE
structmmu_table_batch*batch;
#endif

unsignedlongstart;
unsignedlongend;
/*
¦*weareinthemiddleofanoperationtoclear
¦*afullmmandcanmakesomeoptimizations
¦*/
unsignedintfullmm:1;

/*
¦*wehaveperformedanoperationwhich
¦*requiresacompleteflushofthetlb
¦*/
unsignedintneed_flush_all:1;

/*
¦*wehaveremovedpagedirectories
¦*/
unsignedintfreed_tables:1;

/*
¦*atwhichlevelshaveweclearedentries?
¦*/
unsignedintcleared_ptes:1;
unsignedintcleared_pmds:1;
unsignedintcleared_puds:1;
unsignedintcleared_p4ds:1;

/*
¦*tracksVM_EXEC|VM_HUGETLBintlb_start_vma
¦*/
unsignedintvma_exec:1;
unsignedintvma_huge:1;

unsignedintbatch_count;
#ifndefCONFIG_MMU_GATHER_NO_GATHER
structmmu_gather_batch*active;
structmmu_gather_batchlocal;
 struct page *__pages[MMU_GATHER_BUNDLE];
...
#endif

};


其中,mm 表示操作哪个进程的虚拟内存;batch 用于积聚进程各级页目录的物理页;start和end 表示操作的起始和结束虚拟地址,这两个地址在处理过程中会被相应的赋值;fullmm 表示是否操作整个用户地址空间;freed_tables 表示我们已经释放了相关的页目录;cleared_ptes/pmds/puds/p4ds 表示我们在哪个级别上清除了表项;vma_exec 表示操作的是否为可执行的vma;vma_huge 表示操作的是否为hugetlb的vma;batch_count 表示积聚了多少个“批次”,后面会讲到 ;active、local和__pages 和多批次释放物理页面相关;active表示当前处理的批次,local表示“本地”批次,__pages表示“本地”批次积聚的物理页面。

这里需要说明一点就是,mmu积聚操作会涉及到local批次和多批次操作,local批次操作的物理页面相关的struct page数组内嵌到mmu_gather结构的__pages中,且我们发现这个数组大小为8,也就是local批次最大积聚8 * 4k = 32k的内存大小,这因为mmu_gather结构通常在内核栈中分配,不能占用太多的内核栈空间,而多批次由于动态分配批次积聚结构所以每个批次能积聚更多的页面。

2)mmu_table_batch

用于积聚进程使用的各级页目录的物理页,在释放进程相关的页目录的物理页时使用(文章中称为页表批次的积聚结构)。

structmmu_table_batch{
#ifdefCONFIG_MMU_GATHER_RCU_TABLE_FREE
structrcu_headrcu;
#endif
unsignedintnr;
void*tables[0];
};

rcu 用于rcu延迟释放页目录的物理页;

nr 表示页目录的物理页的积聚结构的page数组中页面个数;

tables 表示页表积聚结构的page数组。

3)mmu_gather_batch

表示物理页的积聚批次,用于积聚进程映射到用户空间物理页(文章中称为批次的积聚结构)。

structmmu_gather_batch{
structmmu_gather_batch*next;
unsignedintnr;
unsignedintmax;
structpage*pages[0];
};

next 用于多批次积聚物理页时,连接下一个积聚批次结构 ;

nr 表示本次批次的积聚数组的页面个数;

max 表示本次批次的积聚数组最大的页面个数;

pages 表示本次批次积聚结构的page数组

2.2 总体调用

通常mmu-gather操作由一下几部分函数组成:

tlb_gather_mmu

unmap_vmas

free_pgtables

tlb_finish_mmu

其中tlb_gather_mmu表示mmu-gather初始化,也就是struct mmu_gather的初始化;

unmap_vmas 表示解除相关虚拟内存区域的页表映射;

free_pgtables 表示释放页表操作 ;

tlb_finish_mmu 表示进行刷tlb和释放物理页操作。

2.3 tlb_gather_mmu

这个函数主要是初始化从进程内核栈中传递过来的mmu_gather结构。

voidtlb_gather_mmu(structmmu_gather*tlb,structmm_struct*mm,
unsignedlongstart,unsignedlongend)
{
tlb->mm=mm;//赋值进程的内存描述符

/*Isitfrom0to~0?*/
tlb->fullmm=!(start|(end+1));//如果是操作进程整个地址空间,则start=0,end=-1,这个时候fullmm会被赋值1

#ifndefCONFIG_MMU_GATHER_NO_GATHER
tlb->need_flush_all=0;//初始化“本地”积聚相关成员
tlb->local.next=NULL;
tlb->local.nr=0;
tlb->local.max=ARRAY_SIZE(tlb->__pages);
tlb->active=&tlb->local;//active指向本地的积聚结构
tlb->batch_count=0;
#endif

tlb_table_init(tlb);//tlb->batch=NULL,来表示先不使用多批次积聚
#ifdefCONFIG_MMU_GATHER_PAGE_SIZE
tlb->page_size=0;
#endif

__tlb_reset_range(tlb);//tlb->start/end和lb->freed_tables、tlb->cleared_xxx初始化
inc_tlb_flush_pending(tlb->mm);
}

下面给出tlb_gather_mmu时的图解:

b85d28f6-d7f0-11ec-ba43-dac502259ad0.png

2.4 unmap_vmas

这个函数用于解除相关进程虚拟内存区域的页表映射,还会将相关的物理页面放入积聚结构中,后面统一释放。

下面我们来看下这个函数:

voidunmap_vmas(structmmu_gather*tlb,
structvm_area_struct*vma,unsignedlongstart_addr,
unsignedlongend_addr)
{
...
for(;vma&&vma->vm_start< end_addr; vma = vma->vm_next)
unmap_single_vma(tlb,vma,start_addr,end_addr,NULL);
...
}

函数传递进已经初始化好的mmu积聚结构、操作的起始vma、以及虚拟内存范围[start_addr, end_addr], 然后调用unmap_single_vma来操作这个范围内的每一个vma。

unmap_single_vma的实现相关代码比较多,在此不在赘述,我们会分析关键代码,它主要做的工作为:通过遍历进程的多级页表,来找到vma中每一个虚拟页对应的物理页(存在的话),然后解除虚拟页到物理页的映射关系,最后将物理页放入积聚结构中。

总体调用如下:

//mm/memory.c
unmap_vmas
->unmap_single_vma//处理单个vma
->unmap_page_range
->zap_p4d_range//遍历pge页目录中每一个p4d表项
->zap_pud_range//遍历p4d页目录中每一个pud表项
->zap_pmd_range//遍历pud页目录中每一个pmd表项
->zap_pte_range//遍历pmd页目录中每一个pmd表项

下面我们省略中间各级页表的遍历过程,重点看下最后一级页表的处理(这段代码相当关):

zap_pte_range
->

staticunsignedlongzap_pte_range(structmmu_gather*tlb,
structvm_area_struct*vma,pmd_t*pmd,
unsignedlongaddr,unsignedlongend,
structzap_details*details)
{
...
again:
init_rss_vec(rss);
start_pte=pte_offset_map_lock(mm,pmd,addr,&ptl);//根据addr从pmd指向的页表中获得页表项指针,并申请页表的自旋锁
pte=start_pte;
flush_tlb_batched_pending(mm);
arch_enter_lazy_mmu_mode();
do{
pte_tptent=*pte;//获得页表项
if(pte_none(ptent))//页表项的内容为空表示没有映射过,继续下一个虚拟页
continue;

...

if(pte_present(ptent)){//虚拟页相关的物理页在内存中(如没有被换出到swap)
structpage*page;

page=vm_normal_page(vma,addr,ptent);//获得虚拟页相关的物理页
...

ptent=ptep_get_and_clear_full(mm,addr,pte,
tlb->fullmm);//将页表项清空(即是解除了映射关系),并返回原来的页表项的内容
tlb_remove_tlb_entry(tlb,pte,addr);
if(unlikely(!page))
continue;

if(!PageAnon(page)){//如果是文件页
if(pte_dirty(ptent)){//是脏页
force_flush=1;//强制刷tlb
set_page_dirty(page);//脏标志传递到page结构
}
if(pte_young(ptent)&&
¦likely(!(vma->vm_flags&VM_SEQ_READ)))//如果页表项访问标志置位,且是随机访问的vma,则标记页面被访问
mark_page_accessed(page);
}
rss[mm_counter(page)]--;//进程的相关rss做减1记账
page_remove_rmap(page,false);//page->_mapcount--
if(unlikely(page_mapcount(page)< 0))                                    
                                 print_bad_pte(vma, addr, ptent, page);                            
                         if(unlikely(__tlb_remove_page(tlb,page))){//将物理页记录到积聚结构中,如果分配不到mmu_gather_batch结构或不支持返回true
force_flush=1;//强制刷tlb

addr+=PAGE_SIZE;//操作下一个虚拟页
break;//退出循环
}
continue;//正常情况下,处理下一个虚拟页
}

//下面处理虚拟页相关的物理页“不在”内存中的情况,可能是交换到swap或者是迁移类型等
entry=pte_to_swp_entry(ptent);//页表项得到swp_entry
if(is_device_private_entry(entry)){//处理设备内存表项
structpage*page=device_private_entry_to_page(entry);

if(unlikely(details&&details->check_mapping)){
/*
¦*unmap_shared_mapping_pages()wantsto
¦*invalidatecachewithouttruncating:
¦*unmapsharedbutkeepprivatepages.
¦*/
if(details->check_mapping!=
¦page_rmapping(page))
continue;
}

pte_clear_not_present_full(mm,addr,pte,tlb->fullmm);
rss[mm_counter(page)]--;
page_remove_rmap(page,false);
put_page(page);
continue;
}


....

if(!non_swap_entry(entry))//非迁移类型的swap_entry
rss[MM_SWAPENTS]--;//进程相关的交换条目的rss减1
elseif(is_migration_entry(entry)){//迁移类型的表项
structpage*page;

page=migration_entry_to_page(entry);//得到对应的物理页
rss[mm_counter(page)]--;//进程相关的物理页类型的rss减1
}
if(unlikely(!free_swap_and_cache(entry)))//释放swap条目
print_bad_pte(vma,addr,ptent,NULL);
pte_clear_not_present_full(mm,addr,pte,tlb->fullmm);//清除虚拟页相关的物理页的页表映射
}while(pte++,addr+=PAGE_SIZE,addr!=end);//遍历pmd表项管辖范围内的每一个虚拟页

add_mm_rss_vec(mm,rss);//记录到进程的相关rss结构中
arch_leave_lazy_mmu_mode();

/*DotheactualTLBflushbeforedroppingptl*/
if(force_flush)
tlb_flush_mmu_tlbonly(tlb);//如果是强制刷tlb,则刷tlb
pte_unmap_unlock(start_pte,ptl);//释放进程的页表自旋锁


/*
¦*IfweforcedaTLBflush(eitherduetorunningoutof
¦*batchbuffersorbecauseweneededtoflushdirtyTLB
¦*entriesbeforereleasingtheptl),freethebatched
¦*memorytoo.Restartifwedidn'tdoeverything.
¦*/
if(force_flush){//如果是强制刷tlb,则释放掉本次聚集的物理页
force_flush=0;
tlb_flush_mmu(tlb);//释放本次聚集的物理页
}

...

returnaddr;

}

以上函数,遍历进程相关页表(一个pmd表项指向一个页表)所描述的范围的每一个虚拟页,如果之前已经建立过映射,就将相关的页表项清除,对于在内存中物理页来说,需要调用__tlb_remove_page将其加入到mmu的积聚结构中,下面重点看下这个函数:

__tlb_remove_page
->__tlb_remove_page_size//mm/mmu_gather.c
->
bool__tlb_remove_page_size(structmmu_gather*tlb,structpage*page,intpage_size)
{
structmmu_gather_batch*batch;

...

batch=tlb->active;//获得当前批次的积聚结构
/*
¦*Addthepageandcheckifwearefull.Ifso
¦*forceaflush.
¦*/
batch->pages[batch->nr++]=page;//将页面加入到批次的积聚结构的pages数组中,并增加batch->nr计数
if(batch->nr==batch->max){//如果当前批次的积聚结构的pages数组中积聚的页面个数到达最大个数
if(!tlb_next_batch(tlb))//获得下一个批次积聚结构
returntrue;//获得不成功返回true
batch=tlb->active;
}
VM_BUG_ON_PAGE(batch->nr>batch->max,page);

returnfalse;//获得下一个批次批次积聚结构成功,返回false;
}


我们再来看下tlb_next_batch的实现:

staticbooltlb_next_batch(structmmu_gather*tlb)
{
structmmu_gather_batch*batch;

batch=tlb->active;
if(batch->next){//下一个批次积聚结构存在
tlb->active=batch->next;//当前的批次积聚结构指向这个批次结构
returntrue;
}

if(tlb->batch_count==MAX_GATHER_BATCH_COUNT)//如果批次数量达到最大值则返回false
returnfalse;

//批次还没有到达最大值,则分配并初始化批次的积聚结构
batch=(void*)__get_free_pages(GFP_NOWAIT|__GFP_NOWARN,0);//申请一个物理页面由于存放mmu_gather_batch和page数组
if(!batch)
returnfalse;

tlb->batch_count++;//批次计数加1
batch->next=NULL;
batch->nr=0;
batch->max=MAX_GATHER_BATCH;//批次积聚结构的page数组最大个数赋值为MAX_GATHER_BATCH

//插入到mmu积聚结构的批次链表中
tlb->active->next=batch;
tlb->active=batch;

returntrue;
}

这里有几个地方需要注意:MAX_GATHER_BATCH_COUNT 表示的是mmu积聚操作最多可以有多少个批次积聚结构,他的值为10000UL/MAX_GATHER_BATCH (考虑到非抢占式内核的soft lockups的影响)。MAX_GATHER_BATCH 表示一个批次的积聚结构的 page数组的最多元素个数,他的值为((PAGE_SIZE - sizeof(struct mmu_gather_batch)) / sizeof(void *)),也就是物理页面大小去除掉struct mmu_gather_batch结构大小。

下面给出相关图解:

解除页表过程:

b873adb0-d7f0-11ec-ba43-dac502259ad0.png

添加的到积聚结构page数组页面小于等于8个的情况:

b889110a-d7f0-11ec-ba43-dac502259ad0.png

添加的到积聚结构page数组页面大于8个的情况:

1个批次积聚结构->

b8ed8e14-d7f0-11ec-ba43-dac502259ad0.png

2个批次积聚结构->

b91ca3ac-d7f0-11ec-ba43-dac502259ad0.png

更多批次积聚结构加入->

b955ae40-d7f0-11ec-ba43-dac502259ad0.png

2.5 free_pgtables

unmap_vmas函数主要是积聚了一些相关的虚拟页面对应的物理页面,但是我们还需要释放各级页表对应的物理页等。下面看下free_pgtables的实现:

首先看下它的主要脉络:

//mm/memory.c
voidfree_pgtables(structmmu_gather*tlb,structvm_area_struct*vma,
unsignedlongfloor,unsignedlongceiling)
{
while(vma){//从起始的vma开始遍历每个vma
structvm_area_struct*next=vma->vm_next;//获得下一个vma
unsignedlongaddr=vma->vm_start;//获得vma的起始地址

/*
¦*Hidevmafromrmapandtruncate_pagecachebeforefreeing
¦*pgtables
¦*/
unlink_anon_vmas(vma);//解除匿名vma的反向映射关系
unlink_file_vma(vma);//解除文件vma反向映射关系

if(is_vm_hugetlb_page(vma)){
hugetlb_free_pgd_range(tlb,addr,vma->vm_end,
floor,next?next->vm_start:ceiling);
}else{
/*
¦*Optimization:gathernearbyvmasintoonecalldown
¦*/
while(next&&next->vm_start<= vma->vm_end+PMD_SIZE
¦&&!is_vm_hugetlb_page(next)){
vma=next;
next=vma->vm_next;
unlink_anon_vmas(vma);
unlink_file_vma(vma);
}
free_pgd_range(tlb,addr,vma->vm_end,
floor,next?next->vm_start:ceiling);//遍历各级页表
}
vma=next;
}
}


我们主要看free_pgd_range的实现:

free_pgd_range
->free_p4d_range
->free_pud_range
->free_pmd_range
->free_pte_range
->....
->pud_clear(pud);////清除pud页目录中的对应的pud表项
pmd_free_tlb(tlb,pmd,start);//pmd页目录的物理页放入页表的积聚结构中
mm_dec_nr_pmds(tlb->mm)//进程使用的页表的物理页统计减1
->p4d_clear(p4d);//清除p4d页目录中的对应的p4d表项
pud_free_tlb(tlb,pud,start)//pud页目录的物理页放入页表的积聚结构中
->pgd_clear(pgd);//清除pgd页目录中的对应的pgd表项
p4d_free_tlb(tlb,p4d,start);//p4d页目录的物理页放入页表的积聚结构中(存在p4d页目录的话)

我们以最后一级页表(pmd表项指向)为例说明:

staticvoidfree_pte_range(structmmu_gather*tlb,pmd_t*pmd,
¦unsignedlongaddr)
{
pgtable_ttoken=pmd_pgtable(*pmd);//从相关的pmd表项指针中获得页表
pmd_clear(pmd);//清除pmd页目录中的对应的pmd表项,即是页表指针
pte_free_tlb(tlb,token,addr);//存放页表的物理页放入页表的积聚结构中
mm_dec_nr_ptes(tlb->mm);//进程使用的页表的物理页统计减1
}

看下pte_free_tlb函数:

//include/asm-generic/tlb.h
#ifndefpte_free_tlb
#definepte_free_tlb(tlb,ptep,address)
do{
tlb_flush_pmd_range(tlb,address,PAGE_SIZE);//更新tlb->start和tlb->end,tlb->cleared_pmds=1
tlb->freed_tables=1;
__pte_free_tlb(tlb,ptep,address);//存放页表的物理页放入页表的积聚结构中
}while(0)
#endif

再看看__pte_free_tlb:

//arch/arm64/include/asm/tlb.h
__pte_free_tlb
->pgtable_pte_page_dtor(pte);//执行释放页表的时候的构造函数,如释放ptlock内存,zone的页表页面统计减1等
tlb_remove_table(tlb,pte);//mm/mmu_gather.c
->structmmu_table_batch**batch=&tlb->batch;//获得页表的积聚结构

if(*batch==NULL){//如何为空,则分配一个物理页,存放积聚结构和积聚数组
*batch=(structmmu_table_batch*)__get_free_page(GFP_NOWAIT|__GFP_NOWARN);
if(*batch==NULL){
tlb_table_invalidate(tlb);
tlb_remove_table_one(table);
return;
}
(*batch)->nr=0;
}

(*batch)->tables[(*batch)->nr++]=table;//相关的页目录对应的物理页放入积聚数组中
if((*batch)->nr==MAX_TABLE_BATCH)//加入的物理页达到最大值
tlb_table_flush(tlb);//做一次刷tlb和释放当前已经积聚的页目录的物理页

需要说明的是:对于存放各级页目录的物理页的释放,每当一个页表积聚结构填满了就会释放,不会构建批次链表。

2.6 tlb_finish_mmu

通过上面的unmap_vmas和free_pgtables之后,我们积聚了大量的物理页以及存放各级页目录的物理页,现在需要将这些页面进行释放。

下面我们来看下tlb_finish_mmu做的mmu-gather的收尾动作:

voidtlb_finish_mmu(structmmu_gather*tlb,
unsignedlongstart,unsignedlongend)
{
...

tlb_flush_mmu(tlb);//刷tlb和释放所有积聚的物理页

#ifndefCONFIG_MMU_GATHER_NO_GATHER
tlb_batch_list_free(tlb);//释放各批次结构对应的物理页
#endif
...
}


首先看下tlb_flush_mmu:

mm/mmu_gather.c

voidtlb_flush_mmu(structmmu_gather*tlb)
{
tlb_flush_mmu_tlbonly(tlb);//刷tlb
tlb_flush_mmu_free(tlb);//释放各个批次积聚结构的物理页
}


tlb_flush_mmu_tlbonly的实现:

staticinlinevoidtlb_flush_mmu_tlbonly(structmmu_gather*tlb)
{
/*
¦*Anythingcalling__tlb_adjust_range()alsosetsatleastoneof
¦*thesebits.
¦*/
if(!(tlb->freed_tables||tlb->cleared_ptes||tlb->cleared_pmds||
¦tlb->cleared_puds||tlb->cleared_p4ds))//有一个为0即返回
return;

tlb_flush(tlb);//刷tlb,和处理器架构相关
...
__tlb_reset_range(tlb);//将tlb->start和tlb->end以及tlb->freed_tables,tlb->cleared_xxx复位
}

我们来看下tlb_flush:

arch/arm64/include/asm/tlb.h
staticinlinevoidtlb_flush(structmmu_gather*tlb)
{
structvm_area_structvma=TLB_FLUSH_VMA(tlb->mm,0);
boollast_level=!tlb->freed_tables;
unsignedlongstride=tlb_get_unmap_size(tlb);
inttlb_level=tlb_get_level(tlb);//得到刷tlb的级别,如只刷pte级别

/*
¦*Ifwe'retearingdowntheaddressspacethenweonlycareabout
¦*invalidatingthewalk-cache,sincetheASIDallocatorwon't
¦*reallocateourASIDwithoutinvalidatingtheentireTLB.
¦*/
if(tlb->fullmm){//刷整个mm的tlb
if(!last_level)
flush_tlb_mm(tlb->mm);
return;
}

//刷一个虚拟内存范围的tlb
__flush_tlb_range(&vma,tlb->start,tlb->end,stride,
¦last_level,tlb_level);
}

最后我们看tlb_flush_mmu_free:

staticvoidtlb_flush_mmu_free(structmmu_gather*tlb)
{
tlb_table_flush(tlb);//释放之前积聚的存放各级页目录的物理页
#ifndefCONFIG_MMU_GATHER_NO_GATHER
tlb_batch_pages_flush(tlb);//释放各个批次积聚结构积聚的物理页
#endif
}

tlb_table_flush的实现:

staticvoidtlb_table_flush(structmmu_gather*tlb)
{
structmmu_table_batch**batch=&tlb->batch;//获得当前的页表批次积聚结构

if(*batch){
tlb_table_invalidate(tlb);//刷tlb
tlb_remove_table_free(*batch);//释放页目录物理页
*batch=NULL;
}
}

staticvoidtlb_remove_table_free(structmmu_table_batch*batch)
{
call_rcu(&batch->rcu,tlb_remove_table_rcu);//rsu延迟调用
->__tlb_remove_table_free(container_of(head,structmmu_table_batch,rcu));
->staticvoid__tlb_remove_table_free(structmmu_table_batch*batch)
{
inti;

for(i=0;i< batch->nr;i++)//释放页表批次积聚结构中的page数组中每一个物理页
__tlb_remove_table(batch->tables[i]);

free_page((unsignedlong)batch);//释放这个表批次积聚结构对应的物理页
}

}

tlb_batch_pages_flush的实现:

staticvoidtlb_batch_pages_flush(structmmu_gather*tlb)
{
structmmu_gather_batch*batch;

for(batch=&tlb->local;batch&&batch->nr;batch=batch->next){//遍历积聚批次链表的每一个批次积聚结构
free_pages_and_swap_cache(batch->pages,batch->nr);//释放积聚结构的page数组的每一个物理页
batch->nr=0;
}
tlb->active=&tlb->local;
}

最终是:调用free_pages_and_swap_cache将物理页的引用计数减1 ,引用计数为0时就将这个物理页释放,还给伙伴系统。

虽然上面已经释放了相关的各级页表的物理页和映射到进程地址空间的物理页,但是存放积聚结构和page数组的物理页还没有释放,所以调用tlb_batch_list_free来做这个事情:

tlb_batch_list_free
->staticvoidtlb_batch_list_free(structmmu_gather*tlb)
{
structmmu_gather_batch*batch,*next;

for(batch=tlb->local.next;batch;batch=next){//释放积聚结构的物理页从tlb->local.next开始的,遍历所有批次的积聚结构
next=batch->next;
free_pages((unsignedlong)batch,0);//释放这个批次积聚结构的物理页
}
tlb->local.next=NULL;
}

于是相关的所有物理页面都被释放了(包括相关地址范围内进程各级页目录对应的物理页,映射到进程地址空间的物理页,和各个积聚结构所在的物理页)。

最后给出整体的图解:

b9762a76-d7f0-11ec-ba43-dac502259ad0.png

tlb_flush_mmu函数的tlb_table_flush会将B链表中的相关物理页面释放(包括之前保存的各级页表的页面和mmu_table_batch结构所在页面),tlb_batch_pages_flush会将A链表的所有除了积聚结构以外的所有物理页面释放,而tlb_batch_list_free会将A链表的所有批次积聚结构(mmu_gather_batch)的物理页面释放。

3.应用场景

使用mmu-gather的应用场景主要是进程退出,执行execv和调用munmap等。

下面我们主要来看下他们的调用链:

3.1 进程退出时

进程退出时会释放它的所有的相关联的系统资源,其中就包括内存资源:

kernel/exit.c
do_exit
->exit_mm
->mmput//kernel/fork.c
->if(atomic_dec_and_test(&mm->mm_users))//如果mm->mm_users减1为0时,也就是当前进程是最后一个mm的使用者
__mmput(mm);//释放mm
->exit_mmap//mm/mmap.c
->tlb_gather_mmu(&tlb,mm,0,-1);//初始化mmu_gather结构,start=0,end=-1表示释放整个mm
->unmap_vmas(&tlb,vma,0,-1);//解除页表映射,相关的物理页放入积聚结构中
>free_pgtables(&tlb,vma,FIRST_USER_ADDRESS,USER_PGTABLES_CEILING);//释放各级页表,页表相关物理页放入页表积聚结构,满则释放
>tlb_finish_mmu(&tlb,0,-1);//刷mm的tlb,释放所有积聚物理页,释放所有积聚结构相关物理页

3.2 执行execv时

执行execv时进程会将所有的mm释放掉:

fs/exec.c

...
do_execveat_common
->bprm_execve
->exec_binprm
->search_binary_handler
...
->load_elf_binary//fs/binfmt_elf.c
->begin_new_exec
->exec_mmap
->mmput(old_mm)
->if(atomic_dec_and_test(&mm->mm_users))//如果mm->mm_users减1为0时,也就是当前进程是最后一个mm的使用者
__mmput(mm);//释放mm
->exit_mmap//mm/mmap.c
->tlb_gather_mmu(&tlb,mm,0,-1);//初始化mmu_gather结构,start=0,end=-1标识释放整个mm
->unmap_vmas(&tlb,vma,0,-1);//解除页表映射,相关的物理页放入积聚结构中
->free_pgtables(&tlb,vma,FIRST_USER_ADDRESS,USER_PGTABLES_CEILING);//释放各级页表,页表相关物理页放入页表积聚结构,满则释放
->tlb_finish_mmu(&tlb,0,-1);//刷mm的tlb,释放所有积聚物理页,释放所有积聚结构相关物理页

3.3 调用munmap时

执行munmap时,会将一个地址范围的页表解除并释放相关的物理页面:

mm/mmap.c

...
__do_munmap
->unmap_region(mm,vma,prev,start,end);
->tlb_gather_mmu(&tlb,mm,start,end);//初始化mmu_gather结构
unmap_vmas(&tlb,vma,start,end);//解除页表映射,相关的物理页放入积聚结构中
free_pgtables(&tlb,vma,prev?prev->vm_end:FIRST_USER_ADDRESS,
¦next?next->vm_start:USER_PGTABLES_CEILING);//释放各级页表,页表相关物理页放入页表积聚结构,满则释放
tlb_finish_mmu(&tlb,start,end);//刷mm的tlb,释放所有积聚物理页,释放所有积聚结构相关物理页

4.总结

Linux内核mmu-gather用于积聚解除映射的相关物理页面,并保证了刷tlb和释放物理页面的顺序。首先解除掉相关虚拟页面对应物理页面(如果有的话)的页表映射关系,然后将相关的物理页面保存在积聚结构的数组中,接着将相关的各级页目录表项清除,并放入页表相关的积聚结构的数组中,最后刷对应内存范围的tlb,释放掉所有放在积聚结构数组中的物理页面。

原文标题:4.总结

文章出处:【微信公众号:一口Linux】欢迎添加关注!文章转载请注明出处。

审核编辑:汤梓红
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 内核
    +关注

    关注

    3

    文章

    1309

    浏览量

    39833
  • Linux
    +关注

    关注

    87

    文章

    10981

    浏览量

    206676
  • 内存管理
    +关注

    关注

    0

    文章

    162

    浏览量

    14051

原文标题:4.总结

文章出处:【微信号:yikoulinux,微信公众号:一口Linux】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    Windows服务器虚拟内存的设置建议

    虚拟内存是计算机操作系统用于扩展物理内存的一种机制。在Windows服务器上,虚拟内存的设置对系统性能和稳定性至关重要。以下是关于Windows服务器
    的头像 发表于 12-25 17:03 553次阅读

    MMU内存管理单元的宏观理解

    (Memory Management Unit,内存管理单元)是一种硬件模块,用于在CPU和内存之间实现虚拟内存管理。 其主要功能是将
    的头像 发表于 11-26 15:21 225次阅读
    <b class='flag-5'>MMU</b><b class='flag-5'>内存</b><b class='flag-5'>管理</b>单元的宏观理解

    linux内存性能优化介绍

    也不同;图示为 32 位和 64 位系统的虚拟地址空间; 内存映射是将虚拟内存地址映射到物理内存地址,内核为每个进程都维护了一张页表,记录
    的头像 发表于 11-10 15:23 300次阅读
    <b class='flag-5'>linux</b><b class='flag-5'>内存</b>性能优化介绍

    Linux 内存管理总结

    一、Linux内存管理概述 Linux内存管理是指对系统内存
    的头像 发表于 11-10 14:58 237次阅读
    <b class='flag-5'>Linux</b> <b class='flag-5'>内存</b><b class='flag-5'>管理</b>总结

    嵌入式Linux运行一定需要MMU吗?为什么需要MMU

    虚拟内存功能和保护机制的重要角色。 MMU(Memory Management Unit)是一种硬件机制,它为CPU提供了一种虚拟内存映射的功能,可以将物理地址映射到虚拟地址上。在实际
    的头像 发表于 10-29 16:28 467次阅读

    什么是MMUlinux为什么需要MMU

    内存管理方面,MMU可以通过页面表(Page Table)实现虚拟内存管理。页面表是一种数据结构,记录了每个
    发表于 10-09 11:27 518次阅读
    什么是<b class='flag-5'>MMU</b>?<b class='flag-5'>linux</b>为什么需要<b class='flag-5'>MMU</b>?

    Linux系统为什么需要引入虚拟地址

    Linux 系统中,采用了虚拟内存管理技术,事实上大多数现在操作系统都是如此!在 Linux 系统中,每一个进程都在自己独立的地址空间中
    的头像 发表于 10-07 17:28 531次阅读
    <b class='flag-5'>Linux</b>系统为什么需要引入<b class='flag-5'>虚拟</b>地址

    Linux实现原理—虚拟内存技术简析

    虚拟内存技术是操作系统实现的一种高效的物理内存管理方式
    发表于 08-10 12:57 602次阅读
    <b class='flag-5'>Linux</b>实现原理—<b class='flag-5'>虚拟内存</b>技术简析

    为什么需要虚拟内存虚拟内存的概念与实现

    面试的时候经常会被问到 malloc 的实现。从操作系统层面来说,malloc 确实是考察面试者对操作系统底层的存储管理理解的一个很好的方式,涉及到虚拟内存、分页/分段等。下面逐个细说
    发表于 08-09 09:38 1269次阅读
    为什么需要<b class='flag-5'>虚拟内存</b>?<b class='flag-5'>虚拟内存</b>的概念与实现

    为什么没有MMU就无法运行Linux系统呢?

    MMU(Memory Management Unit,内存管理单元)是一种硬件模块,用于在CPU和内存之间实现虚拟内存
    发表于 08-03 10:05 537次阅读
    为什么没有<b class='flag-5'>MMU</b>就无法运行<b class='flag-5'>Linux</b>系统呢?

    MMU内存管理单元的工作原理和作用

    MMU(Memory Management Unit,内存管理单元)是一种硬件模块,用于在CPU和内存之间实现虚拟内存
    的头像 发表于 08-03 10:03 1309次阅读
    <b class='flag-5'>MMU</b><b class='flag-5'>内存</b><b class='flag-5'>管理</b>单元的工作原理和作用

    一文详解Linux虚拟内存技术

      以存储单元为单位来管理显然不现实,因此Linux把虚存空间分成若干个大小相等的存储分区,Linux把这样的分区叫做页。为了换入、换出的方便,物理内存也就按页的大小分成若干个块。由于
    发表于 07-17 17:29 405次阅读
    一文详解<b class='flag-5'>Linux</b><b class='flag-5'>虚拟内存</b>技术

    Linux内核的作用

    Linux操作系统是当今世界上最为广泛使用的开源操作系统之一,内核则是一个操作系统的核心和灵魂所在。对于一名
    发表于 07-06 11:46 1197次阅读
    <b class='flag-5'>Linux</b><b class='flag-5'>内核</b>的作用

    虚拟内存的基本概念

    概述 我们都知道一个进程是与其他进程共享CPU和内存资源的。正因如此,操作系统需要有一套完善的内存管理机制才能防止进程之间内存泄漏的问题。
    的头像 发表于 06-22 14:51 1055次阅读
    <b class='flag-5'>虚拟内存</b>的基本概念

    为什么没有MMU就无法运行Linux系统

    MMU(Memory Management Unit,内存管理单元)是一种硬件模块,用于在CPU和内存之间实现虚拟内存
    的头像 发表于 04-23 10:48 578次阅读
    为什么没有<b class='flag-5'>MMU</b>就无法运行<b class='flag-5'>Linux</b>系统