物理内存也称为主存,大多数计算机用的主存都是动态随机访问内存(DRAM)。只有内核才可以直接访问物理内存。
内存的分配方式
Buddy Memory Allocation
是最底层的内存管理机制,提供页式的内存管理。
函数调用:alloc_pages()
Slab Allocation
是构建在 Buddy Memory Allocation 上的内存管理,提供基于对象的内存管理。
函数调用:
1)创建对象:kmem_cache_create()
2)分配内存:kmem_cache_alloc()
3)释放内存:kmem_cache_free()
进程如何访问内存
物理内存 与 虚拟内存
Linux 内核给每个进程都提供了一个独立的虚拟地址空间,并且这个地址空间是连续的。这样,进程就可以很方便地访问内存,更确切地说是访问虚拟内存。
并不是所有的虚拟内存都会分配物理内存,只有那些实际使用的虚拟内存才分配物理内存,并且分配后的物理内存,是通过内存映射来管理的。
内存映射
内存映射,其实就是将虚拟内存地址映射到物理内存地址。为了完成内存映射,内核为每个进程都维护了一张页表,记录虚拟地址与物理地址的映射关系。
虚拟内存 =>(虚拟地址)=> 页面表(MMU) => (物理地址)=> 物理内存
对普通进程来说,能看到的其实是内核提供的虚拟内存,这些虚拟内存还需要通过页表,由系统映射为物理内存。
内存管理单元(MMU)
页表实际上存储在处理器的内存管理单元(MMU)中。而当进程访问的虚拟地址在页表中查不到时,系统会产生一个缺页异常,进入内核空间分配物理内存、更新进程页表,最后再返回用户空间,恢复进程的运行。
MMU 以“页”来管理内存,通常是 4 KB 大小,每一次内存映射,都需要关联 4 KB 或者 4KB 整数倍的内存空间。
页的大小只有 4 KB ,导致的另一个问题就是,整个页表会变得非常大。比方说,仅 32 位系统就需要 100 多万个页表项(4GB/4KB),才可以实现整个地址空间的映射。为了解决页表项过多的问题,Linux 提供了两种机制,也就是多级页表和大页(HugePage)。
多级页表就是把内存分成区块来管理,将原来的映射关系改成区块索引和区块内的偏移。由于虚拟内存空间通常只用了很少一部分,那么,多级页表就只保存这些使用中的区块,这样就可以大大地减少页表的项数。Linux 用的正是四级页表来管理内存页,如下图所示,虚拟地址被分为 5 个部分,前 4 个表项用于选择页,而最后一个索引表示页内偏移。
大页(HugePage),顾名思义,就是比普通页更大的内存块,常见的大小有 2MB 和 1GB。大页通常用在使用大量内存的进程上,比如 Oracle、DPDK 等
TLB(Translation Lookaside Buffer,转译后备缓冲器)会影响 CPU 的内存访问性能的原因:
TLB 其实就是 MMU 中页表的高速缓存。由于进程的虚拟地址空间是独立的,而 TLB 的访问速度又比 MMU 快得多,所以,通过减少进程的上下文切换,减少 TLB 的刷新次数,就可以提高 TLB 缓存的使用率,进而提高 CPU 的内存访问性能。
虚拟地址空间:内核空间 与 用户空间
虚拟地址空间的内部又被分为内核空间和用户空间两部分,不同字长(也就是单个 CPU 指令可以处理数据的最大长度)的处理器,地址空间的范围也不同:
32-bit
1)32-bit,内核空间占用 1G,位于最高处,剩下的 3G 是用户空间:
用户空间,3G,0x00000000 – 0xC0000000;
内核空间,1G,0xC0000000 – 0xFFFFFFFF;
64-bit
2)64-bit,64 位系统的内核空间和用户空间都是 128T,分别占据整个内存空间的最高和最低处,剩下的中间部分是未定义的
用户空间,128T,0x0 – 0x00007ffffffff000;
未定义,0x00007ffffffff000 – 0xffff800000000000;
内核空间,128T,0xffff800000000000 – 0xffffffffffffffff;
进程在用户态时,只能访问用户空间内存;只有进入内核态后,才可以访问内核空间内存。虽然每个进程的地址空间都包含了内核空间,但这些内核空间,其实关联的都是相同的物理内存。这样,进程切换到内核态后,就可以很方便地访问内核空间内存。
虚拟内存空间分布(32-bit)
以 32-bit 系统为例(其实 64 位系统的内存分布也类似,只不过内存空间要大得多),如下图来表示它们的关系
用户空间,内存从低到高分别是五种不同的内存段:
1)只读段,包括代码和常量等。
2)数据段,包括全局变量等。
3)堆,包括动态分配的内存,从低地址开始向上增长。
4)文件映射段,包括动态库、共享内存等,从高地址开始向下增长。
5)栈,包括局部变量和函数调用的上下文等。栈的大小是固定的,一般是 8 MB。
在这五个内存段中,堆和文件映射段的内存是动态分配的。比如说,使用 C 标准库的 malloc() 或者 mmap() ,就可以分别在堆和文件映射段动态分配内存。
内存分配 与 内存回收
内存分配
malloc() 是 C 标准库提供的内存分配函数,对应到系统调用上,有两种实现方式,即 brk() 和 mmap():
1)对小块内存(小于 128K),C 标准库使用 brk() 来分配,也就是通过移动堆顶的位置来分配内存。这些内存释放后并不会立刻归还系统,而是被缓存起来,这样就可以重复使用。
2)大块内存(大于 128K),则直接使用内存映射 mmap() 来分配,也就是在文件映射段找一块空闲内存分配出去。
这些内存(通过 malloc() 申请)都只在首次访问时才分配,也就是通过缺页异常进入内核中,再由内核来分配内存。整体来说 Linux 使用 Buddy memory allocation 来管理内存分配。前面我们提到过,这些内存在 MMU 中以页为单位进行管理,Buddy memory allocation 也一样,以页为单位来管理内存,并且会通过相邻页的合并,减少内存碎片化(比如 brk() 造成的内存碎片)。
缺页异常又分为下面两种场景:
1)次缺页异常:可以直接从物理内存中分配时
2)主缺页异常:需要磁盘 I/O 介入(比如 Swap)时
遇到比页更小的对象,比如不到 1K 的时候,在用户空间,malloc 通过 brk() 分配的内存,在释放时并不立即归还系统,而是缓存起来重复利用。在内核空间,Linux 则通过 slab 分配器来管理小内存。你可以把 slab 看成构建在 Buddy memory allocation 上的一个缓存,主要作用就是分配并释放内核中的小对象。只有在内核空间,内核调用kmalloc去分配内存的时候,才会涉及到 slab 。
内存回收
在程序中,通过代码回收内存:对内存来说,如果只分配而不释放就会造成内存泄漏,甚至会耗尽系统内存。所以在应用程序用完内存后,需要调用 free() 或 unmap(),来释放不用的内存。
由操作系统进行内存回收:在发现内存紧张时,操作系统就会通过系列机制来回收内存,比如下面这三种方式:
1)回收缓存:使用 LRU(Least Recently Used)算法,回收最近使用最少的内存页面
2)交换分区:回收不常访问的内存,把不常用的内存通过交换分区直接写到磁盘中;
3)OOM(Out of Memory):在内存紧张时,操作系统还会通过 OOM 机制结束占用大量内存的进程,释放这些内存,再分配给其他更需要的进程;
LRU – Least Recently Used
LRU 回收算法,实际上维护着 active 和 inactive 两个双向链表,其中:active 记录活跃的内存页;inactive 记录非活跃的内存页。越接近链表尾部,就表示内存页越不常访问。这样在回收内存时,系统就可以根据活跃程度,优先回收不活跃的内存。
活跃和非活跃的内存页,按照类型的不同,又分别分为文件页和匿名页,对应着 缓存回收 和 Swap 回收。可以从 /proc/meminfo 中,查询它们的大小:
# cat /proc/meminfo | grep -i active Active: 12266848 kB Inactive: 2437720 kB Active(anon): 11506584 kB Inactive(anon): 1863448 kB Active(file): 760264 kB Inactive(file): 574272 kB
OOM – Out of Memory
在内存不足时,操作系统会尝试直接内存回收。如果内存还是不足,将出发 OOM 进行回收。
在 dmesg 中,将看到 Out of memory 信息,显示被杀死的进程:
# cat /proc/meminfo | grep -i active Active: 12266848 kB Inactive: 2437720 kB Active(anon): 11506584 kB Inactive(anon): 1863448 kB Active(file): 760264 kB Inactive(file): 574272 kB
OOM 触发的时机基于虚拟内存。换句话说,进程在申请内存时,如果申请的虚拟内存加上服务器实际已用的内存之和,比总的物理内存还大,就会触发 OOM。
如何查看内存使用情况
总体使用情况:free
# free // 以字节为单位 total used free shared buff/cache available Mem: 16108680 13563160 301692 731132 2243828 1478772 Swap: 31457276 16751336 14705940 // 1)total,总内存大小; // 2)used,已使用内存的大小,包含了共享内存; // 3)free,未使用内存的大小; // 4)shared,共享内存的大小; // 5)buff/cache,缓存和缓冲区的大小; // 6)available,新进程可用内存的大小;包含未使用内存,还包括了可回收的缓存,会比未使用内存更大。但并不是所有缓存都可以回收,因为有些缓存可能正在使用。
进程使用情况:top、ps
# top top - 11:35:02 up 28 days, 14:45, 14 users, load average: 1.60, 1.76, 1.67 Tasks: 469 total, 1 running, 464 sleeping, 0 stopped, 4 zombie %Cpu0 : 20.8 us, 5.1 sy, 0.0 ni, 73.7 id, 0.3 wa, 0.0 hi, 0.0 si, 0.0 st %Cpu1 : 20.8 us, 6.1 sy, 0.0 ni, 72.2 id, 0.3 wa, 0.0 hi, 0.6 si, 0.0 st %Cpu2 : 23.4 us, 5.2 sy, 0.0 ni, 71.1 id, 0.0 wa, 0.0 hi, 0.3 si, 0.0 st %Cpu3 : 18.6 us, 7.4 sy, 0.0 ni, 74.0 id, 0.0 wa, 0.0 hi, 0.0 si, 0.0 st MiB Mem : 15731.1 total, 210.4 free, 13512.2 used, 2008.5 buff/cache MiB Swap: 30720.0 total, 14605.5 free, 16114.5 used. 1157.3 avail Mem PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND 1607 libvirt+ 20 0 6913088 3.9g 3008 S 59.5 25.2 25755:25 /usr/bin/qemu-system 18393 k4nz 20 0 3851580 324704 54840 S 8.0 2.0 729:02.03 /usr/bin/gnome-shell 12996 k4nz 20 0 82.2g 990.7m 67328 S 7.0 6.3 256:58.14 /usr/lib/chromium/ch 14608 k4nz 20 0 4701876 55488 22692 S 3.0 0.3 137:33.08 /opt/google/chrome/c // 输出界面的顶端,也显示了系统整体的内存使用情况,这些数据跟 free 类似 // VIRT,进程虚拟内存的大小,只要是进程申请过的内存,即便还没有真正分配物理内存,也会计算在内 // RES, 常驻内存的大小,也就是进程实际使用的物理内存大小,但不包括 Swap 和共享内存 // SHR, 共享内存的大小,比如与其他进程共同使用的共享内存、加载的动态链接库以及程序的代码段等 // %MEM,进程使用物理内存占系统总内存的百分比 // 注意事项: // 虚拟内存通常并不会全部分配物理内存。从上面的输出,你可以发现每个进程的虚拟内存都比常驻内存大得多 // 共享内存 SHR 并不一定是共享的,比如程序的代码段、非共享的动态链接库,也都算在 SHR 里。当然 SHR 也包括了进程间真正共享的内存。所以在计算多个进程的内存使用时,不能把这些进程的 SHR 直接相加
计算内存使用情况
使用 /proc/<pid>/smaps 的 PSS 字段可以计算内存用量:
// 使用grep查找Pss指标后,再用awk计算累加值 # grep Pss /proc/[1-9]*/smaps | awk '{total+=$2}; END {printf "%d kB\n", total}' 391266 kB
关键在于,PSS 是进程的共享内存被平分之后的数值,所以不会出现重复累加的问题。
参考文献
15 | 基础篇:Linux内存是怎么工作的?
22 | 答疑(三):文件系统与磁盘的区别是什么?