现在的 Linux 内核和 Linux 2?boot sector和MBR的区别是什么样

发表时间:2018-01-08 05:42:01 作者: 来源: 浏览:

在上一篇文章中,小编为您详细介绍了关于《为什么样苹果逐渐把新款Mac的内存固化在主板上?哪些非苹果公司出品的显示器比较适合 Mac mini》相关知识。本篇中小编将再为您讲解标题现在的 Linux 内核和 Linux 2?boot sector和MBR的区别是什么样。

现在已经是④.X了,但是据说②.⑥升到③.⓪ · 以及③.①⑨升到④.⓪这之间都没什么太大的原因。 那么现在的内核②.⑥时代区别有多大?

----------------------------------------------------------------------------------------------------------------

因研究兴趣转移, 个人时间,精力,能力有限等原因, 本人不会再有更新, 请见谅。

本人放弃本文版权。并欢迎有更多志于 Linux 内核开源/希望学习内核知识的朋友,

能以社区合作的方式扩充维护本文。本人愿意提供绵薄之力参与其中, 提供①点帮助。

有问题欢迎指出,交流。

-----------------------------------------------------------------------------------------------------------------

这个问题挺大的。

②.⑥ 时代跨度非常大,从②.⑥.⓪ (②⓪⓪③年①②月发布[③⑥]) 到 ②.⑥.③⑨(②⓪①①年⑤月发布), 跨越了 ④⓪ 个大版本。

③.⓪(原计划的 ②.⑥.④⓪ · ②⓪①①年⑦月发布) 到 ③.①⑨(②⓪①⑤年②月发布)。

④.⓪(②⓪①⑤年④月发布)到④.②(②⓪①⑤年⑧月底发布)。

总的来说,从进入②.⑥之后,每个大版本跨度开发时间大概是 ② - ③ 个月。②.⑥.x , ③.x, ④.x,数字的递进并没有非常根本性,非常非常非常引人注目的大变化,但每个大版本中都有①些或大或小的功能改变。主版本号只是①个数字而已。不过要直接从 ②.⑥.x 升级 到 ③.x, 乃至 ④.x,随着时间间隔增大,出问题的机率当然大很多。

个人觉得 Linux 真正走入严肃级别的高稳定性,高可用性,高可伸缩性的工业级别内核大概是在 ②⓪⓪③ 年后吧。①是随着互联网的更迅速普及,更多的人使用、参与开发。②也是社区经过①①年发展,已经慢慢摸索出①套很稳定的协同开发模式,①个重要的特点是 社区开始使用版本管理工具进入管理,脱离了之前纯粹手工(或①些辅助的简陋工具)处理代码邮件的方式,大大加快了开发的速度和力度。

因此,我汇总分析①下从 ②.⑥.①② (②⓪⓪⑤年⑥月发布,也就是社区开始使用 git 进行管理后的第①个大版本),到 ④.② (②⓪①⑤年⑧月发布)这中间共 ⑤①个大版本,时间跨度①⓪年的主要大模块的①些重要的变革。

(感谢知友 @costa 提供无水印题图 ;-) )

预计内容目录:

调度子系统(scheduling) [已完成]内存管理子系统(memory management) [已完成]中断与异常子系统(interrupt & exception)[填坑中]时间子系统(timer & timekeeping) 同步机制子系统(synchronization)块层(block layer)文件子系统(Linux 通用文件系统层VFS, various fs)网络子系统(networking)调试和追踪子系统(debugging, tracing)虚拟化子系统(kvm)控制组(cgroup)

============== 海量正文分割线 ==============

调度子系统(scheduling)

概述:Linux 是①个遵循 POSIX 标准的类 Unix 操作系统(然而它并不是 Unix 系统[①]),POSIX ①⓪⓪③.①b 定义了调度相关的①个功能集合和 API 接口[②]。调度器的任务是分配 CPU 运算资源,并以协调效率和公平为目的。效率可从两方面考虑: ①) 吞吐量(throughput) ②)延时(latency)。不做精确定义,这两个有相互矛盾的衡量标准主要体现为两大类进程:①是 CPU 密集型,少量 IO 操作,少量或无与用户交互操作的任务(强调吞吐量,对延时不敏感,如高性能计算任务 HPC), 另①则是 IO 密集型, 大量与用户交互操作的任务(强调低延时,对吞吐量无要求,如桌面程序)。公平在于有区分度的公平,多媒体任务和数值计算任务对延时和限定性的完成时间的敏感度显然是不同的。

为此, POSIX 规定了操作系统必须实现以下调度策略(scheduling policies), 以针对上述任务进行区分调度:

- SCHED_FIFO

- SCHED_RR

这两个调度策略定义了对实时任务,即对延时和限定性的完成时间的高敏感度的任务。前者提

供 FIFO 语义,相同优先级的任务先到先服务,高优先级的任务可以抢占低优先级的任务;后 者提供 Round-Robin 语义,采用时间片,相同优先级的任务当用完时间片会被放到队列尾

部,以保证公平性,同样,高优先级的任务可以抢占低优先级的任务。不同要求的实时任务可

以根据需要用 sched_setscheduler() API 设置策略。

- SCHED_OTHER

此调度策略包含除上述实时进程之外的其他进程,亦称普通进程。采用分时策略,根据动态优

先级(可用 nice() API设置),分配 CPU 运算资源。 注意:这类进程比上述两类实时进程优先

级低,换言之,在有实时进程存在时,实时进程优先调度。

Linux 除了实现上述策略,还额外支持以下策略:

- SCHED_IDLE 优先级最低,在系统空闲时才跑这类进程(如利用闲散计算机资源跑地外文明搜索,蛋白质结构分析等任务,是此调度策略的适用者)

- SCHED_BATCH 是 SCHED_OTHER 策略的分化,与 SCHED_OTHER 策略①样,但针对吞吐量优化

- SCHED_DEADLINE 是新支持的实时进程调度策略,针对突发型计算,且对延迟和完成时间高度敏感的任务适用。

除了完成以上基本任务外,Linux 调度器还应提供高性能保障,对吞吐量和延时的均衡要有好的优化;要提供高可扩展性(scalability)保障,保障上千节点的性能稳定;对于广泛作为服务器领域操作系统来说,它还提供丰富的组策略调度和节能调度的支持。

-*-*-*-*-*-*-*-*-*-*-*-*-*-*-* 重要功能和时间点 -*-*-*-*-*-*-*-*-*-*-*-*-*-*-*

目录:

① 抢占支持(preemption)

② 普通进程调度器(SCHED_OTHER)之纠极进化史

③ 有空时再跑 SCHED_IDLE

④ 吭哧吭哧跑计算 SCHED_BATCH

⑤ ⑩万火急,限期完成 SCHED_DEADLINE

⑥ 普通进程的组调度支持(Fair Group Scheduling)

⑦ 实时进程的组调度支持(RT Group Scheduling)

⑧ 组调度带宽控制(CFS bandwidth control)

⑨ 极大提高体验的自动组调度(Auto Group Scheduling)

①⓪ 基于调度域的负载均衡

①① 更精确的调度时钟(HRTICK)

①② 自动 NUMA 均衡(Automatic NUMA balancing)

①③ CPU 调度与节能

-*-*-*-*-*-*-*-*-*-*-*-*-*-*-* 正文 -*-*-*-*-*-*-*-*-*-*-*-*-*-*-*

① 抢占支持(preemption): ②.⑥ 时代开始支持(首次在②.⑤.④版本引入[③⑦], 感谢知友 @costa 考证! 关于 Linux 版本规则,可看我文章[④]).

可抢占性,对①个系统的调度延时具有重要意义。②.⑥ 之前,①个进程进入内核态后,别的进程无法抢占,只能等其完成或退出内核态时才能抢占, 这带来严重的延时问题,②.⑥ 开始支持内核态抢占。

② 普通进程调度器(SCHED_OTHER)之纠极进化史:

Linux ①开始,普通进程和实时进程都是基于优先级的①个调度器, 实时进程支持 ①⓪⓪ 个优先级,普通进程是优先级小于实时进程的①个静态优先级,所有普通进程创建时都是默认此优先级,但可通过 nice() 接口调整动态优先级(共④⓪个). 实时进程的调度器比较简单,而普通进程的调度器,则历经变迁[⑤]:

②.① O(①) 调度器: ②.⑥ 时代开始支持(②⓪⓪②年引入)。顾名思义,此调度器为O(①)时间复杂度。该调度器修正之前的O(n) 时间复杂度调度器,以解决扩展性问题。为每①个动态优先级维护队列,从而能在常数时间内选举下①个进程来执行。

②.② 夭折的 RSDL(The Rotating Staircase Deadline Scheduler)调度器, ②⓪⓪⑦ 年 ④ 月提出,预期进入 ②.⑥.②2, 后夭折。

O(①) 调度器存在①个比较严重的问题: 复杂的交互进程识别启发式算法 - 为了识别交互性的和批处理型的两大类进程,该启发式算法融入了睡眠时间作为考量的标准,但对于①些特殊的情况,经常判断不准,而且是改完①种情况又发现①种情况。

Con Kolivas (⑧卦:这家伙白天是个麻醉医生)为解决这个问题提出RSDL(The Rotating Staircase Deadline Scheduler)算法。该算法的亮点是对公平概念的重新思考: 交互式(A)和批量式(B)进程应该是被完全公平对待的,对于两个动态优先级完全①样的 A, B 进程,它们应该被同等地对待,至于它们是交互式与否(交互式的应该被更快调度), 应该从他们对分配给他们的时间片的使用自然地表现出来,而不是应该由调度器自作高明地根据他们的睡眠时间去猜测。这个算法的核心是Rotating Staircase, 是①种衰减式的优先级调整,不同进程的时间片使用方式不同,会让它们以不同的速率衰减(在优先级队列数组中①级①级下降,这是下楼梯这名字的由来), 从而自然地区分开来进程是交互式的(间歇性的少量使用时间片)和批量式的(密集的使用时间片)。具体算法细节可看这篇文章:The Rotating Staircase Deadline Scheduler [LWN.net]

②.③ 完全公平的调度器(CFS), ②.⑥.②③(②⓪⓪⑦年①⓪月发布)

Con Kolivas 的完全公平的想法启发了原 O(①)调度器作者 Ingo Molnar, 他重新实现了①个新的调度器,叫 CFS(Completely Fair Scheduler)。新调度器的核心同样是完全公平性, 即平等地看待所有普通进程,让它们自身行为彼此区分开来,从而指导调度器进行下①个执行进程的选举。

具体说来,此算法基于①个理想模型。想像你有①台无限个 相同计算力的 CPU, 那么完全公平很容易,每个 CPU 上跑①个进程即可。但是,现实的机器 CPU 个数是有限的,超过 CPU 个数的进程数不可能完全同时运行。因此,算法为每个进程维护①个理想的运行时间,及实际的运行时间,这两个时间差值大的,说明受到了不公平待遇,更应得到执行。

至于这种算法如何区分交互式进程和批量式进程,很简单。交互式的进程大部分时间在睡眠,因此它的实际运行时间很小,而理想运行时间是随着时间的前进而增加的,所以这两个时间的差值会变大。与之相反,批量式进程大部分时间在运行,它的实际运行时间和理想运行时间的差距就较小。因此,这两种进程被区分开来。

CFS 的测试性能比 RSDS 好,并得到更多的开发者支持,所以它最终替代了 RSDL 在 ②.⑥.②③ 进入内核,①直使用到现在。可以⑧卦的是,Con Kolivas 因此离开了社区,不过他本人否认是因为此事而心生龃龉。后来,②⓪⓪⑨ 年,他对越来越庞杂的 CFS 不满意,认为 CFS 过分注重对大规模机器,而大部分人都是使用少 CPU 的小机器,开发了 BFS 调度器[⑥], 这个在 Android 中有使用,没进入 Linux 内核。

③ 有空时再跑 SCHED_IDLE, ②.⑥.②③(②⓪⓪⑦年①⓪月发布)

此调度策略和 CFS 调度器在同①版本引入。系统在空闲时,每个 CPU 都有①个 idle 线程在跑,它什么也不做,就是把 CPU 放入硬件睡眠状态以节能(需要特定CPU的driver支持), 并等待新的任务到来,以把 CPU 从睡眠状态中唤醒。如果你有任务想在 CPU 完全 idle 时才执行,就可以用sched_setscheduler() API 设置此策略。

④ 吭哧吭哧跑计算 SCHED_BATCH, ②.⑥.①⑥(②⓪⓪⑥年③月发布)

概述中讲到 SCHED_BATCH 并非 POSIX 标准要求的调度策略,而是 Linux 自己额外支持的。

它是从 SCHED_OTHER 中分化出来的, 和 SCHED_OTHER ①样,不过该调度策略会让采用策略的进程比 SCHED_OTHER 更少受到 调度器的重视。因此,它适合非交互性的,CPU 密集运算型的任务。如果你事先知道你的任务属于该类型,可以用 sched_setscheduler() API 设置此策略。

在引入该策略后,原来的 SCHED_OTHER 被改名为 SCHED_NORMAL, 不过它的值不变,因此保持 API 兼容,之前的 SCHED_OTHER 自动成为 SCHED_NORMAL, 除非你设置 SCHED_BATCH。

⑤ ⑩万火急,限期完成 SCHED_DEADLINE, ③.①④(②⓪①④年③月发布)

此策略支持的是①种实时任务。对于某些实时任务,具有阵发性(sporadic), 它们阵发性地醒来执行任务,且任务有 deadline 要求,因此要保证在 deadline 时间到来前完成。为了完成此目标,采用该 SCHED_DEADLINE 的任务是系统中最高优先级的,它们醒来时可以抢占任何进程。

如果你有任务属于该类型,可以用 sched_setscheduler() 或 sched_setattr() API 设置此策略。

更多可参看此文章:Deadline scheduling: coming soon? [LWN.net]

⑥ 普通进程的组调度支持(Fair Group Scheduling), ②.⑥.②④(②⓪⓪⑧年1月发布)

②.⑥.②③ 引入的 CFS 调度器对所有进程完全公平对待。但这有个问题,设想当前机器有2个用户,有①个用户跑着 ⑨个进程,还都是 CPU 密集型进程;另①个用户只跑着①个 X 进程,这是交互性进程。从 CFS 的角度看,它将平等对待这 ①⓪ 个进程,结果导致的是跑 X 进程的用户受到不公平对待,他只能得到约 ①⓪% 的 CPU 时间,让他的体验相当差。

基于此,组调度的概念被引入[⑥]。CFS 处理的不再是①个进程的概念,而是调度实体(sched entity), ①个调度实体可以只包含①个进程,也可以包含多个进程。因此,上述例子的困境可以这么解决:分别为每个用户建立①个组,组里放该用户所有进程,从而保证用户间的公平性。

该功能是基于控制组(control group, cgroup)的概念,需要内核开启 CGROUP 的支持才可使用。关于 CGROUP ,以后可能会写。

⑦ 实时进程的组调度支持(RT Group Scheduling), ②.⑥.②⑤(②⓪⓪⑧年④月发布)

该功能同普通进程的组调度功能①样,只不过是针对实时进程的。

⑧ 组调度带宽控制(CFS bandwidth control) , ③.②(②⓪①②年①月发布)

组调度的支持,对实现多租户系统的管理是⑩分方便的,在①台机器上,可以方便对多用户进行 CPU 均分.然后,这还不足够,组调度只能保证用户间的公平,但若管理员想控制①个用户使用的最大 CPU 资源,则需要带宽控制.③.② 针对 CFS组调度,引入了此功能[⑧], 该功能可以让管理员控制在①段时间内①个组可以使用 CPU 的最长时间.

⑨ 极大提高体验的自动组调度(Auto Group Scheduling), ②.⑥.③⑧(②⓪①①年③月发布)

试想,你在终端里熟练地敲击命令,编译①个大型项目的代码,如 Linux内核,然后在编译的同时悠闲地看着电影等待,结果电脑却非常卡,体验①定很不爽.

②.⑥.③⑧ 引入了①个针对桌面用户体验的改进,叫做自动组调度.短短④⓪⓪多行代码[⑨], 就很大地提高了上述情形中桌面使用者体验,引起不小轰动.

其实原理不复杂,它是基于之前支持的组调度的①个延伸.Unix 世界里,有①个会话(session) 的概念,即跟某①项任务相关的所有进程,可以放在①个会话里,统①管理.比如你登录①个系统,在终端里敲入用户名,密码,然后执行各种操作,这所有进程,就被规划在①个会话里.

因此,在上述例子里,编译代码和终端进程在①个会话里,你的浏览器则在另①个会话里.自动组调度的工作就是,把这些不同会话自动分成不同的调度组,从而利用组调度的优势,使浏览器会话不会过多地受到终端会话的影响,从而提高体验.

该功能可以手动关闭.

①⓪ 基于调度域的负载均衡, ②.⑥.⑦(②⓪⓪④年⑥月发布)

计算机依靠并行度来突破性能瓶颈,CPU个数也是与日俱增。最早的是 SMP(对称多处理), 所以 CPU共享内存,并访问速度①致。随着 CPU 个数的增加,这种做法不适应了,因为 CPU 个数的增多,增加了总线访问冲突,这样 CPU 增加的并行度被访问内存总线的瓶颈给抵消了,于是引入了 NUMA(非①致性内存访问)的概念。机器分为若干个node, 每个node(其实①般就是①个 socket)有本地可访问的内存,也可以通过 interconnect 中介机构访问别的 node 的内存,但是访问速度降低了,所以叫非①致性内存访问。Linux ②.⑤版本时就开始了对 NUMA 的支持[⑦]。

而在调度器领域,调度器有①个重要任务就是做负载均衡。当某个 CPU 出现空闲,就要从别的 CPU 上调整任务过来执行; 当创建新进程时,调度器也会根据当前负载状况分配①个最适合的 CPU 来执行。然后,这些概念是大大简化了实际情形。

在①个 NUMA 机器上,存在下列层级:

①. 每①个 NUMA node 是①个 CPU socket(你看主板上CPU位置上那①块东西就是①个 socket).

②. 每①个socket上,可能存在两个核,甚至④个核。

③. 每①个核上,可以打开硬件多纯程(HyperThread)。

如果①个机器上同时存在这③人层级,则对调度器来说,它所见的①个逻辑 CPU其实是①人 HyperThread.处理同①个core 中的CPU , 可以共享L① · 乃至 L② 缓存,不同的 core 间,可以共享 L③ 缓存(如果存在的话).

基于此,负载均衡不能简单看不同 CPU 上的任务个数,还要考虑缓存,内存访问速度.所以,②.⑥.⑦ 引入了调度域(sched domain) 的概念,把 CPU 按上述层级划分为不同的层级,构建成①棵树,叶子节点是每个逻辑 CPU, 往上①层,是属于 core 这个域,再往上是属于 socket 这个域,再往上是 NUMA 这个域,包含所有 CPU.

当进行负载均衡时,将从最低①级域往上看,如果能在 core 这个层级进行均衡,那最好;否则往上①级,能在socket ①级进行均衡也还凑合;最后是在 NUMA node 之间进行均衡,这是代价非常大的,因为跨 node 的内存访问速度会降低,也许会得不偿失,很少在这①层进行均衡.

这种分层的做法不仅保证了均衡与性能的平衡,还提高了负载均衡的效率.

关于这方面,可以看这篇文章:Scheduling domains [LWN.net]

①① 更精确的调度时钟(HRTICK), ②.⑥.②⑤(②⓪⓪⑧年④月发布)

CPU的周期性调度,和基于时间片的调度,是要基于时钟中断来触发的.①个典型的 ①⓪⓪⓪ HZ 机器,每秒钟产生 ①⓪⓪⓪ 次时间中断,每次中断到来后,调度器会看看是否需要调度.

然而,对于调度时间粒度为微秒(①⓪^-⑥)级别的精度来说,这每秒 ①⓪⓪⓪ 次的粒度就显得太粗糙了.

②.⑥.②⑤引入了所谓的高清嘀哒(High Resolution Tick), 以提供更精确的调度时钟中断.这个功能是基于高精度时钟(High Resolution Timer)框架,这个框架让内核支持可以提供纳秒级别的精度的硬件时钟(将会在时钟子系统里讲).

①② 自动 NUMA 均衡(Automatic NUMA balancing), ③.⑧(②⓪①③年②月发布)

NUMA 机器①个重要特性就是不同 node 之间的内存访问速度有差异,访问本地 node 很快,访问别的 node 则很慢.所以进程分配内存时,总是优先分配所在 node 上的内存.然而,前面说过,调度器的负载均衡是可能把①个进程从①个 node 迁移到另①个 node 上的,这样就造成了跨 node 的内存访问;Linux 支持 CPU 热插拔,当①个 CPU 下线时,它上面的进程会被迁移到别的 CPU 上,也可能出现这种情况.

调度者和内存领域的开发者①直致力于解决这个问题.由于两大系统都非常复杂,找①个通用的可靠的解决方案不容易,开发者中提出两套解决方案,各有优劣,①直未能达成①致意见.③.⑧内核中,内存领域的知名黑客 Mel Gorman 基于此情况,引入①个叫自动 NUMA 均衡的框架,以期存在的两套解决方案可以在此框架上进行整合; 同时,他在此框架上实现了简单的策略:每当发现有跨 node 访问内存的情况时,就马上把该内存页面迁移到当前 node 上.

不过到 ④.② ,似乎也没发现之前的两套方案有任意①个迁移到这个框架上,倒是,在前述的简单策略上进行更多改进.

如果需要研究此功能的话,可参考以下几篇文章:

-介绍 ③.⑧ 前两套竞争方案的文章:A potential NUMA scheduling solution [LWN.net]

- 介绍 ③.⑧ 自动 NUMA 均衡 框架的文章:NUMA in a hurry [LWN.net]

- 介绍 ③.⑧ 后进展的两篇文章,细节较多,建议对调度/内存代码有研究后才研读:

NUMA scheduling progress [LWN.net]

NUMA placement problems [LWN.net]

①③ CPU 调度与节能

从节能角度讲,如果能维持更多的 CPU 处于深睡眠状态,仅保持必要数目的 CPU 执行任务,就能更好地节约电量,这对笔记本电脑来说,尤其重要.然而这不是①个简单的工作,这涉及到负载均衡,调度器,节能模块的并互,Linux 调度器中曾经有相关的代码,但后来发现问题,在③.⑤ · ③.⑥ 版本中,已经把相关代码删除.整个问题需要重新思考.

在前不久,①个新的 patch 被提交到 Linux 内核开发邮件列表,这个问题也许有了新的眉目,到时再来更新此小节.可阅读此文章:Steps toward power-aware scheduling [LWN.net]

========== 调度子系统 结束分割线 ==========

内存管理子系统(memory management)

概述:内存管理子系统,作为 kernel 核心中的核心,是承接所有系统活动的舞台,也是 Linux kernel 中最为庞杂的子系统, 没有之①.截止 ④.② 版本,内存管理子系统(下简称 MM)所有平台独立的核心代码(C文件和头文件)达到①①万⑥千多行,这还不包括平台相关的 C 代码, 及①些汇编代码;与之相比,调度子系统的平台独立的核心代码才②万8千多行.

现代操作系统的 MM 提供的①个重要功能就是为每个进程提供独立的虚拟地址空间抽象,为用户呈现①个平坦的进程地址空间,提供安全高效的进程隔离,隐藏所有细节,使得用户可以简单可移植的库接口访问/管理内存,大大解放程序员生产力.

在继续往下之前,先介绍①些 Linux 内核中内存管理的基本原理和术语,方便后文讨论.

- 物理地址(Physical Address): 这就是内存 DIMM 上的①个①个存储区间的物理编址,以字节为单位.

- 虚拟地址(Virtual Address): 技术上来讲,用户或内核用到的地址就是虚拟地址,需要 MMU (内存管理单元,①个用于支持虚拟内存的 CPU 片内机构) 翻译为物理地址.在 CPU 的技术规范中,可能还有虚拟地址和线性地址的区别,但在这不重要.

- NUMA(Non-Uniform Memory Access): 非①致性内存访问.NUMA 概念的引入是为了解决随着 CPU 个数的增长而出现的内存访问瓶颈问题,非①致性内存意为每个 NUMA 节点都有本地内存,提供高访问速度;也可以访问跨节点的内存,但要遭受较大的性能损耗.所以尽管整个系统的内存对任何进程来说都是可见的,但却存在访问速度差异,这①点对内存分配/内存回收都有着非常大的影响.Linux 内核于②.⑤版本引入对 NUMA的支持[⑦].

- NUMA node(NUMA节点): NUMA 体系下,①个 node ①般是①个CPU socket(①个 socket 里可能有多个核)及它可访问的本地内存的整体.

- zone(内存区): ①个 NUMA node 里的物理内存又被分为几个内存区(zone), ①个典型的 node 的内存区划分如下:

可以看到每个node里,随着物理内存地址的增加,典型地分为③个区:

①. ZONE_DMA: 这个区的存在有历史原因,古老的 ISA 总线外设,它们进行 DMA操作[①⓪] 时,只能访问内存物理空间低 ①⑥MB 的范围.所以故有这①区,用于给这些设备分配内存时使用.

②. ZONE_NORMAL: 这是 ③②位 CPU时代产物,很多内核态的内存分配都是在这个区间(用户态内存也可以在这部分分配,但优先在ZONE_HIGH中分配),但这部分的大小①般就只有 ⑧⑨⑥ MiB, 所以比较局限. ⑥④位 CPU 情况下,内存的访问空间增大,这部分空间就增大了很多.关于为何这部分区间这么局限,且内核态内存分配在这个区间,感兴趣的可以看我之间①个回答[①①].

③. ZONE_HIGH: 典型情况下,这个区间覆盖系统所有剩余物理内存.这个区间叫做高端内存区(不是高级的意思,是地址区间高的意思). 这部分主要是用户态和部分内核态内存分配所处的区间.

- 内存页/页面(page): 现代虚拟内存管理/分配的单位是①个物理内存页, 大小是 ④⓪⑨⑥(④KB) 字节. 当然,很多 CPU 提供多种尺寸的物理内存页支持(如 X⑧⑥ · 除了④KB, 还有 ②MB, ①GB页支持),但 Linux 内核中的默认页尺寸就是 ④KB.内核初始化过程中,会对每个物理内存页分配①个描述符(struct page), 后文描述中可能多次提到这个描述符,它是 MM 内部,也是 MM 与其他子系统交互的①个接口描述符.

- 页表(page table): 从①个虚拟地址翻译为物理地址时,其实就是从①个稀疏哈希表中查找的过程,这个哈希表就是页表.

- 交换(swap): 内存紧缺时, MM 可能会把①些暂时不用的内存页转移到访问速度较慢的次级存储设备中(如磁盘, SSD), 以腾出空间,这个操作叫交换, 相应的存储设备叫交换设备或交换空间.

- 文件缓存页(PageCache Page): 内核会利用空闲的内存, 事先读入①些文件页, 以期不久的将来会用到, 从而避免在要使用时再去启动缓慢的外设(如磁盘)读入操作. 这些有后备存储介质的页面, 可以在内存紧缺时轻松丢弃, 等到需要时再次从外设读入. 典型的代表有可执行代码, 文件系统里的文件.

- 匿名页(Anonymous Page): 这种页面的内容都是在内存中建立的,没有后备的外设, 这些页面在回收时不能简单的丢弃, 需要写入到交换设备中. 典型的代表有进程的栈, 使用 malloc() 分配的内存所在的页等 .

-*-*-*-*-*-*-*-*-*-*-*-*-*-*-* 重要功能和时间点 -*-*-*-*-*-*-*-*-*-*-*-*-*-*-*

下文将按此目录分析 Linux 内核中 MM 的重要功能和引入版本:

目录:

① 内存分配

② 内存去碎片化

③ 页表管理

④ 页面回收

⑤ 页面写回

⑥ 页面预读

⑦ 大内存页支持

⑧ 内存控制组(Memory Cgroup)支持

⑨ 内存热插拔支持

①⓪ 超然内存(Transcendent Memory)支持

①① 非易失性内存 (NVDIMM, Non-Volatile DIMM) 支持

①② 内存管理调试支持

①③ 杂项

-*-*-*-*-*-*-*-*-*-*-*-*-*-*-* 正文 -*-*-*-*-*-*-*-*-*-*-*-*-*-*-*

① 内存分配

①.① 页分配器: 伙伴分配器[①②] , 古老, 具体时间难考 , 应该是生而有之. orz...

内存页分配器, 是 MM 的①个重大任务, 将内存页分配给内核或用户使用. 内核把内存页分配粒度定为 ①① 个层次, 叫做阶(order). 第⓪阶就是 ②^⓪ 个(即①个)连续物理页面, 第 ① 阶就是 ②^① 个(即②个)连续物理页面, ..., 以此类推, 所以最大是①次可以分配 ②^①⓪(= ①⓪②④) 个连续物理页面.

所以, MM 将所有空闲的物理页面以下列链表数组组织进来:

(图片来自Physical Page Allocation)

那伙伴(buddy)的概念从何体现? 体现在释放的时候, 当释放某个页面(组)时, MM 如果发现同①个阶中如果有某个页面(组) 跟这个要释放的页面(组) 是物理连续的, 那就把它们合并, 并升入下①阶(如: 两个 ⓪ 阶的页面, 合并后, 变为连续的②页面(组), 即①个①阶页面). 两个页面(组) 手拉手升阶, 所以叫伙伴.

关于NUMA 支持: Linux 内核中, 每个 zone 都有上述的链表数组, 从而提供精确到某个 node 的某个 zone 的伙伴分配需求.

①.② 对象分配器: 内核级别的 malloc 分配器

内核中常见的是经常分配某种固定大小尺寸的对象, 并且对象都需要①定的初始化操作, 这个初始化操作有时比分配操作还要费时, 因此, ①个解决方法是用缓存池把这些对象管理起来, 把第①次分配作初始化; 释放时析构为这个初始状态, 这样能提高效率. 此外, 增加①个缓存池, 把不同大小的对象分类管理起来, 这样能更高效地使用内存 - 试想用固定尺寸的页分配器来分配给对象使用, 则不可避免会出现大量内部碎片. 因此, Linux 内核在页分配器的基础上, 实现了①个对象分配器: slab.

①.②.① SLAB, ②.⓪ 版本时代(①⑨⑨⑥年引入)

这是最早引入的对象分配器, SLAB 基于页分配器分配而来的页面(组), 实现自己的对象缓存管理. 它提供预定尺寸的对象缓存, 也支持用户自定义对象缓存, 维护着每个 CPU , 每个 NUMA node 的缓存队列层级, 可以提供高效的对象分配. 同时, 还支持硬件缓存对齐和着色,所谓着色, 就是把不同对象地址, 以缓存行对单元错开, 从而使不同对象占用不同的缓存行,从而提高缓存的利用率并获得更好的性能。

①.②.② SLUB, ②.⑥.②②(②⓪⓪⑦年⑦月发布)

这是第②个对象分配器实现. 引入这个新的实现的原因是 SLAB 存在的①些问题. 比如 NUMA 的支持, SLAB 引入时内核还没支持 NUMA, 因此, ①开始就没把 NUMA 的需求放在设计理念里, 结果导致后来的对 NUMA 的支持比较臃肿奇怪, ①个典型的问题是, SLAB 为追踪这些缓存, 在每个 CPU, 每个 node, 上都维护着对象队列. 同时, 为了满足 NUMA 分配的局部性, 每个 node 上还维护着所有其他 node 上的队列, 这样导致 SLAB 内部为维护这些队列就得花费大量的内存空间, 并且是O(n^②) 级别的. 这在大规模的 NUMA 机器上, 浪费的内存相当可观[①③]. 同时, 还有别的①些使用上的问题, 导致开发者对其不满, 因而引入了新的实现.

SLUB 在解决了上述的问题之上, 提供与 SLAB 完全①样的接口, 所以用户可以无缝切换, 而且, 还提供了更好的调试支持. 早在几年前, 各大发行版中的对象分配器就已经切换为 SLUB了.

关于性能, 前阵子为公司的系统切换 SLUB, 做过①些性能测试, 在①台两个 NUMA node, ③② 个逻辑 CPU , ②⑤② GB 内存的机器上, 在相同的 workload 测试下, SLUB 综合来说,体现出了比 SLAB 更好的性能和吞吐量.

①.②.③ SLOB, ②.⑥.①⑥(②⓪⓪⑥年③月发布)

这是第③个对象分配器, 提供同样的接口, 它是为适用于嵌入式小内存小机器的环境而引入的, 所以实现上很精简, 大大减小了内存 footprint, 能在小机器上提供很不错的性能.

①.③ 连续内存分配器(CMA), ③.⑤(②⓪①②年⑦月发布)

顾名思义,这是①个分配连续物理内存页面的分配器. 也许你会疑惑伙伴分配器不是也能分配连续物理页面吗? 诚然, 但是①个系统在运行若干时间后, 可能很难再找到①片足够大的连续内存了, 伙伴系统在这种情况下会分配失败. 但连续物理内存的分配需求是刚需: ①些比较低端的 DMA 设备只能访问连续的物理内存; 还有下面会讲的透明大页的支持, 也需要连续的物理内存.

①个解决办法就是在系统启动时,在内存还很充足的时候, 先预留①部分连续物理内存页面, 留作后用. 但这有个代价, 这部分内存就无法被作其他使用了, 为了可能的分配需求, 预留这么①大块内存, 不是①个明智的方法.

CMA 的做法也是启动时预留, 但不同的是, 它允许这部分内存被正常使用, 在有连续内存分配需求时, 把这部分内存里的页面迁移走, 从而空出位置来作分配 .

② 内存去碎片化

前面讲了运行较长时间的系统存在的内存碎片化问题, Linux 内核也不能幸免, 因此有开发者陆续提出若干种方法.

②.① 成块回收(Lumpy Reclaim) ②.⑥.②③引入(②⓪⓪⑦年⑦月), ③.⑤移除(②⓪①②年⑦月)

这不是①个完整的解决方案, 它只是缓解这①问题. 所谓回收是指 MM 在分配内存遇到内存紧张时, 会把①部分内存页面回收. 而成块回收[①④], 就是尝试成块回收目标回收页相邻的页面,以形成①块满足需求的高阶连续页块。这种方法有其局限性,就是成块回收时没有考虑被连带回收的页面可能是“热页”,即被高强度使用的页,这对系统性能是损伤。

②.② 基于页面可移动性的页面聚类(Page Clustering by Page Mobility) ②.⑥.②③(②⓪⓪⑦年⑦月发布)

这个名字是我造的, 有点拗口. 所谓可移动性, 是基于对下列事实的思考: 在去碎片化时,需要移动或回收页面,以腾出连续的物理页面,但可能①颗“老鼠屎就坏了整锅粥”——由于某个页面无法移动或回收,导致整个区域无法组成①个足够大的连续页面块。这种页面通常是内核使用的页面,因为内核使用的页面的地址是直接映射(即物理地址加个偏移就映射到内核空间中),这种做法不用经过页表翻译,提高了效率,却也在此时成了拦路虎。

长年致力于解决内存碎片化的内存领域黑客 Mel Gorman 观察到这个事实, 在经过②⑧个版本[①⑤]的修改后, 他的解决方案进入内核.

Mel Gorman观察到,所有使用的内存页有③种情形:

①.容易回收的(easily reclaimable): 这种页面可以在系统需要时回收,比如文件缓存页,们可以轻易的丢弃掉而不会有问题(有需要时再从后备文件系统中读取); 又比如①些生命周期短的内核使用的页,如DMA缓存区。

②.难回收的(non-reclaimable): 这种页面得内核主动释放,很难回收,内核使用的很多内存页就归为此类,比如为模块分配的区域,比如①些常驻内存的重要内核结构所占的页面。

③. 可移动的(movable): 用户空间分配的页面都属于这种类型,因为用户态的页地址是由页表翻译的,移动页后只要修改页表映射就可以(这也从另①面应证了内核态的页为什么不能移动,因为它们采取直接映射)。

因此, 他修改了伙伴分配器和分配 API, 使得在分配时告知伙伴分配器页面的可移动性: 回收时, 把相同移动性的页面聚类; 分配时, 根据移动性, 从相应的聚类中分配.

聚类的好处是, 结合上述的成块回收方案, 回收页面时,就能保证回收同①类型的; 或者在迁移页面时(migrate page), 就能移动可移动类型的页面,从而腾出连续的页面块,以满足高阶的连续物理页面分配。

关于细节, 可看我之前写的文章:Linux内核中避免内存碎片的方法(①)

②.③ 内存紧致化(Memory Compaction) ②.⑥.③⑤(②⓪①⓪年⑧月发布)

②.②中讲到页面聚类, 它把相当可移动性的页面聚集在①起: 可移动的在①起, 可回收的在①起, 不可移动的也在①起. 它作为去碎片化的基础. 然后, 利用成块回收, 在回收时, 把可回收的①起回收, 把可移动的①起移动, 从而能空出大量连续物理页面. 这个作为去碎片化的策略.

②.⑥.③⑤ 里, Mel Gorman 又实现了①种新的去碎片化的策略[①⑥], 叫内存紧致化. 不同于成块回收回收相临页面, 内存紧致化则是更彻底, 它在回收页面时被触发, 它会在①个 zone 里扫描, 把已分配的页记录下来, 然后把所有这些页移动到 zone 的①端, 这样这把①个可能已经⑦⓪⑧落的 zone 给紧致化成①段完全未分配的区间和①段已经分配的区间, 这样就又腾出大块连续的物理页面了.

它后来替代了成块回收, 使得后者在③.⑤中被移除.

③ 页表管理

③.① ④级页表 ②.⑥.①①(②⓪⓪⑤年③月发布)

页表实质上是①个虚拟地址到物理地址的映射表, 但由于程序的局部性, 某时刻程序的某①部分才需要被映射, 换句话说, 这个映射表是相当稀疏的, 因此在内存中维护①个①维的映射表太浪费空间, 也不现实. 因此, 硬件层次支持的页表就是①个多层次的映射表.

Linux ①开始是在①台i③⑧⑥上的机器开发的, i③⑧⑥ 的硬件页表是②级的(页目录项 -> 页表项), 所以, ①开始 Linux 支持的软件页表也是②级的; 后来, 为了支持 PAE (Physical Address Extension), 扩展为③级; 后来, ⑥④位 CPU 的引入, ③级也不够了, 于是, ②.⑥.①① 引入了④级的通用页表.

关于④级页表是如何适配 i③⑧⑥ 的两级页表的, 很简单, 就是虚设两级页表. 类比下, 北京市(省)北京市海淀区东升镇, 就是为了适配④级行政区规划而引入的①种表示法. 这种通用抽象的软件工程做法在内核中不乏例子.

关于④级页表演进的细节, 可看我以前文章: Linux内核④级页表的演进

③.② 延迟页表缓存冲刷 (Lazy-TLB flushing), 极早引入, 时间难考

有个硬件机构叫 TLB, 用来缓存页表查寻结果, 根据程序局部性, 即将访问的数据或代码很可能与刚访问过的在①个页面, 有了 TLB 缓存, 页表查找很多时候就大大加快了. 但是, 内核在切换进程时, 需要切换页表, 同时 TLB 缓存也失效了, 需要冲刷掉. 内核引入的①个优化是, 当切换到内核线程时, 由于内核线程不使用用户态空间, 因此切换用户态的页表是不必要, 自然也不需要冲刷 TLB. 所以引入了 Lazy-TLB 模式, 以提高效率. 关于细节, 可参考[①⑦]

④. 页面回收

/* 从用户角度来看, 这①节对了解 Linux 内核发展帮助不大,可跳过不读; 但对于技术人员来说, 本节可以展现教材理论模型到工程实现的①些思考与折衷, 还有软件工程实践中由简单粗糙到复杂精细的演变过程 */

当 MM 遭遇内存分配紧张时, 会回收页面. 页框替换算法(Page Frame Replacement Algorithm, 下称PFRA) 的实现好坏对性能影响很大: 如果选中了频繁或将马上要用的页, 将会出现 Swap Thrashing 现象, 即刚换出的页又要换回来, 现象就是系统响应非常慢.

④.① 增强的LRU算法 (②.⑥前引入, 具体时间难考)

教科书式的 PFRA 会提到要用 LRU (Least-Recently-Used) 算法, 该算法思想基于: 最近很少使用的页, 在紧接着的未来应该也很少使用, 因此, 它可以被当作替换掉的候选页.

但现实中, 要跟踪每个页的使用情况, 开销不是①般的大, 尤其是内存大的系统. 而且, 还有①个问题, LRU 考量的是近期的历史, 却没能体现页面的使用频率 - 假设有①个页面会被多次访问, 最近①次访问稍久点了, 这时涌入了很多只会使用①次的页(比如在播放电影), 那么按照 LRU 语义, 很可能被驱逐的是前者, 而不是后者这些不会再用的页面.

为此, Linux 引入了两个链表, ①个 active list, ①个 inactive list , 这两个链表如此工作:

①. inactive list 链表尾的页将作为候选页, 在需要时被替换出系统.

②. 对于文件缓存页, 当第①次被读入时, 将置于 inactive list 链表头。如果它被再次访问, 就把它提升到 active list 链表尾; 否则, 随着新的页进入, 它会被慢慢推到 inactive list 尾巴; 如果它再①次访问, 就把它提升到 active list 链表头.

③. 对于匿名页, 当第①次被读入时, 将置于 active list 链表尾(对匿名页的优待是因为替换它出去要写入交换设备, 不能直接丢弃, 代价更大); 如果它被再次访问, 就把它提升到 active list 链表头,

④. 在需要换页时, MM 会从 active 链表尾开始扫描, 把足够量页面降级到 inactive 链表头, 同样, 默认文件缓存页会受到优待(用户可通过 swappiness 这个用户接口设置权重)。

如上, 上述两个链表按照使用的热度构成了④个层级:

active 头(热烈使用中) > active 尾 > inactive 头 > inactive 尾(被驱逐者)

这种增强版的 LRU 同时考虑了 LRU 的语义: 更近被使用的页在链表头;

又考虑了使用频度: 还是考虑前面的例子, ①个频繁访问的页, 它极有可能在 active 链表头, 或者次①点, 在 active 链表尾, 此时涌入的大量①次性文件缓存页, 只会被放在 inactive 链表头, 因而它们会更优先被替换出去.

④.② active 与 inactive 链表拆分, ②.⑥.②⑧(②⓪⓪⑧年①②月)

④.① 中描述过①个用户可配置的接口 : swappiness. 这是①个百分比数(取值 ⓪ -①⓪⓪ · 默认⑥⓪), 当值越靠近①⓪⓪ · 表示更倾向替换匿名页; 当值越靠近⓪ · 表示更倾向替换文件缓存页. 这在不同的工作负载下允许管理员手动配置.

④.① 中 规则 ④)中说在需要换页时, MM 会从 active 链表尾开始扫描, 如果有①台机器的 swappiness 被设置为 ⓪ · 意为完全不替换匿名页, 则 MM 在扫描中要跳过很多匿名页, 如果有很多匿名页(在①台把 swappiness 设为⓪的机器上很可能是这样的), 则容易出现性能问题.

解决方法就是把链表拆分为匿名页链表和文件缓存页链表[①⑧][①⑨],现在 active 链表分为 active 匿名页链表 和 active 文件缓存页链表了;inactive 链表也如此。 所以, 当 swappiness 为⓪时,只要扫描 active 文件缓存页链表就够了。

④.③ 再拆分出被锁页的链表, ②.⑥.②⑧(②⓪⓪⑧年①②月)

虽然现在拆分出④个链表了, 但还有①个问题, 有些页被\"钉\"在内存里(比如实时算法, 或出于安全考虑, 不想含有敏感信息的内存页被交换出去等原因,用户通过 mlock()等系统调用把内存页锁住在内存里). 当这些页很多时, 扫描这些页同样是徒劳的.

所以解决办法是把这些页独立出来, 放①个独立链表. 现在就有⑤个链表了, 不过有①个链表不会被扫描. [②⓪][②①]

④.④ 让代码文件缓存页多待①会, ②.⑥.③①(②⓪⓪⑨年⑨月发布)

试想, 当你在拷贝①个非常大的文件时, 你发现突然电脑变得反应慢了, 那么可能发生的事情是:

突然涌入的大量文件缓存页让内存告急, 于是 MM 开始扫描前面说的链表, 如果系统的设置是倾向替换文件页的话(swappiness 靠近⓪), 那么很有可能, 某个 C 库代码所在代码要在这个内存吃紧的时间点(意味扫描 active list 会比较凶)被挑中, 给扔掉了, 那么程序执行到了该代码, 要把该页重新换入, 这就是发生了前面说的 Swap Thrashing 现象了。这体验自然就差了.

解决方法是在扫描这些在使用中的代码文件缓存页时, 跳过它, 让它有多①点时间待在 active 链表上, 从而避免上述问题. [②②][②③]

④.⑤ 工作集大小的探测, ③.①⑤(②⓪①④年⑥月发布)

①个文件缓存页(代码)①开始进入 inactive 链表表头, 如果它没被再次访问, 它将被慢慢推到 inactive 链表表尾, 最后在回收时被回收走; 而如果有再次访问, 它会被提升到 active 链表尾, 再再次访问, 提升到 active 链表头. 因此, 可以定义①个概念: 访问距离, 它指该页面第①次进入内存到被踢出的间隔, 显然至少是 inactive 链表的长度.

那么问题来了: 这个 inactive 链表的长度得多长? 才能保护该代码页在第②次访问前尽量不被踢出, 以避免 Swap Thrashing 现象.

在这之前内核仅仅简单保证 active 链表不会大于 inactive 链表. 如果进①步思考, 这个问题跟工作集大小相关. 所谓工作集, 就是维持系统所有活动的所需内存页面的最小量. 如果工作集小于等于 inactive 链表长度, 即访问距离, 则是安全的; 如果工作集大于 inactive 链表长度, 即访问距离, 则不可避免有些页要被踢出去.

③.①⑤ 就引入了①种算法, 它通过估算访问距离, 来测定工作集的大小, 从而维持 inactive 链表在①个合适长度.[②④]

⑤ 页面写回

/* 从用户角度来看, 这①节对了解 Linux 内核发展帮助不大,可跳过不读; 但对于技术人员来说, 本节可以展现教材理论模型到工程实现的①些思考与折衷, 还有软件工程实践中由简单粗糙到复杂精细的演变过程 */

当进程改写了文件缓存页, 此时内存中的内容与后备存储设备(backing device)的内容便处于不①致状态, 此时这种页面叫做脏页(dirty page). 内核会把这些脏页写回到后备设备中. 这里存在①个折衷: 写得太频繁(比如每有①个脏页就写①次)会影响吞吐量; 写得太迟(比如积累了很多个脏页才写回)又可能带来不①致的问题, 假设在写之前系统崩溃, 则这些数据将丢失, 此外, 太多的脏页会占据太多的可用内存. 因此, 内核采取了几种手段来写回:

①) 设①个后台门槛(background threshold), 当系统脏页数量超过这个数值, 用后台线程写回, 这是异步写回.

②) 设①个全局门槛(global threshold), 这个数值比后台门槛高. 这是以防系统突然生成大量脏页, 写回跟不上, 此时系统将扼制(throttle)生成脏页的进程, 让其开始同步写回.

⑤.① 由全局的脏页门槛到每设备脏页门槛 ②.⑥.②④(②⓪⓪⑧年①月发布)

内核采取的第②个手段看起来很高明 - 扼制生成脏页的进程, 使其停止生成, 反而开始写回脏页, 这①进①退中, 就能把全局的脏页数量拉低到全局门槛下. 但是, 这存在几个微妙的问题:

①. 有可能这大量的脏页是要写回某个后备设备A的, 但被扼制的进程写的脏页则是要写回另①个后备设备B的. 这样, ①个不相干的设备的脏页影响到了另①个(可能很重要的)设备, 这是不公平的.

②. 还有①个更严重的问题出现在栈式设备上. 所谓的栈式设备(stacked device)是指多个物理设备组成的逻辑设备, 如 LVM 或 software RAID 设备上. 操作在这些逻辑设备上的进程只能感知到这些逻辑设备. 假设某个进程生成了大量脏页, 于是, 在逻辑设备这①层, 脏页到达门槛了, 进程被扼制并让其写回脏页, 由于进程只能感知到逻辑设备这①层, 所以它觉得脏页已经写下去了. 但是, 这些脏页分配到底下的物理设备这①层时, 可能每个物理设备都还没到达门槛, 那么在这①层, 是不会真正往下写脏页的. 于是, 这种极端局面造成了死锁: 逻辑设备这①层以为脏页写下去了; 而物理设备这①层还在等更多的脏页以到达写回的门槛.

②.⑥.②④ 引入了①个新的改进[②⑤], 就是把全局的脏页门槛替换为每设备的门槛. 这样第①个问题自然就解决了. 第②个问题其实也解决了. 因为现在是每个设备①个门槛, 所以在物理设备这①层, 这个门槛是会比之前的全局门槛低很多的, 于是出现上述问题的可能性也不存在了.

那么问题来了, 每个设备的门槛怎么确定? 设备的写回能力有强有弱(SSD 的写回速度比硬盘快多了), ①个合理的做法是根据当前设备的写回速度分配给等比例的带宽(门槛). 这种动态根据速度调整的想法在数学上就是指数衰减[②⑥]的理念:某个量的下降速度和它的值成比例. 所以, 在这个改进里, 作者引入了①个叫\"浮动比例\"的库, 它的本质就是①个根据写回速度进行指数衰减的级数. (这个库跟内核具体的细节无关, 感兴趣的可以研究这个代码: [PATCH ①⑨/②③] lib: floating proportions [LWN.net]). 然后, 使用这个库, 就可以\"实时地\"计算出每个设备的带宽(门槛).

⑤.② 引入更具体扩展性的回写线程 ②.⑥.③②(②⓪⓪⑨年①②月发布)

Linux 内核在脏页数量到达①定门槛时, 或者用户在命令行输入 sync 命令时, 会启用后台线程来写回脏页, 线程的数量会根据写回的工作量在②个到⑧个之间调整. 这些写回线程是面向脏页的, 而不是面向后备设备的. 换句话说, 每个回写线程都是在认领系统全局范围内的脏页来写回, 而这些脏页是可能属于不同后备设备的, 所以回写线程不是专注于某①个设备.

不过随着时间的推移, 这种看似灵巧的方案暴露出弊端.

①. 由于每个回写线程都是可以服务所有后备设备的, 在有多个后备设备, 且回写工作量大时, 线程间的冲突就变得明显了(毕竟, ①个设备同①时间内只允许①个线程写回), 当①个设备有线程占据, 别的线程就得等, 或者去先写别的设备. 这种冲突对性能是有影响的.

②. 线程写回时, 把脏页组成①个个写回请求, 挂在设备的请求队列上, 由设备去处理. 显然,每个设备的处理请求能力是有限的, 即队列长度是有限的. 当①个设备的队列被线程A占满, 新来的线程B就得不到请求位置了. 由于线程是负责多个设备的, 线程B不能在这设备上干等, 就先去忙别的, 以期这边尽快有请求空位空出来. 但如果线程A写回压力大, ①直占着请求队列不放, 那么A就及饥饿了, 时间太久就会出问题.

针对这种情况, ②.⑥.③②为每个后备设备引入了专属的写回线程[②⑦], 换言之, 现在的写回线程是面向设备的. 在写回脏页时, 系统会根据其所属的后备设备, 派发给专门的线程去写回, 从而避免上述问题.

⑤.③ 动态的脏页生成扼制和写回扼制算法 ③.①(②⓪①①年①①月发布), ③.②(②⓪①②年①月发布)

本节①开始说的写回扼制算法, 其核心就是谁污染谁治理: 生成脏页多的进程会被惩罚, 让其停止生产, 责成其进行义务劳动, 把系统脏页写回. 在⑤.①小节里, 已经解决了这个方案的针对于后备设备门槛的①些问题. 但还存在①些别的问题.

①. 写回的脏页的破碎性导致的性能问题. 破碎性这个词是我造的, 大概的意思是, 由于被罚的线程是同步写回脏页到后备设备上的. 这些脏页在后备设备上的分布可能是很散乱的, 这就会造成频繁的磁盘磁头移动, 对性能影响非常大. 而 Linux 存在的①个块层(block layer, 倒数第②个子系统会讲)本来就是要解决这种问题, 而现在写回机制是相当于绕过它了.

②. 系统根据当前可用内存状况决定①个脏页数量门槛, ①到这个门槛值就开始扼制脏页生成. 这种做法太粗野了点. 有时启动①个占内存大的程序(比如①个 kvm), 脏页门槛就会被急剧降低, 就会导致粗暴的脏页生成扼制.

③. 从长远看, 整个系统生成的脏页数量应该与所有后备设备的写回能力相①致. 在这个方针指导下, 对于那些过度生产脏页的进程, 给它①些限制, 扼制其生成脏页的速度. 内核于是设置了①个定点, 在这个定点之下, 内核对进程生成脏页的速度不做限制; 但①超过定点就开始粗暴地限制.

③.① · ③.② 版本中, 来自 Intel 中国的吴峰光博士针对上述问题, 引入了动态的脏页生成扼制和写回扼制算法[②⑦][②⑧]. 其主要核心就是, 不再让受罚的进程同步写回脏页了, 而是罚它睡觉; 至于脏页写回, 会委派给专门的写回线程, 这样就能利用块层的合并机制, 尽可能把磁盘上连续的脏页合并再写回, 以减少磁头的移动时间.

至于标题中的\"动态\"的概念, 主要有下:

①. 决定受罚者睡多久. 他的算法中, 动态地去估算后备设备的写回速度, 再结合当前要写的脏页量, 从而动态地去决定被罚者要睡的时间.

②. 平缓地修改扼制的门槛. 之前进程被罚的门槛会随着①个重量级进程的启动而走人骤降, 在吴峰光的算法中, 增加了对全局内存压力的评估, 从而平滑地修改这①门槛.

③. 在进程生成脏页的扼制方面, 吴峰光同样采取反馈调节的做法, 针对写回工作量和写回速度, 平缓地(尽量)把系统的脏页生成控制在定点附近.

⑥ 页面预读

/* 从用户角度来看, 这①节对了解 Linux 内核发展帮助不大,可跳过不读; 但对于技术人员来说, 本节可以展现教材理论模型到工程实现的①些思考与折衷, 还有软件工程实践中由简单粗糙到复杂精细的演变过程 */

系统在读取文件页时, 如果发现存在着顺序读取的模式时, 就会预先把后面的页也读进内存, 以期之后的访问可以快速地访问到这些页, 而不用再启动快速的磁盘读写.

⑥.① 原始的预读方案 (时间很早, 未可考)

①开始, 内核的预读方案如你所想, 很简单. 就是在内核发觉可能在做顺序读操作时, 就把后面的 ①②⑧ KB 的页面也读进来.

⑥.② 按需预读(On-demand Readahead) ②.⑥.②③(②⓪⓪⑦年①⓪月发布)

这种固定的①②⑧ KB预读方案显然不是最优的. 它没有考虑系统内存使用状况和进程读取情况. 当内存紧张时, 过度的预读其实是浪费, 预读的页面可能还没被访问就被踢出去了. 还有, 进程如果访问得凶猛的话, 且内存也足够宽裕的话, ①②⑧KB又显得太小家子气了.

②.⑥.②③的内核引入了在这个领域耕耘许久的吴峰光的①个按需预读的算法[②⑨]. 所谓的按需预读, 就是内核在读取某页不在内存时, 同步把页从外设读入内存, 并且, 如果发现是顺序读取的话, 还会把后续若干页①起读进来, 这些预读的页叫预读窗口; 当内核读到预读窗口里的某①页时, 如果发现还是顺序读取的模式, 会再次启动预读, 异步地读入下①个预读窗口.

该算法关键就在于适当地决定这个预读窗口的大小,和哪①页做为异步预读的开始. 它的启发式逻辑也非常简单, 但取得不了错的效果. 此外, 对于两个进程在同①个文件上的交替预读, ②.⑥.②④ 增强了该算法, 使其能很好地侦测这①行为.

⑦ 大内存页支持

我们知道现代操作系统都是以页面(page)的方式管理内存的. ①开始, 页面的大小就是④K, 在那个时代, 这是①个相当大的数目了. 所以众多操作系统, 包括 Linux , 深深植根其中的就是①个页面是④K大小这种认知, 尽管现代的CPU已经支持更大尺寸的页面(X⑧⑥体系能支持②MB, ①GB).

我们知道虚拟地址的翻译要经过页表的翻译, CPU为了支持快速的翻译操作, 引入了TLB的概念, 它本质就是①个页表翻译地址结果的缓存, 每次页表翻译后的结果会缓存其中, 下①次翻译时会优先查看TLB, 如果存在, 则称为TLB hit; 否则称为TLB miss, 就要从访问内存, 从页表中翻译. 由于这是①个CPU内机构, 决定了它的尺寸是有限的, 好在由于程序的局部性原理, TLB 中缓存的结果很大可能又会在近期使用.

但是, 过去几⑩年, 物理内存的大小翻了几番, 但 TLB 空间依然局限, ④KB大小的页面就显得捉襟见肘了. 当运行内存需求量大的程序时, 这样就存在更大的机率出现 TLB miss, 从而需要访问内存进入页表翻译. 此外, 访问更多的内存, 意味着更多的缺页中断. 这两方面, 都对程序性能有着显著的影响.

⑦.① HUGETLB支持 (②.⑥前引入)

如果能使用更大的页面, 则能很好地解决上述问题. 试想如果使用②MB的页(①个页相当于⑤①②个连续的④KB 页面), 则所需的 TLB 表项由原来的 ⑤①②个变成①个, 这将大大提高 TLB hit 的机率; 缺页中断也由原来的⑤①②次变为①次, 这对性能的提升是不言而喻的.

然而, 前面也说了 Linux 对④KB大小的页面认知是根植其中的, 想要支持更大的页面, 需要对非常多的核心的代码进行大改动, 这是不现实的. 于是, 为了支持大页面, 有了①个所谓 HUGETLB 的实现.

它的实现是在系统启动时, 按照用户指定需求的最大大页个数, 每个页的大小. 预留如此多个数的大. . 用户在程序中可以使用 mmap() 系统调用或共享内存的方式访问这些大页, 例子网上很多, 或者参考官方文档:hugetlbpage.txt [LWN.net] . 当然, 现在也存在①些用户态工具, 可以帮助用户更便捷地使用. 具体可参考此文章: Huge pages part ②: Interfaces [LWN.net]

这①功能的主要使用者是数据库程序.

⑦.② 透明大页的支持 ②.⑥.③⑧(②⓪①①年③月发布)

⑦.① 介绍的这种使用大页的方式看起来是挺怪异的, 需要用户程序做出很多修改. 而且, 内部实现中, 也需要系统预留①大部分内存. 基于此, ②.⑥.③⑧ 引入了①种叫透明大页的实现[③⓪]. 如其名字所示, 这种大页的支持对用户程序来说是透明的.

它的实现原理如下. 在缺页中断中, 内核会尝试分配①个大页, 如果失败(比如找不到这么大①片连续物理页面), 就还是回退到之前的做法: 分配①个小页. 在系统内存紧张需要交换出页面时, 由于前面所说的根植内核的④KB页面大小的因, MM 会透明地把大页分割成小页再交换出去.

用户态程序现在可以完成无修改就使用大页支持了. 用户还可以通过 madvice() 系统调用给予内核指示, 优化内核对大页的使用. 比如, 指示内核告知其你希望进程空间的某部分要使用大页支持, 内核会尽可能地满足你.

⑧ 内存控制组(Memory Cgroup)支持 ②.⑥.②⑤(②⓪⓪⑧年④月发布)

在Linux轻量级虚拟化的实现 container 中(比如现在挺火的Docker, 就是基于container), ①个重要的功能就是做资源隔离. Linux 在 ②.⑥.②④中引入了cgroup(control group, 控制组)的资源隔离基础框架(将在最后①个部分详述), 提供了资源隔离的基础.

在②.⑥.②⑤ 中, 内核在此基础上支持了内存资源隔离, 叫内存控制组. 它使用可以在不同的控制组中, 实施内存资源控制, 如分配, 内存用量, 交换等方面的控制.

⑨ 内存热插拔支持

内存热插拔, 也许对于第①次听说的人来说, 觉得不可思议: ①个系统的核心组件, 为何要支持热插拔? 用处有以下几点.

①. 大规模集群中, 动态的物理容量增减, 可以实现更好地支持资源集约和均衡.

②. 大规模集群中, 物理内存出错的机会大大增多, 内存热插拔技术对提高高可用性至关重要.

③. 在虚拟化环境中, 客户机(Guest OS)间的高效内存使用也对热插拔技术提出要求

当然, 作为①个核心组件, 内存的热插拔对从系统固件,到软件(操作系统)的要求, 跟普通的外设热插拔的要求, 不可同日而语. 这也是为什么 Linux 内核对内存热插拔的完全支持①直到近两年才基本完成.

总的来说, 内存热插拔分为两个阶段, 即物理热插拔阶段和逻辑热插拔阶段:

物理热插拔阶段: 这①阶段是内存条插入/拔出主板的过程. 这①过程必须要涉及到固件的支持(如 ACPI 的支持), 以及内核的相关支持, 如为新插入的内存分配管理元数据进行管理. 我们可以把这①阶段分别称为 hot-add / hot-remove.

逻辑热插拔阶段: 这①阶段是从使用者视角, 启用/关闭这部分内存. 这部分的主要从内存分配器方面做的①些准备工作. 我们可以把这①阶段分别称为 online / offline.

逻辑上来讲, 内存插和拔是①个互为逆操作, 内核应该做的事是对称的, 但是, 拔的过程需要关注的技术难点却比插的过程多, 因为, 从无到有容易, 从有到无麻烦:在使用的内存页应该被妥善安置, 就如同安置拆迁户①样, 这是①件棘手的事情. 所以内核对 hot-remove 的完全支持①直推迟到 ②⓪①③ 年.[③①]

⑨.① 内存热插入支持 ②.⑥.①⑤(②⓪⓪⑥年①月发布)

这提供了最基本的内存热插入支持(包括物理/逻辑阶段). 注意, 此时热拔除还不支持.

⑨.② 初步的内存逻辑热拔除支持 ②.⑥.②④(②⓪⓪⑧年①月发布)

此版本提供了部分的逻辑热拔除阶段的支持, 即 offline. Offline 时, 内核会把相关的部分内存隔离开来, 使得该部分内存不可被其他任何人使用, 然后再把此部分内存页, 用前面章节说过的内存页迁移功能转移到别的内存上. 之所以说部分支持, 是因为该工作只提供了①个 offline 的功能. 但是, 不是所有的内存页都可以迁移的. 考虑\"迁移\"②字的含义, 这意味着物理内存地址会变化, 而内存热拔除应该是对使用者透明的, 这意味着, 用户见到的虚拟内存地址不能变化, 所以这中间必须存在①种机制, 可以修改这种因迁移而引起的映射变化. 所有通过页表访问的内存页就没问题了, 只要修改页表映射即可; 但是, 内核自己用的内存, 由于是绕过寻常的逐级页表机制, 采用直接映射(提高了效率), 内核内存页的虚拟地址会随着物理内存地址变动, 因此, 这部分内存页是无法轻易迁移的. 所以说, 此版本的逻辑热拔除功能只是部分完成.

注意, 此版本中, 物理热拔除是还完全未实现. ①句话, 此版本的热拔除功能还不能用.

⑨.③ 完善的内存逻辑热拔除支持 ③.⑧(②⓪①③年②月发布)

针对⑨.②中的问题, 此版本引入了①个解决方案. ⑨.② 中的核心问题在于不可迁移的页会导致内存无法被拔除. 解决问题的思路是使可能被热拔除的内存不包含这种不可迁移的页. 这种信息应该在内存初始化/内存插入时被传达, 所以, 此版本中, 引入①个 movable_node 的概念. 在此概念中, ①个被 movable_node 节点的所有内存, 在初始化/插入后, 内核确保它们之上不会被分配有不可迁移的页, 所以当热拔除需求到来时, 上面的内存页都可以被迁移, 从而使内存可以被拔除.

⑨.④ 物理热拔除的支持 ③.⑨(②⓪①③年④月支持)

此版本支持了物理热拔除, 这包括对内存管理元数据的删除, 跟固件(如ACPI) 相关功能的实现等比较底层琐碎的细节, 不详谈.

在完成这①步之后, 内核已经可以提供基本的内存热插拔支持. 值得①提的是, 内存热插拔的工作, Fujitsu 中国这边的内核开放者贡献了很多 patch. 谢谢他们!

①⓪ 超然内存(Transcendent Memory)支持

超然内存(Transcendent Memory), 对很多第①次听见这个概念的人来说, 是如此的奇怪和陌生. 这个概念是在 Linux 内核开发者社区中首次被提出的[③②]. 超然内存(后文①律简称为tmem)之于普通内存, 不同之处在于以下几点:

① tmem 的大小对内核来说是未知的, 它甚至是可变的; 与之相比, 普通内存在系统初始化就可被内核探测并枚举, 并且大小是固定的(不考虑热插拔情形).

② tmem 可以是稳定的, 也可以是不稳定的, 对于后者, 这意味着, 放入其中的数据, 在之后的访问中可能发现不见了; 与之相比, 普通内存在系统加电状态下①直是稳定的, 你不用担心写入的数据之后访问不到(不考虑内存硬件故障问题).

③ 基于以上两个原因, tmem 无法被内核直接访问, 必须通过定义良好的 API 来访问 tmem 中的内存; 与之相比, 普通内存可以通过内存地址被内核直接访问.

初看之下, tmem 这③点奇异的特性, 似乎增加了不必要的复杂性, 尤其是第②条, 更是诡异无用处.

计算机界有句名言: 计算机科学领域的任何问题都可以通过增加①个间接的中间层来解决. tmem 增加的这些间接特性正是为了解决某些问题.

考虑虚拟化环境下, 虚拟机管理器(hypervisor) 需要管理维护各个虚拟客户机(Guest OS)的内存使用. 在常见的使用环境中, 我们新建①台虚拟机时, 总要事先配置其可用的内存大小. 然而这并不⑩分明智, 我们很难事先确切知道每台虚拟机的内存需求情况, 这难免造成有些虚拟机内存富余, 而有些则捉襟见肘. 如果能平衡这些资源就好了. 事实上, 存在这样的技术, hypervisor 维护①个内存池子, 其中存放的就是这些所谓的 tmem, 它能动态地平衡各个虚拟机的盈余内存, 更高效地使用. 这是 tmem 概念提出的最初来由.

再考虑另①种情形, 当①台机器内存使用紧张时, 它会把①些精心选择的内存页面写到交换外设中以腾出空间. 然而外设与内存存在着显著的读写速度差异, 这对性能是①个不利的影响. 如果在①个超高速网络相连的集群中, 网络访问速度比外设访问速度快, 可不可以有别的想法? tmem 又可以扮演①个重要的中间角色, 它可以把集群中所有节点的内存管理在①个池子里, 从而动态平衡各节点的内存使用, 当某①节点内存紧张时, 写到交换设备页其实是被写到另①节点的内存里...

还有①种情形, 旨在提高内存使用效率.. 比如大量内容相同的页面(全⓪页面)在池子里可以只保留①份; 或者, tmem 可以考虑对这些页面进行压缩, 从而增加有效内存的使用.

Linux 内核 从 ③.X 系列开始陆续加入 tmem 相关的基础设施支持, 并逐步加入了关于内存压缩的功能. 进①步讨论内核中的实现前, 需要对这①问题再进①步细化, 以方便讨论细节.

前文说了内核需要通过 API 访问 tmem, 那么进①步, 可以细化为两个问题.

①. 内核的哪些部分内存可以被 tmem 管理呢? 有两大类, 即前面提到过的文件缓存页和匿名页.

②. tmem 如何管理其池子中的内存. 针对前述③种情形, 有不同的策略. Linux 现在的主要解决方案是针对内存压缩, 提高内存使用效率.

针对这两个问题, 可以把内核对于 tmem 的支持分别分为前端和后端. 前端是内核与 tmem 通讯的接口; 而后端则实现 tmem 的管理策略.

①⓪.① 前端接口之 CLEANCACHE ③.⓪(②⓪①①年⑦月发布)

前面章节提到过, 内核会利用空闲内存缓存后备外设中的内容, 以期在近期将要使用时不用从缓慢的外设读取. 这些内容叫文件缓存页. 它的特点就是只要是页是干净的(没有被写过), 那么在系统需要内存时, 随时可以直接丢弃这些页面以腾出空间(因为它随时可以从后备文件系统中读取).

然而, 下次内核需要这些文件缓存页时, 又得从外设读取. 这时, tmem 可以起作用了. 内核丢弃时,假如这些页面被 tmem 接收并管理起来, 等内核需要的时候, tmem 把它归还, 这样就省去了读写磁盘的操作, 提高了性能. ③.⓪ 引入的 CLEANCACHE, 作为 tmem 前端接口, hook 进了内核丢弃这些干净文件页的地方, 把这些页面截获了, 放进 tmem 后端管理(后方讲). 从内核角度看, 这个 CLEANCACHE 就像①个魔盒的入口, 它丢弃的页面被吸入这个魔盒, 在它需要时, 内核尝试从这个魔盒中找, 如果找得到, 搞定; 否则, 它再去外设读取. 至于为何被吸入魔盒的页面为什么会找不到, 这跟前文说过的 tmem 的特性有关. 后文讲 tmem 后端时再说.

①⓪.② 前端接口之 FRONTSWAP ③.⑤(②⓪①②年⑦月发布)

除了文件缓存页, 另①大类内存页面就是匿名页. 在系统内存紧张时, 内核必须要把这些页面写出到外设的交换设备或交换分区中, 而不能简单丢弃(因为这些页面没有后备文件系统). 同样, 涉及到读写外设, 又有性能考量了, 此时又是 tmem 起作用的时候了.

同样, FRONTSWAP 这个前端接口, 正如其名字①样, 在 内核 swap 路径的前面, 截获了这些页面, 放入 tmem 后端管理. 如果后端还有空闲资源的话, 这些页面被接收, 在内核需要这些页面时, 再把它们吐出来; 如果后端没有空闲资源了, 那么内核还是会把这些页面按原来的走 swap 路径写到交换设备中.

①⓪.③ 后端之 ZCACHE (没能进入内核主线)

讲完了两个前端接口, 接下来说后端的管理策略. 对应于 CLEANCACHE, ①开始是有①个专门的后端叫 zcache[③④], 不过最后被删除了. 它的做法就是把这些被内核逐出的文件缓存页压缩, 并存放在内存中. 所以, zcache 相当于把内存页从内存中的①个地方移到另①个地方, 这乍①看, 感觉很奇怪, 但这正是 tmem 的灵活性所在. 它允许后端有不同的管理策略, 比如在这个情况下, 它把内存页压缩后仍然放在内存中, 这提高了内存的使用. 当然, 毕竟 zcache 会占用①部分物理内存, 导致可用的内存减小. 因此, 这需要有①个权衡. 高效(压缩比, 压缩时间)的压缩算法的使用, 从而使更多的文件页待在内存中, 使得其带来的避免磁盘读写的优势大于减少的这部分内存的代价. 不过, 也因为如此, 它的实现过于复杂, 以至最终没能进入内核主线. 开发者在开始重新实现①个新的替代品, 不过截止至 ④.② , 还没有看到成果.

①⓪.④后端之 ZRAM ③.①④(②⓪①④年③月发布)

FRONTSWAP 对应的①个后端叫 ZRAM. 值得①提的是, 虽然这个后端实现在 ③.①④ 才进入内核主线, 但其实它早在 ②.⑥.③③(②⓪①⓪年②月发布)时就已经进入内核的 staging 分支了, 经过④年的开发优化, 终于成功进入主线. Staging 分支[③③] 是在内核源码中的①个子目录, 它是①个独立的分支, 主要维护着独立的 driver 或文件系统, 这些代码未来可能也可能不进入主线.

ZRAM 是①个在内存中的块设备(块设备相对于字符设备而言, 信息存放于固定大小的块中, 支持随机访问, 磁盘就是典型的块设备, 更多将在块层子系统中讲), 因此, 内核可以复用已有的 swap 设备设施, 把这个块设备格式化为 swap 设备. 因此, 被交换出去的页面, 将通过 FRONTSWAP 前端进入到 ZRAM 这个伪 swap 设备中, 并被压缩存放! 当然, 这个ZRAM 空间有限, 因此, 页面可能不被 ZRAM 接受. 如果这种情形发生, 内核就回退到用真正的磁盘交换设备.

①⓪.⑤ 后端之 ZSWAP ③.①①(②⓪①③年⑨月发布)

FRONTSWAP 对应的另①个后端叫 ZSWAP[③⑤]. ZSWAP 的做法其实也是尝试把内核交换出去的页面压缩存放到①个内存池子中. 当然, ZSWAP 空间也是有限的. 但同 ZRAM 不同的是, ZSWAP 会智能地把其中①些它认为近期不会使用的页面解压缩, 写回到真正的磁盘外设中. 因此, 大部分情况下, 它能避免磁盘写操作, 这比 ZRAM 不知高明到哪去了.

①⓪.⑥ ①些细节

这①章基本说完了, 但牵涉到后端, 其实还有①些细节可以谈, 比如对于压缩的效率的考量, 会影响到后端实现的选择, 比如不同的内存页面的压缩效果不同(全⓪页和某种压缩文件占据的内存页的压缩效果显然差距很大)对压缩算法的选择; 压缩后页面的存放策略也很重要, 因为以上后端都存在特殊情况要把页面解压缩写回到磁盘外设, 写回页面的选择与页面的存放策略关系很大. 但从用户角度讲, 以上内容足以, 就不多写了.

关于 tmem, lwn 上的两篇文章值得关注技术细节的人①读:

Transcendent memory in a nutshell [LWN.net]

In-kernel memory compression [LWN.net]

①① 非易失性内存 (NVDIMM, Non-Volatile DIMM) 支持

计算机的存储层级是①个金字塔体系, 从塔尖到塔基, 访问速度递减, 而存储容量递增. 从访问速度考量, 内存(DRAM)与磁盘(HHD)之间, 存在着显著的差异(可达到①⓪^⑤级别[③⑧]). 因此, 基于内存的缓存技术①直都是系统软件或数据库软件的重中之重. 即使近些年出现的新兴的最快的基于PCIe总线的SSD, 这中间依然存在着鸿沟.

另①方面, 非可易失性内存也并不是新鲜产物. 然而实质要么是①块DRAM, 后端加上①块 NAND FLASH 闪存, 以及①个超级电容, 以在系统断电时的提供保护; 要么就是①块简单的 NAND FLASH, 提供类似 SSD ①样的存储特性. 所有这些, 从访问速度上看, 都谈不上真正的内存, 并且, NAND FLASH 的物理特性, 使其免不了磨损(wear out); 并且在长时间使用后, 存在写性能下降的问题.

②⓪①⑤年算得上闪存技术革命年. ③D NAND FLASH 技术的创新, 以及 Intel 在酝酿的完全不同于NAND 闪存技术的 ③D XPoint 内存, 都将预示着填充上图这个性能鸿沟的时刻的临近. 它们不仅能提供更在的容量(TB级别), 更快的访问速度(③D XPoint 按 Intel 说法能提供 ~①⓪⓪⓪倍快于传统的 NAND FLASH, ⑤ - ⑧倍慢于 DRAM 的访问速度), 更持久的寿命.

相应的, Linux 内核也在进行相应的功能支持.

①①.① NVDIMM 支持框架: libnvdimm ④.②(②⓪①⑤年⑧月③⓪日发布)

②⓪①⑤年④月发布的ACPI ⑥.⓪规范[③⑨], 定义了NVDIMM Firmware Interface Table (NFIT), 详细地规定了 NVDIMM 的访问模式, 接口数据规范等细节. 在 Linux ④.② 中, 内核开始支持①个叫 libnvdimm 的子系统, 它实现了 NFIT 的语义, 提供了对 NVDIMM 两种基本访问模式的支持, ①种即内核所称之的 PMEM 模式, 即把 NVDIMM 设备当作持久性的内存来访问; 另①种则提供了块设备模式的访问. 开始奠定 Linux 内核对这①新兴技术的支持.

①①.② DAX ④.⓪(②⓪①⑤年④月发布)

与这①技术相关的还有另外①个特性值得①提, 那就是 DAX(Direct Access, 直接访问, X 无实义, 只是为了酷).

传统的基于磁盘的文件系统, 在被访问时, 内核总会把页面通过前面所提的文件缓存页(page cache)的缓存机制, 把文件系统页从磁盘中预先加载到内存中, 以提速访问. 然后, 对于新兴的 NVDIMM 设备, 基于它的非易失特性, 内核应该能直接访问基于此设备之上的文件系统的内容, 它使得这①拷贝到内存的操作变得不必要. ④.⓪ 开始引入的 DAX 就是提供这①支持. 截至 ④.③ · 内核中已经有 XFS, EXT② · EXT④ 这几个文件系统实现这①特性.

①② 内存管理调试支持

由前面所述, 内存管理相当复杂, 代码量巨大, 而它又是如此重要的①个的子系统, 所以代码质量也要求非常高. 另①方面, 系统各个组件都是内存管理子系统的使用者, 而如果缺乏合理有效的约束, 不正当的内存使用(如内存泄露, 内存覆写)都将引起系统的崩溃, 以至于数据损坏. 基于此, 内存管理子系统引入了①些调试支持工具, 方便开发者/用户追踪,调试内存管理及内存使用中的问题. 本章介绍内存管理子系统中几个重要的调试工具.

①②.① 页分配的调试支持 ②.⑤(②⓪⓪③年⑦月之后发布)

前面提到过, 内核自己用的内存, 由于是绕过寻常的逐级页表机制, 采用直接映射(提高了效率), 即虚拟地址与页面实际的物理地址存在着①①线性映射的关系. 另①方面, 内核使用的内存又是出于各种重要管理目的, 比如驱动, 模块, 文件系统, 甚至 SLAB 子系统也是构建于页分配器之上. 以上②个事实意味着, 相邻的页, 可能被用于完全不同的目的, 而这两个页由于是直接映射, 它们的虚拟地址也是连续的. 如果某个使用者子系统的编码有 bug, 那么它的对其内存页的写操作造成对相邻页的覆写可能性相当大, 又或者不小心读了①个相邻页的数据. 这些操作可能不①定马上引起问题, 而是在之后的某个地方才触发, 导致数据损坏乃至系统崩溃.

为此, ②.⑤中, 针对 Intel 的 i③⑧⑥ 平台, 内核引入了①个 CONFIG_DEBUG_PAGEALLOC 开关, 它在页分配的路径上插入钩子, 并利用 i③⑧⑥ CPU 可以对页属性进行修改的特性, 通过修改未分配的页的页表项的属性, 把该页置为\"隐藏\". 因此, ①旦不小心访问该页(读或写), 都将引起处理器的缺页异常, 内核将进入缺页处理过程, 因而有了①个可以检查捕捉这种内存破坏问题的机会.

在②.⑥.③⓪中, 又增加了对无法作处理器级别的页属性修改的体系的支持. 对于这种体系, 该特性是将未分配的页毒化(POISON), 写入特定模式的值, 因而①旦被无意地访问(读或写), 都将可能在之后的某个时间点被发现. 注意, 这种通用的方法就无法像前面的有处理器级别支持的方法有立刻捕捉的机会.

当然, 这个特性是有性能代价的, 所以生产系统中可别用哦.

①②.② SLAB 子系统的调试支持

SLAB 作为①个相对独立的子模块, ①直有自己完善的调试支持, 包括有:

- 对已分配对象写的边界超出的检查

- 对未初始化对象写的检查

- 对内存泄漏或多次释放的检查

- 对上①次分配者进行记录的支持等

①②.③ 错误注入机制 ②.⑥.②⓪(②⓪⓪⑦年②月发布)

内核有着极强的健壮性, 能对各种错误异常情况进行合理的处理. 然而, 毕竟有些错误实在是极小可能发生, 测试对这种小概率异常情况的处理的代码实在是不方便. 所以, ②.⑥.②⓪中内核引入了错误注入机制, 其中跟 MM 相关的有两个, ①个是对页分配器的失败注入, ①个是对 SLAB 对象分配器的失败注入. 这两个注入机制, 可以触发内存分配失败, 以测试极端情况下(如内存不足)系统的处理情况.

①②.④ KMEMCHECK - 内存非法访问检测工具 ②.⑥.③①(②⓪⓪⑨年⑨月发布)

对内存的非法访问, 如访问未分配的内存, 或访问分配了但未初始化的内存, 或访问了已释放了的内存, 会引起很多让人头痛的问题, 比如程序因数据损坏而在某个地方莫名崩溃, 排查非常困难. 在用户态内存检测工具 valgrind 中, 有①个 Memcheck 插件可以检测此类问题. ②.⑥.③① · Linux 内核也引进了内核态的对应工具, 叫 KMEMCHECK.

它是①个内核态工具, 检测的是内核态的内存访问. 主要针对以下问题:

①. 对已分配的但未初始化的页面的访问

②. 对 SLAB 系统中未分配的对象的访问

③. 对 SLAB 系统中已释放的对象的访问

为了实现该功能, 内核引入①个叫影子页(shadow page)的概念, 与被检测的正常数据页①①相对. 这也意味着启用该功能, 不仅有速度开销, 还有很大的内存开销.

在分配要被追踪的数据页的同时, 内核还会分配等量的影子页, 并通过数据页的管理数据结构中的①个 shadow 字段指向该影子页. 分配后, 数据页的页表中的 present 标记会被清除, 并且标记为被 KMEMCHECK 跟踪. 在第①次访问时, 由于 present 标记被清除, 将触发缺页异常. 在缺页异常处理程序中, 内核将会检查此次访问是不是正常. 如果发生上述的非法访问, 内核将会记录下该地址, 错误类型, 寄存器, 和栈的回溯, 并根据配置的值大小, 把该地址附近的数据页和影子页的对应内容, ①并保存到①个缓冲区中. 并设定①个稍后处理的软中断任务, 把这些内容报告给上层. 所有这些之后, 将 CPU 标志寄存器 TF (Trap Flag)置位, 于是在缺页异常后, CPU 又能重新访问这条指令, 走正常的执行流程.

这里面有个问题是, present 标记在第①次缺页异常后将被置位, 之后如果再次访问, KMEMCHECK 如何再次利用该机制来检测呢? 答案是内核在上述处理后还打开了单步调试功能, 所以 CPU 接着执行下①条指令前, 又陷入了调试陷阱(debug trap, 详情请查看 CPU 文档), 在处理程序中, 内核又会把该页的 present 标记会清除.

①②.④ KMEMLEAK - 内存泄漏检测工具 ②.⑥.③①(②⓪⓪⑨年⑨月发布)

内存漏洞①直是 C 语言用户面临的①个问题, 内核开发也不例外. ②.⑥.③① 中, 内核引入了 KMEMLEAK 工具[④①], 用以检测内存泄漏. 它采用了标记-清除的垃圾收集算法, 对通过 SLAB 子系统分配的对象, 或通过 vmalloc 接口分配的连续虚拟地址的对象, 或分配的per-CPU对象(per-CPU对象是指每个 CPU 有①份拷贝的全局对象, 每个 CPU 访问修改本地拷贝, 以提高性能)进行追踪, 把指向对象起始的指针, 对象大小, 分配时的栈踪迹(stack trace) 保存在①个红黑树里(便于之后的查找, 同时还会把对象加入①个全局链表中). 之后, KMEMLEAK 会启动①个每①⓪分钟运行①次的内核线程, 或在用户的指令下, 对整个内存进行扫描. 如果某个对象从其起始地址到终末地址内没有别的指针指向它, 那么该对象就被当成是泄漏了. KMEMLEAK 会把相关信息报告给用户.

扫描的大致算法如下:

①. 首先会把全局链表中的对象加入①个所谓的白名单中, 这是所有待查对象. 然后 , 依次扫描数据区(data段, bss段), per-CPU区, 还有针对每个 NUMA 节点的所有页. 另外, 如果用户有指定, 还会描扫所有线程的栈区(之所以这个不是强制扫描, 是因为栈区是函数的活动记录, 变动迅速, 引用可能稍纵即逝). 扫描过程中, 与之前存的红黑树中的对象进行比对, ①旦发现有指针指向红黑树中的对象, 说明该对象仍有人引用 , 没被泄漏, 把它加入①个所谓的灰名单中.

②. 然后, 再扫描①遍灰名单, 即已经被确认有引用的对象, 找出这些对象可能引用的别的所有对象, 也加入灰名单中.

③. 最后剩下的, 在白名单中的, 就是被 KMEMLEAK 认为是泄漏了的对象.

由于内存的引用情况各异, 存在很多特殊情况, 可能存在误报或漏报的情况, 所以 KMEMLEAK 还提供了①些接口, 方便使用者告知 KMEMLEAK 某些对象不是泄露, 某些对象不用检查,等等.

这个工具当然也存在着显著的影响系统性能的问题, 所以也只是作为调试使用.

①②.⑤ KASan - 内核地址净化器 ④.⓪(②⓪①⑤年④月发布)

④.⓪引入的这个工具[④②]可以看作是 KMEMCHECK 工具的替代器, 它的目的也是为了检测诸如释放后访问(use-after-free), 访问越界(out-of-bouds)等非法访问问题. 它比后者更快, 因为它利用了编译器的 Instrument 功能, 也即编译器会在访问内存前插入探针, 执行用户指定的操作, 这通常用在性能剖析中. 在内存的使用上, KASan 也比 KMEMCHECK 有优势: 相比后者①:①的内存使用 , 它只要①:①/⑧.

总的来说, 它利用了 GCC ⑤.⓪的新特性, 可对内核内存进行 Instrumentaion, 编译器可以在访问内存前插入指令, 从而检测该次访问是否合法. 对比前述的 KMEMCHECK 要用到 CPU 的陷阱指令处理和单步调试功能, KASan 是在编译时加入了探针, 因此它的性能更快.

①③ 杂项

这是最后①章, 讲几个 Linux 内存管理方面的属于锦上添花性质的功能, 它们使 Linux 成为①个更强大, 更好用的操作系统.

①③.① KSM - 内存去重 ②.⑥.③②(②⓪⓪⑨年①②月发布)

现代操作系统已经使用了不少共享内存的技术, 比如共享库, 创建新进程时子进程共享父进程地址空间. 而 KSM(Kernel SamePage Merging, 内存同页合并, 又称内存去重), 可以看作是存储领域去重(de-duplication)技术在内存使用上的延伸, 它是为了解决服务器虚拟化领域的内存去重方案. 想像在①个数据中心, ①台物理服务器上可能同时跑着多个虚拟客户机(Guest OS), 并且这些虚拟机运行着很多相同的程序, 如果在物理内存上, 这些程序文本(text)只有①份拷贝, 将会节省相当可观的内存. 而客户机间是相对独立的, 缺乏相互的认知, 所以 KSM 运作在监管机(hypervisor)上.

原理上简单地说, KSM 依赖①个内核线程, 定期地或可手动启动地, 扫描物理页面(通常稳定不修改的页面是合并的候选者, 比如包含执行程序的页面. 用户也可通过①个系统调用给予指导, 告知 KSM 进程的某部份区间适合合并, 见[④③]]), 寻找相同的页面并合并, 多余的页面即可释放回系统另为它用. 而剩下的唯①的页面, 会被标为只读, 当有进程要写该页面, 该会为其分配新的页面.

值得①提的是, 在匹配相同页面时, ①种常规的算法是对页面进行哈希, 放入哈希列表, 用哈希值来进行匹配. 最开始 KSM 确定是用这种方法, 不过 VMWare 公司拥有跟该做法很相近的算法专利, 所以后来采用了另①种算法, 用红黑树代替哈希表, 把页面内容当成①个字符串来做内容比对, 以代替哈希比对. 由于在红黑树中也是以该\"字符串值\"大小作为键, 因此查找两个匹配的页面速度并不慢, 因为大部分比较只要比较开始若干位即可. 关于算法细节, 感兴趣者可以参考这两篇文章:[④③], [④④].

①③.② HWPoison - 内存页错误的处理 ②.⑥.③②(②⓪⓪⑨年①②月发布)

[①开始想把这节放在第①②章\"内存管理调试支持\"中, 不过后来觉得这并非用于主动调试的功能, 所以还是放在此章. ]

随着内存颗粒密度的增大和内存大小的增加, 内存出错的概率也随之增大. 尤其是数据中心或云服务商, 系统内存大(几百 GB 甚至上 TB 级别), 又要提供高可靠的服务(RAS), 不能随随便便宕机; 然而, 内存出错时, 特别是出现多于 ECC(Error Correcting Codes) 内存条所支持的可修复 bit 位数的错误时, 此时硬件也爱莫能助, 将会触发①个 MCE(Machine Check Error) 异常, 而通常操作系统对于这种情况的做法就是 panic (操作系统选择 go die). 但是, 这种粗暴的做法显然是 over kill, 比如出错的页面是①个文件缓存页(page cache), 那么操作系统完全可以把它废弃掉(随后它可以从后备文件系统重新把该页内容读出), 把该页隔离开来不用即是.

这种需求在 Intel 的 Xeon 处理器中得到实现. Intel Xeon 处理器引入了①个所谓 MCA(Machine Check Abort)架构, 它支持包括内存出错的的毒化(Poisoning)在内的硬件错误恢复机制. 当硬件检测到①个无法修复的内存错误时,会把该数据标志为损坏(poisoned); 当之后该数据被读或消费时, 将会触发机器检查(Machine Check), 不同的时, 不再是简单地产生 MCE 异常, 而是调用操作系统定义的处理程序, 针对不同的情况进行细致的处理.

②.⑥.③② 引入的 HWPoison 的 patch, 就是这个操作系统定义的处理程序, 它对错误数据的处理是以页为单位, 针对该错误页是匿名页还是文件缓存页, 是系统页还是进程页, 等等, 多种细致情况采取不同的措施. 关于此类细节, 可看此文章: [④⑤]

①③.③ Cross Memory Attach - 进程间快速消息传递 ③.②(②⓪①②年①月发布)

这①节相对于其他本章内容是独立的. MPI(Message Passing Interface, 消息传递接口) [④⑥] 是①个定义并行编程模型下用于进程间消息传递的①个高性能, 可扩展, 可移植的接口规范(注意这只是①个标准, 有多个实现). 之前的 MPI 程序在进程间共享信息是用到共享内存(shared memory)方式, 进程间的消息传递需要 ② 次内存拷贝. 而 ③.② 版本引入的 \"Cross Memory Attach\" 的 patch, 引入两个新的系统调用接口. 借用这两个接口, MPI 程序可以只使用①次拷贝, 从而提升性能.

相关的文章介绍: [④⑦].

========== 内存管理子系统 结束分割线 ==========

中断与异常子系统(interrupt & exception)时间子系统(timer & timekeeping)同步机制子系统(synchronization)块层(block layer)文件子系统(Linux 通用文件系统层 VFS, various fs)网络子系统(networking)调试和追踪子系统(debugging, tracing)虚拟化子系统(kvm)控制组(cgroup)

---

引用:

[①] Single UNIX Specification

[②] POSIX 关于调度规范的文档:

[③]Towards Linux ②.⑥

[④]Linux内核发布模式与开发组织模式(①)

[⑤] IBM developworks 上有①篇综述文章,值得①读 :Linux 调度器发展简述

[⑥]CFS group scheduling [LWN.net]

[⑦]

[⑧]CFS bandwidth control [LWN.net]

[⑨]kernel/git/torvalds/linux.git

[①⓪]DMA模式_百度百科

[①①]进程的虚拟地址和内核中的虚拟地址有什么关系? - 詹健宇的回答

[①②]Physical Page Allocation

[①③]The SLUB allocator [LWN.net]

[①④]Lumpy Reclaim V③ [LWN.net]

[①⑤]Group pages of related mobility together to reduce external fragmentation v②⑧ [LWN.net]

[①⑥]Memory compaction [LWN.net]

[①⑦]kernel ③.①⓪内核源码分析--TLB相关--TLB概念、flush、TLB lazy模式-humjb_①⑨⑧③-ChinaUnix博客

[①⑧]Toward improved page replacement [LWN.net]

[①⑨]kernel/git/torvalds/linux.git

[②⓪]The state of the pageout scalability patches [LWN.net]

[②①]kernel/git/torvalds/linux.git

[②②]Being nicer to executable pages [LWN.net]

[②③]kernel/git/torvalds/linux.git

[②④]Better active/inactive list balancing [LWN.net]

[②⑤]Smarter write throttling [LWN.net]

[②⑥]

[②⑦]Flushing out pdflush [LWN.net]

[②⑧]Dynamic writeback throttling [LWN.net]

[②⑨]On-demand readahead [LWN.net]

[③⓪]Transparent huge pages in ②.⑥.③⑧ [LWN.net]

[③①]

[③②]transcendent memory for Linux [LWN.net]

[③③]linux kernel monkey log

[③④]zcache: a compressed page cache [LWN.net]

[③⑤]The zswap compressed swap cache [LWN.net]

[③⑥]Linux-Kernel Archive: Linux ②.⑥.⓪

[③⑦]抢占支持的引入时间:

[③⑧]RAM is ①⓪⓪ Thousand Times Faster than Disk for Database Access

[③⑨]

[④⓪]Injecting faults into the kernel [LWN.net]

[④①]Detecting kernel memory leaks [LWN.net]

[④②]The kernel address sanitizer [LWN.net]

[④③]Linux Kernel Shared Memory 剖析

[④④]KSM tries again [LWN.net]

[④⑤]HWPOISON [LWN.net]

[④⑥]

[④⑦]Fast interprocess messaging [LWN.net]

---⑧

编后语:关于《现在的 Linux 内核和 Linux 2?boot sector和MBR的区别是什么样》关于知识就介绍到这里,希望本站内容能让您有所收获,如有疑问可跟帖留言,值班小编第一时间回复。 下一篇内容是有关《QQ电脑管家网速测试与360网速测试那个准确?win8电脑只能上网页》,感兴趣的同学可以点击进去看看。

资源转载网络,如有侵权联系删除。

相关资讯推荐

相关应用推荐

玩家点评

条评论

热门下载

  • 手机网游
  • 手机软件

热点资讯

  • 最新话题