文章目录
- 存储器的层次结构
- 存储器之间的实际价格和性能差距
- 存储器的层次关系
- 虚拟内存
- 简述
- 主要概念
- 虚拟内存的优势
- 内存管理
- 内存碎片
- 内存分页
- 页面置换算法
- TLB加速分页
- 软件TLB管理
- 针对大内存的页管理技术
- 三个重要的缓存能力
- 内存保护
- 总结
存储器的层次结构
对于存储器,速度越快,能耗越高,材料成本也越高
存储系统的层次结构从上到下依次为:
- 寄存器
- 访问速度非常快,通常在半个CPU时钟周期内完成读写。
- 与CPU主频相关,例如2GHz主频的CPU,其时钟周期为0.5纳秒。
- CPU Cache
- 使用SRAM(Static Random-Access Memory,静态随机存储器)芯片,只要有电,数据就可以保存。
- 分为三层:
- L1 Cache:分为数据缓存和指令缓存,通常大小为32K。
- L2 Cache:通常大小为1024K。
- L3 Cache:通常大小为14080K。
- 内存
- 使用DRAM(动态随机存取存储器)芯片。
- 相比SRAM,DRAM密度更高,功耗更低,容量更大,造价便宜。
- DRAM 存储一个 bit 数据,只需要一个晶体管和一个电容就能存储,但是因为数据会被存储在电容里,电容会不断 漏电,所以需要「定时刷新」电容
- 访问速度较慢,大约在200~300个时钟周期之间。
- SSD/HDD硬盘
- SSD(固态硬盘):数据在断电后仍然保存,读写速度比内存慢10~1000倍。
- HDD(机械硬盘):通过物理读写方式访问数据,速度比内存慢约10万倍。
存储器之间的实际价格和性能差距
不同层级的存储器在成本和性能上存在显著差距:
- L1 Cache:单位成本7美元/MB,随机访问延时1ns。
- L2 Cache:单位成本7美元/MB,随机访问延时4ns。
- 内存(DRAM):单位成本0.015美元/MB,随机访问延时100ns。
- SSD:单位成本0.000415美元/MB,随机访问延时150μs。
- HDD:单位成本0.00004美元/MB,随机访问延时10ms。
存储器的层次关系
存储器之间的交互是层级化的,CPU只与相邻的存储器设备进行交互。例如,CPU与L1 Cache交互,L1 Cache与L2 Cache交互,依此类推。每个存储器层级的速度越快,所需的材料成本也越高,因此高速度的存储器通常容量较小,而低速度的存储器则可以有更大的容量。
虚拟内存
简述
虚拟内存是一种内存管理技术,它使得应用程序认为自己拥有连续的可用内存空间,实际上这些空间可能是分散的。虚拟内存的实现依赖于硬件异常、地址翻译、主存、磁盘及内核软件的共同作用。
操作系统会提供一种机制,在物理内存和虚拟内存之间建立一个地址映射表,进程持有的虚拟地址会通过 CPU 芯 片中的内存管理单元(MMU)的映射关系,来转换变成物理地址,然后再通过物理地址访问内存
主要概念
- 地址空间:物理内存的抽象,进程可用于寻址内存的地址集合。
- 分页:将地址空间分割成多个块,每一块称作一页(Page),这些页被映射到物理内存(页框)。
- 页表:用于将虚拟页面(虚拟地址)映射为页框(物理地址),提供虚拟地址与物理地址的映射关系。
- 用户态与内核态
- 用户态:进程不允许执行特权指令,必须通过系统调用接口访问内核。
- 内核态:进程可以执行任何指令,访问系统中的任何内存位置。
虚拟内存的优势
- 结合磁盘和物理内存的优势:为进程提供速度快且容量大的存储。
- 独立的内存空间:为进程提供独立的内存空间,简化程序的链接、装载及内存分配过程。
- 访问控制:控制进程对物理内存的访问,提高系统的安全性。
内存管理
内存碎片
-
外部碎片:整体内存容量足够,但无法为较大的内存请求分配连续的内存块,因为已分配的内存块分散在内存中。
-
内部碎片:分配的内存块大于进程实际需要的内存量,导致内存浪费在内部碎片中。
-
内存分段:将物理内存划分成不同的逻辑段,每个段用于存储特定类型的数据。每个段具有不同的大小和属性。分段机制下的虚拟地址由两部分组成,段选择因子和段内偏移量,而虚拟地址是通过段表与物理地址进行映射的。
-
内存分页:将地址空间划分成固定大小的页,动态增长的特点可能导致覆盖问题的出现。虚拟内存采用的是分⻚技术
分⻚主要用于实现虚拟内存,从而获得更大的地址空间;分段主要是为了使程序和数据可以被划分为逻辑上独立的 地址空间并且有助于共享和保护。
内存分页
页面置换算法
- 最佳页面置换算法(OPT):置换在未来最长时间不访问的页面,但在实际系统中无法实现。
- 先进先出置换算法(FIFO):将页面以队列形式保存,先进入队列的页面先被置换。
- 最近最久未使用的置换算法(LRU):根据页面未被访问的时长进行置换。
- 时钟页面置换算法:将所有页面保存在一个环形链表中,顺时针遍历页面进行置换。
- 最不常用算法:记录每个页面的访问次数,置换访问次数最少的页面。
TLB加速分页
- 概念:
- TLB(转换检测缓冲区)是一种硬件设备,将虚拟地址直接映射到物理地址,避免访问页表。
- 工作过程:
- 输入虚拟地址到MMU(内存管理单元)进行转换。
- 虚拟页号在TLB中:
- 如果找到有效的匹配且访问操作不违反保护位,直接从TLB中取出页框号,无需访问页表。
- 虚拟页号不在TLB中:
- 若未找到匹配,进行常规页表查询。
- 淘汰TLB中的一个表项,并用新的页表项替换它。
- 虚拟页号在TLB中:
- 输入虚拟地址到MMU(内存管理单元)进行转换。
软件TLB管理
针对大内存的页管理技术
- (1) 多级页表
- (2) 倒排页表
三个重要的缓存能力
- 高速缓存:
- 根据存储器层次结构,将小而快的存储设备视为大而慢的存储设备的缓存。
- 虚拟内存中的页类型:
- 未分配:
- 未被进程申请使用的虚拟内存,空闲状态,未占用磁盘空间。
- 未缓存:
- 仅加载到磁盘中的页。
- 已缓存:
- 已加载到内存中的页(页框)。
- 未分配:
内存保护
-
目的: 保护用户进程的内存安全,防止恶意操作,确保系统稳定性。
-
限制措施:
- 只读代码段: 用户进程不能修改自身的只读代码段。
- 内核代码和数据: 禁止用户进程读取或修改内核中的代码和数据结构。
- 进程间内存访问:
- 不允许读取或修改其他进程的私有内存。
- 不允许修改其他进程共享的虚拟页面。
-
潜在风险: 如果不限制内存访问,攻击者可能会访问和修改其他进程的内存,导致系统崩溃。
-
虚拟寻址实现:
- 通过内存管理单元 (MMU),每次内存访问都会查阅页表中的页表条目 (PTE)。
- 在PTE中添加标志位来实现对虚拟页的访问控制权限。
总结
虚拟内存的思想,整体来看就是:通过结合磁盘和内存各自的优势,利用中间层对资源进行更合理地调度,充分提 高资源的利用率。并提供和谐以及统一的抽象。