操作系统目录
文章目录
- 操作系统目录
- 一、操作系统概述
- 1.1 操作系统基本概念
- 1.1.1 操作系统的概念、功能
- 1.1.2 操作系统的特性
- 1.1.3 操作系统的发展与分类
- 1.1.4 操作系统的运行机制
- 1.2 内核态与用户态
- 1.3 中断、异常
- 1.4 系统调用
- ~~1.5 计算机的层次结构~~
- ~~1.6 操作系统引导(开机过程)~~
- ~~1.7 虚拟机~~
- 常用术语总结
- 二、进程管理
- 2.1 进程、线程的基本概念
- 2.1.1 进程的组成和特性
- 2.1.2 进程的状态和转换
- 2.1.3 进程控制(理解)
- 2.1.4 线程的概念
- 2.1.5 线程的实现方式
- 2.1.5.1 用户级线程
- 2.1.5.2 内核级线程
- 2.1.5.3 多线程模式
- 2.1 6 线程的状态与转换
- 2.2 进程同步
- 2.2.1 概念
- 2.2.2 进程互斥的实现方法
- 2.2.2.1 软件实现方法
- 2.2.2.2 硬件实现方法
- 2.2.3 ==信号量机制==
- 2.2.3.1 整形信号量
- 2.2.3.2 记录性信号量
- 2.2.3.3 信号量实现
- 2.2.4 ==经典同步问题==
- 2.2.4.1 生产者-消费者问题
- 2.2.4.2 多生产者-多消费者问题
- 2.2.4.3 吸烟者问题
- 2.2.4.4 读者写者问题
- 2.2.4.5 哲学家进餐问题
- 2.3 进程通信
- 2.3.1 进程通信的概念
- 2.3.2 共享存储通信方式
- 2.3.3 消息传递通信方式
- 2.3.4 管道通信方式
- 2.4 进程的调度
- 2.4.1 调度的概念和层次
- 2.4.2 调度算法的评价指标
- 2.4.3 ==调度算法==
- 2.4.3.1 先来先服务调度算法
- 2.4.3.2 短作业(短进程、短线程)优先调度算法
- 2.4.3.3 时间片轮转调度算法
- 2.4.3.4 优先级调度算法
- 2.5 死锁
- 2.5.1 死锁的概念
- ~~2.5.1.1 死锁、饥饿、死循环的区别~~
- 2.5.1.2 死锁的形成原因
- 2.5.1.3 死锁产生的必要条件
- ~~2.5.1.4 死锁的处理策略~~
- 2.5.2 死锁预防
- 2.5.3 ==死锁避免==
- 2.5.3.1 安全序列
- 2.5.3.2 银行家算法
- 2.5.4 死锁检测和解除
- 2.5.4.1 死锁检测
- 2.5.4.2 死锁解除
- 三、内存管理
- 3.1 内存基础
- 3.1.1 内存管理概念
- 3.1.2 程序装入与链接
- 3.1.3 内存保护
- 3.2 内存空间的分配与回收
- 3.2.1 连续分配管理方式
- 3.2.1.1 单一连续分配
- 3.2.1.2 固定分区分配
- 3.2.1.3 动态分区分配
- 3.2.2 ==动态分区分配算法==
- 3.2.2.1 首次适应算法
- 3.2.2.2 最佳适用算法
- 3.2.2.3 最坏适应算法
- 3.2.2.4 邻近适应算法
- 3.2.3 ==非连续分配管理方式==
- 3.2.3.1 分页管理方式
- 3.2.3.2 分段管理方式
- 3.2.3.3 段页式管理方式
- 3.3 内存空间的扩充
- 3.3.1 覆盖技术
- 3.3.2 交换技术
- 3.3.3 ==虚拟存储技术==
- 3.3.3.1 虚拟内存基本概念
- 3.3.3.2 请求分页管理方式
- 3.3.3.3 页面置换算法
- 3.3.3.3.1 最佳置换算法
- 3.3.3.3.2 先进先出置换算法
- 3.3.3.3.3 最近最久未使用置换算法
- 3.3.3.3.4 时钟置换算法
- 3.3.3.3.5 改进型的时钟置换算法
- 四、设备管理
- 4.1 I/O设备基本概念
- 4.2 ==I/O控制方式==
- 4.2.1 程序控制方式
- 4.2.2 中断方式
- 4.2.3 DMA控制方式
- 4.2.4 通道控制方式
- 4.3 缓冲技术
- 4.4 假脱机技术
- 五、文件管理
- 5.1 文件系统基础
- 5.1.1 文件概念
- 5.1.2 组织方式
- 5.1.3 文件控制块
- 5.1.4 目录结构
- 5.2 文件系统实现
- 5.2.1 文件系统层次结构
- 5.2.2 文件存取控制
- 5.3 磁盘组织与管理
- 5.3.1 磁盘的结构
- 5.3.2 ==磁盘调度算法==
- 5.3.2.1 一次读写磁盘时间
- 5.3.2.2 先来先服务算法
- 5.3.2.3 最短寻找时间优先算法
- 5.3.2.4 扫描算法
- 5.3.2.5 循环扫描算法
- 5.3.3 廉价冗余磁盘阵列
- 文件下载
一、 操作系统概述
包括但不限于操作系统的基本概念,主要包括:
-
操作系统基本概念;
-
内核态与用户态
-
中断、异常
-
系统调用等。
二、 进程管理
包括但不限于进程管理的相关概念和应用,主要内容有:
-
进程、线程的基本概念以及两者的区别;
-
进程控制块、进程的状态与转换;
-
进程同步的基本概念, 实现临界区互斥的基本方法,信号量机制及P、 V操作, 了解经典同步问题,并通过信号量机制解决进程同步问题;
-
进程间通信,包括共享存储系统、消息传递系统、管道;
-
进程调度的基本准则, 典型调度算法:先来先服务调度算法、短作业(短进程、短线程)优先调度算法、时间片轮转调度算法、优先级调度算法;
-
死锁的形成原因与必要条件, 死锁预防、死锁避免、死锁检测和解除。
三、 内存管理
包括但不限于内存管理的相关概念和应用,主要内容有:
- 程序装入与链接, 逻辑地址与物理地址空间, 重定位, 内存保护;
- 分区管理, 交换与覆盖技术;
- 分页管理方式, 分段管理方式,段页式管理方式;
- 虚拟内存基本概念和局部性原理, 缺页中断, 地址变换过程;
- 页面置换算法:最佳置换算法(OPT)、先进先出置换算法(FIFO)、最近最少使用置换算法(LRU)、时钟置换算法(CLOCK), 工作集模型。
四、 设备管理
包括但不限于设备管理的基本概念和应用,主要内容有:
- I/O控制方式:程序控制、中断、DMA、通道, 缓冲技术;
- 假脱机技术(SPOOLing); 设备驱动程序。
五、 文件系统
包括但不限于文件、 文件系统的基本概念和应用,主要内容有:
- 文件与文件系统的基本概念, 组织方式, 文件控制块, 目录结构, 文件存取控制, 文件系统层次结构;
- 磁盘的结构, 磁盘调度算法, 廉价冗余磁盘阵列。
一、操作系统概述
1.1 操作系统基本概念
1.1.1 操作系统的概念、功能
参考书:操作系统是管理计算机硬件的程序。它还为应用程序提供基础,并且充当计算机用户和计算机硬件的中介。
王道书:操作系统(Operating System, OS)是指控制和管理整个计算机系统的硬件和软件资源,并合理地组织调度计算机的工作和资源的分配;以提供给用户和其他软件方便的接口和环境;它是计算机系统中最基本的系统软件
-
操作系统是系统资源的管理者
-
向上层提供方便易用的服务(封装思想)
-
是最接近硬件的一层软件
补充:执行一个程序前需要将该程序放到内存中,才能被CPU处理。
1.1.2 操作系统的特性
并发性:多个事件在宏观上是同时发生的,但微观上是交替运行的
并行:同一时间发生多个事件
-
单核CPU同一时刻只能执行一个程序,各个程序只能并发地执行
-
多核CPU同一时刻可以同时执行多个程序,多个程序可以并行地执行
共享性:即资源共享,是指系统中的资源可供内存中多个并发执行的进程共同使用
虚拟性:虚拟是指把一个物理上的实体变为若干个逻辑上的对应物。物理实体(前者)是实际存在的,而逻辑上对应物(后者)是用户感受到的。
异步性:异步是指,在多道程序环境下,允许多个程序并发执行,但由于资源有限,进程的执行不是一贯到底的,而是走走停停,以不可预知的速度向前推进,这就是进程的异步性。
没有并发和共享,就谈不上虚拟和异步,因此并发和共享是操作系统的两个最基本的特征。
1.1.3 操作系统的发展与分类
手动操作阶段:用户独占全机、人机速度矛盾导致资源利用率极低,CPU与I/O设备之间速度不匹配的矛盾。
批处理阶段——单道批处理系统:引入脱机输入/输出技术,并由监督程序负责控制作业的输入、输出——操作系统的雏形
- 优点:缓解了一定程度的人机速度矛盾。资源利用有所提升
- 缺点:内存中仅能有一道程序运行,只有该程序运行结束之后才能调入下一道程序。CPU有大量的时间是在空闲等待I/O完成。资源利用率依然很低
批处理阶段——多道批处理系统:每次往内存中读入多道程序,操作系统正式诞生,用于支持多道程序并发运行
- 优点:多道程序并发执行,共享计算机资源。资源利用率大幅提升,CPU和其他资源更能保持“忙碌”状态,系统吞吐量增大。
- 缺点:用户响应时间长,没有人机交互功能
分时操作系统:计算机以时间片为单位轮流为各个用户/作业服务,各个用户可通过终端与计算机进行交互。
-
优点:用户请求可以被即时响应,解决了人机交互问题。允许多个用户同时使用一台计算机,并且用户对计算机的操作相互独立,感受不到别人的存在。
-
缺点:不能优先处理一些紧急任务。操作系统对各个用户/作业都是完全公平的,循环地为每个用户/作业服务一个时间片,不区分任务的紧急性。
实时操作系统:在实时操作系统的控制下,计算机系统接收到外部信号后及时进行处理,并且要在严格的时限内处理完事件。实时操作系统的主要特点是及性和可靠性。
- 优点:能够优先响应一些紧急任务,某些紧急任务不需时间片排队。
其他操作系统(不重要)
-
网络操作系统:是伴随着计算机网络的发展而诞生的,能把网络中各个计算机有机地结合起来,实现数据传 送等功
能,实现网络中各种资源的共享(如文件共享)和各台计算机之间的通信。(如:Windows NT 就是 一种典型的网络
操作系统,网站服务器就可以使用)
-
分布式操作系统:主要特点是分布性和并行性。系统中的各台计算机地位相同,任何工作都可以分布在这些计算机上,由它们并行、协同完成这个任务。
-
个人计算机操作系统:如 Windows XP、MacOS,方便个人使用。
1.1.4 操作系统的运行机制
一条高级语言的代码翻译过来可能会对应多条机器指令
程序运行的过程其实就是CPU执行一条一条的机器指令的过程
1.2 内核态与用户态
操作系统包含两种程序:内核程序和应用程序。
在CPU设计和生产的时候就划分了特权指令和非特权指令,因此CPU执行一条指令前就能判断出其类型
CPU能判断出指令类型,但是它怎么区分此时正在运行的是内核程序 or 应用程序?
CPU 有两种状态,“内核态”和“用户态” :
- 处于内核态时,说明此时正在运行的是内核程序,此时可以执行特权指令
- 处于用户态时,说明此时正在运行的是应用程序,此时只能执行非特权指令
拓展:CPU中有一个寄存器叫程序状态字寄存器(PSW),其中有个二进制位,1表示“内核态”,0表示“用户态”
内核态、用户态的切换
- 内核态—>用户态:执行一条特权指令——修改PSW的标志位为“用户态”,这个动作意味着操作系统将主动让出CPU用权
- 用户态—>内核态:由“中断”引发,硬件自动完成变态过程,触发中断信号意味着操作系统将强行夺
1.3 中断、异常
中断会使CPU由用户态变为内核态,是让操作系统内核夺回CPU使用权的唯一途径
内中断案例:
- 故障——试图在用户态下执行特权指令;
- 终止——执行除法指令时发现除数为0、非法使用特权指令;
- 陷阱/陷入——应用系统请求操作系统内核服务(系统调用),执行一条特殊的指令——陷入指令(不是特权指令),引发一个内部中断信号
外中断案例:
- 时钟中断——每隔一段时间,由时钟部件发来的中断信号;
- I/O中断——有输入/输出设备发来的中断信号。
中断机制的基本原理:不同的中断信号,需要用不同的中断处理程序来处理。当CPU检测到中断信号后,会根据中断信号的类型去查询“中断向量表”,以此来找到相应的中断处理程序在内存中的存放位置。
显然,中断处理程序一定是内核程序,需要运行在”内核态“。
1.4 系统调用
系统调用”是操作系统提供给应用程序(程序员/编程人员)使用的接口,可以理解为一种可供应用程序调用的特殊函数,应用程序可以通过系统调用来请求获得操作系统内核的服务。
应用程序通过系统调用请求操作系统的服务。而系统中的各种共享资源都由操作系统内核统一掌管,因此凡是与共享资源有关的操作(如存储分配、I/O操作、文件管理等),都必须通过系统调用的方式向操作系统内核提出服务请求,由操作系统内核代为完成。这样可以保证系统的稳定性和安全性,防止用户进行非法操作。
传递系统调用参数—>执行陷入指令(用户态)—>执行相应的内请求核程序处理系统调用(核心态)—>返回应用程序
注意:
- 陷入指令是在用户态执行的,执行陷入指令之后立即引发一个内中断,使CPU进入核心态
- 发出系统调用请求是在用户态,而对系统调用的相应处理在核心态下进行
1.5 计算机的层次结构
内核是操作系统最基本、最核心的部门,内核需要运行在内核态,非内核功能运行在用户态。
实现操作系统内核功能的那些程序就是内核程序。
大内核和微内核的区别
1.6 操作系统引导(开机过程)
操作系统引导:
- CPU从一个特定主存地址开始,取指令,执行ROM中的引导程序(先进行硬件自检,再开机)
- 将磁盘的第一块——**主引导记录(MBR)**读入内存,执行磁盘引导程序,扫描分区表
- 从活动分区(又称主分区,即安装了操作系统的分区)读入分区引导记录PBR,执行其中的程序
- 从根目录下找到完整的**操作系统初始化程序(即启动管理器)**并执行,完成“开机”的一系列动作
1.7 虚拟机
虚拟机:使用虚拟化技术,将一台物理机器虚拟化为多台虚拟机器(VirtualMachine,VM),每个虚拟机器都可以独立运行一个操作系统
常用术语总结
名词 | 概念 |
---|---|
PCB | 进程控制块(PCB Process Control Block),系统中存放、管理和控制进程信息的数据结构称为 |
TCB | 线程控制块 |
FCB | 文件控制块 |
PID | 进程ID(Process ID) |
PSW | 程序状态字寄存器,用于存放PC、IR等的信息 |
PC | 程序计数器,存放下一条指令地址 |
IR | 指令寄存器,存放到当前进行的指令 |
半双工 | 半双工和全双工是计算机网络中的概念,意思是通讯同一时间只允许一方发送数据(对讲机) |
全双工 | 通信允许两方向上同时传输数据(电话) |
P操作 | 来自荷兰语proveren,代表wait原语,通常使用P(S)代替wait(S) |
V操作 | 来自荷兰语verhogen,代表原语signal,通常使用V(S)代替signal(S) |
用户态 | 一般的操作系统对执行权限进行分级,分别为用保护态和内核态。用户态相较于内核态有较低的执行权限,很多操作是不被操作系统允许的,从而保证操作系统和计算机的安全。 |
内核态 | 内核态相当于一个介于硬件与应用之间的层,可以进行硬件的调度、使用,可以执行任何cpu指令,也可以引用任何内存地址,包括外围设备, 例如硬盘, 网卡,权限等级最高。 |
用户态内核态切换 | 三种情况下,用户态会转换到内核态,系统调用、程序异常(例如/0,内存资源耗尽等)、来自外围设备的中断 |
系统调用/程序接口 | 用户程序通过系统调用的方式才能对硬件进行使用,或者说操作系统将使用硬件的接口提供给用户程序 |
中断 | 中断是操作系统内核程序夺取cpu的唯一途径,或者说用户程序调用内核代码的唯一途径,因为在一般情况下,操作系统会将cpu使用权交给应用程序。 |
二、进程管理
-
进程、线程的基本概念以及两者的区别;
-
进程控制块、进程的状态与转换;
-
进程同步的基本概念, 实现临界区互斥的基本方法,信号量机制及P、 V操作, 了解经典同步问题,并通过信号量机制解决进程同步问题;
-
进程间通信,包括共享存储系统、消息传递系统、管道;
-
进程调度的基本准则, 典型调度算法:先来先服务调度算法、短作业(短进程、短线程)优先调度算法、时间片轮转调度算法、优先级调度算法;
-
死锁的形成原因与必要条件, 死锁预防、死锁避免、死锁检测和解除。
2.1 进程、线程的基本概念
2.1.1 进程的组成和特性
程序:是静态的,就是个存放在磁盘里的可执行文件,如:QQ.exe。
进程:是动态的,是程序的一次执行过程,如:可同时启动多次QQ程序。
同一个程序多次执行会对应多个进程
- PID:当进程被创建时,操作系统会为该进程分配一个唯一的、不重复的“身份证号”——PID(ProcessID,进程ID)
- 可用于实现操作系统对资源的管理:记录给进程分配了哪些资源(如:分配了多少内存、正在使用哪些I/O设备)
- 实现操作系统对进程的控制、调度:记录进程的运行情况(如:CPU使用时间、磁盘使用情况、网络流量使用情况等)
这些信息都被保存在一个数据结构PCB(ProcessControlBlock)中,即进程控制块操作系统需要对各个并发运行的进程进行管理,但凡管理时所需要的信息,都会被放在PCB中
程序是静态的,进程是动态的,相比于程序,进程拥有以下特征:
2.1.2 进程的状态和转换
进程的五种状态:创建态、就绪态、运行态、阻塞态、终止态。
-
创建态:进程正在被创建时,它的状态是“创建态”,在这个阶段操作系统会为进程分配资源、初始化PCD。
-
就绪态:当进程创建完成后,便进入“就绪态”,处于就绪态的进程已经具备运行条件,但由于没有空闲CPU,就暂时不能运行。
-
运行态:如果一个进程此时在CPU上运行,那么这个进程处于“运行态”。CPU会执行该进程对应的程序(执行指令序列)。
-
阻塞态:在进程运行的过程中,可能会请求等待某个事件的发生(如等待某种系统资源的分配,或者等待其他进程的响应)。在这个事件发生之前,进程无法继续往下执行,此时操作系统会让这个进程下CPU,并让它进入“阻塞态”。
-
终止态:一个进程可以执行exit系统调用,请求操作系统终止该进程。此时该进程会进入“终止态”,操作系统会让该进程下CPU,并回收内存空间等资源,最后还要回收该进程的PCB。当终止进程的工作完成之后,这个进程就彻底消失了。
进程状态的转换
进程的组织——链接方式
进程的组织——索引方式
2.1.3 进程控制(理解)
进程控制的主要功能是对系统中的所有进程实施有效的管理,它具有创建新进程、撤销已有进程、实现进程状态转换等功能。
简化理解:进程控制就是要实现进程状态转换。
原语是一种特殊的程序,它的执行具有原子性。也就是说,这段程序的运行必须一气呵成,不可中断。
可以用“关中断指令”和“开中断指令”这两个特权指令实现原子性。
2.1.4 线程的概念
线程是一个基本的CPU执行单元,也是程序执行流的最小单位。可以把线程理解为“轻量级进程”。
引入线程之后,不仅是进程之间可以并发,进程内的各线程之间也可以并发,从而进一步提升了系统的并发度,使得一个进程内也可以并发处理各种任务(如QQ视频、文字聊天、传文件)。
引入线程后,进程只作为除CPU之外的系统资源的分配单元(如打印机、内存地址空间等都是分配给进程的),线程则作为处理机的分配单元。
2.1.5 线程的实现方式
2.1.5.1 用户级线程
-
用户级线程由应用程序通过线程库实现,所有的线程管理工作都由应用程序负责(包括线程切换)
-
用户级线程中,线程切换可以在用户态下即可完成,无需操作系统干预。
-
在用户看来,是有多个线程。但是在操作系统内核看来,并意识不到线程的存在。“用户级线程”就是“从用户视角看能看到的线程”。
-
优缺点
优点:用户级线程的切换在用户空间即可完成,不需要切换到核心态,线程管理的系统开销小,效率高
缺点:当一个用户级线程被阻塞后,整个进程都会被阻塞,并发度不高。多个线程不可在多核处理机上并行运行。
2.1.5.2 内核级线程
-
内核级线程的管理工作由操作系统内核完成。
-
线程调度、切换等工作都由内核负责,因此内核级线程的切换必然需要在核心态下才能完成。
-
操作系统会为每个内核级线程建立相应的TCB(ThreadControlBlock,线程控制块),通过TCB对线程进行管理。“内核级线程”就是“从操作系统内核视角看能看到的线程”。
-
优缺点
优点:当一个线程被阻塞后,别的线程还可以继续执行,并发能力强。多线程可在多核处理机上并行执行。
缺点:一个用户进程会占用多个内核级线程,线程切换由操作系统内核完成,需要切换到核心态,因此线程管理的成本高,开销大。
2.1.5.3 多线程模式
在支持内核级线程的系统中,根据用户级线程和内核级线程的映射关系,可以划分为几种多线程模型。
一对一模型:一个用户级线程映射到一个内核级线程。每个用户进程有与用户级线程同数量的内核级线程。
优点:当一个线程被阻塞后,别的线程还可以继续执行,并发能力强。多线程可在多核处理机上并行执行。
缺点:一个用户进程会占用多个内核级线程,线程切换由操作系统内核完成,需要切换到核心态,因此线程管理的成本高,开销大。
多对一模型:多个用户级线程映射到一个内核级线程。且一个进程只被分配一个内核级线程。
优点:用户级线程的切换在用户空间即可完成,不需要切换到核心态,线程管理的系统开销小,效率高。
缺点:当一个用户级线程被阻塞后,整个进程都会被阻塞,并发度不高。多个线程不可在多核处理机上并行运行
重点重点重点:操作系统只“看得见”内核级线程,因此只有内核级线程才是处理机分配的单位。
多对多模型:n用户及线程映射到m个内核级线程(n>=m)。每个用户进程对应m个内核级线程。
优点:克服了多对一模型并发度不高的缺点(一个阻塞全体阻塞),又克服了一对一模型中一个用线程库户进程占用太多内核级线程,开销太大的缺点。
内核级线程中可以运行任意一个有映射关系的用户级线程代码,只有两个内核级线程中正在运行的代码逻辑都阻塞时,这个进程才会阻塞
理解:
用户级线程是“代码逻辑”的载体
内核级线程是“运行机会”的载体
因此只有内核级线程才是处理机分配的单位。例如:多核CPU环境下,左边这个进程最多能被分配两个核。一段“代码逻辑”只有获得了“运行机会”才能被CPU执行
2.1 6 线程的状态与转换
线程与进程的转换几乎一模一样,甚至更简单
2.2 进程同步
2.2.1 概念
进程同步
知识点回顾:进程具有异步性的特征。异步性是指,各并发执行的进程以各自独立的、不可预知的速度向前推进。
操作系统要提供“进程同步机制”来解决异步问题,有的进程之间需要相互配合地完成工作,各进程的工作推进需要遵循一定的先后顺序。
进程互斥
我们把一个时间段内只允许一个进程使用的资源称为临界资源。许多物理设备(比如摄像头、打印机)都属于临界资源。此外还有许多变量、数据、内存缓冲区等都属于临界资源。
对临界资源的访问,必须互斥地进行。互斥,亦称间接制约关系。
进程互斥指当一个进程访问某临界资源时,另一个想要访问该临界资源的进程必须等待。当前访问临界资源的进程访问结束,释放该资源之后,另一个进程才能去访问临界资源。
临界区是进程中访问临界资源的代码段。
进入区和退出区是负责实现互斥的代码段。
为了实现对临界资源的互斥访问,同时保证系统整体性能,需要遵循以下原则:
-
空闲让进。临界区空闲时,可以允许一个请求进入临界区的进程立即进入临界区;
-
忙则等待。当已有进程进入临界区时,其他试图进入临界区的进程必须等待;
-
有限等待。对请求访问的进程,应保证能在有限时间内进入临界区(保证不会饥饿);
-
让权等待。当进程不能进入临界区时,应立即释放处理机,防止进程忙等待。
2.2.2 进程互斥的实现方法
2.2.2.1 软件实现方法
-
单标志法
算法思想:两个进程在访问完临界区后会把使用临界区的权限转交给另一个进程。也就是说每个进程进入临界区的权限只能被另一个进程赋予
turn的初值为0,即刚开始只允许0号进程进入临界区。
若P1先上处理机运行,则会一直卡在⑤。直到P1的时间片用完,发生调度,切换P0上处理机运行。代码①不会卡住P0,P0可以正常访问临界区,在P0访问临界区期间即时切换回P1,P1依然会卡在⑤。只有P0在退出区将turn改为1后,P1才能进入临界区。
因此,该算法可以实现“同一时刻最多只允许一个进程访问临界区“。
只能按P0->P1->P0->P1->……这样轮流访问。这种必须“轮流访问”带来的问题是,如果此时允许进入临界区的进程是P0,而P0一直不访问临界区,那么虽然此时临界区空闲,但是并不允许P1访问。因此,单标志法存在的主要问题是:违背“空闲让进”原则。
-
双标志先检查法
算法思想:设置一个布尔型数组flag[],数组中各个元素用来标记各进程想进入临界区的意愿,比如“flag[0]=ture”意味着0号进程P0现在想要进入临界区。每个进程在进入临界区之前先检查当前有没有别的进程想进入临界区,如果没有,则把自身对应的标志flag[i]设为true,之后开始访问临界区。
若按照①⑤②⑥③⑦….的顺序执行,P0和P1将会同时访问临界区。
因此,双标志先检查法的主要问题是:违反“忙则等待”原则。
原因在于,进入区的“检查”和“上锁”两个处理不是一气呵成的。“检查”后,“上锁”前可能发生进程切换。
-
双标志后检查法
算法思想:双标志先检查法的改版。前一个算法的问题是先“检查”后“上锁”,但是这两个操作又无法一气呵成,因此导致了两个进程同时进入临界区的问题。因此,人们又想到先“上锁”后“检查”的方法,来避免上述问题。
若按照①⑤②⑥….的顺序执行,P0和P1将都无法进入临界区
因此,双标志后检查法虽然解决了“忙则等待”的问题,但是又违背了“空闲让进”和“有限等待”原则,会因各进程都长期无法访问临界资源而产生**“饥饿”现象**。
两个进程都争着想进入临界区,但是谁也不让谁,最后谁都无法进入临界区。
-
Peterson算法
算法思想:结合双标志法、单标志法的思想。如果双方都争着想进入临界区,那可以让进程尝试“孔融让梨”(谦让)。做一个有礼貌的进程。
进入区:1.主动争取;2.主动谦让;3.检查对方是否也想使用,且最后一次是不是自己说了“客气话”。
Peterson算法用软件方法解决了进程互斥问题,遵循了空闲让进、忙则等待、有限等待三个原则,但是依然未遵循让权等待的原则。
Peterson算法相较于之前三种软件解决方案来说,是最好的,但依然不够好。
2.2.2.2 硬件实现方法
-
中断屏蔽方法
利用“开/关中断指令”实现(与原语的实现思想相同,即在某进程开始访问临界区到结束访问为止都不允许被中断,也就不能发生进程切换,因此也不可能发生两个同时访问临界区的情况)
优点:简单、高效
缺点:不适用于多处理机;只适用于操作系统内核进程,不适用于用户进程(因为开/关中断指令只能运行在内核态,这组指令如果能让用户随意使用会很危险)
-
TestAndSet指令
简称TS指令,也有地方称为TestAndSetLock指令,或TSL指令TSL指令是用硬件实现的,执行的过程不允许被中断,只能一气呵成。以下是用C语言描述的逻辑
若刚开始lock是false,则TSL返回的old值为false,while循环条件不满足,直接跳过循环,进入临界区。若刚开始lock是true,则执行TLS后old返回的值为true,while循环条件满足,会一直循环,直到当前访问临界区的进程在退出区进行“解锁”。
相比软件实现方法,TSL指令把“上锁”和“检查”操作用硬件的方式变成了一气呵成的原子操作。
优点:实现简单,无需像软件实现方法那样严格检查是否会有逻辑漏洞;适用于多处理机环境
缺点:不满足“让权等待”原则,暂时无法进入临界区的进程会占用CPU并循环执行TSL指令,从而导致“忙等”。
-
Swap指令
有的地方也叫Exchange指令,或简称XCHG指令。Swap指令是用硬件实现的,执行的过程不允许被中断,只能一气呵成。以下是用C语言描述的逻辑
逻辑上来看Swap和TSL并无太大区别,都是先记录下此时临界区是否已经被上锁(记录在old变量上),再将上锁标记lock设置为true,最后检查old,如果old为false则说明之前没有别的进程对临界区上锁,则可跳出循环,进入临界区。
优点:实现简单,无需像软件实现方法那样严格检查是否会有逻辑漏洞;适用于多处理机环境
缺点:不满足“让权等待”原则,暂时无法进入临界区的进程会占用CPU并循环执行TSL指令,从而导致“忙等”。
2.2.3 信号量机制
用户进程可以通过使用操作系统提供的一对原语来对信号量进行操作,从而很方便的实现了进程互斥、进程同步。
信号量其实就是一个变量,可以用一个信号量来表示系统中某种资源的数量,比如:系统中只有一台打印机,就可以设置一个初值为1的信号量。
原语是一种特殊的程序段,其执行只能一气呵成,不可被中断。原语是由关中断/开中断指令实现的。软件解决方案的主要问题是由“进入区的各种操作无法一气呵成”,因此如果能把进入区、退出区的操作都用“原语”实现,使这些操作能“一气呵成”就能避免问题。
一对原语:wait(S)原语和signal(S)原语,可以把原语理解为我们自己写的函数,函数名分别为wait和signal,括号里的信号量S其实就是函数调用时传入的一个参数。
2.2.3.1 整形信号量
用一个整数型的变量作为信号量,用来表示系统中某种资源的数量。
- 与普通整数变量的区别:对信号量的操作只有三种,即初始化、P操作、V操作;
- “检查”和“上锁”一气呵成,避免了并发、异步导致的问题;
- 存在的问题:不满足“让权等待”原则,会发生“忙等“。
Eg:某计算机系统中有一台打印机…
2.2.3.2 记录性信号量
原因:整型信号量的缺陷是存在“忙等”问题,因此人们又提出了“记录型信号量”,即用记录型数据结构表示的信号量。
在考研题目中wait(S)、signal(S)也可以记为P(S)、V(S),这对原语可用于实现系统资源的“申请”和“释放”。
S.value的初值表示系统中某种资源的数目。
对信号量S的一次P操作意味着进程请求一个单位的该类资源,因此需要执行S.value–,表示资源数减1,当S.value<0时表示该类资源已分配完毕,因此进程应调用block原语进行自我阻塞(当前运行的进程从运行态—>阻塞态),主动放弃处理机,并插入该类资源的等待队列S.L中。可见,该机制遵循了“让权等待”原则,不会出现“忙等”现象。
对信号量S的一次V操作意味着进程释放一个单位的该类资源,因此需要执行S.value++,表示资源数加1,若加1后仍是S.value<=0,表示依然有进程在等待该类资源,因此应调用wakeup原语唤醒等待队列中的第一个进程(被唤醒进程从阻塞态—>就绪态)
- 如果剩余资源数不够,使用block原语使进程从运行态进入阻塞态,并把挂到信号量S的等待队列(即阻塞队列)中;
- 释放资源后,若还有别的进程在等待这种资源,则使用wakeup原语唤醒等待队列中的一个进程,该进程从阻塞态变为就绪态。
- P0—>P1—>P2—>P3依次分配资源,剩余资源数-2,等待队列P2,P3;
- CPU处理P0进程,P0释放资源,剩余资源数-1,唤醒等待队列P2;
- CPU处理P2进程,P2释放资源,剩余资源数0,唤醒等待队列P3;
- CPU处理P1进程,P1释放资源,剩余资源数1,等待队列为NULL,无需唤醒;
- CPU处理P3进程,P3释放资源,剩余等待数2,等待队列为NULL,无需唤醒。
2.2.3.3 信号量实现
- 信号量机制实现进程互斥
- 信号量机制实现进程同步
- 信号量机制实现前驱操作
P(S)——申请一个资源S,如果资源不够就阻塞等待
V(S)——释放一个资源S,如果有进程在等待该资源,则唤醒一个进程
Tips:不要一头钻到代码里,要注意理解信号量背后的含义,一个信号量对应一种资源
信号量的值=这种资源的剩余数量(信号量的值如果小于0,说明此时有进程在等待这种资源)
信号量机制实现进程互斥
- 分析并发进程的关键活动,划定临界区(如:对临界资源打印机的访问就应放在临界区)
- 设置互斥信号量mutex,初值为1
- 在进入区P(mutex)——申请资源
- 在退出区V(mutex)——释放资源
注意:对不同的临界资源需要设置不同的互斥信号量。
P、V操作必须成对出现。缺少P(mutex)就不能保证临界资源的互斥访问。缺少V(mutex)会导致资源永不被释放,等待进程永不被唤醒。
信号量机制实现进程同步
进程同步:要让各并发进程按要求有序地推进。
用信号量实现进程同步:
-
分析什么地方需要实现“同步关系”,即必须保证“一前一后”执行的两个操作(或两句代码)
-
设置同步信号量S,初始为0
-
在**“前操作”之后执行V(S)**
-
在**“后操作”之前执行P(S)**
理解:信号量S代表“某种资源”,刚开始是没有这种资源的。P2需要使用这种资源,而又只能由P1产生这种资源
若先执行到V(S)操作,则S++后S=1。之后当执行到P(S)操作时,由于S=1,表示有可用资源,会执行S–,S的值变回0,P2进程不会执行block原语,而是继续往下执行代码4。
若先执行到P(S)操作,由于S=0,S–后S=-1,表示此时没有可用资源,因此P操作中会执行block原语,主动请求阻塞。之后当执行完代码2,继而执行V(S)操作,S++,使S变回0,由于此时有进程在该信号量对应的阻塞队列中,因此会在V操作中执行wakeup原语,唤醒P2进程。这样P2就可以继续执行代码4了
信号量机制实现前驱操作
其实每一对前驱关系都是一个进程同步问题(需要保证一前一后的操作)因此,
-
要为每一对前驱关系各设置一个同步信号量
-
在“前操作”之后对相应的同步信号量执行V操作
-
在“后操作”之前对相应的同步信号量执行P操作
互斥关系:在临界区前后分别 P V
同步关系:前 V 后 P
2.2.4 经典同步问题
2.2.4.1 生产者-消费者问题
问题描述:系统中有一组生产者进程和一组消费者进程,生产者进程每次生产一个产品放入缓冲区,消费者进程每次从缓冲区中取出一个产品并使用。(注:这里的“产品”理解为某种数据)
生产者、消费者共享一个初始为空、大小为n的缓冲区。
只有缓冲区没满时,生产者才能把产品放入缓冲区(生产者生产),否则必须等待。
只有缓冲区不空时,消费者才能从中取出产品(消费者消费),否则必须等待。
缓冲区是临界资源,各进程必须互斥地访问。
PV操作题目分析步骤:
-
关系分析。找出题目中描述的各个进程,分析它们之间的同步、互斥关系。
-
整理思路。根据各进程的操作流程确定P、V操作的大致顺序。
-
设置信号量。并根据题目条件确定信号量初值。(互斥信号量初值一般为1,同步信号量的初始值要看对应资源的初始值是多少)
实现互斥的 P 操作一定要在实现同步的 P 操作之后。
V 操作不会导致进程阻塞,因此两个V 操作顺序可以交换。
易错点:实现互斥和实现同步的两个P操作的先后顺序(死锁问题)
2.2.4.2 多生产者-多消费者问题
**问题描述:**桌子上有一只盘子,每次只能向其中放入一个水果。爸爸专向盘子中放苹果,妈妈专向盘子中放橘子,儿子专等着吃盘子中的橘子,女儿专等着吃盘子中的苹果。只有盘子空时,爸爸或妈妈才可向盘子中放一个水果。仅当盘子中有自己需要的水果时,儿子或女儿可以从盘子中取出水果。用PV操作实现上述过程。
semaphore mutex=1;//实现互斥访问盘子(缓冲区)
semaphore apple=0;//盘子中有几个苹果
semaphore orange=0;//盘子中有几个橘子
semaphore plate=1;//盘子中还可以放多少个水果
潜在问题
本题可以不使用互斥信号量:本题中的缓冲区大小为1,在任何时刻,apple、orange、plate三个同步信号量中最多只有一个是1。因此在任何时刻,最多只有一个进程的P操作不会被阻塞,并顺利地进入临界区。
如果缓存区容量为2:父亲P(plate),可以访问盘子—>母亲P(plate),可以访问盘子—>父亲在往盘子里放苹果,同时母亲也可以往盘子里放橘子。于是就出现了两个进程同时访问缓冲区的情况,有可能导致两个进程写入缓冲区的数据相互覆盖的情况。
**如果缓冲区大小大于1,就必须专门设置一个互斥信号量mutex来保证互斥访问缓冲区。**否则会引发“死锁”。
2.2.4.3 吸烟者问题
本质上这题也属于“生产者-消费者”问题,更详细的说应该是“可以生产多个产品的单生产者-多消费者”。
问题描述:假设一个系统有三个抽烟者进程和一个供应者进程。每个抽烟者不停地卷烟并抽掉它,但是要卷起并抽掉一支烟,抽烟者需要有三种材料:烟草、纸和胶水。三个抽烟者中,第一个拥有烟草、第二个拥有纸、第三个拥有胶水。供应者进程无限地提供三种材料,供应者每次将两种材料放桌子上,拥有剩下那种材料的抽烟者卷一根烟并抽掉它,并给供应者进程一个信号告诉完成了,供应者就会放另外两种材料再桌上,这个过程一直重复(让三个抽烟者轮流地抽烟)
semaphore offer1=0;//桌上组合一的数量
semaphore offer2=0;//桌上组合二的数量
semaphore offer3=0;//桌上组合三的数量
semaphore finish=0;//抽烟是否完成
inti=0;//用于实现“三个抽烟者轮流抽烟”
2.2.4.4 读者写者问题
同步问题主要参考生产者消费者问题,互斥问题参考读者写者问题
问题描述:有读者和写者两组并发进程,共享一个文件,当两个或两个以上的读进程同时访问共享数据时不会产生副作用,但若某个写进程和其他进程(读进程或写进程)同时访问共享数据时则可能导致数据不一致的错误。因此要求:
①允许多个读者可以同时对文件执行读操作;
②只允许一个写者往文件中写信息;
③任一写者在完成写操作之前不允许其他读者或写者工作;
④写者执行写操作前,应让已有的读者和写者全部退出。
互斥关系:写进程—写进程、写进程—读进程。读进程与读进程不存在互斥问题。
读者-写者问题为我们解决复杂的互斥问题提供了一个参考思路。
其核心思想在于设置了一个计数器count用来记录当前正在访问共享文件的读进程数。我们可以用count的值来判断当前进入的进程是否是第一个/最后一个读进程,从而做出不同的处理。
另外,对count变量的检查和赋值不能一气呵成导致了一些错误,如果需要实现“一气呵成”,自然应该想到用互斥信号量。
最后,还要认真体会我们是如何解决“写进程饥饿”问题的。
2.2.4.5 哲学家进餐问题
多个临界资源的分配
问题描述:一张圆桌上坐着5名哲学家,每两个哲学家之间的桌上摆一根筷子,桌子的中间是一碗米饭。哲学家们倾注毕生的精力用于思考和进餐,哲学家在思考时,并不影响他人。只有当哲学家饥饿时,才试图拿起左、右两根筷子(一根一根地拿起)。如果筷子已在他人手上,则需等待。饥饿的哲学家只有同时拿起两根筷子才可以开始进餐,当进餐完毕后,放下筷子继续思考。
限制条件
①可以对哲学家进程施加一些限制条件,比如最多允许四个哲学家同时进餐。这样可以保证至少有一个哲学家是可以拿到左右两只筷子的
②要求奇数号哲学家先拿左边的筷子,然后再拿右边的筷子,而偶数号哲学家刚好相反。用这种方法可以保证如果相邻的两个奇偶号哲学家都想吃饭,那么只会有其中一个可以拿起第一只筷子,另一个会直接阻塞。这就避免了占有一支后再等待另一只的情况。
③仅当一个哲学家左右两支筷子都可用时才允许他抓起筷子。
semaphore chopstick[5]={1,1,1,1,1};
semaphore mutex=1; //互斥地取筷子
Pi(){ //i号哲学家的进程
while(1){
P(mutex);
P(chopstick[i]); //拿左
P(chopstick[(i+1)%5]); //拿右
V(mutex);
吃饭…
V(chopstick[i]); //放左
V(chopstick[(i+1)%5]); //放右
思考…
}
}
哲学家进餐问题的关键在于解决进程死锁。
这些进程之间只存在互斥关系,但是与之前接触到的互斥关系不同的是,每个进程都需要同时持有两个临界资源,因此就有“死锁”问题的隐患.
2.3 进程通信
2.3.1 进程通信的概念
进程间通信(Inter-Process Communication,IPC)是指两个进程之间产生数据交互。
进程是分配系统资源的单位(包括内存地址空间),因此各进程拥有的内存地址空间相互独立。
为了保证安全,一个进程不能直接访问另一个进程的地址空间。
2.3.2 共享存储通信方式
- 设置一个共享内存区域,并映射到进程的虚拟地址空间
- 要互斥地访问共享空间(由通信进程自己负责实现互斥)
- 基于数据结构的共享:比如共享空间里只能放一个长度为10的数组。这种共享方式速度慢、限制多,是一种低级通信方式。
- 基于存储区的共享操作系统在内存中划出一块共享存储区,数据的形式、存放位置都由通信进程控制,而不是操作系统。这种共享方式速度很快,是一种高级通信方式。
2.3.3 消息传递通信方式
进程间的数据交换以格式化的消息(Message)为单位。进程通过操作系统提供的“发送消息/接收消息”两个原语进行数据交换。
-
消息头包括:发送进程ID、接受进程ID、消息长度等格式化的信息。
-
消息体:具体的一个进程要传给另一个进程的消息。
消息传递分为直接通信方式和间接通信方式两种方式:
- 直接通信方式:消息发送进程要指明接收进程的ID;
- 间接通信方式:通过“信箱”间接地通信。因此又称“信箱通信方式”。
2.3.4 管道通信方式
“管道”是一个特殊的共享文件,又名pipe文件。其实就是在内存中开辟一个大小固定的内存缓冲区。(原理同循环队列)
- 管道只能采用半双工通信,某一时间段内只能实现单向的传输。如果要实现双向同时通信,则需要设置两个管道。
- 各进程要互斥地访问管道(由操作系统实现)
- 当管道写满时,写进程将阻塞,直到读进程将管道中的数据取走,即可唤醒写进程。
- 当管道读空时,读进程将阻塞,直到写进程往管道中写入数据,即可唤醒读进程。
- 管道中的数据一旦被读出,就彻底消失。因此,当多个进程读同一个管道时,可能会错乱。对此,通常有两种解决方案:①一个管道允许多个写进程,一个读进程(2014年408真题高教社官方答案);②允许有多个写进程,多个读进程,但系统会让各个读进程轮流从管道中读数据(Linux的方案)。
2.4 进程的调度
2.4.1 调度的概念和层次
高级调度(作业调度)——按一定的原则从外存的作业后备队列中挑选一个作业调入内存,并创建进程。每个作业只调入一次,调出一次。作业调入时会建立PCB,调出时才撤销PCB。——简化理解:好几个程序需要启动,到底先启动哪个。
中级调度(内存调度)——按照某种策略决定将哪个处于挂起状态的进程重新调入内存。一个进程可能会被多次调出、调入内存,因此中级调度发生的频率要比高级调度更高。
低级调度(进程调度/处理机调度)——按照某种策略从就绪队列中选取一个进程,将处理机分配给它。进程调度是操作系统中最基本的一种调度,在一般的操作系统中都必须配置进程调度。进程调度的频率很高,一般几十毫秒一次。
2.4.2 调度算法的评价指标
-
CPU利用率:指CPU“忙碌”的时间占总时间的比例
-
系统吞吐量:单位时间内完成作业的数量
-
周转时间:是指从作业被提交给系统开始,到作业完成为止的这段时间间隔。
-
平均周转时间
-
带权周转时间:
-
平均带权周转时间
-
-
等待时间:指进程/作业处于等待处理机状态时间之和,等待时间越长,用户满意度越低。
-
响应时间:指从用户提交请求到首次产生响应所用的时间。
2.4.3 调度算法
2.4.3.1 先来先服务调度算法
2.4.3.2 短作业(短进程、短线程)优先调度算法
2.4.3.3 时间片轮转调度算法
2.4.3.4 优先级调度算法
高响应比优先算法
多级反馈队列调度算法
2.5 死锁
2.5.1 死锁的概念
在并发环境下,各进程因竞争资源而造成的一种互相等待对方手里的资源,导致各进程都阻塞,都无法向前推进的现象,就是“死锁”。发生死锁后若无外力干涉,这些进程都将无法向前推进。
2.5.1.1 死锁、饥饿、死循环的区别
死锁:各进程互相等待对方手里的资源,导致各进程都阻塞,无法向前推进的现象。
饥饿:由于长期得不到想要的资源,某进程无法向前推进的现象。比如:在短进程优先(SPF)算法中,若有源源不断的短进程到来,则长进程将一直得不到处理机,从而发生长进程“饥饿”。
死循环:某进程执行过程中一直跳不出某个循环的现象。有时是因为程序逻辑bug导致的,有时是程序员故意设计的。
2.5.1.2 死锁的形成原因
-
对系统资源的竞争。各进程对不可剥夺的资源(如打印机)的竞争可能引起死锁,对可剥夺的资源(CPU)的竞争是不会引起死锁的。
-
进程推进顺序非法。请求和释放资源的顺序不当,也同样会导致死锁。例如,并发执行的进程P1、P2分别申请并占有了资源R1、R2,之后进程P1又紧接着申请资源R2,而进程P2又申请资源R1,两者会因为申请的资源被对方占有而阻塞,从而发生死锁。
-
信号量的使用不当也会造成死锁。如生产者-消费者问题中,如果实现互斥的P操作在实现同步的P操作之前,就有可能导致死锁。(可以把互斥信号量、同步信号量也看做是一种抽象的系统资源)
总之,对不可剥夺资源的不合理分配,可能导致死锁。
2.5.1.3 死锁产生的必要条件
产生死锁必须同时满足一下四个条件,只要其中任一条件不成立,死锁就不会发生。
-
互斥条件:只有对必须互斥使用的资源的争抢才会导致死锁(如哲学家的筷子、打印机设备)。像内存、扬声器这样可以同时让多个进程使用的资源是不会导致死锁的(因为进程不用阻塞等待这种资源)。
-
不剥夺条件:进程所获得的资源在未使用完之前,不能由其他进程强行夺走,只能主动释放。
-
请求和保持条件:进程已经保持了至少一个资源,但又提出了新的资源请求,而该资源又被其他进程占有,此时请求进程被阻塞,但又对自己已有的资源保持不放。
-
循环等待条件:存在一种进程资源的循环等待链,链中的每一个进程已获得的资源同时被下一个进程所请求。
注意!发生死锁时一定有循环等待,但是发生循环等待时未必死锁(循环等待是死锁的必要不充分条件)
如果同类资源数大于1,则即使有循环等待,也未必发生死锁。但如果系统中每类资源都只有一个,那循环等待就是死锁的充分必要
2.5.1.4 死锁的处理策略
- 预防死锁。破坏死锁产生的四个必要条件中的一个或几个。
- 避免死锁。用某种方法防止系统进入不安全状态,从而避免死锁(银行家算法)
- 死锁的检测和解除。允许死锁的发生,不过操作系统会负责检测出死锁的发生,然后采取某种措施解除死锁。
2.5.2 死锁预防
-
破坏互斥条件
互斥条件:只有对必须互斥使用的资源的争抢才会导致死锁。
如果把只能互斥使用的资源改造为允许共享使用,则系统不会进入死锁状态。比如:SPOOLing技术。操作系统可以采用SPOOLing技术把独占设备在逻辑上改造成共享设备。比如,用SPOOLing技术将打印机改造为共享设备
缺点:并不是所有的资源都可以改造成可共享使用的资源。并且为了系统安全,很多地方还必须保护这种互斥性。因此,很多时候都无法破坏互斥条件。
-
破环不剥夺条件
不剥夺条件:进程所获得的资源在未使用完之前,不能由其他进程强行夺走,只能主动释放。
方案一:当某个进程请求新的资源得不到满足时,它必须立即释放保持的所有资源,待以后需要时再重新申请。也就是说,即使某些资源尚未使用完,也需要主动释放,从而破坏了不可剥夺条件。
方案二:当某个进程需要的资源被其他进程所占有的时候,可以由操作系统协助,将想要的资源强行剥夺。这种方式一般需要考虑各进程的优先级(比如:剥夺调度方式,就是将处理机资源强行剥夺给优先级更高的进程使用)
缺点:
- 实现起来比较复杂。
- 释放已获得的资源可能造成前一阶段工作的失效。因此这种方法一般只适用于易保存和恢复状态的资源,如CPU。
- 反复地申请和释放资源会增加系统开销,降低系统吞吐量。
- 若采用方案一,意味着只要暂时得不到某个资源,之前获得的那些资源就都需要放弃,以后再重新申请。如果一直发生这样的情况,就会导致进程饥饿。
-
破坏请求和保持条件
请求和保持条件:进程已经保持了至少一个资源,但又提出了新的资源请求,而该资源又被其他进程占有,此时请求进程被阻塞,但又对自己已有的资源保持不放。
可以采用静态分配方法,即进程在运行前一次申请完它所需要的全部资源,在它的资源未满足前,不让它投入运行。一旦投入运行后,这些资源就一直归它所有,该进程就不会再请求别的任何资源了。
缺点:有些资源可能只需要用很短的时间,因此如果进程的整个运行期间都一直保持着所有资源,就会造成严重的资源浪费,资源利用率极低。另外,该策略也有可能导致某些进程饥饿。
-
破坏循环等待条件
循环等待条件:存在一种进程资源的循环等待链,链中的每一个进程已获得的资源同时被下一个进程所请求。
可采用顺序资源分配法。首先给系统中的资源编号,规定每个进程必须按编号递增的顺序请求资源,同类资源(即编号相同的资源)一次申请完。
原理分析:一个进程只有已占有小编号的资源时,才有资格申请更大编号的资源。按此规则,已持有大编号资源的进程不可能逆向地回来申请小编号的资源,从而就不会产生循环等待的现象。
缺点:
- 不方便增加新的设备,因为可能需要重新分配所有的编号;
- 进程实际使用资源的顺序可能和编号递增顺序不一致,会导致资源浪费;
- 必须按规定次序申请资源,用户编程麻烦
2.5.3 死锁避免
2.5.3.1 安全序列
所谓安全序列,就是指如果系统按照这种序列分配资源,则每个进程都能顺利完成。只要能找出一个安全序列,系统就是安全状态。当然,安全序列可能有多个。
如果分配了资源之后,系统中找不出任何一个安全序列,系统就进入了不安全状态。这就意味着之后可能所有进程都无法顺利的执行下去。当然,如果有进程提前归还了一些资源,那系统也有可能重新回到安全状态,不过我们在分配资源之前总是要考虑到最坏的情况。
如果系统处于安全状态,就一定不会发生死锁。如果系统进入不安全状态,就可能发生死锁(处于不安全状态未必就是发生了死锁,但发生死锁时一定是在不安全状态)
因此可以在资源分配之前预先判断这次分配是否会导致系统进入不安全状态,以此决定是否答应资源分配请求。这也是“银行家算法”的核心思想。
2.5.3.2 银行家算法
核心思想:在进程提出资源申请时,先预判此次分配是否会导致系统进入不安全状态。如果会进入不安全状态,就暂时不答应这次请求,让该进程先阻塞等待。
数据结构:
-
长度为m的一维数组Available表示还有多少可用资源
-
n*m 矩阵Max表示各进程对资源的最大需求数
-
n*m矩阵Allocation表示已经给各进程分配了多少资源
-
Max–Allocation=Need矩阵表示各进程最多还需要多少资源
-
用长度为m的一位数组Request表示进程此次申请的各种资源数
银行家算法步骤:
- 检查此次申请是否超过了之前声明的最大需求数
- 检查此时系统剩余的可用资源是否还能满足这次请求
- 试探着分配,更改各数据结构
- 用安全性算法检查此次分配是否会导致系统进入不安全状态
安全性算法步骤:
-
检查当前的剩余可用资源是否能满足某个进程的最大需求,如果可以,就把该进程加入安全序列,并把该进程持有的资源全部回收。
-
不断重复上述过程,看最终是否能让所有进程都加入安全序列。
2.5.4 死锁检测和解除
2.5.4.1 死锁检测
为了能对系统是否已发生了死锁进行检测,必须:
- 用某种数据结构来保存资源的请求和分配信息;
- 提供一种算法,利用上述信息来检测系统是否已进入死锁状态。
如果系统中剩余的可用资源数足够满足进程的需求,那么这个进程暂时是不会阻塞的,可以顺利地执行下去。如果这个进程执行结束了把资源归还系统,就可能使某些正在等待资源的进程被激活,并顺利地执行下去。相应的,这些被激活的进程执行完了之后又会归还一些资源,这样可能又会激活另外一些阻塞的进程…
如果按上述过程分析,最终能消除所有边,就称这个图是可完全简化的。此时一定没有发生死锁(相当于能找到一个安全序列)
如果最终不能消除所有边,那么此时就是发生了死锁。
最终还连着边的那些进程就是处于死锁状态的进程。
检测死锁的算法:
- 在资源分配图中,找出既不阻塞又不是孤点的进程Pi~~(即找出一条有向边与它相连,且该有向边对应资源的申请数量小于等于系统中已有空闲资源数量。如下图中,R1没有空闲资源,R2有一个空闲资源。若所有的连接该进程的边均满足上述条件,则这个进程能继续运行直至完成,然后释放它所占有的所有资源)~~。消去它所有的请求边和分配变,使之称为孤立的结点。在下图中,P1是满足这一条件的进程结点,于是将P1的所有边消去。
- 进程Pi所释放的资源,可以唤醒某些因等待这些资源而阻塞的进程,原来的阻塞进程可能变为非阻塞进程。在下图中,P2就满足这样的条件。根据1)中的方法进行一系列简化后,若能消去途中所有的边,则称该图是可完全简化的。
死锁定理:如果某时刻系统的资源分配图是不可完全简化的,那么此时系统死锁。
2.5.4.2 死锁解除
一旦检测出死锁的发生,就应该立即解除死锁。
注意:并不是系统中所有的进程都是死锁状态,用死锁检测算法化简资源分配图后,还连着边的那些进程就是死锁进程。
解除死锁的主要方法有:
- 资源剥夺法。挂起(暂时放到外存上)某些死锁进程,并抢占它的资源,将这些资源分配给其他的死锁进程。但是应防止被挂起的进程长时间得不到资源而饥饿。
- 撤销进程法(或称终止进程法)。强制撤销部分、甚至全部死锁进程,并剥夺这些进程的资源。这种方式的优点是实现简单,但所付出的代价可能会很大。因为有些进程可能已经运行了很长时间,已经接近结束了,一旦被终止可谓功亏一篑,以后还得从头再来。
- 进程回退法。让一个或多个死锁进程回退到足以避免死锁的地步。这就要求系统要记录进程的历史信息,设置还原点。
三、内存管理
- 程序装入与链接, 内存保护;
- 分区管理, 交换与覆盖技术;
- 分页管理方式, 分段管理方式,段页式管理方式;
- 虚拟内存基本概念和局部性原理, 缺页中断, 地址变换过程;
- 页面置换算法:最佳置换算法(OPT)、先进先出置换算法(FIFO)、最近最少使用置换算法(LRU)、时钟置换算法(CLOCK), 工作集模型。
3.1 内存基础
3.1.1 内存管理概念
内存可存放数据。程序执行前需要先放到内存中才能被CPU处理——缓和CPU与硬盘之间的速度矛盾。
思考:如何区分各个程序的数据是放在什么地方的呢?
逻辑地址:程序经过编译、链接后生成的指令中指明的是逻辑地址(相对地址),即:相对于进程的起始地址而言的地址
物理地址:指令中的地址参数直接给出了变量x的实际存放地址(物理地址)
地址重定位:为了使编程更方便,程序员写程序时应该只需要关注指令、数据的逻辑地址。而逻辑地址到物理地址的转换(这个过程称为地址重定位——三种装入方式)应该由操作系统负责,这样就保证了程序员写程序时不需要关注物理内存的实际情况。
编译:由编译程序将用户源代码编译成若干个目标模块(编译就是把高级语言翻译为机器语言)
链接:由链接程序将编译后形成的一组目标模块,以及所需库函数链接在一起,形成一个完整的装入模块
装入(装载):由装入程序将装入模块装入内存运行
3.1.2 程序装入与链接
绝对装入:在编译时,如果知道程序将放到内存中的哪个位置,编译程序将产生绝对地址的目标代码。装入程序按照装入模块中的地址,将程序和数据装入内存。
绝对装入只适用于单道程序环境。
静态重定位:又称可重定位装入。编译、链接后的装入模块的地址都是从0开始的,指令中使用的地址、数据存放的地址都是相对于起始地址而言的逻辑地址。可根据内存的当前情况,将装入模块装入到内存的适当位置。装入时对地址进行“重定位”,将逻辑地址变换为物理地址(地址变换是在装入时一次完成的)
静态重定位的特点是在一个作业装入内存时,必须分配其要求的全部内存空间,如果没有足够的内存,就不能装入该作业。作业一旦进入内存后,在运行期间就不能再移动,也不能再申请内存
动态重定位:又称动态运行时装入。编译、链接后的装入模块的地址都是从0开始的。装入程序把装入模块装入内存后,并不会立即把逻辑地址转换为物理地址,而是把地址转换推迟到程序真正要执行时才进行。因此装入内存后所有的地址依然是逻辑地址。这种方式需要一个重定位寄存器的支持。
链接的三种方式:
- 静态链接:在程序运行之前,先将各目标模块及它们所需的库函数连接成一个完整的可执行文件(装入模块),之后不再拆开。
-
装入时动态链接:将各目标模块装入内存时,边装入边链接的链接方式。
-
运行时动态链接:在程序执行中需要该目标模块时,才对它进行链接。其优点是便于修改和更新,便于实现对目标模块的共享。
3.1.3 内存保护
操作系统需要提供内存保护功能。保证各进程在各自存储空间内运行,互不干扰。
内存保护可采取两种方法:
方法一:在CPU中设置一对上、下限寄存器,存放进程的上、下限地址。进程的指令要访问某个地址时,CPU检查是否越界。
方法二:采用重定位寄存器(又称基址寄存器)和界地址寄存器(又称限长寄存器)进行越界检查。重定位寄存器中存放的是进程的起始物理地址。界地址寄存器中存放的是进程的最大逻辑地址。
3.2 内存空间的分配与回收
连续分配:指为用户进程分配的必须是一个连续的内存空间。
非连续分配:为用户进程分配的可以是一些分散的内存空间。
3.2.1 连续分配管理方式
3.2.1.1 单一连续分配
在单一连续分配方式中,内存被分为系统区和用户区。系统区通常位于内存的低地址部分,用于存放操作系统相关数据;用户区用于存放用户进程相关数据。内存中只能有一道用户程序,用户程序独占整个用户区空间。
优点:实现简单;无外部碎片;可以采用覆盖技术扩充内存;不一定需要采取内存保护(eg:早期的PC操作系统MS-DOS)。
缺点:只能用于单用户、单任务的操作系统中;有内部碎片;存储器利用率极低。
内部碎片:分配给某进程的内存区域中,如果有些部分没有用上,就是“内部碎片”。
外部碎片:是指内存中的某些空闲分区由于太小而难以利用。
3.2.1.2 固定分区分配
20世纪60年代出现了支持多道程序的系统,为了能在内存中装入多道程序,且这些程序之间又不会相互干扰,于是将整个用户空间划分为若干个固定大小的分区,在每个分区中只装入一道作业,这样就形成了最早的、最简单的一种可运行多道程序的内存管理方式。
分区大小相等:缺乏灵活性,但是很适合用于用一台计算机控制多个相同对象的场合(比如:钢铁厂有n个相同的炼钢炉,就可把内存分为n个大小相等的区域存放n个炼钢炉控制程序)
分区大小不等:增加了灵活性,可以满足不同大小的进程需求。根据常在系统中运行的作业大小情况进行划分(比如:划分多个小分区、适量中等分区、少量大分区)
操作系统需要建立一个数据结构——分区说明表,来实现各个分区的分配与回收。每个表项对应一个分区,通常按分区大小排列。每个表项包括对应分区的大小、起始地址、状态(是否已分配)
优点:实现简单,无外部碎片。
缺点:a.当用户程序太大时,可能所有的分区都不能满足需求,此时不得不采用覆盖技术来解决,但这又会降低性能;b.会产生内部碎片,内存利用率低。
3.2.1.3 动态分区分配
动态分区分配又称为可变分区分配。这种分配方式不会预先划分内存分区,而是在进程装入内存时,根据进程的大小动态地建立分区,并使分区的大小正好适合进程的需要。因此系统分区的大小和数目是可变的。(eg:假设某计算机内存大小为64MB,系统区8MB,用户区共56MB…)
- 系统要用什么样的数据结构记录内存的使用情况?
- 当很多个空闲分区都能满足需求时,应该选择哪个分区进行分配?
把一个新作业装入内存时,须按照一定的动态分区分配算法,从空闲分区表(或空闲分区链)中选出一个分区分配给该作业。
- 如何进行分区的分配与回收操作?
相邻的分区要合并,不相邻的分区新增一个表项。
动态分区分配没有内部碎片,但是有外部碎片。
可以通过紧凑(拼凑,Compaction)技术来解决外部碎片。
3.2.2 动态分区分配算法
3.2.2.1 首次适应算法
算法思想:每次都从低地址开始查找,找到第一个能满足大小的空闲分区。
如何实现:空闲分区以地址递增的次序排列。每次分配内存时顺序查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲分
3.2.2.2 最佳适用算法
算法思想:由于动态分区分配是一种连续分配方式,为各进程分配的空间必须是连续的一整片区域。因此为了保证当“大进程”到来时能有连续的大片空间,可以尽可能多地留下大片的空闲区,即,优先使用更小的空闲区。
如何实现:空闲分区按容量递增次序链接。每次分配内存时顺序查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲分区。
缺点:每次都选最小的分区进行分配,会留下越来越多的、很小的、难以利用的内存块。因此这种方法会产生很多的外部碎片。
3.2.2.3 最坏适应算法
算法思想:为了解决最佳适应算法的问题——即留下太多难以利用的小碎片,可以在每次分配时优先使用最大的连续空闲区,这样分配后剩余的空闲区就不会太小,更方便使用。
如何实现:空闲分区按容量递减次序链接。每次分配内存时顺序查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲分区。
缺点:每次都选最大的分区进行分配,虽然可以让分配后留下的空闲区更大,更可用,但是这种方式会导致较大的连续空闲区被迅速用完。如果之后有“大进程”到达,就没有内存分区可用了。
3.2.2.4 邻近适应算法
算法思想:首次适应算法每次都从链头开始查找的。这可能会导致低地址部分出现很多小的空闲分区,而每次分配查找时,都要经过这些分区,因此也增加了查找的开销。如果每次都从上次查找结束的位置开始检索,就能解决上述问题。
如何实现:空闲分区以地址递增的顺序排列(可排成一个循环链表)。每次分配内存时从上次查找结束的位置开始查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲分区。
缺点:邻近适应算法的规则可能会导致无论低地址、高地址部分的空闲分区都有相同的概率被使用,也就导致了高地址部分的大分区更可能被使用,划分为小分区,最后导致无大分区可用(最大适应算法的缺点)
3.2.3 非连续分配管理方式
3.2.3.1 分页管理方式
将内存空间分为一个个大小相等的分区,每个分区就是一个“页框”(页框=页帧=内存块=物理块=物理页面)。每个页框有一个编号,即“页框号”(页框号=页帧号=内存块号=物理块号=物理页号),页框号从0开始。
将进程的逻辑地址空间也分为与页框大小相等的一个个部分,每个部分称为一个**“页”或“页面”。每个页面也有一个编号,即“页号”**,页号也是从0开始。
操作系统以页框为单位为各个进程分配内存空间。进程的每个页面分别放入一个页框中。也就是说,进程的页面与内存的页框有一一对应的关系。各个页面不必连续存放,可以放到不相邻的各个页框中。
(注:进程的最后一个页面可能没有一个页框那么大。也就是说,分页存储有可能产生内部碎片,因此页框不能太大,否则可能产生过大的内部碎片造成浪费)
页表——进程的数据结构:为了能知道进程的每个页面在内存中存放的位置,操作系统要为每个进程建立一张页表。
注:页表通常存在PCB(进程控制块)中
页表的特点:
- 一个进程对应一张页表
- 进程的每个页面对应一个页表项
- 每个页表项由“页号”和“块号”组成
- 页表记录进程页面和实际存放的内存块之间的映射关系
- 每个页表项的长度是相同的
-
问题一:每个页表项占多少字节?
页表项连续存放,因此页号可以是隐含的,即页号不占用存储空间(类比数组)
计算机中内存块的数量=页表项中块号至少占多少字节=页表项占多少字节
注意:页表记录的只是内存块号,而不是内存块的起始地址!i号内存块的起始地址=i*内存块大小
逻辑地址结构:分页存储管理的逻辑地址结构如下列所示:
-
如果有K位表示“页内偏移量”,则说明该系统中一个页面的大小是2h个内存单元
-
如果有M位表示“页号”,则说明在该系统中,一个进程最多允许有2M个页面
页面大小——页内偏移量位数——逻辑地址结构
页号=逻辑地址/页面大小(取除法的整数部分)
页内偏移量=逻辑地址%页面大小(取除法的余数部分)
- 问题二:如何实现地址的转换
- 确定逻辑地址A对应的“页号”P
- 找到P号页面在内存中的起始地址(需要查页表)
- 确定逻辑地址A的“页内偏移量”W
逻辑地址A对应的物理地址=P号页面在内存中的起始地址+页内偏移量W
- 总结:页面大小刚好是2的整数幂有什么好处?
- 逻辑地址的拆分更加迅速——如果每个页面大小为2KB,用二进制数表示逻辑地址,则末尾K位即为页内偏移量,其余部分就是页号。因此,如果让每个页面的大小为2的整数幂,计算机硬件就可以很方便地得出一个逻辑地址对应的页号和页内偏移量,而无需进行除法运算,从而提升了运行速度。
- 物理地址的计算更加迅速——根据逻辑地址得到页号,根据页号查询页表从而找到页面存放的内存块号,将二进制表示的内存块号和页内偏移量拼接起来,就可以得到最终的物理地址。
==基本地址变换机构==可以借助进程的页表将逻辑地址转换为物理地址。
通常会在系统中设置一个页表寄存器(PTR),存放页表在内存中的起始地址F和页表长度M。进程未执行时,页表的始址和页表长度放在**进程控制块(PCB)**中,当进程被调度时,操作系统内核会把它们放到页表寄存器中。
页表长度指的是这个页表中总共有几个页表项,即总共有几个页;
页表项长度指的是每个页表项占多大的存储空间。
页面大小指的是一个页面占多大的存储空间;
地址转换过程
- 计算页号P和页内偏移量W
- 比较页号P和页表长度M,若P≥M,则产生越界中断,否则继续执行。
- 页表中页号P对应的页表项地址=页表起始地址F + 页号P * 页表项长度,取出该页表项内容b,即为内存块号。
- 计算E = b * L + W,用得到的物理地址E去访存。
- 访问物理内存对应的内存单元。
快表,又称联想寄存器(TLB,translation lookaside buffer),是一种访问速度比内存快很多的高速缓存(TLB不是内存!),用来存放最近访问的页表项的副本,可以加速地址变换的速度。与此对应,内存中的页表常称为慢表。
引入快表后,地址的变换过程
-
CPU给出逻辑地址,由某个硬件算得页号、页内偏移量,将页号与快表中的所有页号进行比较。
-
如果找到匹配的页号,说明要访问的页表项在快表中有副本,则直接从中取出该页对应的内存块号,再将内存块号与页内偏移量拼接形成物理地址,最后,访问该物理地址对应的内存单元。因此,若快表命中,则访问某个逻辑地址仅需一次访存即可。
-
如果没有找到匹配的页号,则需要访问内存中的页表,找到对应页表项,得到页面存放的内存块号,再将内存块号与页内偏移量拼接形成物理地址,最后,访问该物理地址对应的内存单元。因此,若快表未命中,则访问某个逻辑地址需要两次访存(注意:在找到页表项后,应同时将其存入快表,以便后面可能的再次访问。但若快表已满,则必须按照一定的算法对旧的页表项进行替换)
由于查询快表的速度比查询页表的速度快很多,因此只要快命中,就可以节省很多时间。
因为局部性原理,一般来说快表的命中率可以达到90%以上。
==两级页表:==把页表再分页并离散存储,然后再建立一张页表记录页表各个部分的存放位置,称为页目录表,或称外层页表,或称顶层页表
单级页表存在的问题
- 所有的页表项必须连续存放,页面过大时需要很大的连续空间
- 在一段时间内并非所有页面都用得到,因此没必要让整个页面常驻内存
需要注意的细节
-
若分为两级页表后,页表依然很长,则可以采用更多级页表,一般来说各级页表的大小不能超过一个页面
-
两级页表的访存次数分析(假设没有快表机构)
-
第一次访存:访问内存中的页目录表
-
第二次访存:访问内存中的二级页表
-
第三次访存:访问目标内存单元
N级页表访问一个逻辑地址需要N+1次访存
-
3.2.3.2 分段管理方式
进程的地址空间:按照程序自身的逻辑关系划分为若干个段,每个段都有一个段名(在低级语言中,程序员使用段名来编程),每段从0开始编址
内存分配规则:以段为单位进行分配,每个段在内存中占据连续空间,但各段之间可以不相邻。
由于是按逻辑功能模块划分,用户编程更方便,程序的可读性更高。
分段系统的==逻辑地址结构==由段号(段名)和段内地址(段内偏移量)所组成。如:
-
段号的位数决定了每个进程最多可以分几个段
-
段内地址位数决定了每个段的最大长度是多少
- 每个段对应一个段表项,其中记录了该段在内存中的起始位置(又称“基址”)和段的长度。
- 各个段表项的长度是相同的。由于段表项长度相同,因此段号可以是隐含的,不占存储空间。若段表存放的起始地址为M,则K号段对应的段表项存放的地址为M+K*段表项大小。
段式管理方式访问内存过程
分页、分段管理的对比
页是信息的物理单位。分页的主要目的是为了实现离散分配,提高内存利用率。分页仅仅是系统管理上的需要,完全是系统行为,对用户是不可见的。
段是信息的逻辑单位。分段的主要目的是更好地满足用户需求。一个段通常包含着一组属于一个逻辑模块的信息。分段对用户是可见的,用户编程时需要显式地给出段名。
页的大小固定且由系统决定。段的长度却不固定,决定于用户编写的程序。
分页的用户进程地址空间是一维的,程序员只需给出一个记忆符即可表示一个地址。
分段的用户进程地址空间是二维的,程序员在标识一个地址时,既要给出段名,也要给出段内地址。
分段比分页更容易实现信息的共享和保护。不能被修改的代码称为纯代码或可重入代码(不属于临界资源),这样的代码是可以共享的
访问一个逻辑地址需要几次访存?
分页(单级页表):第一次访存——查内存中的页表,第二次访存——访问目标内存单元。总共两次访存
分段:第一次访存——查内存中的段表,第二次访存——访问目标内存单元。总共两次访存与分页系统类似,分段系统中也可以引入快表机构,将近期访问过的段表项放到快表中,这样可以少一次访问,加快地址变换速度
3.2.3.3 段页式管理方式
分页、分段管理方式的优缺点对比
**段页式系统的逻辑地址结构由段号、页号、页内地址(页内偏移量)**组成。如:
-
段号的位数决定了每个进程最多可以分几个段
-
页号位数决定了每个段最大有多少页
-
页内偏移量决定了页面大小、内存块大小是多少
每个段对应一个段表项,每个段表项由段号、页表长度、页表存放块号(页表起始地址)组成。每个段表项长度相等,段号是隐含的。
每个页面对应一个页表项,每个页表项由页号、页面存放的内存块号组成。每个页表项长度相等,页号是隐含的。
3.3 内存空间的扩充
内存空间的扩充主要包括覆盖技术、交换技术和虚拟存储技术。
3.3.1 覆盖技术
覆盖技术,用来解决**“程序大小超过物理内存总和”的问题**
覆盖技术的思想:将程序分为多个段(多个模块)。常用的段常驻内存,不常用的段在需要时调入内存。
内存中分为一个“固定区”和若干个“覆盖区”。
-
需要常驻内存的段放在“固定区”中,调入后就不再调出(除非运行结束)
-
不常用的段放在“覆盖区”,需要用到时调入内存,用不到时调出内存
必须由程序员声明覆盖结构,操作系统完成自动覆盖。缺点:对用户不透明,增加了用户编程负担。覆盖技术只用于早期的操作系统中,现在已成为历史。
3.3.2 交换技术
交换(对换)技术的设计思想:内存空间紧张时,系统将内存中某些进程暂时换出外存,把外存中某些已具备运行条件的进程换入内存(进程在内存与磁盘间动态调度)
暂时换出外存等待的进程状态为挂起状态(挂起态,suspend)
挂起态又可以进一步细分为就绪挂起、阻塞挂起两种状态
-
应该在外存(磁盘)的什么位置保存被换出的进程?
具有对换功能的操作系统中,通常把磁盘空间分为文件区和对换区两部分。
-
文件区主要用于存放文件,主要追求存储空间的利用率,因此对文件区空间的管理采用离散分配方式;
-
对换区空间只占磁盘空间的小部分,被换出的进程数据就存放在对换区。由于对换的速度直接影响到系统的整体速度,因此对换区空间的管理主要追求换入换出速度,因此通常对换区采用连续分配方式(学过文件管理章节后即可理解)。总之,对换区的I/O速度比文件区的更快。
-
-
什么时候应该交换?
交换通常在许多进程运行且内存吃紧时进行,而系统负荷降低就暂停。例如:在发现许多进程运行时经常发生缺页,就说明内存紧张,此时可以换出一些进程;如果缺页率明显下降,就可以暂停换出。
-
应该换出哪些进程?
可优先换出阻塞进程;可换出优先级低的进程;为了防止优先级低的进程在被调入内存后很快又被换出,有的系统还会考虑进程在内存的驻留时间…(注意:PCB会常驻内存,不会被换出外存)
3.3.3 虚拟存储技术
3.3.3.1 虚拟内存基本概念
传统存储管理方式的特征、缺点:很多暂时用不到的数据也会长期占用内存,导致内存利用率不高,可用虚拟存储技术解决问题。
- 一次性:作业必须一次性全部装入内存后才能开始运行。这会造成两个问题:
- 作业很大时,不能全部装入内存,导致大作业无法运行;
- 当大量作业要求运行时,由于内存无法容纳所有作业,因此只有少量作业能运行,导致多道程序并发度下降。
- 驻留性:一旦作业被装入内存,就会一直驻留在内存中,直至作业运行结束。事实上,在一个时间段内,只需要访问作业的一小部分数据即可正常运行,这就导致了内存中会驻留大量的、暂时用不到的数据,浪费了宝贵的内存资源。
虚拟内存局部性原理
时间局部性:如果执行了程序中的某条指令,那么不久后这条指令很有可能再次执行;如果某个数据被访问过,不久之后该数据很可能再次被访问。(因为程序中存在大量的循环)
空间局部性:一旦程序访问了某个存储单元,在不久之后,其附近的存储单元也很有可能被访问。(因为很多数据在内存中都是连续存放的,并且程序的指令也是顺序地在内存中存放的)
基于局部性原理,在程序装入时,可以将程序中很快会用到的部分装入内存,暂时用不到的部分留在外存,就可以让程序开始执行。
在程序执行过程中,当所访问的信息不在内存时,由操作系统负责将所需信息从外存调入内存,然后继续执行程序。
若内存空间不够,由操作系统负责将内存中暂时用不到的信息换出到外存。
在操作系统的管理下,在用户看来似乎有一个比实际内存大得多的内存,这就是虚拟内存。
虚拟内存有一下三个主要特征:
- 多次性:无需在作业运行时一次性全部装入内存,而是允许被分成多次调入内存。
- 对换性:在作业运行时无需一直常驻内存,而是允许在作业运行过程中,将作业换入、换出。
- 虚拟性:从逻辑上扩充了内存的容量,使用户看到的内存容量,远大于实际的容量。
如何实现虚拟内存技术
虚拟内存技术,允许一个作业分多次调入内存。如果采用连续分配方式,会不方便实现。因此,虚拟内存的实现需要建立在离散分配的内存管理方式基础上。
主要区别:在程序执行过程中,当所访问的信息不在内存时,由操作系统负责将所需信息从外存调入内存,然后继续执行程序。若内存空间不够,由操作系统负责将内存中暂时用不到的信息换出到外存。
3.3.3.2 请求分页管理方式
页表机制
- 基本分页管理相比,请求分页管理中,为了实现“请求调页”,操作系统需要知道每个页面是否已经调入内存;如果还没调入,那么也需要知道该页面在外存中存放的位置。
- 当内存空间不够时,要实现“页面置换”,操作系统需要通过某些指标来决定到底换出哪个页面;有的页面没有被修改过,就不用再浪费时间写回外存。有的页面修改过,就需要将外存中的旧数据覆盖,因此,操作系统也需要记录各个页面是否被修改的信息。
缺页中断
缺页中断是因为当前执行的指令想要访问的目标页面未调入内存而产生的,因此属于内中断一条指令在执行期间,可能产生多次缺页中断。(如:copyAtoB,即将逻辑地址A中的数据复制到逻辑地址B,而A、B属于不同的页面,则有可能产生两次中断)
地址变换机构
请求分页存储管理与基本分页存储管理的主要区别:
- 在程序执行过程中,当所访问的信息不在内存时,由操作系统负责将所需信息从外存调入内存,然后继续执行程序。——调页功能
- 若内存空间不够,由操作系统负责将内存中暂时用不到的信息换出到外存。——页面置换
新增步骤:
- 请求调页(查到页表项时进行判断)
- 页面置换(需要调入页面,但没有空闲内存块时进行)
- 需要修改请求页表中新增的表项
3.3.3.3 页面置换算法
页面的换入、换出需要磁盘I/O,会有较大的开销,因此好的页面置换算法应该追求更少的缺页率。
3.3.3.3.1 最佳置换算法
最佳置换算法(OPT,Optimal):每次选择淘汰的页面将是以后永不使用,或者在最长时间内不再被访问的页面,这样可以保证最低的缺页率。
最佳置换算法可以保证最低的缺页率,但实际上,只有在进程执行的过程中才能知道接下来会访问到的是哪个页面。操作系统无法提前预判页面访问序列。因此,最佳置换算法是无法实现的。
3.3.3.3.2 先进先出置换算法
先进先出置换算法(FIFO):每次选择淘汰的页面是最早进入内存的页面。
实现方法:把调入内存的页面根据调入的先后顺序排成一个队列,需要换出页面时选择队头页面即可。队列的最大长度取决于系统为进程分配了多少个内存块。
Belady异常——当为进程分配的物理块数增大时,缺页次数不减反增的异常现象。
只有FIFO算法会产生Belady异常。另外,FIFO算法虽然实现简单,但是该算法与进程实际运行时的规律不适应,因为先进入的页面也有可能最经常被访问。因此,算法性能很差。
3.3.3.3.3 最近最久未使用置换算法
最近最久未使用置换算法(LRU):每次淘汰的页面是最近最久未使用的页面。
实现方法:赋予每个页面对应的页表项中,用访问字段记录该页面自上次被访问以来所经历的时间t。当需要淘汰一个页面时,选择现有页面中t值最大的,即最近最久未使用的页面。
3.3.3.3.4 时钟置换算法
时钟置换算法是一种性能和开销较均衡的算法,又称CLOCK算法,或最近未用算法(NRU,NotRecentlyUsed)
简单的CLOCK算法实现方法:为每个页面设置一个访问位,再将内存中的页面都通过链接指针链接成一个循环队列。当某页被访问时,其访问位置为1。当需要淘汰一个页面时,只需检查页的访问位。如果是0,就选择该页换出;如果是1,则将它置为0,暂不换出,继续检查下一个页面,若第一轮扫描中所有页面都是1,则将这些页面的访问位依次置为0后,再进行第二轮扫描(第二轮扫描中一定会有访问位为0的页面,因此简单的CLOCK算法选择一个淘汰页面最多会经过两轮扫描)
3.3.3.3.5 改进型的时钟置换算法
简单的时钟置换算法仅考虑到一个页面最近是否被访问过。事实上,如果被淘汰的页面没有被修改过,就不需要执行I/O操作写回外存。只有被淘汰的页面被修改过时,才需要写回外存。
因此,除了考虑一个页面最近有没有被访问过之外,操作系统还应考虑页面有没有被修改过。在其他条件都相同时,应优先淘汰没有修改过的页面,避免I/O操作。这就是改进型的时钟置换算法的思想。修改位=0,表示页面没有被修改过;修改位=1,表示页面被修改过。
为方便讨论,用**(访问位,修改位)**的形式表示各页面状态。如(1,1)表示一个页面近期被访问过,且被修改过。
算法规则:将所有可能被置换的页面排成一个循环队列
- 第一轮:从当前位置开始扫描到第一个(0, 0)的帧用于替换。本轮扫描不修改任何标志位(没访问没修改)
- 第二轮:若第一轮扫描失败,则重新扫描,查找第一个(0, 1)的帧用于替换。本轮将所有扫描过的帧访问位设为0(没访问修改过)
- 第三轮:若第二轮扫描失败,则重新扫描,查找第一个(0, 0)的帧用于替换。本轮扫描不修改任何标志位(访问过没修改)
- 第四轮:若第三轮扫描失败,则重新扫描,查找第一个(0, 1)的帧用于替换。(访问过修改过)
由于第二轮已将所有帧的访问位设为0,因此经过第三轮、第四轮扫描一定会有一个帧被选中,因此改进型CLOCK置换算法选择一个淘汰页面最多会进行四轮扫描。
四、设备管理
- I/O控制方式:程序控制、中断、DMA、通道, 缓冲技术;
- 假脱机技术(SPOOLing); 设备驱动程序。
4.1 I/O设备基本概念
4.2 I/O控制方式
4.2.1 程序控制方式
-
完成一次读/写操作的流程(见上图,Keyword:轮询)
-
CPU干预的频率
很频繁,I/O操作开始之前、完成之后需要CPU介入,并且在等待I/O完成的过程中CPU需要不断地轮询检查。
-
数据传送的单位
每次读/写一个字
-
数据的流向
读操作(数据输入):I/O设备—>CPU—>内存
写操作(数据输出):内存—>CPU—>I/O设备
每个字的读/写都需要CPU的帮助
-
主要缺点和主要优点
优点:实现简单。在读/写指令之后,加上实现循环检查的一系列指令即可(因此才称为“程序直接控制方式”)
缺点:CPU和I/O设备只能串行工作,CPU需要一直轮询检查,长期处于“忙等”状态,CPU利用率极低。
4.2.2 中断方式
引入中断机制。由于I/O设备速度很慢,因此在CPU发出读/写命令后,可将等待I/O的进程阻塞,先切换到别的进程执行。当I/O完成后,控制器会向CPU发出一个中断信号,CPU检测到中断信号后,会保存当前进程的运行环境信息,转去执行中断处理程序处理该中断。处理中断的过程中,CPU从I/O控制器读一个字的数据传送到CPU寄存器,再写入主存。接着,CPU恢复等待I/O的进程(或其他进程)的运行环境,然后继续执行。
注意:
- CPU会在每个指令周期的末尾检查中断;
- 中断处理过程中需要保存、恢复进程的运行环境,这个过程是需要一定时间开销的。可见,如果中断发生的频率太高,也会降低系统性能。
-
完成一次读/写操作的流程(见右图,Keyword:中断)
-
CPU干预的频率
每次I/O操作开始之前、完成之后需要CPU介入。
等待I/O完成的过程中CPU可以切换到别的进程执行。
-
数据传送的单位
每次读/写一个字
-
数据的流向
读操作(数据输入):I/O设备—>CPU—>内存
写操作(数据输出):内存—>CPU—>I/O设备
-
主要缺点和主要优点
优点:与“程序直接控制方式”相比,在“中断驱动方式”中,I/O控制器会通过中断信号主动报告I/O已完成,CPU不再需要不停地轮询。CPU和I/O设备可并行工作,CPU利用率得到明显提升。
缺点:每个字在I/O设备与内存之间的传输,都需要经过CPU。而频繁的中断处理会消耗较多的CPU时间。
4.2.3 DMA控制方式
与“中断驱动方式”相比,DMA方式(Direct Memory Access,直接存储器存取。主要用于块设备的I/O控制)有这样几个改进:
- 数据的传送单位是“块”。不再是一个字、一个字的传送;
- 数据的流向是从设备直接放入内存,或者从内存直接到设备。不再需要CPU作为“快递小哥”。
- 仅在传送一个或多个数据块的开始和结束时,才需要CPU干预。
DR(DataRegister,数据寄存器):暂存从设备到内存,或从内存到设备的数据。
MAR(Memory Address Register,内存地址寄存器):在输入时,MAR表示数据应放到内存中的什么位置;输出时MAR表示要输出的数据放在内存中的什么位置。
DC(DataCounter,数据计数器):表示剩余要读/写的字节数。
CR(Command Register,命令/状态寄存器):用于存放CPU发来的I/O命令,或设备的状态信息。
-
完成一次读/写操作的流程(见上图)
-
CPU干预的频率
仅在传送一个或多个数据块的开始和结束时,才需要CPU干预。
-
数据传送的单位
每次读/写一个或多个块(注意:每次读写的只能是连续的多个块,且这些块读入内存后在内存中也必须是连续的)
-
数据的流向(不再需要经过CPU)
读操作(数据输入):I/O设备—>内存
写操作(数据输出):内存—>I/O设备
-
主要缺点和主要优点
优点:数据传输以“块”为单位,CPU介入频率进一步降低。数据的传输不再需要先经过CPU再写入内存,数据传输效率进一步增加。CPU和I/O设备的并行性得到提升。
缺点:CPU每发出一条I/O指令,只能读/写一个或多个连续的数据块。如果要读/写多个离散存储的数据块,或者要将数据分别写到不同的内存区域时,CPU要分别发出多条I/O指令,进行多次中断处理才能完成。
4.2.4 通道控制方式
通道:一种硬件,可以理解为是“弱鸡版的CPU”。通道可以识别并执行一系列通道指令
与CPU相比,通道可以执行的指令很单一,并且通道程序是放在主机内存中的,也就是说通道与CPU共享内存
-
完成一次读/写操作的流程(见右图)
-
CPU干预的频率
极低,通道会根据CPU的指示执行相应的通道程序,只有完成一组数据块的读/写后才需要发出中断信号,请求CPU干预。
-
数据传送的单位
每次读/写一组数据块
-
数据的流向(在通道的控制下进行)
读操作(数据输入):I/O设备—>内存
写操作(数据输出):内存—>I/O设备
-
主要缺点和主要优点
缺点:实现复杂,需要专门的通道硬件支持
优点:CPU、通道、I/O设备可并行工作,资源利用率很高。
4.3 缓冲技术
缓冲区是一个存储区域,可以由专门的硬件寄存器组成,也可利用内存作为缓冲区。
使用硬件作为缓冲区的成本较高,容量也较小,一般仅用在对速度要求非常高的场合(如存储器管理中所用的联想寄存器,由于对页表的访问频率极高,因此使用速度很快的联想寄存器来存放页表项的副本)
一般情况下,更多的是利用内存作为缓冲区,“设备独立性软件”的缓冲区管理就是要组织管理好这些缓冲区
- 单缓冲
假设某用户进程请求某种块设备读入若干块的数据。若采用单缓冲的策略,操作系统会在主存中为其分配一个缓冲区(若题目中没有特别说明,一个缓冲区的大小就是一个块)。
注意:
当缓冲区数据非空时,不能往缓冲区冲入数据,只能从缓冲区把数据传出;
当缓冲区为空时,可以往缓冲区冲入数据,但必须把缓冲区充满以后,才能从缓冲区把数据传出。
结论:采用单缓冲策略,处理一块数据平均耗时Max(C,T)+M
- 双缓冲
假设某用户进程请求某种块设备读入若干块的数据。若采用双缓冲的策略,操作系统会在主存中为其分配两个缓冲区(若题目中没有特别说明,一个缓冲区的大小就是一个块)
双缓冲题目中,假设初始状态为:工作区空,其中一个缓冲区满,另一个缓冲区空
结论:采用双缓冲策略,处理一个数据块的平均耗时为Max(T,C+M)
- 循环缓冲
将多个大小相等的缓冲区链接成一个循环队列。
注:以下图示中,橙色表示已充满数据的缓冲区,绿色表示空缓冲区。
- 缓冲池
缓冲池由系统中共用的缓冲区组成。这些缓冲区按使用状况可以分为:
-
空缓冲队列
-
装满输入数据的缓冲队列(输入队列)
-
装满输出数据的缓冲队列(输出队列)
另外,根据一个缓冲区在实际运算中扮演的功能不同,又设置了四种工作缓冲区:
- 用于收容输入数据的工作缓冲区(hin)
- 用于提取输入数据的工作缓冲区(sin)
- 用于收容输出数据的工作缓冲区(hout)
- 用于提取输出数据的工作缓冲区(sout)
4.4 假脱机技术
“假脱机技术”,又称**“SPOOLing技术”**是用软件的方式模拟脱机技术。SPOOLing系统的组成如下:
- **“输入井”**模拟脱机输入时的磁带,用于收容I/O设备输入的数据
- **“输出井”**模拟脱机输出时的磁带,用于收容用户进程输出的数据
- **“输入进程”**模拟脱机输入时的外围
- **“输出进程”**模拟脱机输出时的外围控制机
要实现SPOOLing技术,必须要有多道程序技术的支持。系统会建立“输入进程”和“输出进程“。
SPOOLing技术的应用
独占式设备——只允许各个进程串行使用的设备。一段时间内只能满足一个进程的请求。
共享设备——允许多个进程“同时”使用的设备(宏观上同时使用,微观上可能是交替使用)。可以同时满足多个进程的使用请求。
打印机是种“独占式设备”,但是可以用SPOOLing技术改造成“共享设备”
- 在磁盘输出井中为进程申请一个空闲缓冲区(也就是说,这个缓冲区是在磁盘上的),并将要打印的数据送入其中;
- 为用户进程申请一张空白的打印请求表,并将用户的打印请求填入表中(其实就是用来说明用户的打印数据存放位置等信息的),再将该表挂到假脱机文件队列上。
当打印机空闲时,输出进程会从文件队列的队头取出一张打印请求表,并根据表中的要求将要打印的数据从输出井传送到输出缓冲区,再输出到打印机进行打印。用这种方式可依次处理完全部的打印任务
SPOOLing技术可以把一台物理设备虚拟成逻辑上的多台设备,可将独占式设备改造成共享设备。
五、文件管理
- 文件与文件系统的基本概念, 组织方式, 文件控制块, 目录结构, 文件存取控制, 文件系统层次结构;
5.1 文件系统基础
5.1.1 文件概念
5.1.2 组织方式
按逻辑结构,文件可以分为无结构文件和有结构文件两种。
无结构文件:文件内部的数据就是一系列二进制流或字符流组成。又称“流式文件”。如:Windows操作系统中的.txt文件。
有结构文件:由一组相似的记录组成,又称“记录式文件”。每条记录又若干个数据项组成。如:数据库表文件。一般来说,每条记录有一个数据项可作为关键字。根据各条记录的长度(占用的存储空间)是否相等,又可分为定长记录和可变长记录两种。
顺序文件:文件中的记录一个接一个地顺序排列(逻辑上),记录可以是定长的或可变长的。各个记录在物理上可以顺序存储或链式存储。
索引表本身是定长记录的顺序文件。因此可以快速找到第i个记录对应的索引项。
可将关键字作为索引号内容,若按关键字顺序排列,则还可以支持按照关键字折半查找。
每当要增加/删除一个记录时,需要对索引表进行修改。由于索引文件有很快的检索速度,因此主要用于对信息处理的及时性要求比较高的场合。
另外,可以用不同的数据项建立多个索引表。如:学生信息表中,可用关键字“学号”建立一张索引表。也可用“姓名”建立一张索引表。这样就可以根据“姓名”快速地检索文件了。(Eg:SQL就支持根据某个数据项建立索引的功能)
索引顺序文件是索引文件和顺序文件思想的结合。索引顺序文件中,同样会为文件建立一张索引表,但不同的是:并不是每个记录对应一个索引表项,而是一组记录对应一个索引表项。
若一个顺序文件有10000个记录,则根据关键字检索文件,只能从头开始顺序查找(这里指的并不是定长记录、顺序结构的顺序文件),平均须查找5000个记录。
若采用索引顺序文件结构,可把10000个记录分为√10000=100组,每组100个记录。则需要先顺序查找索引表找到分组(共100个分组,因此索引表长度为100,平均需要查50次),找到分组后,再在分组中顺序查找记录(每个分组100个记录,因此平均需要查50次)。可见,采用索引顺序文件结构后,平均查找次数减少为50+50=100次。
5.1.3 文件控制块
文件控制块(FCB)是用来存放控制文件需要的各种信息的数据结构,FCB实现了文件名和文件之间的映射,使用户(用户程序)可以实现“按名存取”。一个“文件控制块(FCB)”就是一个文件目录项。
FCB中包含了文件的基本信息(文件名、物理地址、逻辑结构、物理结构等),存取控制信息(是否可读/可写、禁止访问的用户名单等),使用信息(如文件的建立时间、修改时间等)。最重要,最基本的还是文件名、文件存放的物理地址。
5.1.4 目录结构
- 绝对路径
用户(或用户进程)要访问某个文件时要用文件路径名标识文件,文件路径名是个字符串。各级目录之间用“/”隔开。从根目录出发的路径称为绝对路径。例如:自拍.jpg的绝对路径是“/照片/2015-08/自拍.jpg”
系统根据绝对路径一层一层地找到下一级目录。刚开始从外存读入根目录的目录表;找到“照片”目录的存放位置后,从外存读入对应的目录表;再找到“2015-08”目录的存放位置,再从外存读入对应目录表;最后才找到文件“自拍.jpg”的存放位置。整个过程需要3次读磁盘I/O操作。
- 当前目录/绝对路径
很多时候,用户会连续访问同一目录内的多个文件(比如:接连查看“2015-08”目录内的多个照片文件),显然,每次都从根目录开始查找,是很低效的。因此可以设置一个**“当前目录”**。
例如,此时已经打开了“照片”的目录文件,也就是说,这张目录表已调入内存,那么可以把它设置为“当前目录”。当用户想要访问某个文件时,可以使用从当前目录出发的“相对路径”。
在Linux中,“.”表示当前目录,因此如果“照片”是当前目录,则”自拍.jpg”的相对路径为:“./2015-08/自拍.jpg”。从当前路径出发,只需要查询内存中的“照片”目录表,即可知道”2015-08”目录表的存放位置,从外存调入该目录,即可知道“自拍.jpg”存放的位置了。
可见,引入**“当前目录”和“相对路径”**后,磁盘I/O的次数减少了。这就提升了访问文件的效率。
树形目录结构可以很方便地对文件进行分类,层次结构清晰,也能够更有效地进行文件的管理和保护。但是,树形结构不便于实现文件的共享。为此,提出了“无环图目录结构”。
可以用不同的文件名指向同一个文件,甚至可以指向同一个目录(共享同一目录下的所有内容)。
需要为每个共享结点设置一个共享计数器,用于记录此时有多少个地方在共享该结点。用户提出删除结点的请求时,只是删除该用户的FCB、并使共享计数器减1,并不会直接删除共享结点。
只有共享计数器减为0时,才删除结点。
注意:共享文件不同于复制文件。在共享文件中,由于各用户指向的是同一个文件,因此只要其中一个用户修改了文件数据,那么所有用户都可以看到文件数据的变化。
5.2 文件系统实现
5.2.1 文件系统层次结构
用一个例子来辅助记忆文件系统的层次结构:假设某用户请求删除文件“D:/工作目录/学生信息.xlsx”的最后100条记录。
- 用户需要通过操作系统提供的接口发出上述请求——用户接口
- 由于用户提供的是文件的存放路径,因此需要操作系统一层一层地查找目录,找到对应的目录项——文件目录系统
- 不同的用户对文件有不同的操作权限,因此为了保证安全,需要检查用户是否有访问权限——存取控制模块(存取控制验证层)
- 验证了用户的访问权限之后,需要把用户提供的“记录号”转变为对应的逻辑地址——逻辑文件系统与文件信息缓冲区
- 知道了目标记录对应的逻辑地址后,还需要转换成实际的物理地址——物理文件系统
- 要删除这条记录,必定要对磁盘设备发出请求——设备管理程序模块
- 删除这些记录后,会有一些盘块空闲,因此要将这些空闲盘块回收——辅助分配模块
5.2.2 文件存取控制
文件保护、操作权限
5.3 磁盘组织与管理
5.3.1 磁盘的结构
5.3.2 磁盘调度算法
5.3.2.1 一次读写磁盘时间
**寻找时间(寻道时间)**TS:在读/写数据前,将磁头移动到指定磁道所花的时间。
-
启动磁头臂是需要时间的。假设耗时为s;
-
移动磁头也是需要时间的。假设磁头匀速移动,每跨越一个磁道耗时为m,总共需要跨越n条磁道。则:
寻道时间TS=s+m*n
延迟时间TR:通过旋转磁盘,使磁头定位到目标扇区所需要的时间。设磁盘转速为r(单位:转/秒,或转/分),则
平均所需的延迟时间TR=(1/2)*(1/r)=1/2r
传输时间Tt:从磁盘读出或向磁盘写入数据所经历的时间,假设磁盘转速为r,此次读/写的字节数为b,每个磁道上的字节数为N。则:
传输时间Tt=(1/r) (b/N)=b/(rN)*
总的平均存取时间Ta=TS+1/2r+b/(rN)
5.3.2.2 先来先服务算法
5.3.2.3 最短寻找时间优先算法
5.3.2.4 扫描算法
5.3.2.5 循环扫描算法
5.3.3 廉价冗余磁盘阵列
文件下载
https://download.csdn.net/download/m0_66345324/87408400