MIT6.S081
  • 简介
  • Lec01 Introduction and Examples (Robert)
    • 1.1 课程内容简介
    • 1.2 操作系统结构
    • 1.3 Why Hard and Interesting
    • 1.4 课程结构和资源
    • 1.5 read, write, exit系统调用
    • 1.6 open系统调用
    • 1.7 Shell
    • 1.8 fork系统调用
    • 1.9 exec, wait系统调用
    • 1.10 I/O Redirect
  • Lec03 OS Organization and System Calls (Frans)
    • 3.1 上一节课回顾
    • 3.2 操作系统隔离性(isolation)
    • 3.3 操作系统防御性(Defensive)
    • 3.4 硬件对于强隔离的支持
    • 3.5 User/Kernel mode切换
    • 3.6 宏内核 vs 微内核 (Monolithic Kernel vs Micro Kernel)
    • 3.7 编译运行kernel
    • 3.8 QEMU
    • 3.9 XV6 启动过程
  • Lec04 Page tables (Frans)
    • 4.1 课程内容简介
    • 4.2 地址空间(Address Spaces)
    • 4.3 页表(Page Table)
    • 4.4 页表缓存(Translation Lookaside Buffer)
    • 4.5 Kernel Page Table
    • 4.6 kvminit 函数
    • 4.7 kvminithart 函数
    • 4.8 walk 函数
  • Lec05 Calling conventions and stack frames RISC-V (TA)
    • 5.1 C程序到汇编程序的转换
    • 5.2 RISC-V vs x86
    • 5.3 gdb和汇编代码执行
    • 5.4 RISC-V寄存器
    • 5.5 Stack
    • 5.6 Struct
  • Lec06 Isolation & system call entry/exit (Robert)
    • 6.1 Trap机制
    • 6.2 Trap代码执行流程
    • 6.3 ECALL指令之前的状态
    • 6.4 ECALL指令之后的状态
    • 6.5 uservec函数
    • 6.6 usertrap函数
    • 6.7 usertrapret函数
    • 6.8 userret函数
  • Lec08 Page faults (Frans)
    • 8.1 Page Fault Basics
    • 8.2 Lazy page allocation
    • 8.3 Zero Fill On Demand
    • 8.4 Copy On Write Fork
    • 8.5 Demand Paging
    • 8.6 Memory Mapped Files
  • Lec09 Interrupts (Frans)
    • 9.1 真实操作系统内存使用情况
    • 9.2 Interrupt硬件部分
    • 9.3 设备驱动概述
    • 9.4 在XV6中设置中断
    • 9.5 UART驱动的top部分
    • 9.6 UART驱动的bottom部分
    • 9.7 Interrupt相关的并发
    • 9.8 UART读取键盘输入
    • 9.9 Interrupt的演进
  • Lec10 Multiprocessors and locking (Frans)
    • 10.1 为什么要使用锁?
    • 10.2 锁如何避免race condition?
    • 10.3 什么时候使用锁?
    • 10.4 锁的特性和死锁
    • 10.5 锁与性能
    • 10.6 XV6中UART模块对于锁的使用
    • 10.7 自旋锁(Spin lock)的实现(一)
    • 10.8 自旋锁(Spin lock)的实现(二)
  • Lec11 Thread switching (Robert)
    • 11.1 线程(Thread)概述
    • 11.2 XV6线程调度
    • 11.3 XV6线程切换(一)
    • 11.4 XV6线程切换(二)
    • 11.5 XV6进程切换示例程序
    • 11.6 XV6线程切换 --- yield/sched函数
    • 11.7 XV6线程切换 --- switch函数
    • 11.8 XV6线程切换 --- scheduler函数
    • 11.9 XV6线程第一次调用switch函数
  • Lec13 Sleep & Wake up (Robert)
    • 13.1 线程切换过程中锁的限制
    • 13.2 Sleep&Wakeup 接口
    • 13.3 Lost wakeup
    • 13.4 如何避免Lost wakeup
    • 13.5 Pipe中的sleep和wakeup
    • 13.6 exit系统调用
    • 13.7 wait系统调用
    • 13.8 kill系统调用
  • Lec14 File systems (Frans)
    • 14.1 Why Interesting
    • 14.2 File system实现概述
    • 14.3 How file system uses disk
    • 14.4 inode
    • 14.5 File system工作示例
    • 14.6 XV6创建inode代码展示
    • 14.7 Sleep Lock
  • Lec15 Crash recovery (Frans)
    • 15.1 File system crash概述
    • 15.2 File system crash示例
    • 15.3 File system logging
    • 15.4 log_write函数
    • 15.5 end_op函数
    • 15.6 File system recovering
    • 15.7 Log写磁盘流程
    • 15.8 File system challenges
  • Lec16 File system performance and fast crash recovery (Robert)
    • 16.1 Why logging
    • 16.2 XV6 File system logging回顾
    • 16.3 ext3 file system log format
    • 16.4 ext3如何提升性能
    • 16.5 ext3文件系统调用格式
    • 16.6 ext3 transaction commit步骤
    • 16.7 ext3 file system恢复过程
    • 16.8 为什么新transaction需要等前一个transaction中系统调用执行完成
    • 16.9 总结
  • Lec17 Virtual memory for applications (Frans)
    • 17.1 应用程序使用虚拟内存所需要的特性
    • 17.2 支持应用程序使用虚拟内存的系统调用
    • 17.3 虚拟内存系统如何支持用户应用程序
    • 17.4 构建大的缓存表
    • 17.5 Baker's Real-Time Copying Garbage Collector
    • 17.6 使用虚拟内存特性的GC
    • 17.7 使用虚拟内存特性的GC代码展示
  • Lec18 OS organization (Robert)
    • 18.1 Monolithic kernel
    • 18.2 Micro kernel
    • 18.3 Why micro kernel?
    • 18.4 L4 micro kernel
    • 18.5 Improving IPC by Kernel Design
    • 18.6 Run Linux on top of L4 micro kernel
    • 18.7 L4 Linux性能分析
  • Lec19 Virtual Machines (Robert)
    • 19.1 Why Virtual Machine?
    • 19.2 Trap-and-Emulate --- Trap
    • 19.3 Trap-and-Emulate --- Emulate
    • 19.4 Trap-and-Emulate --- Page Table
    • 19.5 Trap-and-Emulate --- Devices
    • 19.6 硬件对虚拟机的支持
    • 19.7 Dune: Safe User-level Access to Privileged CPU Features
  • Lec20 Kernels and HLL (Frans)
    • 20.1 C语言实现操作系统的优劣势
    • 20.2 高级编程语言实现操作系统的优劣势
    • 20.3 高级编程语言选择 --- Golang
    • 20.4 Biscuit
    • 20.5 Heap exhaustion
    • 20.6 Heap exhaustion solution
    • 20.7 Evaluation: HLL benefits
    • 20.8 Evaluation: HLL performance cost(1)
    • 20.9 Evaluation: HLL performance cost(2)
    • 20.10 Should one use HLL for a new kernel?
  • Lec21 Networking (Robert)
    • 21.1计算机网络概述
    • 21.2 二层网络 --- Ethernet
    • 21.3 二/三层地址转换 --- ARP
    • 21.4 三层网络 --- Internet
    • 21.5 四层网络 --- UDP
    • 21.6 网络协议栈(Network Stack)
    • 21.7 Ring Buffer
    • 21.8 Receive Livelock
    • 21.9 如何解决Livelock
  • Lec22 Meltdown (Robert)
    • 22.1 Meltdown发生的背景
    • 22.2 Speculative execution(1)
    • 22.3 Speculative execution(2)
    • 22.4 CPU caches
    • 22.5 Flush and Reload
    • 22.6 Meltdown Attack
    • 22.7 Meltdown Fix
  • Lec23 RCU (Robert)
    • 23.1 使用锁带来的问题
    • 23.2 读写锁 (Read-Write Lock)
    • 23.3 RCU实现(1) - 基本实现
    • 23.4 RCU实现(2) - Memory barrier
    • 23.5 RCU实现(3) - 读写规则
    • 23.6 RCU用例代码
    • 23.7 RCU总结
Powered by GitBook
On this page

Was this helpful?

  1. Lec21 Networking (Robert)

21.8 Receive Livelock

Previous21.7 Ring BufferNext21.9 如何解决Livelock

Last updated 4 years ago

Was this helpful?

接下来我们看一下今天的。因为我们已经介绍了很多论文相关的背景知识,我们直接来看一下论文的图1。我们之后根据论文中的图来开展讨论。

这张图是一个路由器的性能图。这是一个有两张网卡的路由器,它的工作是从一个网卡接收packet,再从另一个网卡送出 。X轴是接收速率,也就是接收端网卡的收到packet的速率。Y轴是发送速率,也就是观察到的发送端网卡发送packet的速率。我们关心的是实心圆对应的曲线,它先上升,再下降。所以即使还不知道任何上下文,看到这个图之后我们会问自己,为什么这个曲线先上升,再下降?曲线的转折点有什么特殊之处?是什么决定了曲线的上升斜率和下降斜率?即使不知道任何背景知识,我们还是可以问出这么多问题。

首先,为什么这条曲线开始会上升?

学生回答:在到达处理的瓶颈之前,路由器可以处理更多的接收方向的packet,也可以处理更多的发送发向的packet。

完全正确,在出现错误之前,对于每个接收到的packet,路由器都可以转发出去。比如说当packet以2000pps的速度接收时,路由器直接将packet从输入网卡拷贝到输出网卡,所以路由器的发送速率与接收速率一样,都是2000pps,所以这里X轴与Y轴的值相等。这种状态一直保持,直到曲线到达转折点。

那么为什么曲线不是一直上升的呢?

学生回答:是不是因为中断不能被处理导致的?

Robert教授:这个其实是为什么曲线会下降的原因。我这里的问题是为什么曲线在某个点之后就不再上升了。假设这里的设计是合理的,对于一个合理的系统,对应的曲线会一直上升吗?

学生回答:我认为不会,就算系统能足够快的处理packet,对于足够多的packet,还是可能触发系统的瓶颈。

是的,CPU的算力并不是无限的,CPU最多每秒执行一定数量的指令。对于每个packet,IP软件会查看packet的header,检查校验和,根据目的地址查找转发表等等,这个过程会消耗数百甚至数千条CPU指令时间来处理一个packet。所以,我们不能期望曲线能一直向上走,它必然会在某个位置停止向上。

上面的图中,曲线在5000的位置就停止不再上升了,这告诉我们这台机器处理每个packet要消耗200微秒。所以,曲线的转折点隐含的包含了处理一个packet需要的时间信息。虽然这只是一个猜想,但是通常与真实的结果非常相近。或许我们可以修改软件使其更加的高效,我们可以优化到处理每个packet只需要150微秒,我们或许可以将曲线的转折点向上移一些,但是在到达了这台机器每秒能处理的packet数量的极限时,我们还是会到达曲线的转折点。

除了CPU的性能,还有一些不是必然存在的瓶颈需要注意一下。最明显的一个就是网络的性能。如果你使用的网络只有10Mb/s,那么底层的网路硬件最多就能按照这个速率传输数据,这也有可能构成一个限制。所以也有可能是因为网络传输的速率决定了曲线的顶点是在5000pps这个位置。论文中并没有说明究竟是CPU还是网速是这里的限制因素,但是对于一个10Mb/s的网络,如果你传输小包的话,是可以达到10-15 Kpps,这实际上是网线的能达到的极限,而上图中转折点对应的5Kpps远小于10-15Kpps,所以几乎可以确定限制是来自CPU或者内存,而不是网络本身。

在一个设计良好的路由器中,如果处理每个packet要200微秒,那么我们期望看到的是不论负载多高,路由器至少每秒能处理5000个packet。所以我们期望看到的曲线在5000pps之后是一条水平线,路由器每秒处理5000个packet,并丢弃掉其他的packet。

但是我们实际拥有的曲线会更加的糟糕,当收到的packets超过5000pps时,成功转发的packets随着收到的packet的增多反而趋向于0。为什么曲线会下降呢?前面有同学已经提到了。

论文作者给出的原因是,随着packet接收速率的增加,每个收到的packet都会生成一个中断,而这里的中断的代价非常高,因为中断涉及到CPU将一个packet从网卡拷贝到主机的内存中。如果我们知道packet将会以10K每秒的速率到达,并且我们知道我们不能处理这么多packet,那么我们可以期望的最好结果就是每秒转发5000个packet,并且丢弃5000个packet之外的其他packet。但是实际上,5000个packet之外的其他packet,每个都生成了一个昂贵的中断,收到的packet越多,生成的中断就越多。而中断有更高的优先级,所以每一个额外的packet都会消耗CPU时间,导致更少的CPU时间可以用来完成packet的转发。最后,100%的CPU时间都被消耗用来处理网卡的输入中断,CPU没有任何时间用来转发packet。

这里曲线的下降被称为中断的Livelock,这是一个在很多系统中都会出现的现象。这里背后的原因是有两个独立的任务,比如这里的两个任务是输入中断和转发packet程序。由于调度的策略,输入中断的优先级更高,使得转发packet的任务可能分配不到任何CPU时间。几乎在任何需要处理输入的系统中,如果输入速率过高,都有可能出现Livelock。Livelock不仅会因为CPU耗尽而发生,也可能是其他原因,比如说网卡的DMA耗尽了RAM的处理时间,那么网卡占据了RAM导致CPU不能使用RAM。所以,即使你拥有大量的CPU空闲时间,还是有可能触发Livelock。不管怎样,这曲线的下降被称为Livelock。

你或许会问,不能处理的packet最后怎么样了?我们回想一下网络协议软件的结构,网卡会通知网卡的接收中断,接收中断将packet拷贝到队列缓存中,之后会有一个线程处理队列缓存中的packet。

所以packet会在队列缓存中丢失。队列缓存有一个最大的长度,至少RAM的大小是有限制大,但是队列缓存的大小会远小于RAM的大小。如果网卡的接收中断从网卡获得了一个packet,并且发现队列缓存的长度已经是最长了,接收中断程序会丢弃packet。

论文