MIT6.S081
  • 简介
  • Lec01 Introduction and Examples (Robert)
    • 1.1 课程内容简介
    • 1.2 操作系统结构
    • 1.3 Why Hard and Interesting
    • 1.4 课程结构和资源
    • 1.5 read, write, exit系统调用
    • 1.6 open系统调用
    • 1.7 Shell
    • 1.8 fork系统调用
    • 1.9 exec, wait系统调用
    • 1.10 I/O Redirect
  • Lec03 OS Organization and System Calls (Frans)
    • 3.1 上一节课回顾
    • 3.2 操作系统隔离性(isolation)
    • 3.3 操作系统防御性(Defensive)
    • 3.4 硬件对于强隔离的支持
    • 3.5 User/Kernel mode切换
    • 3.6 宏内核 vs 微内核 (Monolithic Kernel vs Micro Kernel)
    • 3.7 编译运行kernel
    • 3.8 QEMU
    • 3.9 XV6 启动过程
  • Lec04 Page tables (Frans)
    • 4.1 课程内容简介
    • 4.2 地址空间(Address Spaces)
    • 4.3 页表(Page Table)
    • 4.4 页表缓存(Translation Lookaside Buffer)
    • 4.5 Kernel Page Table
    • 4.6 kvminit 函数
    • 4.7 kvminithart 函数
    • 4.8 walk 函数
  • Lec05 Calling conventions and stack frames RISC-V (TA)
    • 5.1 C程序到汇编程序的转换
    • 5.2 RISC-V vs x86
    • 5.3 gdb和汇编代码执行
    • 5.4 RISC-V寄存器
    • 5.5 Stack
    • 5.6 Struct
  • Lec06 Isolation & system call entry/exit (Robert)
    • 6.1 Trap机制
    • 6.2 Trap代码执行流程
    • 6.3 ECALL指令之前的状态
    • 6.4 ECALL指令之后的状态
    • 6.5 uservec函数
    • 6.6 usertrap函数
    • 6.7 usertrapret函数
    • 6.8 userret函数
  • Lec08 Page faults (Frans)
    • 8.1 Page Fault Basics
    • 8.2 Lazy page allocation
    • 8.3 Zero Fill On Demand
    • 8.4 Copy On Write Fork
    • 8.5 Demand Paging
    • 8.6 Memory Mapped Files
  • Lec09 Interrupts (Frans)
    • 9.1 真实操作系统内存使用情况
    • 9.2 Interrupt硬件部分
    • 9.3 设备驱动概述
    • 9.4 在XV6中设置中断
    • 9.5 UART驱动的top部分
    • 9.6 UART驱动的bottom部分
    • 9.7 Interrupt相关的并发
    • 9.8 UART读取键盘输入
    • 9.9 Interrupt的演进
  • Lec10 Multiprocessors and locking (Frans)
    • 10.1 为什么要使用锁?
    • 10.2 锁如何避免race condition?
    • 10.3 什么时候使用锁?
    • 10.4 锁的特性和死锁
    • 10.5 锁与性能
    • 10.6 XV6中UART模块对于锁的使用
    • 10.7 自旋锁(Spin lock)的实现(一)
    • 10.8 自旋锁(Spin lock)的实现(二)
  • Lec11 Thread switching (Robert)
    • 11.1 线程(Thread)概述
    • 11.2 XV6线程调度
    • 11.3 XV6线程切换(一)
    • 11.4 XV6线程切换(二)
    • 11.5 XV6进程切换示例程序
    • 11.6 XV6线程切换 --- yield/sched函数
    • 11.7 XV6线程切换 --- switch函数
    • 11.8 XV6线程切换 --- scheduler函数
    • 11.9 XV6线程第一次调用switch函数
  • Lec13 Sleep & Wake up (Robert)
    • 13.1 线程切换过程中锁的限制
    • 13.2 Sleep&Wakeup 接口
    • 13.3 Lost wakeup
    • 13.4 如何避免Lost wakeup
    • 13.5 Pipe中的sleep和wakeup
    • 13.6 exit系统调用
    • 13.7 wait系统调用
    • 13.8 kill系统调用
  • Lec14 File systems (Frans)
    • 14.1 Why Interesting
    • 14.2 File system实现概述
    • 14.3 How file system uses disk
    • 14.4 inode
    • 14.5 File system工作示例
    • 14.6 XV6创建inode代码展示
    • 14.7 Sleep Lock
  • Lec15 Crash recovery (Frans)
    • 15.1 File system crash概述
    • 15.2 File system crash示例
    • 15.3 File system logging
    • 15.4 log_write函数
    • 15.5 end_op函数
    • 15.6 File system recovering
    • 15.7 Log写磁盘流程
    • 15.8 File system challenges
  • Lec16 File system performance and fast crash recovery (Robert)
    • 16.1 Why logging
    • 16.2 XV6 File system logging回顾
    • 16.3 ext3 file system log format
    • 16.4 ext3如何提升性能
    • 16.5 ext3文件系统调用格式
    • 16.6 ext3 transaction commit步骤
    • 16.7 ext3 file system恢复过程
    • 16.8 为什么新transaction需要等前一个transaction中系统调用执行完成
    • 16.9 总结
  • Lec17 Virtual memory for applications (Frans)
    • 17.1 应用程序使用虚拟内存所需要的特性
    • 17.2 支持应用程序使用虚拟内存的系统调用
    • 17.3 虚拟内存系统如何支持用户应用程序
    • 17.4 构建大的缓存表
    • 17.5 Baker's Real-Time Copying Garbage Collector
    • 17.6 使用虚拟内存特性的GC
    • 17.7 使用虚拟内存特性的GC代码展示
  • Lec18 OS organization (Robert)
    • 18.1 Monolithic kernel
    • 18.2 Micro kernel
    • 18.3 Why micro kernel?
    • 18.4 L4 micro kernel
    • 18.5 Improving IPC by Kernel Design
    • 18.6 Run Linux on top of L4 micro kernel
    • 18.7 L4 Linux性能分析
  • Lec19 Virtual Machines (Robert)
    • 19.1 Why Virtual Machine?
    • 19.2 Trap-and-Emulate --- Trap
    • 19.3 Trap-and-Emulate --- Emulate
    • 19.4 Trap-and-Emulate --- Page Table
    • 19.5 Trap-and-Emulate --- Devices
    • 19.6 硬件对虚拟机的支持
    • 19.7 Dune: Safe User-level Access to Privileged CPU Features
  • Lec20 Kernels and HLL (Frans)
    • 20.1 C语言实现操作系统的优劣势
    • 20.2 高级编程语言实现操作系统的优劣势
    • 20.3 高级编程语言选择 --- Golang
    • 20.4 Biscuit
    • 20.5 Heap exhaustion
    • 20.6 Heap exhaustion solution
    • 20.7 Evaluation: HLL benefits
    • 20.8 Evaluation: HLL performance cost(1)
    • 20.9 Evaluation: HLL performance cost(2)
    • 20.10 Should one use HLL for a new kernel?
  • Lec21 Networking (Robert)
    • 21.1计算机网络概述
    • 21.2 二层网络 --- Ethernet
    • 21.3 二/三层地址转换 --- ARP
    • 21.4 三层网络 --- Internet
    • 21.5 四层网络 --- UDP
    • 21.6 网络协议栈(Network Stack)
    • 21.7 Ring Buffer
    • 21.8 Receive Livelock
    • 21.9 如何解决Livelock
  • Lec22 Meltdown (Robert)
    • 22.1 Meltdown发生的背景
    • 22.2 Speculative execution(1)
    • 22.3 Speculative execution(2)
    • 22.4 CPU caches
    • 22.5 Flush and Reload
    • 22.6 Meltdown Attack
    • 22.7 Meltdown Fix
  • Lec23 RCU (Robert)
    • 23.1 使用锁带来的问题
    • 23.2 读写锁 (Read-Write Lock)
    • 23.3 RCU实现(1) - 基本实现
    • 23.4 RCU实现(2) - Memory barrier
    • 23.5 RCU实现(3) - 读写规则
    • 23.6 RCU用例代码
    • 23.7 RCU总结
Powered by GitBook
On this page

Was this helpful?

  1. Lec21 Networking (Robert)

21.9 如何解决Livelock

Previous21.8 Receive LivelockNextLec22 Meltdown (Robert)

Last updated 4 years ago

Was this helpful?

作者对于Livelock提出了一种解决方法。这种解决方法的最直接结果就是,当packet的输入速率达到了5000pps,随着输入速率的增加,转发性能维持在5000pps。

曲线后半部分的水平是一种完美的non-livelock性能曲线。之所以是水平的,是因为受CPU的限制,最多只能处理5000pps的转发。

在这个解决方案中,还是存在处理packet的线程和中断处理程序。当网卡第一次触发中断时,会导致中断处理函数的运行。但是中断处理函数并不会从网卡拷贝packet,相应的,它会唤醒处理packet的线程,并且关闭网卡的中断,这样接下来就收不到任何中断了。处理packet的线程会有一个循环,在循环中它会检查并从网卡拉取几个packet,论文中我记得是最多拉取5个packet,之后再处理这些packet。所以现在处理packet的线程是从网卡读取packet,而不是从中断处理程序读取。如果网卡中没有等待处理的packet,那么处理线程会重新打开网卡中断,并进入sleep状态。因为最后打开了中断,当下一个packet到达时,中断处理程序会唤醒处理packet线程,线程会从sleep状态苏醒并继续处理packet。这就是论文介绍的解决Livelock的方法。

这里的处理方式实际上是将中断模式(Interrupt Scheme)转变成了轮询模式(Polling Scheme)。在高负载的情况下,中断会被关闭,并且CPU会一直运行这里的循环中,不断读取packet并处理packet。因为中断被关闭了,CPU用来运行主线程的时间不会被中断占据。在低负载的情况下,中断会被打开,在收到packet之后,线程会被中断处理程序直接唤醒。

学生提问:这里的循环会检查所有的设备吗?还是只会检查产生中断的设备?

Robert教授:这是个好问题,如果存在多个网卡,我并不知道这里的循环会怎么工作。一个非常合理的设计是,packet处理线程需要记录每个网卡是在中断模式还是在轮询模式,然后只对轮询模式的网卡。。。等一下,因为中断处理程序现在不从网卡读取packet,所以线程中的循环可以直接检查所有网卡,如果网卡中有待处理的packet,就读取几个packet并处理。如果所有的网卡都没有待处理的packet,主循环会打开所有网卡的中断,并进入sleep状态。之后,任何一个网卡的中断都会唤醒packet处理线程。

学生提问:当处理线程运行的时候,packet是如何进入到一个等待读取的队列中?我觉得网卡上只会有一个packet。

Robert教授:最开始的时候,packet会在网卡自己的内存中按照队列形式缓存。而处理线程的主循环会询问每个网卡是否在自己的内存中有待处理的packet。如果有的话,主循环会在主机的RAM中申请缓存,再将packet数据从网卡中拷贝到RAM中的缓存,再处理packet。

学生提问:所以一次可以拷贝多个packet?

Robert教授:是的,我认为论文中说的是一次拷贝5个packet。即使有100packet在网卡中等待处理,一次也只会读取5个,这样可以避免阻塞输出。

学生提问:但是这就要求提升网卡的内存容量了吧?

Robert教授:Well,我不知道要多少内存容量。在Livelock曲线的转折点之前,都是靠中断来处理的。在转折点之前,如果网卡收到了一个packet,处理线程会立即被唤醒并读出packet。但是在转折点之后,处理线程就一直在轮询模式而不是中断模式。在转折点之后,肯定会有丢包,因为现在输入速率和输出速率之间是有差异的,而这个差异间的packet都被丢弃了。因为这些packet不论如何都会被丢弃,增加网卡的内存并不太能减少这里的丢包,所以不太确定网卡是否需要增加内存容量。在论文中,一次会读取最多5个packet,那么网卡必然需要存储5个packet的内存容量,但是更多的packet是否有好处就不太确定了。

网卡上的buffer大小,对于短暂的高pps有帮助,这样可以保存好packet等处理线程来读取它们。但是我们这里并没有讨论短暂的overload,我们讨论的是持续的overload。所以增加网卡的buffer,并不是很有用。

学生提问:当网卡中断被关闭了,网卡还能在自己的buffer上加入新的packet吗?

Robert教授:可以的。网卡是自治的,不论中断是打开还是关闭,只要有一个packet到达了网卡,网卡都会将packet加入到自己的缓存队列中。当然不同的网卡设计可能非常不一样,但是在论文中网卡不会调用DMA,不会主动访问主机内存。如果网卡上内存都用光了,packet会被丢弃。所以,在这里的设计中,丢包发生在网卡内部。在一个overload的场景下,网卡中的队列总是满的,当再收到一个packet时,网卡会直接丢包,这样就不会浪费CPU时间。网卡可以在不消耗CPU时间的前提下直接丢包,是避免Livelock的直接原因。

学生提问:有没有这种可能,CPU从网卡读取packet,但是处理线程内部的队列满了?

Robert教授:当然。在其他地方肯定也有瓶颈,例如对于收到的packet,需要交给监听了socket的应用程序去处理,如果应用程序并没有以足够快的速度读取packet,相应的socket buffer会满,那么packet会在处理线程中丢包,而这也可能导致Livelock。

Livelock发生的根本原因是我们浪费时间处理了一些最终会被丢弃的packet,这里的处理是徒劳。另一种发生Livelock的可能是,当负载增加时,我们可能会消耗100%的CPU时间在packet处理线程上,而留给应用程序的CPU时间为0,这时还是会发生Livelock。论文在第六节中有相应的介绍,如果一个packet将要被传输给本地的应用程序,网络线程会查看应用程序的socket buffer,如果socket buffer过满的话,网络线程会停止从网卡读取packet,直到socket buffer变小。这意味着网络线程会停止运行,并给应用程序机会运行并处理packet,所以如果你不够小心的话,你可能会在任何阶段都经历类似Livelock的问题。

论文