MIT6.S081
  • 简介
  • Lec01 Introduction and Examples (Robert)
    • 1.1 课程内容简介
    • 1.2 操作系统结构
    • 1.3 Why Hard and Interesting
    • 1.4 课程结构和资源
    • 1.5 read, write, exit系统调用
    • 1.6 open系统调用
    • 1.7 Shell
    • 1.8 fork系统调用
    • 1.9 exec, wait系统调用
    • 1.10 I/O Redirect
  • Lec03 OS Organization and System Calls (Frans)
    • 3.1 上一节课回顾
    • 3.2 操作系统隔离性(isolation)
    • 3.3 操作系统防御性(Defensive)
    • 3.4 硬件对于强隔离的支持
    • 3.5 User/Kernel mode切换
    • 3.6 宏内核 vs 微内核 (Monolithic Kernel vs Micro Kernel)
    • 3.7 编译运行kernel
    • 3.8 QEMU
    • 3.9 XV6 启动过程
  • Lec04 Page tables (Frans)
    • 4.1 课程内容简介
    • 4.2 地址空间(Address Spaces)
    • 4.3 页表(Page Table)
    • 4.4 页表缓存(Translation Lookaside Buffer)
    • 4.5 Kernel Page Table
    • 4.6 kvminit 函数
    • 4.7 kvminithart 函数
    • 4.8 walk 函数
  • Lec05 Calling conventions and stack frames RISC-V (TA)
    • 5.1 C程序到汇编程序的转换
    • 5.2 RISC-V vs x86
    • 5.3 gdb和汇编代码执行
    • 5.4 RISC-V寄存器
    • 5.5 Stack
    • 5.6 Struct
  • Lec06 Isolation & system call entry/exit (Robert)
    • 6.1 Trap机制
    • 6.2 Trap代码执行流程
    • 6.3 ECALL指令之前的状态
    • 6.4 ECALL指令之后的状态
    • 6.5 uservec函数
    • 6.6 usertrap函数
    • 6.7 usertrapret函数
    • 6.8 userret函数
  • Lec08 Page faults (Frans)
    • 8.1 Page Fault Basics
    • 8.2 Lazy page allocation
    • 8.3 Zero Fill On Demand
    • 8.4 Copy On Write Fork
    • 8.5 Demand Paging
    • 8.6 Memory Mapped Files
  • Lec09 Interrupts (Frans)
    • 9.1 真实操作系统内存使用情况
    • 9.2 Interrupt硬件部分
    • 9.3 设备驱动概述
    • 9.4 在XV6中设置中断
    • 9.5 UART驱动的top部分
    • 9.6 UART驱动的bottom部分
    • 9.7 Interrupt相关的并发
    • 9.8 UART读取键盘输入
    • 9.9 Interrupt的演进
  • Lec10 Multiprocessors and locking (Frans)
    • 10.1 为什么要使用锁?
    • 10.2 锁如何避免race condition?
    • 10.3 什么时候使用锁?
    • 10.4 锁的特性和死锁
    • 10.5 锁与性能
    • 10.6 XV6中UART模块对于锁的使用
    • 10.7 自旋锁(Spin lock)的实现(一)
    • 10.8 自旋锁(Spin lock)的实现(二)
  • Lec11 Thread switching (Robert)
    • 11.1 线程(Thread)概述
    • 11.2 XV6线程调度
    • 11.3 XV6线程切换(一)
    • 11.4 XV6线程切换(二)
    • 11.5 XV6进程切换示例程序
    • 11.6 XV6线程切换 --- yield/sched函数
    • 11.7 XV6线程切换 --- switch函数
    • 11.8 XV6线程切换 --- scheduler函数
    • 11.9 XV6线程第一次调用switch函数
  • Lec13 Sleep & Wake up (Robert)
    • 13.1 线程切换过程中锁的限制
    • 13.2 Sleep&Wakeup 接口
    • 13.3 Lost wakeup
    • 13.4 如何避免Lost wakeup
    • 13.5 Pipe中的sleep和wakeup
    • 13.6 exit系统调用
    • 13.7 wait系统调用
    • 13.8 kill系统调用
  • Lec14 File systems (Frans)
    • 14.1 Why Interesting
    • 14.2 File system实现概述
    • 14.3 How file system uses disk
    • 14.4 inode
    • 14.5 File system工作示例
    • 14.6 XV6创建inode代码展示
    • 14.7 Sleep Lock
  • Lec15 Crash recovery (Frans)
    • 15.1 File system crash概述
    • 15.2 File system crash示例
    • 15.3 File system logging
    • 15.4 log_write函数
    • 15.5 end_op函数
    • 15.6 File system recovering
    • 15.7 Log写磁盘流程
    • 15.8 File system challenges
  • Lec16 File system performance and fast crash recovery (Robert)
    • 16.1 Why logging
    • 16.2 XV6 File system logging回顾
    • 16.3 ext3 file system log format
    • 16.4 ext3如何提升性能
    • 16.5 ext3文件系统调用格式
    • 16.6 ext3 transaction commit步骤
    • 16.7 ext3 file system恢复过程
    • 16.8 为什么新transaction需要等前一个transaction中系统调用执行完成
    • 16.9 总结
  • Lec17 Virtual memory for applications (Frans)
    • 17.1 应用程序使用虚拟内存所需要的特性
    • 17.2 支持应用程序使用虚拟内存的系统调用
    • 17.3 虚拟内存系统如何支持用户应用程序
    • 17.4 构建大的缓存表
    • 17.5 Baker's Real-Time Copying Garbage Collector
    • 17.6 使用虚拟内存特性的GC
    • 17.7 使用虚拟内存特性的GC代码展示
  • Lec18 OS organization (Robert)
    • 18.1 Monolithic kernel
    • 18.2 Micro kernel
    • 18.3 Why micro kernel?
    • 18.4 L4 micro kernel
    • 18.5 Improving IPC by Kernel Design
    • 18.6 Run Linux on top of L4 micro kernel
    • 18.7 L4 Linux性能分析
  • Lec19 Virtual Machines (Robert)
    • 19.1 Why Virtual Machine?
    • 19.2 Trap-and-Emulate --- Trap
    • 19.3 Trap-and-Emulate --- Emulate
    • 19.4 Trap-and-Emulate --- Page Table
    • 19.5 Trap-and-Emulate --- Devices
    • 19.6 硬件对虚拟机的支持
    • 19.7 Dune: Safe User-level Access to Privileged CPU Features
  • Lec20 Kernels and HLL (Frans)
    • 20.1 C语言实现操作系统的优劣势
    • 20.2 高级编程语言实现操作系统的优劣势
    • 20.3 高级编程语言选择 --- Golang
    • 20.4 Biscuit
    • 20.5 Heap exhaustion
    • 20.6 Heap exhaustion solution
    • 20.7 Evaluation: HLL benefits
    • 20.8 Evaluation: HLL performance cost(1)
    • 20.9 Evaluation: HLL performance cost(2)
    • 20.10 Should one use HLL for a new kernel?
  • Lec21 Networking (Robert)
    • 21.1计算机网络概述
    • 21.2 二层网络 --- Ethernet
    • 21.3 二/三层地址转换 --- ARP
    • 21.4 三层网络 --- Internet
    • 21.5 四层网络 --- UDP
    • 21.6 网络协议栈(Network Stack)
    • 21.7 Ring Buffer
    • 21.8 Receive Livelock
    • 21.9 如何解决Livelock
  • Lec22 Meltdown (Robert)
    • 22.1 Meltdown发生的背景
    • 22.2 Speculative execution(1)
    • 22.3 Speculative execution(2)
    • 22.4 CPU caches
    • 22.5 Flush and Reload
    • 22.6 Meltdown Attack
    • 22.7 Meltdown Fix
  • Lec23 RCU (Robert)
    • 23.1 使用锁带来的问题
    • 23.2 读写锁 (Read-Write Lock)
    • 23.3 RCU实现(1) - 基本实现
    • 23.4 RCU实现(2) - Memory barrier
    • 23.5 RCU实现(3) - 读写规则
    • 23.6 RCU用例代码
    • 23.7 RCU总结
Powered by GitBook
On this page

Was this helpful?

  1. Lec20 Kernels and HLL (Frans)

20.7 Evaluation: HLL benefits

Previous20.6 Heap exhaustion solutionNext20.8 Evaluation: HLL performance cost(1)

Last updated 4 years ago

Was this helpful?

Biscuit的实现与其他内核,例如XV6,非常相似,除了Biscuit比XV6性能要高的多。Biscuit采用了很多Linux内核的优化和聪明的设计:

  • 我们对于内核文本采用了大页,以避免TLB的代价。

  • 我们有针对每个CPU的网卡队列,这样可以避免CPU核之间同步。

  • 我们有RCU实现了不需要读锁的Directory Cache。

  • ……

通常为了高性能而做的优化,编程语言并不会成为阻碍。Golang并没有成为阻碍这些优化实现的因素。这些优化之前是在C和Linux中实现,我们现在只是在Golang中又实现它们。在实现这些优化时有很多的工作,但是这些工作与编程语言本身无关。

有关高级编程语言,我们要回答三个问题:

  • 首先,我们有没有作弊?或许我们避免使用了所有Golang提供的高级编程语言中代价较高的功能。

  • 其次,高级编程语言是否有简化Biscuit代码?

  • 最后,高级编程语言是否能阻止前面提到的内核漏洞?

首先,我们有没有使用高级编程语言的特性?我们会对比一下Biscuit与其他两个大的Golang项目在使用语言特性上是否类似,这样我们才可以说我们的内核以类似的方式利用了相同的语言特性。这里我们使用了相同的静态分析工具来分析两个大的Golang项目,它们都有超过100万行代码,其中一个项目是Go runtime以及包含的所有包,另一个是一个叫做Moby的系统。

之后我们画出了一些高级语言特性在每1000行代码中的使用量。图中X轴是语言特性:

  • allocation对应于new

  • maps就是hashtable

  • slice是动态数组

  • channel是同步的工具,如你所见我们用的很少,Go runtine和Moby也用的很少

  • 很明显我们最喜欢的特性就是函数返回多个值

  • 我们使用了Closure(闭包)

  • 我们稍微使用了defer

  • 我们使用了Interface

  • 使用了Type assertion来以一种类型安全的方式将一个类型转换成另一个类型

  • 同时我们也import了很多包,Biscuit内核是由很多个包构建出来的,而不是一个大的单一的程序

如你所见,有些特性Biscuit用的比Go runtime和moby更少,有些特性Biscuit用的更多,这里没有很明显的区别。所以从这张图中可以得出的主要结论是:Biscuit使用了Golang提供的高级编程语言特性,而不是为了得到好的性能而避开使用它们。

学生提问:你这里是怎么统计的?是不是使用了静态分析工具?

Frans教授:是的,这里使用的就是静态分析工具。通过写一个小程序利用静态分析工具来查看这些项目的每一行代码,并记录对应的特性是什么,这样就能统计这些特性的使用数量。

第二个问题有点主观,高级编程语言有没有简化Biscuit代码?笼统的说我认为有的,我这里会讨论一两个例子。

使用Garbage allocation是极好的,你可以回想XV6,当你调用exit时,有大量的结构化数据需要被释放回给内核,这样后面的进程才能使用。如果使用Garbage Collector这里的工作着实容易,Garbage Collector会完成这里的所有工作,你基本不用做任何事情。如果你从地址空间申请了一段内存,对应这段内存的VMA会自动被GC释放,所以这里可以简化代码。

如之前所说的,函数返回多个值对于代码风格很好。闭包很好,map也很好。XV6中很多地方通过线性扫描查找数据,但是如果你有map和hashtable作为可以直接使用的对象,那么你就不用线性扫描了。你可以直接使用map,runtime会高效地为你实现相应的功能。所以直观上的感受是,你可以得到更简单的代码。

但是前面只是定性的评估,下面会介绍一些更具体的例子。当有大量的并发线程,且线程有共享的数据时,GC如何起作用的。

这里有个最简单的例子。假设你申请了一些动态的对象,比如说buffer,你fork一个线程来处理这个buffer,原线程也会处理同一个buffer。当两个线程都完成了工作,buffer需要被释放,这样内存才可以被后面的内核代码使用。这在C语言里面有点难协调,因为你需要有某种方式来决定buffer不再被使用。如果你使用GC,那么就没什么好决定的,因为当两个线程都处理完buffer之后,没有线程会指向那个buffer。GC会从线程栈开始追踪,并且在任何线程栈中都找不到buffer,因此GC会在稍后某个时间释放内存。所以在一个带GC的编程语言中,你完全不必考虑这个问题。

在C中你可以这样解决这个问题,为对象增加引用计数,引用计数需要被锁或者一些原子性操作保护,当引用计数到达0时,你可以释放内存。

实际中锁加上引用计数代价稍微有点高。如果你想要高性能,并且并发可以扩展到CPU核数,这可能会是个瓶颈,我们在后面介绍RCU的时候会看这部分。所以,如果你想要高性能,好的并发能力,人们倾向于不给读数据加锁。

在实际中,我们会使得读数据至少是不需要锁的,这样你就不需要付出额外的代价。上面是我们在Golang中的实现,我们有个get函数,它会读取并返回链表的头结点。这里就没有使用锁,而是使用了atomic_load,它会读取头结点,但是又不需要锁。后面的pop函数使用了锁。这种风格在Linux内核中非常常见,写数据需要加锁,读数据不用加锁。这里pop函数会从链表中弹出头结点,这样你就可以重用头结点对应的内存。在C中实现这种风格会有点困难,因为有可能当你释放头结点内存时,其他并发的线程正好读取到了头结点的指针。这样当你做完atomic_store,你不能释放指针内容,因为有可能有另一个线程的指针指向了这部分内容。如果你在这里释放了指针内容,你有可能会有use-after-free Bug。

我们在这门课程的最后一节课会看到,Linux内核对这个问题有一种非常聪明的解决办法,被称为Read-Copy-Update或者是RCU。它的工作就是推迟释放内存,直到确定指针不再被使用,并且它有一种非常聪明的方案来决定什么时候可以安全释放内存。但是这个方案有各种各样的限制,程序员需要在RCU关键区域内遵守各种规则。比如说你不能在RCU关键区域sleep,也不能切换线程。

所以尽管实际中Linux内核非常成功的使用了RCU,但是RCU还是有点容易出错,并且需要小心编程来使得它能正确工作。在带有GC的编程语言,例如Golang,这就不是问题了,因为GC会决定某个对象不再被使用,只有这时才释放它。所以现在对于编程人员来说没有限制了,所有的限制都被GC考虑了。这是一种带有GC的编程语言的明显优势。

接下来看看CVEs Bugs,这在前面提到过(注,20.1)。

我们手动的检查了所有的CVEs Bug,并尝试确定Golang是否修复了问题。

  • 第一行代表我们不能弄清楚这些Bug的结果是什么,它会怎么展现,我们知道如何修复这些问题,但是我们不能确定Golang是否能避免这些问题。

  • 有很多逻辑Bug,可以认为Golang会有与C相同的Bug,所以结果是相同的

  • 接下来是40个memory-safety Bugs,包括了use-after-free,double-free,out-of-bound。其中8个直接消失了,因为GC考虑了内存释放,32个会产生panic,比如说数组越界。当然panic并不好,因为内核会崩溃,但是或许要比直接的安全漏洞更好。所以在这40个Bug中,高级编程语言有帮到我们。

以上就是使用高级编程语言实现内核的优势,接下来讨论一些代价,也就是High Level Language Tax。

今天的出发点就是了解用高级编程语言实现操作系统的收益和代价。所以我们将分两部分来评估,首先是收益,其次是代价。

论文