#include
int main()
{
printf("hello, world\n");
return 0;
}
备注:C编程语言的起源
- C语言是贝尔实验室的Dennis Ritchie于1969年~1973年间创建的。美国国家标准学会(American National Standards Institute,ANSI)在1989年颁布了ANSI C的标准,后来C语言的标准化成了国际标准化组织(International Standards Organization,ISO)的责任。这些标准定义了C语言和一系列函数库,即所谓的C标准库。Kernighan和Ritchie在他们的经典著作中描述了ANSI C,这本著作被人们满怀感情地称为“K&R”。用Ritchie的话来说,C语言是“古怪的、有缺陷的,但同时也是一个巨大的成功”
- 为什么会成功呢?
- C语言与Unix操作系统关系密切。C从一开始就是作为一种用于Unix系统的程序语言开发出来的。大部分Unix内核(操作系统的核心部分),以及所有支撑工具和函数库都是用C语言编写的。20世纪70年代后期到80年代初期,Unix风行于高等院校,许多人开始接触C语言并喜欢上它。因为Unix几乎全部是用C编写的,它可以很方便地移植到新的机器上,这种特点为C和Unix赢得了更为广泛的支持。
- C语言小而简单。C语言的设计是由一个人而非一个协会掌控的,因此这是一个简洁明了、没有什么冗赘的设计。K&R这本书用大量的例子和练习描述了完整的C语言及其标准库,而全书不过261页。C语言的简单使它相对而言易于学习,也易于移植到不同的计算机上。
- C语言是为实践目的设计的。C语言是设计用来实现Unix操作系统的。后来,其他人发现能够用这门语言无障碍地编写他们想要的程序。
- C语言是系统级编程的首选,同时它也非常适用于应用级程序的编写。然而,它也并非适用于所有的程序员和所有的情况。C语言的指针是造成程序员困惑和程序错误的一个常见原因。同时,C语言还缺乏对非常有用的抽象的显式支持,例如类、对象和异常。像C++和Java这样针对应用级程序的新程序语言解决了这些问题
gcc -o hello hello.c
- 预处理阶段:预处理器 cpp 根据以字符 # 开头的命令,修改原始的 C 程序,比如 Hello.c 中第一行 #include
命令告诉预处理器读取系统文件 stdio.h 的内容,并把它直接插入到程序中。结果就得到另一个 C 程序,通常是以 .i 作为文件扩展名。 - 编译阶段:编译器(ccl)将文本文件 hello.i 翻译成文本文件 hello.s,它包含一个汇编语言程序,该程序包含函数main的另一,如下所示:
- 定义中2~7行的每条语句都以一种文本格式描述了一条敌机机器语言指令。汇编语言是非常有用的,因为它为不同高级语言的不同编译器提供了通用的输出语言。例如,C编译器和Fortran编译器产生的输出文件用的都是一样的汇编语言
- 汇编阶段:汇编器 as 将hello.s 翻译成机器语言指令,把这些指令打包成一种叫做可重定位目标程序的格式,并将结果保存在目标文件 hello.o 中。hello.o 文件是一个二进制文件,它包含的17个字符是函数main的指令编码。如果我们用文本编辑器打开 hello.o 文件,将会是一堆乱码。
- 链接阶段:在 hello.c 程序中,我们看到程序调用了 printf 函数,它是每个 C 编译器都会提供的标准 C 库中的一个函数。printf 函数存在于一个名为 printf.o 的单独的预编译好了的目标文件中,而这个文件必须以某种方式合并到我们的 hello.o 程序中。链接器 ld 就是负责处理这种合并,结果就得到一个 hello 文件,它是一个可执行目标程序,可以被加载到内存中,由系统运行
./hello
系统的硬件组成
- 总线:贯穿整个系统的是一组电子管道,称为总线,它携带信息字节并负责在各个部件间传递。通常总线被设计成传送定长的字节块,也就是(字)。字中的字节数(即字长)是一个基本的系统参数,各个系统不尽相同。大多数机器字长是4个字节(32位)或8个字节(64位)
- I/O设备:
- I/O(输入/输出)设备是系统与外部世界的联系通道。我们的示例系统包括四个I/O设备:键盘、鼠标、显示器、以及用于长期存储数据和程序的磁盘(或称磁盘驱动器)。最开始,可执行程序hello就存放在磁盘上
- 每个I/O设备都通过一个控制器或适配器与I/O总线相连。控制器与适配器之间的区别主要在于它们的封装方式。控制器是I/O设备本身或主印制电路板(通常称为主板)上的芯片组。而适配器则是一块插在主板插槽上的卡。但它们的功能都是在I/O总线和I/O设备之间传递信息
- 主存:主存是一个临时存储的设备,在处理器执行程序时,用来存放程序和程序处理的数据。从物理上来说,主存是由一组动态随机存取存储器(DRAM)芯片组成。从逻辑上来说,存储器是一个线性的字节数组,每个字节都有其唯一的地址(数组索引),这些地址是从0开始的
- 处理器:
- 中央处理单元(CPU),简称处理器,是解释或执行存储再主存中指令的引擎。处理器的核心是一个大小为一个字的存储设备(或寄存器),称为程序计数器(PC)
- 在任何时刻,PC都指向主存中的某条机器语言指令(即含有该条指令的地址)。从系统开始通电到断电,处理器不断地在执行程序计数器指向的指令,再更新程序计数器,使其指向下一条指令。处理器看上去是按照一个非常简单的指令执行模型来操作的,这个模型是由指令集架构决定的
- 在这个模型中,指令按照严格的顺序执行,而执行一条指令包含执行一系列的步骤。处理器从程序计数器指向的内存读取指令,解释指令中的位,执行该指令指示的简单操作,然后再更新PC,使其指向下一条指令,而这条指令并不一定和在内存中刚刚执行的指令相邻
- 这样的操作并不多,它们围绕着主存、寄存器文件和算术/逻辑单元进行。寄存器文件是一个小的存储设备,由一些单个字长的寄存器组成,每个寄存器都有唯一的名字,ALU计算新的数据和地址值。CPU在指令的要求下可能会执行如下操作:
- 加载:从主存复制一个字节或一个字到寄存器,以覆盖寄存器原来的内容
- 存储:从寄存器复制一个字节或一个字到主存的某个位置,以覆盖这个位置上原来的内容
- 操作:把两个寄存器的内容复制到ALU,ALU对这两个字做算术运算,将结果存放到一个寄存器中,以覆盖原来寄存器中的内容
- 跳转:从指令本身中抽取一个字,并将这个字复制到程序计数器(PC)中,以覆盖PC中原来的值
- 处理器看上去是它的指令集架构的简单实现,但是实际上现代处理器使用了非常复杂的机制来加速程序的执行。因此,我们将处理器的指令集架构和处理器的微体系结构区分开来:指令集架构描述的是每条机器代码指令的效果;而微体系结构描述的是处理器实际上是如何实现的。在“程序的机器级表示”文章研究机器代码时,我们考虑的是机器的指令集架构所提供的抽象性。“处理器结构”文章将更详细地介绍处理器实际上是如何实现的。“优化程序性能”文章中会用一个模型说明现代处理器是如何工作的,从而能预测和优化机器语言程序的性能
运行hello程序
- 前面简单描述了系统的硬件组成和操作,现在开始介绍当我们运行示例程序时到底发生了些什么。在这里必须省略很多细节,稍后会做补充,但是现在我们将很满意于这种整体上的描述
- 初始时,shell程序执行它的指令,等待我们输入一个命令。当我们在键盘上输入字符串“./hello”后,shell程序将字符逐一读入寄存器,再把它存放到内存中,如下图所示:
- 当我们在键盘上敲回车键时,shell程序就知道我们已经结束了命令的输入。然后shell执行一系列指令来加载可执行的hello文件,这些指令将hello目标文件中的代码和数据从磁盘复制到主存。数据包括最终会被输出的字符串“hello, world\n”
- 利用直接存储器存取(DMA,“存储器层次结构”中讨论)技术,数据可以不通过处理器而直接从磁盘到达主存。这个步骤如下图所示:
- 一旦目标文件hello中的代码和数据被加载到主存,处理器就开始执行hello程序的main程序中的机器语言指令。这些指令将“hello, world\\n”字符串中的字节从主存复制到寄存器文件,再从寄存器文件中复制到显示设备,最终显示在屏幕上。这个步骤如下图所示:
进程
- 像hello这样的程序在现代系统上运行时,操作系统会提供一种假象,就好像系统上只有这个程序在运行。程序看上去是独占地使用处理器、主存和I/O设备。处理器看上去就像在不间断地一条接一条地执行程序中的指令,即该程序的代码和数据是系统内存中唯一的对象。这些假象是通过进程的概念来实现的,进程是计算机科学中最重要和最成功的概念之一
- 进程是操作系统对一个正在运行的程序的一种抽象。在一个系统上可以同时运行多个进程,而每个进程都好像在独占地使用硬件。而并发运行,则是说一个进程的指令和另一个进程的指令是交错执行的。在大多数系统中,需要运行的进程数是多于可以运行它们的CPU个数的。传统系统在一个时刻只能执行一个程序,而先进的多核处理器同时能够执行多个程序。无论是在单核还是多核系统中,一个CPU看上去都像是在并发地执行多个进程,这是通过处理器在进程间切换来实现的。操作系统实现这种交错执行的机制称为上下文切换。为了简化讨论,我们只考虑包含一个CPU的单处理器系统的情况。我们会在本文最后“并行/并发”中讨论多处理器系统
- 操作系统保持跟踪进程运行所需的所有状态信息。这种状态,也就是上下文,包括许多信息,比如PC和寄存器文件的当前值,以及主存的内容。在任何一个时刻,单处理器系统都只能执行一个进程的代码。当操作系统决定要把控制权从当前进程转移到某个新进程时,就会进行上下文切换,即保存当前进程的上下文、恢复新进程的上下文,然后将控制权传递到新进程。新进程就会从它上次停止的地方开始。下图展示了示例hello程序运行场景的基本理念
- 示例场景中有两个并发的进程:shell进程和hello进程。最开始,只有shell进程在运行,即等待命令行上的输入。当我们让它运行hello程序时,shell通过调用一个专门的函数,即系统调用,来执行我们的请求,系统调用会将控制权传递给操作系统。操作系统保存shell进程的上下文,创建一个新的hello进程及其上下文,然后将控制权传给新的hello进程。hello进程终止后,操作系统恢复shell进程的上下文,并将控制权传回给它,shell进程会继续等待下一个命令行输入
- 如下图所示,从一个进程到另一个进程的转换是由操作系统内核(kernel)管理的。内核是操作系统代码常驻主存的部分。当应用程序需要操作系统的某些操作时,比如读写文件,它就执行一条特殊的系统调用(system call)指令,将控制权传递给内核。然后内核执行被请求的操作并返回应用程序。注意,内核不是一个独立的进程。相反,它是系统管理全部进程所用代码和数据结构的集合
- 实现进程这个抽象概念需要低级硬件和操作系统软件之间的紧密合作。我们将在第8章中揭示这项工作的原理,以及应用程序是如何创建和控制它们的进程的
线程
- 尽管通常我们认为一个进程只有单一的控制流,但是在现代系统中,一个进程实际上可以由多个称为线程的执行单元组成,每个线程都运行在进程的上下文中,并共享同样的代码和全局数据。由于网络服务器中对并行处理的需求,线程成为越来越重要的编程模型,因为多线程之间比多进程之间更容易共享数据,也因为线程一般来说都比进程更高效
- 当有多处理器可用的时候,多线程也是一种使得程序可以运行得更快的方法,我们将在本文最后“并行/并发”中讨论这个问题
- 在“并发编程”相关文章中,你将学习并发的基本概念,包括如何写线程化的程序
虚拟内存
- 虚拟内存是一个抽象概念,它为每个进程提供了一个假象,即每个进程都在独占地使用主存。每个进程看到的内存都是一致的,称为虚拟地址空间。下图所示的是Linux进程的虚拟地址空间(其他Unix系统的设计也与此类似)。在Linux中,地址空间最上面的区域是保留给操作系统中的代码和数据的,这对所有进程来说都是一样。地址空间的底部区域存放用户进程定义的代码和数据。请注意,图中的地址是从下往上增大的
- 每个进程看到的虚拟地址空间由大量准确定义的区构成,每个区都有专门的功能。在后续的文章你将学到更多有关这些区的知识,但是先简单了解每一个区是非常有益的。我们从最低的地址开始,逐步向上介绍
- 程序代码和数据。对所有的进程来说,代码是从同一固定地址开始,紧接着的是和C全局变量相对应的数据位置。代码和数据区是直接按照可执行目标文件的内容初始化的,在本书案例中就是可执行文件hello。在“链接”文章中研究链接和加载时,你会学习更多有关地址空间的内容
- 堆。代码和数据区后紧随着的是运行时堆。“代码和数据区”在进程一开始运行时就被指定了大小,与此不同,当调用像malloc和free这样的C标准库函数时,堆可以在运行时动态地扩展和收缩。在“虚拟内存”相关文章学习管理虚拟内存时,我们将更详细地研究堆
- 共享库。大约在地址空间的中间部分是一块用来存放像C标准库和数学库这样的共享库的代码和数据的区域。共享库的概念非常强大,也相当难懂。在“链接”文章中介绍动态链接时,将学习共享库是如何工作的
- 栈。位于用户虚拟地址空间顶部的是用户栈,编译器用它来实现函数调用。和堆一样,用户栈在程序执行期间可以动态地扩展和收缩。特别地,每次我们调用一个函数时,栈就会增长;从一个函数返回时,栈就会收缩。在“程序的机器级表示”中将学习编译器是如何使用栈的
- 内核虚拟内存。地址空间顶部的区域是为内核保留的。不允许应用程序读写这个区域的内容或者直接调用内核代码定义的函数。相反,它们必须调用内核来执行这些操作
- 虚拟内存的运作需要硬件和操作系统软件之间精密复杂的交互,包括对处理器生成的每个地址的硬件翻译。基本思想是把一个进程虚拟内存的内容存储在磁盘上,然后用主存作为磁盘的高速缓存。“虚拟内存”相关文章将解释它如何工作,以及为什么对现代系统的运行如此重要
文件
- 文件就是字节序列,仅此而已。每个I/O设备,包括磁盘、键盘、显示器,甚至网络,都可以看成是文件。系统中的所有输入输出都是通过使用一小组称为Unix I/O的系统函数调用读写文件来实现的
- 文件这个简单而精致的概念是非常强大的,因为它向应用程序提供了一个统一的视图,来看待系统中可能含有的所有各式各样的I/O设备。例如,处理磁盘文件内容的应用程序员可以非常幸福,因为他们无须了解具体的磁盘技术。进一步说,同一个程序可以在使用不同磁盘技术的不同系统上运行。你将在“系统级I/O”文章中学习Unix I/O
系统漫游至此,我们一直是把系统视为一个孤立的硬件和软件的集合体。实际上,现代系统经常通过网络和其他系统连接到一起。从一个单独的系统来看,网络可视为一个I/O设备,如下图所示。当系统从主存复制一串字节到网络适配器时,数据流经过网络到达另一台机器,而不是比如说到达本地磁盘驱动器。相似地,系统可以读取从其他机器发送来的数据,并把数据复制到自己的主存
线程级并发
- 构建在进程这个抽象之上, 我们能够设计出同时有多个程序执行的系统, 这就导致了并发。 使用线程, 我们甚至能够在一个进程中执行多个控制流
- 自 20 世纪 60 年代初期出现时间共享以来, 计算机系统中就开始有了对并发执行的支持。 传统意义上, 这种并发执行只是模拟出来的, 是通过使一台计算机在它正在执行的进程间快速切换来实现的, 就好像一个杂耍艺人保持多个球在空中飞舞一样。 这种并发形式允许多个用户同时与系统交互, 例如, 当许多人想要从一个Web服务器获取页面时。 它还允许一个用户同时从事多 个任务, 例如, 在一个窗口中开启Web浏览器, 在另 一窗口中运行字处理器, 同时又播放音乐。 在以前, 即使处理器必须在多个任务间切换, 大多数实际的计算也都是由一个处理器来完成的。 这种配置称为单处理器系
- 当构建一个由单操作系统内核控制的多处理器组成的系统时, 我们就得到了一个多处理器系统。 其实从 20 世纪 80 年代开始, 在大规模的计算中就有了这种系统, 但是直到最近, 随着多核处理器和超线程 (hyperthreading) 的出现, 这种系统才变得常见。 下图给出了这些不同处理器类型的分类
- 多核处理器是将多个CPU(称为 “核")集成到一个集成电路芯片上。 下图描述的是一个典型多核处理器的组织结构, 其中微处理器芯片有4个CPU核, 每个核都有自己的Ll和 LZ高速缓存, 其中的Ll高速缓存分为两个部分 一个保存最近取到的指令, 另 一个存放数据。 这些核共享更高层次的高速缓存, 以及到主存的接口。 工业界的专家预言他们能够将几十个、 最终会是上百个核做到一个芯片上
- 超线程, 有时称为同时多线程(simultaneous multi-threading),是一项允许一个CPU执行多个控制流的技术。 它涉及CPU某些硬件有多个备份, 比如程序计数器和寄存器文件, 而其他的硬件部分只有一份, 比如执行浮点算术运算的单元。 常规的处理器需要大约20 000个时钟周期做不同线程间的转换, 而超线程的处理器可以在单个周期的基础上决定要执行哪一个线程。 这使得CPU能够更好地利用它的处理资源。 比如, 假设一个线程必须等到某些数据被装载到高速缓存中, 那CPU就可以继续去执行另一个线程。 举例来说,Intel Core i7处理器可以让每个核执行两个线程, 所以一个4核的系统实际上可以并行地执行 8个线程
- 多处理器的使用可以从两方面提高系统性能:
- 首先, 它减少了在执行多个任务时模拟并发的需要。 正如前面提到的, 即使是只有一个用户使用的个人计算机也需要并发地执行多个活动
- 其次, 它可以使应用程序运行得更快, 当然, 这必须要求程序是以多线程方式来书写的, 这些线程可以并行地高效执行
- 因此, 虽然并发原理的形成和研究已经超过50年的时间了, 但是多核和超线程系统的出现才极大地激发了一种愿望, 即找到书写应用程序的方法利用硬件开发线程级并行性。 第12章会更深入地探讨并发, 以及使用并发来提供处理器资源的共享, 使程序的执行允许有更多的并行
指令级并行
- 在较低的抽象层次上, 现代处理器可以同时执行多条指令的属性称为指令级并行。 早期的微处理器, 如1978年的Intel 8086, 需要多个(通常是3~10个)时钟周期来执行一条期的微处理器, 如1978年的Intel 8086, 需要多个(通常是3~10个)时钟周期来执行从开始到结束需要长得多的时间, 大约 20 个或者更多周期, 但是处理器使用了非常多的聪明技巧来同时处理多达 100 条指令。 在“处理器体系结构”文章中, 我们会研究流水线 (pipelining)的使用。 在流水线中,将执行一步骤。这些阶段可并行地操作,用来处理不同指令的不同部分。我们会看到一个相当简单的硬件设计,它能够达到接近一个时钟周期一条指令的执行速率
- 如果处理器可以达到比一个周期一条指令更快的执行速率, 就称之为超标量 (super-scalar)处理器。 大多数现代处理器都支持超标最操作。“优化程序性能”文章中, 我们将描述超标量处理 器的高级模型。 应用程序员可以用这个模型来理解程序的性能。 然后, 他们就能写出拥有 更高程度的指令级并行性的程序代码, 因而也运行得更快
单指令,多数据并行
- 在最低层次上, 许多现代处理器拥有特殊的硬件, 允许一条指令产生多个可以并行执行的操作, 这种方式称为单指令、 多数据, 即SIMD并行。 例如, 较新几代的 Intel 和AMD处理器都具有并行地对8对单精度浮点数CC数据类型float)做加法的指令
- 提供这些SIMD指令多是为了提高处理影像、 声音和视频数据应用的执行速度。 虽然 有些编译器会试图从C程序中自动抽取SIMD并行性, 但是更可靠的方法是用编译器支持的特殊的向量数据类型来写程序, 比如GCC就支持向量数据类型。 作为对第5章中比较通用的程序优化描述的补充, 我们在网络旁注OPT:SIMD中描述了这种编程方式