实用计算机原理小知识

一、数和指针

    1. C语言中,常量0.3是什么数据类型的?如果表示浮点型常量0.3要怎么写?

在C语言中,常量0.3默认是double类型的。如果想表示浮点型常量0.3,可以写作0.3f,这样就表示了一个float类型的常量。

在C语言中,如果一个浮点数后面没有加任何后缀,那么它就是double类型的;如果后面加了f或者F,那么它就是float类型的。

    1. 下面加法的含义一样吗,实现电路一样吗,指令一样吗?谁告诉机器不一样的?
  1. Int a=1; a+=1;
  2. Int a=1.5; a+=1;
  3. Float a=1;a+=1;

这三个加法操作的含义是不一样的,因为它们涉及到的数据类型不同。

在第一个和第二个例子中,使用了int类型,这是一个整数类型。然而,在第二个例子中,试图将一个浮点数(1.5)赋值给一个整数变量,这将导致小数部分被截断,因此a的值将为1。在第三个例子中,使用了float类型,这是一个浮点数类型,可以存储小数。

至于实现电路和指令,它们也会因为操作数的数据类型的不同而不同。整数和浮点数在计算机硬件中的表示和处理方式是不同的。例如,浮点数的加法需要更复杂的电路来处理尾数和指数的加法。

至于谁告诉机器这些操作不同,那就是编译器的工作了。编译器会根据代码生成相应的机器指令,这些指令会告诉计算机如何执行代码。所以,当写a+=1时,编译器会查看a的数据类型,然后生成相应的加法指令。如果a是整数,编译器会生成整数加法指令;如果a是浮点数,编译器会生成浮点数加法指令。

    1. 有符号,无符号数的比较时的逻辑规则一样吗,有符号数和无符号数比较是否需要两条不同的指令?

在C语言中,有符号数和无符号数的比较逻辑是不同的。

当有符号数和无符号数进行比较时,有符号数会被隐式地转换为无符号数。

至于指令问题,实际上在汇编层面,有符号数和无符号数的比较可以使用相同的比较指令,但是对比较结果的解读方式不同。例如,在ARM指令集中,CMP r5,r4这条指令可以用于比较有符号数和无符号数,但是后续的跳转指令会根据比较的数是有符号还是无符号来选择不同的条件。

例如,BCS(Branch if Carry Set)用于无符号数的比较,而BGE(Branch if Greater than or Equal)用于有符号数的比较。

    1. 整数和浮点数比较大小的逻辑一样吗?为什么浮点数计算慢?

整数和浮点数比较大小的逻辑:在大多数编程语言中,整数和浮点数的比较逻辑是一样的。这是因为当比较一个整数和一个浮点数时,整数会被转换为浮点数,然后进行比较。例如,如果比较5(一个整数)和5.0(一个浮点数),它们会被认为是相等的。

为什么浮点数计算慢:浮点数的计算通常比整数慢,有以下几个原因:

表示方式:浮点数使用更复杂的表示方式(通常是IEEE 754标准),需要更多的计算步骤来执行加法、乘法等操作。

精度:浮点数需要处理舍入误差和精度问题,这会增加计算的复杂性。

硬件支持:虽然现代的CPU都有专门的浮点单元,但是对于某些操作,整数的硬件实现可能更快。

总的来说,虽然浮点数提供了更大的范围和精度,但这些优点是以计算速度为代价的。在需要高性能的应用中,通常会尽可能地使用整数。但是,这并不意味着应该避免使用浮点数。正确的选择取决于具体需求和应用场景。如果需要处理的数据范围超过了整数可以表示的范围,或者需要进行的计算需要浮点数的精度,那么使用浮点数是合适的。如果性能是主要关注点,并且以在不牺牲精度的情况下使用整数,那么使用整数可能会更快。在实际编程中,应该根据具体需求来选择使用整数还是浮点数。

    1. 叙述一个浮点数给整型变量的赋值过程(以IEEE32浮点数为例,赋值给32bit整型变量)。

一个浮点数赋值给整型变量的过程可以分为以下几个步骤:

取整:首先,浮点数的小数部分会被截断,只保留整数部分。例如,如果你有一个浮点数3.14,那么在赋值给整型变量时,只会保留3。

范围检查:接下来,会检查浮点数的整数部分是否在整型变量的范围内。例如,如果你的整型变量是32位的,那么它可以表示的最大整数是2147483647。如果浮点数的整数部分超过了这个范围,那么结果会是未定义的。

赋值:如果浮点数的整数部分在整型变量的范围内,那么这个整数就会被赋值给整型变量。

需要注意的是,这个过程可能会丢失一些信息。因为浮点数的小数部分被截断,所以如果你有一个非常接近于下一个更大整数的浮点数,那么在赋值给整型变量后,这个信息就会丢失。例如,3.999999赋值给一个整型变量后,结果会是3,而不是4。

此外,如果浮点数的整数部分超过了整型变量的范围,那么结果会是未定义的。在某些编程语言中,这可能会导致溢出错误。因此,在将浮点数赋值给整型变量时,需要特别小心。如果可能,最好先检查浮点数的值,确保它在整型变量的范围内。

    1. 同样是32bit位,为什么存储整数和存储IEEE32浮点数,表示的范围不一样?是IEEE32表示方法更高效吗?

32位整数和32位IEEE浮点数的表示范围之所以不同,主要是因为它们的存储方式和解释方式不同。

整数:对于32位整数,所有的位都用来直接表示数值。对于无符号整数,它可以表示从0到2^32 - 1的整数。对于有符号整数(通常使用二进制补码表示),它可以表示从-2^31到2^31 - 1的整数。

IEEE 32位浮点数:对于32位IEEE浮点数,这32位被分为三个部分:符号位(1位)、指数(8位)和尾数(23位)。这种表示方法允许浮点数表示非常大或非常小的数,以及在一定范围内的精确小数。然而,这也意味着它不能像整数那样精确地表示所有的整数值。

所以,虽然32位整数和32位浮点数都使用32位存储,但由于它们的表示方法不同,所以它们的表示范围和精度也不同。这并不是说一种表示方法比另一种更高效,而是说它们各自适合于不同的用途。整数表示法在需要精确计数或者表示整数时非常有效,而浮点数表示法在需要表示大范围或者小数时非常有用。在实际应用中,应根据具体需求选择使用哪种类型的数。

    1. 为什么指针必须初始化,int *p; *p=10会发生什么?

在C语言中,指针是一个变量,其值为另一个变量的地址。当你声明一个指针变量(如int *p;)但没有初始化时,它的值是未定义的。这意味着,它可能指向任何地址,包括一些非法的或者不可访问的地址。

当试图通过一个未初始化的指针来赋值(如*p=10;),你实际上是在试图将10写入到一个未定义的地址。这通常会导致程序崩溃,因为这个地址可能是非法的或者不可访问的。这种错误被称为“野指针”。

因此,为了避免这种错误,应该在使用指针之前先对其进行初始化。你可以将其初始化为NULL,或者将其初始化为一个已知的、有效的地址。例如,可以这样做:

int x = 10;

int *p = &x;

在这个例子中,p被初始化为变量x的地址,所以*p=10;是安全的,它会将10写入到x中。

总的来说,未初始化的指针是危险的,应该避免在代码中使用。在使用指针之前,应该始终确保它已经被初始化为一个有效的地址。这是一种良好的编程习惯,可以帮助避免许多常见的错误。

    1. 用指针访问变量是提高了访问效率还是提供了便利?

使用指针访问变量主要是为了提供编程的便利性,而不是提高访问效率。以下是一些使用指针的场景:

动态内存分配:在C语言中,如果你需要在运行时分配内存,你需要使用指针。例如,你可以使用malloc函数来分配内存,这个函数会返回一个指向新分配内存的指针。

函数参数传递:如果你想在函数中修改一个变量的值,并且希望这个修改在函数外部也能看到,你需要通过指针来传递这个变量。

数据结构:许多复杂的数据结构,如链表、树和图,都需要使用指针来表示元素之间的关系。

数组操作:在C语言中,数组名实际上就是一个指向数组第一个元素的指针。通过指针,我们可以方便地遍历和操作数组。

然而,使用指针并不会提高访问变量的效率。实际上,通过指针访问变量可能会比直接访问变量稍微慢一点,因为你需要首先获取指针的值(即变量的地址),然后才能获取或修改变量的值。但是,这种差异通常非常小,对程序的总体性能影响不大。

总的来说,指针是一种强大的工具,它可以让你编写更灵活和高效的代码。然而,使用指针也需要谨慎,因为错误的使用指针可能会导致程序崩溃或者数据损坏。在使用指针时,你应该始终确保你的指针指向一个有效的地址,并且在使用指针之前,你应该始终检查它是否为NULL。这是一种良好的编程习惯,可以帮助你避免许多常见的错误。

    1. 结构体变量的赋值是深拷贝还是浅拷贝?

在C语言中,结构体变量的赋值是深拷贝。这意味着当你把一个结构体变量赋值给另一个结构体变量时,所有的成员都会被复制。例如:

struct MyStruct {

    int a;

    double b;

};

struct MyStruct x = {10, 20.5};struct MyStruct y = x;  // 这里是深拷贝

在这个例子中,y的成员a和b都会被设置为x的对应成员的值。这是一个深拷贝,因为y有自己的一份数据的拷贝,而不是指向x的数据。

然而,需要注意的是,如果结构体的成员是指针,那么这个指针的值(也就是它指向的地址)会被复制,但是它指向的数据不会被复制。这就是所谓的浅拷贝。例如:

struct MyStruct {

    int *p;

};

int x = 10;struct MyStruct a = {&x};struct MyStruct b = a;  // 这里是浅拷贝

在这个例子中,b.p和a.p都指向同一个地址(也就是x的地址)。如果你修改*b.p的值,那么*a.p的值也会改变,因为它们都指向同一个整数x。这是因为结构体的赋值只复制了指针的值,而没有复制指针指向的数据。这就是所谓的浅拷贝。如果你想要复制指针指向的数据,你需要手动地进行深拷贝。例如,你可以分配新的内存,并使用memcpy函数来复制数据。这是一种更复杂的操作,需要更多的编程技巧。在实际编程中,你应该根据你的具体需求来选择使用深拷贝还是浅拷贝。

10、指针赋值行为和指针的类型有关吗?为什么不同类型指针赋值时需要显示地强制类型转换,这个强制是影响指针的值还是其他目的?

指针的赋值行为确实与指针的类型有关。在C语言中,指针的类型决定了指针的步长,也就是指针在加1或减1时应该移动多少字节。例如,int*类型的指针在加1时会移动4个字节(在大多数现代系统上),而char*类型的指针在加1时只会移动1个字节。

当你试图将一个类型的指针赋值给另一个类型的指针时,你需要进行显式的类型转换。这是因为不同类型的指针可能有不同的表示和对齐要求。例如,int*类型的指针可能需要指向4字节对齐的地址,而char*类型的指针可以指向任何地址。如果你直接将int*类型的指针赋值给char*类型的指针,而这个int*指针指向的地址不是4字节对齐的,那么在通过这个char*指针访问数据时可能会发生错误。

类型转换不会改变指针的值(也就是它指向的地址),但会改变编译器如何解释这个地址。例如,如果你有一个int*类型的指针p,并且*p的值为12345,那么(char*)p仍然指向同一个地址,但*(char*)p的值可能就不是12345了,因为编译器会将这个地址当作char*类型的指针来解释。

总的来说,指针的类型对于指针的赋值行为是有影响的,而类型转换是一种告诉编译器如何解释指针值的方式。在使用指针时,你应该始终确保你的指针指向正确的类型,以避免数据错误和程序崩溃。在必要时,你可以使用类型转换,但应该尽量避免不必要的类型转换,因为它们可能会导致错误和混淆。在实际编程中,你应该始终尽量保持类型的一致性,这是一种良好的编程习惯,可以帮助你避免许多常见的错误。如果你需要在不同类型的指针之间转换,你应该始终确保你知道你在做什么,并理解这可能带来的后果。

二、堆和栈

  1. C语言编译的结果在内存中分为几个区,分别是什么?

C语言编译后的结果在内存中主要分为以下五个区域:

栈区(Stack):存放函数形参和局部变量(auto类型),由编译器自动分配和释放。

堆区(Heap):该区由程序员申请后使用,需要手动释放否则会造成内存泄漏。如果程序员没有手动释放,那么程序结束时可能由OS回收。

全局/静态存储区:存放全局变量和静态变量(包括静态全局变量与静态局部变量),初始化的全局变量和静态局部变量放在一块,未初始化的放在另一块。

文字常量区:常量在统一运行被创建,常量区的内存是只读的,程序结束后由系统释放。

程序代码区:存放程序的二进制代码,内存由系统管理。

  1. 栈存储那些变量,有什么特点?

栈(Stack)是一种特殊的数据结构,它的特点是只能在一端进行插入或删除操作。这一端通常被称为"栈顶"(Top),而另一端则被称为"栈底"(Bottom)。

在栈中,无论是存储数据还是取出数据,都必须遵循"先进后出"(Last In First Out,LIFO)的原则。也就是说,最先进栈的元素最后出栈,最后进栈的元素最先出栈。

在C语言中,栈主要用于存储函数的形参和局部变量。这些变量只在函数的生命周期内存在,当函数执行完毕后,这些变量就会被自动销毁。

栈的优势在于其存取速度快,仅次于寄存器。但是,栈的缺点是其存储空间相对较小,且存储在栈中的数据大小和生存期必须是确定的,缺乏灵活性。因此,对于需要动态分配存储空间的数据,通常会选择存储在堆(Heap)中。

  1. 通常使用递归的程序在编译时会增大栈的大小,为什么?

递归程序在编译时会增大栈的大小,主要是因为每次递归调用都会在栈上创建一个新的函数执行上下文(也称为栈帧)。这个栈帧包含了函数的局部变量、参数以及返回地址等信息。

在递归调用过程中,每一次新的递归调用都会产生一个新的栈帧,这些栈帧会一直保留在栈上,直到对应的递归调用结束。因此,如果递归调用的深度很大,或者每次递归调用都需要大量的栈空间,那么就会导致栈的大小迅速增大。

如果递归调用过多,占用的栈空间一直没有释放,就可能导致占用的栈资源超过线程的最大值,从而导致栈溢出,导致程序的异常退出。

  1. 为什么通常不在函数内部申请大尺寸的数组?

在函数内部申请大尺寸的数组通常是不推荐的,主要原因是这些数组占用的内存来自栈空间。栈空间是在进程创建时初始化的,有固定的大小,一般很小。因此,如果在函数内部申请一个太大的数组,可能会耗尽栈空间。

此外,栈空间的大小在Windows下一般为2MB,Linux下默认栈空间大小为8MB。如果数组过大,超过了这个限制,就会导致栈溢出,从而引发程序崩溃。

相比之下,全局变量一般分配在数据段,可以比较大。因此,如果需要使用大尺寸的数组,通常会选择在全局范围内定义,或者使用动态内存分配(例如malloc或new)在堆上分配内存。这样可以避免栈溢出的问题,同时也提供了更大的灵活性。

  1. 堆存储那些变量,为什么申请的堆内存必须自己释放?

堆(Heap)主要用于存储动态分配的数据。这些数据的大小和生命周期在编译时可能无法确定,因此需要在运行时动态分配。在C++中,我们使用new操作符来申请堆内存空间。

当我们申请堆内存时,操作系统会在一个记录空闲内存地址的链表中寻找第一个空间大于所申请空间的堆节点,然后将该节点从空闲节点链表中删除,并将该节点的空间分配给程序。使用new操作符后,会返回一个对应数据类型的指针,该指针指向了空间的首元素。

为什么申请的堆内存必须自己释放呢?这是因为大多数系统在程序结束运行后,不会自动回收我们自己分配的堆内存空间。如果我们不手动释放这些空间,就会导致系统资源枯竭,电脑的运行速度就会越来越慢,直至整个系统崩溃。我们把这种只申请空间不释放空间的情况称为内存泄露(Memory Leak)。

因此,当我们不再需要某块堆内存时,我们应该使用delete操作符来释放这块内存。这样可以避免内存泄漏,保证系统资源的有效利用。

  1. 要申请大尺寸的空间,应该怎么申请,还要注意什么?

在C语言中,如果你需要申请大尺寸的空间,可以使用malloc函数。malloc函数会向系统申请指定大小的内存空间,并返回一个指向该内存空间的指针。理论上,malloc可以申请的内存空间大小只受限于物理内存的大小。

然而,需要注意以下几点:

内存管理:malloc函数申请的内存空间位于堆区。这意味着你需要自己管理这些内存空间。当你不再需要这些内存空间时,你应该使用free函数来释放它们。否则,你的程序可能会出现内存泄漏,这会导致程序运行速度变慢,甚至导致程序崩溃。

内存碎片化:频繁地申请和释放小块的内存空间可能会导致内存碎片化。这会降低内存的利用率,甚至可能导致无法申请到连续的内存空间。

申请失败的处理:malloc函数在无法满足内存申请请求时会返回NULL。你的程序应该能够正确处理这种情况,以防止程序崩溃。

虚拟内存:现代操作系统通常会使用虚拟内存技术,这意味着你的程序看到的内存空间可能并不完全等同于实际的物理内存。因此,即使你的程序可以申请到大量的内存空间,也并不意味着你的程序可以无限制地使用内存。

  1. 编译器一定只能通过栈传递参数吗?通过栈传递的好处是什么?

编译器并不一定只能通过栈来传递参数。实际上,参数的传递方式取决于编译器的实现和所使用的应用程序二进制接口(ABI)。在某些情况下,编译器可能会选择使用寄存器来传递参数。例如,在64位模式下,前几个参数通常会通过寄存器传递。

通过栈传递参数有以下几个好处:

灵活性:栈可以容纳任意数量和类型的参数,这使得函数可以接受可变数量的参数。

隔离性:每个函数调用都有自己的栈帧,这意味着函数的局部变量和参数在函数调用之间是隔离的。这有助于防止函数之间的数据互相干扰。

简化设计:通过栈传递参数可以简化编译器的设计。因为栈是一种后进先出(LIFO)的数据结构,所以编译器可以很容易地跟踪参数和局部变量的生命周期。

然而,值得注意的是,虽然通过栈传递参数有其优点,但也存在一些缺点。例如,如果函数的参数太多,可能会导致栈溢出。此外,与寄存器相比,从栈中读取和写入数据的速度通常会慢一些。因此,编译器通常会根据具体的情况来选择最合适的参数传递方式。

  1. 为什么建议函数的参数传递时多用 const 指针或者const引用?

在C++编程中,建议函数的参数传递时多用 const 指针或者 const 引用,主要有以下几个原因:

保护数据:使用 const 可以防止函数修改传入的参数,这样可以保护数据的安全性。

提高效率:当传递大型对象时,使用引用可以避免复制对象,从而提高程序的效率。如果这个对象不应被改变,那么就应该使用 const 引用。

提供函数的正确性:如果函数不应修改传入的参数,那么使用 const 可以帮助编译器检查这一点,从而提高函数的正确性。

增强代码的可读性:使用 const 可以明确表明参数不应被修改,这样可以增强代码的可读性和可维护性。

总的来说,使用 const 指针或者 const 引用作为函数参数,可以提高代码的安全性、效率和可读性。

  1. 大多编译结果中,Main函数的内部变量都在栈上分配,其子函数中变量也在栈上分配,这两个栈是一样吗?参数入栈的过程是不是有多了一次变量(指针也是变量)的拷贝?

在C/C++编程中,main函数和其子函数的内部变量都是在栈上分配的。这些函数共享同一个栈,但每个函数有自己的栈帧。当一个函数被调用时,它的参数、返回地址和局部变量会被推入栈顶,形成一个新的栈帧。当函数返回时,其栈帧会被弹出,释放其在栈上分配的空间。

关于参数传递,当你将一个变量(或指针)作为参数传递给一个函数时,实际上是在栈上创建了该变量的一个副本。这意味着函数内部看到的是原始变量的一个拷贝,而不是原始变量本身。这就是所谓的“按值传递”。所以,你以说在参数传递过程中,进行了一次变量的拷贝。

然而,如果传递的是一个指针,那么在栈上创建的是指针变量的副本,而不是指针所指向的数据。这意味着函数可以通过指针来修改原始数据,因为复制的是指针(即内存地址),而不是指针所指向的数据。这就是所谓的“按引用传递”。

总的来说,main函数和其子函数在同一个栈上分配内存,但每个函数有自己的栈帧。参数传递确实涉及到变量的拷贝,但具体是拷贝变量本身还是拷贝指针,取决于是按值传递还是按引用传递。

10、把程序写成若干个函数,是为了便于组织和理解还是为了提高效率?

将程序写成若干个函数主要是为了便于组织和理解代码,而不是为了提高执行效率。以下是一些主要的原因:

模块化:每个函数都可以看作是一个模块,它完成一个特定的子功能。所有的函数按某种方法组装起来,成为一个整体,完成整个系统所要求的功能。

代码重用:如果一个代码段需要在多个地方使用,那么将这段代码写成函数就可以避免重复编写相同的代码。

易于维护:当程序的某个部分需要修改时,如果这部分代码被封装在一个函数中,那么只需要修改这个函数即可。

提高代码可读性:将复杂的代码段写成函数可以使主程序看起来更简洁,更容易理解。

方便调试:如果程序出现错误,将代码写成函数可以更容易地定位和修复错误。

虽然函数调用可能会增加一些运行开销,但是随着现代编译器技术的发展,例如内联函数等优化技术,这种开销已经大大减少。因此,将程序写成若干个函数主要是出于代码组织和可读性的考虑,而不是为了提高执行效率。

11、什么是内联函数?(自己查),既然需要内联,那么是不是用户尽量不用把代码切分成函数?

内联函数是一种编程语言结构,用来建议编译器对一些特殊函数进行内联扩展。如果一个函数被定义为内联的,那么在编译时,编译器会把该函数的代码副本放置在每个调用该函数的地方。这样可以节省每次调用函数带来的额外时间开支。但是,内联函数的使用是有所限制的,例如,如果函数体内的代码比较长,使用内联将导致内存消耗代价较高。

即使有了内联函数,我们仍然需要将代码切分成函数。函数的切分是为了提高代码的可读性和可维护性,以及实现代码的重用。虽然内联函数可以提高一些小函数的执行效率,但是并不意味着我们应该避免使用函数。相反,合理地使用函数和内联函数可以使我们的代码更加清晰、高效。

三、编译和链接

  1. 编译和链接的任务是什么?

编译和链接的任务是将我们编写的源代码转换成计算机可以执行的程序。具体来说:

编译:编译是将我们编写的源代码“翻译”成计算机可以识别的二进制格式,它们以目标文件的形式存在。编译器能够识别代码中的词汇、句子以及各种特定的格式,并将他们转换成计算机能够识别的二进制形式,这个过程称为编译。

链接:链接是一个“打包”的过程,它将所有的目标文件以及系统组件组合成一个可执行文件。链接器将编译中生成的中间文件和系统组件(比如标准库、动态链接库等)组合成一个可执行文件。

这两个步骤都是由特殊的软件工具(编译器和链接器)完成的。不管我们编写的代码有多么简单,都必须经过「编译 --> 链接」的过程才能生成可执行文件。

  1. 预处理属于编译还是编译前的步骤?

预处理是编译前的一个步骤。预处理主要处理以#开头的指令,例如#include 等。预处理主要是处理一些代码文本的替换工作,比如拷贝#include包含的文件代码,#define宏定义的替换,条件编译等。这些都是为编译做的预备工作的阶段。所以,预处理是在编译之前进行的。

  1. 头文件有什么作用?通常那些内容应该包含在头文件中?

头文件在编程中起着非常重要的作用。具体来说,头文件的主要作用包括:

1.提供接口:头文件为使用该模块的用户提供接口。接口指一个功能模块暴露给其他模块用以访问具体功能的方法用户只需包含相应的头文件就可使用该头文件中暴露的接口。

2.声明变量和函数:头文件中通常包含了C函数声明和宏定义,被多个源文件中引用共享。头文件中书写外部需要使用的全局变量、函数声明及数据类型和宏的定义。

3.类型定义:头文件中可以包含用户构造的数据类型(如枚举类型)。

4.宏定义:头文件中可以包含宏定义。

5.防止重复定义:如果一个头文件被引用两次,编译器会处理两次头文件的内容,这将产生错误。为了防止这种情况,标准的做法是把文件的整个内容放在条件编译语句中。

通常,头文件中应该包含以下内容:

1.宏定义:例如#define PI 3.14159。

2.类型定义:例如结构体、联合体和枚举类型的定义。

3.函数声明:例如void print_hello_world();。

4.全局变量的声明:例如extern int global_variable;。

5.常量的定义:例如const int MAX_SIZE = 100;。

6.内联函数的定义:例如inline int max(int a, int b) { return a > b ? a : b; }。

  1. 外部库文件的依赖是编译还是链接时用?

外部库文件的依赖主要在链接时使用具体来说:

静态库:静态库在链接阶段被链接到可执行文件中,因此对应的链接方式称为静态链接。静态库编译完成之后,完全不依赖于静态库,即便删除了静态库,程序仍然可以正确执行。

动态库:动态库在程序运行时才被载入。不同的应用程序如果调用相同的库,那么在内存里只需要有一份该共享库的实例。因此,动态库的依赖是在运行时需要的。

所以,外部库文件的依赖主要是在链接时使用的,但对于动态库,其依赖在运行时也是必要的

  1. 简述编译的过程。

编译的过程是将我们编写的源代码转换成计算机可以执行的程序。这个过程主要包括四个步骤:

预处理:预处理器会处理所有以#开头的指令,例如#include 等。预处理主要是处理一些代码文本的替换工作,比如拷贝#include包含的文件代码,#define宏定义的替换,条件编译等。这些都是为编译做的预备工作的阶段。

编译:编译阶段,编译器将预处理完的文本文件转化为汇编代码。编译器会检查语法错误,将源代码翻译成中间代码,例如汇编代码,对代码进行优化。

汇编:汇编阶段,汇编器将编译阶段生成的汇编代码转换为机器语言指令,把这些指令打包成一种叫做可重定位目标程序的格式。

链接:链接阶段,链接器将各个目标文件以及系统组件组合成一个可执行文件。链接器将编译中生成的中间文件和系统组件(比如标准库、动态链接库等)组合成一个可执行文件。

这四个步骤都是由特殊的软件工具(预处理器、编译器、汇编器、和链接器)完成的。不管我们编写的代码有多么简单,都必须经过「预处理 --> 编译 --> 汇编 --> 链接」的过程才能生成可执行文件。

  1. 编译器能帮程序员发现那些错误?

编译器可以帮助程序员发现多种类型的错误,包括但不限于以下几种:

语法错误:这是最基本的错误类型,编译器会检查代码是否符合编程语言的语法规则。例如,如果在 C++ 中忘记在语句末尾添加分号,编译器就会报告语法错误。

类型错误:编译器会检查变量和表达式的数据类型是否正确。例如,如果试图将字符串赋值给整型变量,编译器就会报告类型错误。

声明错误:如果使用了未声明的变量或函数,编译器会报告错误。

链接错误:当编译器试图链接不同的代码文件(或编译单元)以创建可执行程序时,可能会发现一些错误。例如,如果一个文件中引用了另一个文件中定义的函数,但该函数在链接时找不到,编译器就会报告链接错误。

运行时错误:虽然这些错误通常在程序运行时由操作系统检测,但某些编译器可能会提供一些静态分析工具,以在编译时尽可能地发现这些错误。例如,除以零或空指针解引用等错误。

请注意,尽管编译器可以帮助发现许多错误,但并非所有错误都可以在编译时检测到。有些错误,如逻辑错误或某些运行时错误(如数组越界),可能需要其他工具或手动测试来发现。

四、DLL

  1. DLL和LIB的区别?

DLL(动态链接库)和LIB(静态链接库)都是代码共享的方式,但它们在使用和实现上有一些关键的区别:

编译和运行时需求:LIB是在编译时需要的,因为它包含了函数的实际执行代码。而DLL是在运行时需要的,因为它包含的函数代码由运行时加载在进程空间中的DLL提供。

文件大小:使用LIB会产生一个相当大的可执行文件,因为所有的库代码都被直接包含在最终生成的EXE文件中。而使用DLL,可执行文件只需要包含对DLL函数的引用,实际的函数代码在DLL文件中,这样可以减小EXE文件的大小。

代码重用:在编写新版本或全新的应用程序时,DLL比LIB更容易重复使用。DLL文件可以被其他应用程序使用,而LIB文件不能。

内存占用:如果采用静态链接库,lib中的指令都全部被直接包含在最终生成的EXE文件中了,最终的可执行文件exe会比较大。但是若使用DLL,该DLL不必被包含在最终EXE文件中,EXE文件执行时可以“动态”地引用和卸载这个与EXE独立的DLL文件。这种方式不仅减少了EXE文件的大小和对内存空间的需求,而且使这些DLL模块可以同时被多个应用程序使用。

总的来说,这两种库都有各自的优点,选择使用哪种库取决于具体的应用需求。

  1. 静态编译和依赖DLL的编译结果有何区别?是不是你程序使用的所有函数都可以被静态编译到你的项目中?

静态编译和依赖DLL的编译结果之间有一些关键的区别:

编译和运行时需求:静态编译在编译可执行文件时,会把需要用到的对应动态链接库中的部分提取出来,连接到可执行文件中去,使可执行文件在运行时不需要依赖于动态链接库。而依赖DLL的编译结果,可执行文件需要附带一个动态链接库,在执行时,需要调用其对应动态链接库的命令。

文件大小和内存占用:静态编译会导致程序体积较大,因为所有的库代码都被直接包含在最终生成的EXE文件中。而依赖DLL的编译结果,EXE文件执行时可以“动态”地引用和卸载这个与EXE独立的DLL文件。这种方式不仅减少了EXE文件的大小和对内存空间的需求,而且使这些DLL模块可以同时被多个应用程序使用。

维护和更新:静态编译的应用程序,当库代码发生变化时,需要重新编译和链接应用程序。而依赖DLL的编译结果,当DLL中的函数或数据发生变化时,只需要替换DLL文件,不需要重新编译和链接应用程序。

至于你的第二个问题,是否所有函数都可以被静态编译到你的项目中,这取决于这些函数是否提供了静态库(.lib或.a文件)。如果函数只在DLL中提供,那么你不能将它们静态编译到你的项目中。你必须在运行时动态加载这些DLL。此外,静态库中不能再包含其他的动态链接库或者静态库,而在动态链接库中还可以再包含其他的动态或静态链接库。

  1. DLL的导出函数有几种形式?

DLL中导出函数的声明有两种方式:

__declspec(dllexport):在函数声明中加上__declspec(dllexport)。例如:

extern "C" __declspec(dllexport) int TestFuction(int nType, char *strPath, std::vector &vecData){

    // do anything here

    return 0;

}

模块定义(.def)文件声明:采用模块定义(.def)文件声明。例如,包含用于实现链表的代码的DLL LIST可能如下所示:

LIBRARY LIST

EXPORTS

Add @1

Delete @2

Modify @3

Find @4

这两种方式都可以用来导出DLL中的函数,但是它们在使用上有一些区别。使用__declspec(dllexport)可以直接在函数声明中指定要导出的函数,而使用.def文件则需要在单独的文件中列出所有要导出的函数。此外,如果你的DLL是供VB、PB、Delphi用户使用的,那么会产生一个小麻烦。因为VC++编译器对于__declspec(dllexport)声明的函数会进行名称转换,如下面的函数:__declspec(dllexport) int __stdcall Add()会转换为Add@0,这样你在VB中必须这样声明:Declare Function Add Lib "DLLTestDef.dll" Alias "Add@0" () As Long。这显然不太方便。所以如果要想避免这种转换,就要使用.def文件方式导出函数了。

  1. 调用其他DLL有哪些方法,各自的步骤是什么?

调用DLL有两种方法:静态调用和动态调用。

静态调用的步骤如下:

把你的youApp.DLL拷到你目标工程 (需调用youApp.DLL的工程)的Debug目录下;

把你的youApp.lib拷到你目标工程 (需调用youApp.DLL的工程)目录下;

把你的youApp.h (包含输出函数的定义)拷到你目标工程 (需调用youApp.DLL的工程)目录下;

打开你的目标工程选中工程,选择Visual C++的Project主菜单的Settings菜单;

执行第4步后,VC将会弹出一个对话框,在对话框的多页显示控件中选择Link页。 然后在Object/library modules输入框中输入:youApp.lib

选择你的目标工程Head Files加入:youApp.h文件;

最后在你目标工程 (*.cpp,需要调用DLL中的函数)中包含你的:#include "youApp.h"

动态调用的步骤如下:

加载动态库:HINSTANCE hDllInst = LoadLibrary (“youApp.DLL”);

根据函数名获取函数地址:typedef DWORD (WINAPI *MYFUNC) (DWORD,DWORD); MYFUNC youFuntionNameAlias = NULL; youFuntionNameAlias = (MYFUNC)GetProcAddress (hDllInst,“youFuntionName”);

获取导出类对象指针,调用导出函数:youFuntionNameAlias (param1,param2);

卸载dll:FreeLibrary (hDllInst);

请注意,这里的"youApp"是你DLL的工程名,"youFuntionName"是在DLL中声明的函数名,"youFuntionNameAlias"是函数别名,"param1"和"param2"是函数参数。具体的函数名、参数和别名需要根据你的实际情况进行替换。

五、磁盘和文件

  1. 磁盘存储数据的最小单位是什么?操作系统组织磁盘的逻辑单位通常是什么?

磁盘存储数据的最小单位是扇区。每个扇区通常存储512字节,也有部分厂商设定每个扇区的大小是4096字节。

操作系统组织磁盘的逻辑单位通常是块或簇。操作系统将相邻的扇区组合在一起,形成一个块,对块进行管理。每个磁盘块可以包括2、4、8、16、32、64等2的n次方个扇区。这是操作系统针对硬盘读写的最小单元。

  1. 磁盘随着使用为什么一定有碎片?磁盘碎片影响文件读写效率吗?为了提高效率磁盘碎片是否需要整理?

磁盘在使用过程中会产生碎片,这主要是因为文件在存储时并不总是连续存放的。当一个文件被删除或修改时,它在磁盘上占用的空间可能会被其他文件部分占用,这就导致了文件的碎片化。此外,应用程序所需的物理内存不足,或者操作系统在运行过程中产生的临时交换文件,也可能导致文件占用了硬盘空间,从而产生大量的碎片。

磁盘碎片确实会影响文件的读写效率。当文件被分散存储在磁盘的不同位置时,磁头需要在这些位置之间来回移动以读取完整的文件,这就增加了寻址的时间,降低了磁盘的访问速度。因此,通过整理碎片,可以重新组织磁盘上的数据,使其更加紧凑和有序,从而提升系统的响应速度和整体性能。

然而,值得注意的是,对于固态硬盘(SSD)和其他闪存类硬盘,由于其读写次数有限,频繁的读写操作可能会缩短其寿命。因此,如果你的电脑硬盘是SSD或其他闪存类硬盘,我们通常不建议进行磁盘碎片整理。相反,机械硬盘可以进行碎片整理,但仍需注意使用频率。总的来说,定期进行磁盘碎片整理是有助于提高系统性能的,但也需要根据硬盘类型和使用情况来适当调整整理频率。

  1. 一个文件尺寸大于一个簇的长度,SSD存储这个文件所用的空间是不是连续的?如果不连续是否影响读写效率?SSD会出现存储的碎片吗?实现需要整理?

在理想的情况下,计算机将文件的数据块放进硬盘时,每一个文件的数据块都是一块接着一块连续存放的。我们可以将这种文件称为连续文件。然而在实际应用中,同一个文件在硬盘空间上,不一定都连续存放在一起。

固态硬盘(SSD)的读写原理能够非常快速地找到任何一块数据,寻址时间几乎可以忽略不计。因此,即使文件在SSD上的存储空间不连续,也不会像机械硬盘那样影响读写效率。

至于碎片问题,SSD确实会出现存储的碎片。但是,由于SSD的特性,碎片对SSD来说,压根就没有什么影响。反而,进行碎片整理可能会缩短SSD的使用寿命,因为这会增加不必要的擦写次数。所以,对于SSD来说,通常不需要进行碎片整理。在Windows 10系统中,微软已经将“磁盘碎片整理程序”升级为“碎片整理和优化驱动器”,它可以自动识别并对机械硬盘进行碎片整理,且对固态硬盘进行优化。所以,完全没有必要去关闭系统自带的碎片整理功能,系统设置保持默认就可以了。总的来说,SSD的数据本来就应该是分散和碎片化的,这是正常的并且对硬盘寿命有好处。

  1. 常见的文件系统有哪些?

常见的文件系统有以下几种:

FAT文件系统:FAT文件系统诞生于1977年,最初是为软盘设计的文件系统,后来随着微软推出dos和win 9x系统,FAT文件系统经过适配被逐渐用到了硬盘上,并且在那时的20年中,一直是主流的文件系统。

NTFS文件系统:NTFS是一种比FAT32功能更加强大的文件系统,从windows 2000之后的windows系统的默认文件系统都是NTFS,而且这些windows系统只能够安装在NTFS格式的磁盘上。

ExtFAT文件系统:ExtFAT也是微软开发的文件系统,它是专门为闪存盘设计的文件系统,单个文件突破了4G的限制,而且分区的最大容量可达64ZB,建议512TB。

ext2文件系统:ext2是为解决ext文件系统的缺陷而设计的可扩展的、高性能的文件系统,又被称为二级扩展文件系统。

ext3文件系统:ext3是ext2文件系统的日志版本,它在ext2文件系统中增加了日志的功能。

reiserFS文件系统:reiserFS是Linux环境下最稳定的日志文件系统之一。

VFAT文件系统:VFAT主要用于处理长文件的一种文件名系统,它运行在保护模式下并使用VCACHE进行缓存,并具有和Windows系列文件系统和Linux文件系统兼容的特性。

APFS文件系统:APFS是苹果公司发布的新的文件格式,替代目前所使用的HFS+格式。

  1. 一个磁盘格式化时,使用了FAT32系统为什么不能保存超过4G大小的文件?

FAT32文件系统不能保存超过4GB大小的文件,这是由于FAT32文件系统的设计限制。在FAT32文件系统中,文件大小是由一个32位的字段来记录的,这个字段的最大值是2^32-1字节(大约4GB)。但是,由于历史原因,FAT32实际上只能支持到4GB减去1字节的文件大小。这就是为什么FAT32文件系统不能保存超过4GB大小的文件的原因。如果你需要保存大于4GB的文件,你可能需要使用其他的文件系统,如NTFS或exFAT12。

  1. 磁盘调度算法有哪些?如果使用SSD作为外存,需要使用磁盘调度算法吗?

常见的磁盘调度算法有以下几种:

FCFS(先来先服务):这是最简单的磁盘调度算法,根据进程请求访问磁盘的先后顺序进行调度。

SSTF(最短寻道时间优先):此算法选择处理距离当前磁头位置的最短寻道时间的请求。

SCAN(扫描算法,也叫电梯调度算法):对于扫描算法,磁臂从磁盘的一端开始,向另一端移动;在移过每个柱面时,处理请求。当到达磁盘的另一端时,磁头移动方向反转,并继续处理。

C-SCAN(循环扫描算法):C-SCAN调度算法基本上将这些柱面作为一个环链,将最后柱面连到首个柱面。

LOOK(LOOK调度):LOOK和C-LOOK调度,它们在向特定方向移动时查看是否会有请求。

至于SSD,由于其内部结构与机械硬盘不同,因此不需要使用传统的磁盘调度算法。SSD没有机械部件,因此不存在寻道时间的问题。SSD的固件会处理所有的读写请求,以优化性能并最大限度地延长设备的使用寿命。因此,操作系统不需要管理SSD的调度算法策略。然而,操作系统仍然可以执行I/O优化算法,以优化外部存储设备的I/O性能。

六、存储管理

  1. 什么叫程序的局部性原理?主要表现在那两个方面?

程序的局部性原理是指程序在执行时呈现出局部性规律,即在一段时间内,整个程序的执行仅限于程序中的某一部分。相应地,执行所访问的存储空间也局限于某个内存区域。局部性原理主要表现在以下两个方面:

时间局部性:指的是在程序运行过程中最近被引用到的存储器位置在程序执行后期还会被多次引用到的可能性很大。这是因为程序存在着循环。

空间局部性:指的是程序运行过程中如果一个存储器的位置被引用,那么在程序执行后期该存储器附近的位置被引用的可能性很大。这是因为程序中大部分指令是顺序存储和顺序被取出来的执行。

这两种局部性原理在优化程序性能,特别是在内存管理和缓存设计中,起着非常重要的作用。

  1. 寄存器,cache,和内存的存取延时大约是多长时间?

寄存器、Cache和内存的存取延时各不相同,具体如下:

寄存器:寄存器是中央处理器的组成部分,可用来暂存指令、数据和地址。寄存器最靠近CPU,随取随用,速度最快。

Cache:Cache即高速缓冲存储器,位于CPU与内存之间,容量小但速度快。由于CPU快而内存慢,CPU不存在直接读/写内存的情况,每次读/写内存都要访问Cache1。Cache访问延迟没有具体的指标,厂商不会公布这些,也许内部材料有,但对外肯定没有。

内存:内存的一个存储周期是从存储器收到有效地址 (EA)开始,经过地址译码、驱动,直到被访问的存储单元被读出/写入为止。内存时序4个数字对应的参数分别为CL、tRCD、tRP、tRAS,单位都是时间周期,也就是一个没有单位的纯数字。

  1. 每个进程访问的数据都被映射到不同的物理内存中?此时两个进程是否可以通过共享内存地址实现数据通信?

每个进程都有自己的虚拟地址空间,这些虚拟地址通过页表映射到物理内存。这意味着每个进程访问的数据通常都被映射到不同的物理内存中。

然而,两个或更多的进程可以通过共享内存来实现数据通信。共享内存允许多个进程访问同一块内存,就像malloc()函数向不同的进程返回了指向同一个物理内存区域的指针一样。当一个进程向共享内存写入数据时,所有共享这个内存区域的进程都可以立即看到其中的内容。但是,使用共享内存需要注意同步、安全和内存泄漏等问题,可以使用信号量、互斥锁等同步机制来保证数据的正确性。

  1. 两个进程的段描述符相同,会不会出现数据访问的冲突?

在操作系统中,每个进程都有自己的虚拟地址空间,这些虚拟地址通过页表映射到物理内存。因此,即使两个进程的段描述符相同,它们也不会访问到同一块物理内存。这意味着它们不会出现数据访问的冲突。

然而,两个或更多的进程可以通过共享内存来实现数据通信。共享内存允许多个进程访问同一块内存,就像malloc()函数向不同的进程返回了指向同一个物理内存区域的指针一样。当一个进程向共享内存写入数据时,所有共享这个内存区域的进程都可以立即看到其中的内容。但是,使用共享内存需要注意同步、安全和内存泄漏等问题,可以使用信号量、互斥锁等同步机制来保证数据的正确性。

  1. 什么是缺页中断?缺页时操作系统该怎做?

缺页中断是当程序试图访问已映射在虚拟地址空间中,但是并未被加载在物理内存中的一个分页时,由中央处理器的内存管理单元所发出的中断。这是操作系统实现虚拟内存管理的核心机制之一。

当发生缺页中断时,操作系统会进行以下步骤:

1.硬件陷入内核,在堆栈中保存程序计数器,将当前指令的各种状态信息保存在特殊的 CPU 寄存器中;

2.保存通用寄存器和其他易失的信息,以免被操作系统破坏;

3.当操作系统发现一个缺页中断时,尝试发现需要哪个虚拟页面。通常一个硬件寄存器包含了这一信息,如果没有的话,操作系统必须检索程序计数器,取出这条指令,用软件分析这条指令,看看它在缺页中断时正在做什么;

4.一旦知道了发生缺页中断的虚拟地址,操作系统检查这个地址是否有效,并检查存取与保护是否一致。如果不一致,向进程发出一个信号或杀掉该进程。如果地址有效且没有保护错误发生,系统则检查是否有空闲页框。如果没有空闲页框,执行页面置换算法寻找一个页面来淘汰;

5.如果选择的页框“脏”了,安排该页写回磁盘,并发生一次上下文切换,挂起产生缺页中断的进程,让其他进程运行直至磁盘传输结束。无论如何,该页框被标记为忙,以免因为其他原因而被其他进程占用;

6.一旦页框“干净”后,操作系统查找所需页面在磁盘上的地址,通过磁盘操作将其装入。该页面被装入后,产生缺页中断的进程仍然被挂起,并且如果有其他可运行的用户进程,则选择另一个用户进程运行;

7.当磁盘中断发生时,表明该页已经被装入,页表已经更新可以反映它的位置,页框也被标记为正常状态;

8.恢复发生缺页中断指令以前的状态,程序计数器重新指向这条指令;

9.调度引发缺页中断的进程,操作系统返回调用它的汇编语言程序;

10.该程序恢复寄存器和其他状态信息,返回到用户空间继续执行。

这样,操作系统可以在有限的物理内存下运行更多的程序,并能够支持更大的进程空间。同时,缺页中断还能够实现页面置换和页面回收等功能,提高系统的性能和资源利用率。

  1. 页面替换算法有哪些,各有什么优缺点?

页面替换算法主要有以下几种:

最优页面置换算法(OPT,Optimal):当一个缺页中断发生时,选择在它的下一次访问之前,还需要等待最长时间的那个页面,作为被置换的页面。

优点:可以保证获得最低的缺页率。

缺点:这只是一个理想的情况,在实际系统中是无法实现的,因为操作系统无从知道每一个页面要等待多长时间以后才会再次被访问。

先进先出算法(FIFO,First-In First-Out):选择在内存中驻留时间最长的页面并淘汰之。

优点:实现简单。

缺点:性能较差,调出的页面有可能是经常要访问的页面,并且有Belady现象(给的物理页帧越多,产生缺少的次数越大)。

最近最久未使用算法(LRU,Least Recently Used):当一个缺页中断发生时,选择最久未使用的那个页面,并淘汰之。

优点:它是对最优页面置换算法的一个近似,其依据是程序的局部性原理。

缺点:LRU算法需要记录各个页面使用时间的先后顺序。开销比较大。

时钟页面置换算法(Clock):把各个页面组织形成环形链表(类似钟表面),把指针指向最老的页面(最先进来)。当发生一个缺页中断时,考察指针所指向的最老页面。若它的访问位为0,立即淘汰;若访问位为1,则把该位置为0,然后指针往下移动一格。

优点:实现简单,但是产生的缺页次数比较多。

缺点:由于该算法是循环地检查各页面的使用情况,故称为Clock算法。但因该算法只有一位访问位,只能用它表示该页是否已经使用过,而置换时是将未使用过的页面换出去,故又把该算法称为最近未用算法NRU (Not Recently Used)。

以上就是一些常见的页面置换算法及其优缺点。具体选择哪种算法,需要根据实际的系统需求和资源情况来决定。

  1. 为什么一二级cache中,多采用改进的哈弗结构?其他地方为什么不用?

在一二级缓存中,通常采用改进的哈佛结构,主要是因为它能有效地解决取址和取数的冲突问题。在哈佛结构中,指令和数据存储在不同的存储器中,这样可以实现并行处理,即在同一时间内,处理器可以同时获取指令和数据。

然而,其他地方并不常用改进的哈佛结构,主要有以下几个原因:

哈佛结构的设计相对复杂,对外围设备的连接与处理要求高,不适合外围存储器的扩展。

在动态加载程序上,哈佛结构存在问题。如果我们从外存中读取一段程序然后加载到RAM,这个程序是在数据内存中的,我们需要一种机制将数据内存再传输到程序内存中去,这反而增加了设备复杂度。

对于多任务操作系统来说,管理程序内存是一件非常重要的事情,而且仅仅是保护模式下的页面映射等等机制就已经足够复杂了,如果还要求将程序和数据分开管理,复杂度就太高了。

因此,虽然哈佛结构在一二级缓存中的应用效果良好,但在其他地方,由于其设计复杂性和对硬件的高要求,使用冯·诺依曼结构往往更为合适。

  1. Cache替换算法有哪些,各有什么优缺点?

Cache替换算法是用于决策淘汰哪个缓存元素的一类算法,主要作用是挖掘程序访存行为的时间局部性,尽可能将未来最有可能被频繁访问到的数据保留在缓存中,以提高缓存命中率,降低系统延迟。以下是一些常见的Cache替换算法及其优缺点:

Belady 最优策略:此算法在已知未来所有访问记录的前提下,每次都替换未来不再被访问/最远被访问的现存数据。该算法是理论上的最优算法,因为需要已知未来所有访问记录,并不具备可实现性,通常用于衡量其它缓存替换算法的优劣。

随机替换策略:从现存数据中随机选择一个元素进行替换,该算法不需要维护历史访问记录的任何信息,实现上简单高效,但命中率通常一般。

先进先出算法(FIFO):每次替换最先进入缓存的数据,该算法认为最先进入的数据在将来被访问到的可能性最小。FIFO 算法存在 Belady 现象:在某些情况下,缓存容量增大命中率反而降低。

最近最少使用算法(LRU):每次替换最久未被访问的数据,该算法认为最近一段时间没有被访问到的数据在将来被访问的可能性最小,这种策略在实际中应用较广。

最近最不常用算法(LFU):每次替换访问次数最小的数据,该算法的思想是最近一段时间被访问次数最小的数据在将来被访问的可能性最小。

重引用间隔预测策略(RRIP):使用 M bits 来存储每个数据的 RRPV 值,RRPV 值随着每个数据被访问的频率动态变化,每次替换 RRPV 值等于 的数据。

近似 Belady 最优策略(Hawkeye):通过使用过去的访问记录来模拟 OPT 算法的行为产生输入来训练 Hawkeye Predictor,再基于 Predictor 做决策。

机器学习策略(PARROT):将缓存替换任务建模为强化学习任务,目标是找到能使长期累积奖赏最大化的缓存替换策略。

  1. Cache替换算法是软件实现的还是硬件?

Cache替换策略是由硬件电路完成的。虽然有些替换策略在理论上看起来很有吸引力,但由于硬件实现的复杂性,它们可能并不适合在实际硬件中使用。

例如,最近最少使用(LRU)算法就需要大量的硬件资源来跟踪所有缓存行的使用情况。因此,在实际的硬件设计中,通常会选择一种在性能和实现复杂性之间取得平衡的替换策略。例如,随机替换策略在硬件上容易实现,且速度也比前两种算法快。但是有可能替换最近访问行而降低 Cache 的命中率。总的来说,Cache替换策略的选择需要综合考虑性能、成本和实现复杂性等多个因素。

10、什么是全相连,直接相连和组相连,各自有什么优缺点?

全相连、直接相连和组相联是描述Cache和主存之间地址映射关系的三种方式。

全相连映射:主存中的任意一个块可以映射到Cache中的任意一行。这种方式的优点是灵活性好,只要Cache中有空行,就可以调入所需的主存数据块。但是,它的缺点是利用效率不高,因为存在了一个m位的标记位,使Cache的行包含了一些对存储无用的信息。此外,每次访问Cache时,需要将一个一个遍历并比较标记,才能判断所需主存的字块是否在Cache中,因此速度较慢,硬件成本也较高。全相联映射方式更适用于小容量的Cache。

直接相连映射:主存中的每个块只能映射到Cache中的固定块。这种方式的优点是硬件实现简单,成本低。但是,它的缺点是灵活性差,每个主存块只有一个固定的行可以存放,因此即便Cache中有大量空闲空间可用,某个Cache块所存储的内容仍可能被替换出去。如果Cache容量比较小,则非常容易发生冲突,频繁替换,效率大大降低。直接映射方式一般用于大容量的Cache。

组相连映射:主存中的每个块只能映射到Cache固定组中的任意块。这种方式是全相联映射方式和直接映射方式的折中方案,既有全相联映射的特点,又有直接映射的优点。组内有一定的灵活性,而且因组内行数较少,比较的硬件电路比全相联方式简单些。而且空间利用率比直接映射方式要高。组相联映射的每组的行数v一般取值较小,典型值位2,4,8,16。经过长期的工程实践,发现8路组相连是一个性能分界点。8路组相连的命中率几乎和全相联命中率几乎一样,超过8路,组内对比延迟带来的缺点就超过命中率提高带来的好处了。这三种方式各有优缺点,组相连是个折衷的选择,适合大部分应用环境

11、主存的访问时间为100ns,Cache的访问时间为5ns,命中率为90%。则Cache-主存层次的平均访问时间为多少?

Cache-主存层次的平均访问时间可以通过以下公式计算:

Tavg​=Thit​×Phit​+Tmiss​×Pmiss​

其中,Thit​ 是命中时间,Phit​ 是命中率,Tmiss​ 是未命中时间,Pmiss​ 是未命中率。

在这个问题中,Thit​=5ns,Phit​=90%=0.9,Tmiss​=Thit​+Tmemory​=5ns+100ns=105ns,Pmiss​=1−Phit​=1−0.9=0.1。

将这些值代入公式,我们得到:

Tavg​=5ns×0.9+105ns×0.1=15ns

所以,Cache-主存层次的平均访问时间为15ns。

12、Cache的主存修改策略有哪两种?各有什么优缺点。

Cache的主存修改策略主要有两种:

写回法(Write-Back):只修改Cache的内容,而不立即写入主存。只有当此行被换出时才写回主存。这种策略的优点是减少了访问主存的次数,从而提高了系统的性能。但是,它的缺点是存在Cache与主存内容不一致的隐患。实现该方法时,Cache每行必须配置一个修改位,以反映此行是否被CPU修改过。在准备替换某个行时,若这个行的修改位反映了它被CPU修改过,则先把这行数据写入主存再替换它。

全写法(Write-Through):在这种策略中,CPU同时对Cache和主存写数据,这样就保证了数据的一致性。不过由于数据向读写速度很慢的主存写输入,会消耗CPU额外的时间,所以通常CPU会先向缓存区(Buffer)当中写入数据,再由缓冲区写入主存当中。

这两种策略各有优缺点,具体选择哪种策略,需要根据实际的系统需求和资源情况来决定。

七、进程和通信

  1. 进程和程序是什么区别?

进程和程序的主要区别在于:

动态性与静态性:程序是静态的,它只是一组有序指令的集合,存储在磁盘上。而进程是动态的,它是程序的一次执行过程,具有生命周期。

并发性:进程具有并发性,可以并行执行。而程序不能并发执行。

独立性:进程是系统进行资源分配和调度的一个独立单位。而程序不能作为一个独立的单位参与运行。

程序和进程的对应关系:一个程序可以对应多个进程,即多个进程可以执行同一程序;一个进程可以执行一个或几个程序。

总的来说,程序是被动的,它需要通过进程这个主动的实体来执行。进程是程序的一次执行过程,它有自己的生命周期,并且可以并行执行。

  1. 假设CPU是单核心的,多进程程序是如何并发执行的?如果每个进程运行时只需要CPU资源,那么多进程在单核心上运行效率会变高吗?

在单核CPU中,多进程程序并发执行是通过操作系统的进程调度机制实现的。操作系统会为每个进程分配一定的CPU时间片,当一个进程的时间片用完后,操作系统会将CPU的控制权交给下一个进程。这个过程非常快,以至于用户感觉所有进程似乎都在同时运行。

然而,虽然多进程可以提高CPU的利用率,但在单核CPU上,并不一定能提高运行效率。原因有以下几点:

上下文切换开销:每次进程切换,操作系统都需要保存当前进程的状态,并加载下一个进程的状态。这个过程称为上下文切换,会消耗一定的CPU时间。

资源竞争:如果多个进程都需要访问同一资源(如内存、磁盘等),可能会导致资源竞争,从而降低运行效率。

所以,多进程在单核心上运行效率是否会提高,取决于具体的程序和工作负载。如果进程之间的通信和同步开销较大,那么多进程可能并不会带来性能提升。相反,如果进程可以独立运行,且I/O操作较多,那么多进程可能会提高系统的响应速度和吞吐量。

  1. 每个进程都是操作系统调度的基本单位,正常情况下一个程序所需要的资源不全是CPU。那么同一个任务如果拆分成多个进程执行,会不会提高效率?为什么?

将同一个任务拆分成多个进程执行,是否能提高效率,取决于多种因素:

任务的性质:如果任务可以自然地分解为多个独立的子任务,并且这些子任务之间的通信和同步开销较小,那么使用多进程可能会提高效率。例如,如果你正在编写一个网络服务器,那么你可能会为每个客户端连接创建一个单独的进程。

资源的利用:多进程可以更好地利用多核CPU,因为操作系统可以将不同的进程调度到不同的CPU核心上运行。此外,如果任务涉及到大量的I/O操作(如磁盘读写或网络通信),那么使用多进程可以在一个进程等待I/O完成时,让CPU去执行其他进程,从而提高系统的响应速度和吞吐量。

开销的考虑:然而,创建和管理进程需要消耗一定的系统资源。每个进程都有自己的地址空间,需要占用一定的内存。此外,进程之间的切换(称为上下文切换)也需要消耗CPU时间。如果进程的数量过多,或者进程之间需要频繁地通信和同步,那么这些开销可能会降低系统的效率。

因此,是否应该使用多进程,需要根据具体的应用场景和需求来决定。在某些情况下,使用多线程或异步I/O等技术,可能会比使用多进程更加高效。在设计并发程序时,需要综合考虑这些因素,选择最适合的并发模型。

  1. 进程分为哪几个状态,是怎么切换的?

进程的状态主要分为以下几种:

新建态(New):对应于进程被创建时的状态,尚未进入就绪队列。

就绪态(Ready):进程已经分配除CPU以外的所有必要资源,只要再获得CPU,便可立即执行。

运行态(Running):进程已获得CPU,其程序正在执行。

等待态(Wait):又称阻塞态或睡眠态,指进程不具备运行条件,正在等待某个时间完成的状态。

终止态(Exit):指进程完成任务到达正常结束点,或出现无法克服的错误而异常终止,或被操作系统及有终止权的进程所终止时所处的状态。

进程状态的转换主要有以下几种:

新建态→就绪态:当操作系统完成了进程创建的必要操作,并且当前系统的性能和虚拟内存的容量均允许。

就绪态→运行态:进程获得CPU(被调度程序选中)。

运行态→就绪态:分配给进程的时间片执行完成(轮转调度算法)、出现有更高优先级的进程。

运行态→等待态:向OS请求共享资源(互斥、同步)失败、等待某种操作完成、新数据尚未到达(I/O操作)、等待新任务的到达。

等待态→就绪态:引起进程等待的事件发生之后,相应的等待态进程将转换为就绪态。

运行态→终止态:当一个进程到达了自然结束点,或是出现了无法克服的错误,或是被操作系统所终结,或是被其他有终止权的进程所终结。

此外,还有一些更复杂的模型,如五态模型和七态模型,它们在三态模型的基础上增加了新建态(New)和终止态(Exit),以及挂起就绪态(Ready Suspend)和挂起等待态(Blocked Suspend)等状态。这些状态和转换提供了对进程生命周期的更详细的描述。

  1. 当一个进程P操作不满足时,进程会处于什么状态。当一个进程原来因为P操作阻塞,但条件满足时,会切换到什么状态?

在操作系统中,P操作和V操作是用于进程间同步和通信的两种基本操作,通常用于实现信号量(Semaphore)。

当一个进程执行P操作时,如果该操作的条件不满足(例如,信号量的值小于等于0),那么该进程会被阻塞,进入等待态(Wait)。这意味着进程需要等待某个条件(例如,其他进程执行V操作,使得信号量的值增加)才能继续执行。

当一个进程原来因为P操作阻塞,但后来条件满足时(例如,其他进程执行了V操作),那么该进程会从等待态转换为就绪态(Ready)。这意味着进程已经准备好运行,只需等待操作系统的调度即可获得CPU并继续执行。

这种机制可以有效地实现进程间的同步和通信,防止多个进程同时访问共享资源,从而避免数据的不一致和冲突。

  1. 进程调度的策略有哪些?

操作系统中的进程调度策略主要有以下几种:

先来先服务调度算法(FCFS):这是一种最简单的调度算法,每次调度都是从后备作业队列中选择一个或多个最先进入该队列的作业,将它们调入内存,为它们分配资源、创建进程,然后放入就绪队列。

短作业(进程)优先调度算法(SJF):这种算法是从后备队列中选择一个或若干个估计运行时间最短的作业,将它们调入内存运行。

高优先权优先调度算法:为了照顾紧迫型作业,使之在进入系统后便获得优先处理,引入了最高优先权优先(FPF)调度算法。

高响应比优先调度算法:在批处理系统中,短作业优先算法是一种比较好的算法,其主要的不足之处是长作业的运行得不到保证。如果我们能为每个作业引入前面所述的动态优先权,并使作业的优先级随着等待时间的增加而以速率a提高,则长作业在等待一定的时间后,必然有机会分配到处理机。

时间片轮转法:在早期的时间片轮转法中,系统将所有的就绪进程按先来先服务的原则排成一个队列,每次调度时,把CPU分配给队首进程,并令其执行一个时间片。

多级反馈队列调度算法:前面介绍的各种用作进程调度的算法都有一定的局限性。多级反馈队列调度算法则不必事先知道各种进程所需的执行时间,而且还可以满足各种类型进程的需要,因而它是目前被公认的一种较好的进程调度算法。

以上就是操作系统中常见的几种进程调度策略。具体采用哪种策略,取决于系统的需求和性能目标。

  1. 进程通信都有哪些方法,哪个效率最高,哪个适应性最广?

进程间通信(InterProcess Communication,IPC)是指在不同进程之间传播或交换信息。以下是几种常见的进程间通信方法:

管道(Pipe):管道是最早的IPC形式,它是半双工的,具有固定的读端和写端。它只能用于具有亲缘关系的进程之间的通信,例如父子进程或兄弟进程之间。

命名管道(FIFO):命名管道是一种文件类型,可以在无关的进程之间交换数据。FIFO有路径名与之相关联,它以一种特殊设备文件形式存在于文件系统中。

消息队列:消息队列允许一个或多个进程向它写入或读取消息。消息队列可以实现消息的随机查询,不一定非要以先进先出的次序读取消息。

共享内存:共享内存是最快的IPC方式,因为数据不需要在进程之间复制。但是,使用共享内存需要解决进程间的同步问题。

信号量:信号量主要用于解决进程间的同步问题,但也可以用作简单的通信方式。

套接字(Socket):套接字可以用于不同主机上的进程间的通信。

在这些方法中,共享内存的效率最高,因为它避免了数据复制。然而,共享内存需要解决进程间的同步问题,这可能会增加编程的复杂性。

至于哪种方法的适应性最广,这取决于具体的应用场景。例如,如果进程在同一台机器上,那么使用管道、消息队列或共享内存可能更为方便。如果进程在不同的机器上,那么可能需要使用套接字。

  1. 进程调度的时机有哪些?

进程调度的时机主要有以下几种:

进程主动放弃处理机:这种情况下,进程可能会因为正常终止、运行过程中发生异常而终止、或者主动请求阻塞。

进程被动放弃处理机:这种情况下,进程可能会因为分配给该进程的时间片用完、有更紧急的事情要处理、或者有更高优先级的进程进入就绪队列。

进程调用sleep()或exit()等函数进行状态转换:这些函数会主动调用调度程序进行进程调度。

进程的时间片由时钟中断来更新:因此,这种情况和时机2是一样的。

设备驱动程序执行长而重复的任务时:直接调用调度程序3。

以上就是进程调度的主要时机。具体的调度时机可能会因操作系统的设计和配置而略有不同。

  1. 一个进程sleep(0)会发生什么?是一个无效操作吗?

sleep(0)并不是一个无效操作。在多线程环境中,sleep(0)的作用是触发操作系统立刻重新进行一次CPU竞争。这意味着当前线程放弃了其剩余的时间片,将CPU控制权交给操作系统,由操作系统决定下一个要执行的线程。

这个操作的结果可能是当前线程仍然获得CPU控制权,也可能是其他线程获得CPU控制权。这也是为什么在大循环中经常会写一句sleep(0),因为这样就给了其他线程(比如GUI线程)获得CPU控制权的机会,这样界面就不会假死。

所以,sleep(0)并不是无效操作,而是一种主动触发操作系统调度的方式。

八、线程

  1. 线程和进程之间是什么区别?

线程和进程是计算机中的执行单元,但它们有明显的区别:

资源分配:进程是操作系统资源分配的基本单位,而线程是程序执行的最小单位

地址空间:进程有自己独立的地址空间,每启动一个进程,系统都会为其分配地址空间,建立数据表来维护代码段、堆栈段和数据段。而线程没有独立的地址空间,它使用相同的地址空间共享数据。

开销:创建一个线程比进程开销小,线程占用的资源要比进程少很多。

切换:进程的切换比线程的切换代价更大,因为进程切换需要保存和恢复更多的上下文信息。

通信:进程间通信(IPC)需要操作系统提供机制来进行,而线程可以直接读写同一进程中的数据。

独立性:进程间相互独立,一个进程崩溃后,在保护模式下不会对其他进程产生影响,但是一个线程崩溃整个进程都死掉。

总的来说,进程和线程都是一个时间段的描述,是CPU工作时间段的描述,不过是颗粒大小不同。

  1. 多线程之间是否存在同步问题?是否存在通信问题?

在多线程环境中,确实存在同步问题和通信问题。

同步问题:当多个线程同时访问某个资源时,如果这些线程中既有读操作又有写操作,就可能导致数据的混乱,从而引发程序异常。为了解决这个问题,我们需要使用同步机制,例如互斥锁(Mutex)、条件变量(Condition Variable)、读写锁(Reader-Writer Lock)和信号量(Semaphore)等。

通信问题:多线程之间需要通过某种方式来交换信息。这通常通过共享内存来实现,但是这又引入了新的同步问题。因此,我们需要使用某种同步机制来确保线程间的正确通信。

总的来说,多线程编程需要仔细处理同步和通信问题,以确保数据的一致性和程序的正确执行。

  1. 一个进程创建了一个线程,这个进程共有几个线程?

当一个进程创建了一个线程后,这个进程共有两个线程。这是因为每个进程在启动时都会默认创建一个主线程,所以当你在进程中再创建一个线程时,这个进程就有了两个线程。这两个线程共享进程的资源,但执行可能不同的任务。

  1. 当代操作系统中,CPU分配计算资源的单位是什么?

在现代操作系统中,CPU分配计算资源的单位通常是线程。线程是CPU调度和分配的基本单位。一个进程至少有一个线程,同一个进程中的多个线程之间可以并发执行。

此外,对于CPU资源的计量,有一种单位叫做毫核(m)。一个节点的CPU核心数量乘以1000,得到的就是节点总的CPU总数量。例如,一个节点有两个核,那么该节点的CPU总量为2000m。这种单位在一些系统(如Kubernetes)中被用来精细地控制和限制容器的CPU使用。

  1. 一个程序如果想获得更多的CPU资源,最简单的办法是什么?

如果一个程序想获得更多的CPU资源,最简单的办法是增加其优先级。在许多操作系统中,可以通过调整进程或线程的优先级来影响其获取CPU时间的机会。优先级更高的进程或线程会被操作系统优先调度,从而获得更多的CPU时间。

然而,需要注意的是,这种方法可能会导致其他优先级较低的进程或线程饿死,即它们得不到足够的CPU时间来执行。此外,不恰当地提高进程或线程的优先级可能会影响系统的整体性能。

另一种方法是增加程序的并行度。如果程序的任务可以并行执行,那么可以通过创建更多的线程或进程来利用多核CPU。这样,程序就可以在多个CPU核心上同时执行,从而获得更多的CPU资源。

总的来说,具体的方法取决于程序的特性和运行环境。

  1. MPI、Pthreads或OpenMP各有什么优缺点?

MPI,Pthreads和OpenMP都是并行编程的工具,但它们各自有不同的优点和缺点。

MPI (Message Passing Interface):

优点:

MPI可以在集群上使用,也可以在单核/多核CPU上使用,它能协调多台主机间的并行计算,因此并行规模上的可伸缩性很强。

MPI可以处理规模更大的问题。

每个线程有自己的内存和变量,这样不用担心冲突问题。

缺点:

MPI的编程模型相对复杂,需要显示划分和分布计算任务,显示进行消息传递与同步。

MPI的性能上会受到通信网络的影响。

Pthreads (POSIX threads):

优点:

Pthreads是一个跨平台的多线程实现,能够使串行代码经过最小的改动自动转化成并行的。

Pthreads对原串行代码改动较小,可以保护代码原貌。

代码更容易理解和维护。

缺点:

所有线程共享内存空间,硬件制约较大。

目前主要针对循环并行化。

OpenMP (Open Multi-Processing):

优点:

OpenMP是一套支持跨平台共享内存方式的多线程并发的编程API,能够使串行代码经过最小的改动自动转化成并行的。

OpenMP对原串行代码改动较小,可以保护代码原貌。

代码更容易理解和维护。

允许渐进式并行化。

缺点:

所有线程共享内存空间,硬件制约较大。

目前主要针对循环并行化。

总的来说,选择哪种并行编程工具,需要根据具体的需求和约束来决定。每种工具都有其适用的场景和限制,理解这些优缺点可以帮助我们做出更好的选择。

  1. 任何for循环都以用OpenMP转换为并行执行的代码吗?需要考虑哪些问题?

并非所有的for循环都可以用OpenMP转换为并行执行的代码。在使用OpenMP进行for循环并行化时,需要考虑以下几个问题:

循环的独立性:并行化的for循环中的每次迭代应该是独立的,也就是说,每次迭代的结果不应该依赖于其他迭代的结果。如果for循环中的迭代存在依赖关系,那么并行化可能会导致数据竞争和不确定的结果。

数据共享和同步:如果多个线程需要访问和修改同一份数据,那么就需要使用同步机制(如互斥锁或原子操作)来防止数据竞争。然而,过度的同步可能会降低并行性能,甚至导致死锁。

负载均衡:如果for循环的迭代工作量不均匀,那么可能会导致负载不均衡,即某些线程的工作量过大,而其他线程则空闲。这种情况下,可以使用动态调度策略来改善负载均衡。

嵌套并行:如果for循环中还包含其他的for循环或并行区域,那么就需要考虑嵌套并行的问题。在这种情况下,需要注意设置正确的嵌套深度和线程数,以免产生过多的线程。

总的来说,使用OpenMP进行for循环并行化需要仔细考虑以上的问题,以确保程序的正确性和性能。

九、网络

  1. 如何判读2个IP地址是否在同一网络?

判断两个IP地址是否在同一个网络,需要通过以下步骤:

通过自身的IP与自身掩码算出网络地址X。

通过目的IP与自身掩码算出目的地的网络地址Y。

如果这两个网络一样 (X=Y),则表示目的地与自身在一个网络内。

如果两个网络不一样 (X不等于Y),则表示目的地与自身不在一个网络内。

例如,假设有两个IP地址:

IP地址1:192.168.1.1,子网掩码:255.255.255.0

IP地址2:192.168.1.2,子网掩码:255.255.255.0

我们可以直接判断,他们是同属于一个网段的IP地址。因为他们的网络地址(通过IP地址与子网掩码的与运算得到)都是192.168.1.01。

但是,如果子网掩码不同,比如:

IP地址1:192.168.1.1,子网掩码:255.255.255.0

IP地址2:192.168.1.2,子网掩码:255.255.0.0

这两个IP地址并不在同一个网段内。因为第一个IP地址的网络地址是192.168.1.0,而第二个IP地址的网络地址是192.168.0.01。

所以,判断两个IP地址是否在同一个网络,需要同时考虑IP地址和子网掩码。

  1. 如果2个IP地址不在同一网络,在通信时数据先发往哪里?

如果两个IP地址不在同一个网络中,它们之间的通信需要通过路由器进行转发。数据首先会被发送到一个路由器,然后路由器根据其路由表将数据转发到目标网络。

例如,假设有两个主机H1和H2,它们分别在两个不同的网络中。H1和H2的通信路径可能是:H1→经过R1路由器转发→R2路由器转发→H2。这里,R1和R2是路由器,它们的任务是在网络之间转发数据包。

在这个过程中,每个路由器都会查看目标IP地址,并在其路由表中查找最佳路径来转发数据包。这就是两个不同网络中的IP地址如何进行通信的基本过程。

  1. 路由器支持TCP/IP协议吗?

是的,路由器支持TCP/IP协议。TCP/IP协议是互联网的基础,它定义了电子设备(如计算机、路由器)如何在网络上进行通信。事实上,路由器的主要功能之一就是使用IP协议来路由数据包,这是网络层的一部分。此外,路由器还可以使用TCP和UDP协议(传输层)来确保数据包的正确传输。因此,我们可以说路由器不仅支持TCP/IP协议,而且其核心功能就是基于这些协议的。

  1. 路由器每个口有ip地址吗?有掩码没有?

路由器的每个端口是否有IP地址取决于路由器的类型和配置。在一些高级路由器中,每个物理端口都可以配置自己的IP地址。然而,在家用路由器中,通常只有WAN口有一个公网IP地址,而LAN口则共享一个私有IP地址。

至于子网掩码,它是与IP地址配合使用的,用于划分网络地址和主机地址。在路由器中,每个接口(或者说每个IP地址)都会有一个对应的子网掩码。这样,路由器就可以根据子网掩码来确定一个IP地址的网络部分和主机部分,从而实现正确的路由和数据包转发。

总的来说,路由器的每个端口是否有单独的IP地址和子网掩码,取决于路由器的类型和配置。

  1. TCP/IP协议栈分为几层,每层包含哪些协议?

TCP/IP协议栈通常被划分为四层,每一层都有对应的协议:

应用层:这一层主要负责处理特定的应用程序细节。TCP/IP协议族内预存了各类通用的应用服务。例如,负责web浏览器的HTTP协议,文件传输的FTP协议,负责电子邮件的SMTP协议,负责域名系统的DNS等。

传输层:这一层对上层应用层,提供处于网络连接中的两台计算机之间的数据传输。在传输层有两个性质不同的协议:TCP(传输控制协议)和UDP(用户数据报协议)。主要负责传输应用层的数据包。

网络层:这一层用来处理在网络上流动的数据包。数据包是网络传输的最小数据单位。该层规定了通过怎样的路径(所谓的传输路线)到达对方计算机,并把数据包传送给对方。与对方计算机之间通过多台计算机或网络设备进行传输时,网络层所起的作用就是在众多的选项内选择一条传输路线。主要是IP协议。

链路层:这一层用来处理连接网络的硬件部分。包括控制操作系统、硬件的设备驱动、NIC(网络接口卡,即网卡),及光纤等物理可见部分(还包括连接器等一切传输媒介)。硬件上的范畴均在链路层的作用范围之内。

这些层次的协议共同工作,使得我们可以在互联网上进行通信。

  1. TCP和UDP协议各有什么优缺点?

TCP(传输控制协议)和UDP(用户数据报协议)是两种常见的传输层协议,它们各自有不同的优点和缺点。

TCP的优点:

可靠性:TCP提供了数据的完整性保证。它使用确认机制、重传机制、窗口控制和拥塞控制来确保数据的正确传输。

有序性:TCP保证数据的顺序传输。如果数据包在传输过程中乱序,TCP会重新排序,确保接收方按照发送顺序接收数据。

TCP的缺点:

效率低:由于TCP的各种控制机制,如握手和确认机制,它的传输效率相对较低。

资源占用高:TCP连接需要占用系统资源,如CPU和内存。

易被攻击:TCP的握手机制可能被利用进行DOS、DDOS等攻击。

UDP的优点:

速度快:UDP没有TCP的各种控制机制,如握手、确认和窗口控制,因此它的传输速度非常快。

资源占用少:UDP是无连接的,不需要在每台设备上维护所有的传输连接,因此资源占用较少。

UDP的缺点:

不可靠:UDP没有TCP的可靠性机制,如确认和重传,因此如果网络质量不好,可能会丢包。

无序:UDP不保证数据的顺序传输,如果数据包在传输过程中乱序,UDP不会重新排序。

总的来说,TCP和UDP各有其适用的场景。当对网络通信质量有要求时,比如需要准确无误地传递数据,通常使用TCP,如HTTP、HTTPS、FTP等协议。而当对网络通信质量要求不高,需要尽可能快的网络通信速度时,可以使用UDP,如QQ语音、QQ视频等。

  1. 做实验时,如果一台机器的地址是192.168.3.4/24,则另外一个机器的地址范围是多少?如果强制设成192.168.2.4/24会发生什么现象?

如果一台机器的地址是192.168.3.4/24,那么另一台机器的地址范围应该是192.168.3.0到192.168.3.255。这是因为/24表示子网掩码为255.255.255.0,也就是说,网络地址是前三个数值(192.168.3),主机地址是最后一个数值。

如果你强制将另一台机器的地址设为192.168.2.4/24,那么这两台机器将不在同一个子网中。因为第二台机器的网络地址是192.168.2,而第一台机器的网络地址是192.168.3。这意味着,如果没有路由器或者其他的网络设备来进行数据包的转发,这两台机器将无法直接进行通信。

  1. 端口的作用是什么?端口和应用程序直接是唯一对应的吗?

端口的主要作用是为了在网络通信中区分不同的应用程序或服务。在网络通信中,每个应用程序或服务都需要使用一个唯一的端口号来进行通信。通过端口号,网络数据包可以被正确地传递到目标应用程序或服务。

端口和应用程序之间的对应关系并不是唯一的。同一个应用程序可以使用多个端口,同样,多个应用程序也可以共享同一个端口。但是,同一时间内,同一个端口只能被一个应用程序使用。如果一个端口已经被一个应用程序占用,那么其他应用程序就不能再使用这个端口,除非该应用程序释放了这个端口。

  1. 为什么服务器的端口必须公开,而客户端通常并不在意自己的端口?

服务器的端口必须公开,因为客户端需要知道服务器的IP地址和端口号才能向服务器发送请求。如果服务器的端口号不公开,那么客户端就无法找到服务器,也就无法与服务器进行通信。

相反,客户端的端口通常并不需要公开。这是因为在大多数情况下,服务器并不需要主动向客户端发送数据。只有当客户端向服务器发送请求时,服务器才会向客户端发送数据。在这种情况下,客户端会在发送请求时一并发送自己的IP地址和端口号,因此服务器可以找到客户端。

此外,客户端的端口号通常是由操作系统随机分配的,而且每次建立连接时都可能会改变。这意味着,即使客户端的端口号被公开,其他设备也很难利用这个信息来建立连接,因为这个端口号随时都可能改变。

总的来说,服务器的端口必须公开是为了让客户端能够找到服务器,而客户端的端口通常并不需要公开,因为服务器通常不需要主动找到客户端。

10、什么是套接字(socket)?

套接字(Socket)是计算机网络中的一个重要概念,它是网络中不同主机上的应用进程之间进行双向通信的端点的抽象。套接字起源于UNIX,在UNIX一切皆文件的思想下,进程间通信就被冠名为文件描述符(file descriptor),Socket是一种“打开—读/写—关闭”模式的实现,服务器和客户端各自维护一个“文件”,在建立连接打开后,可以向文件写入内容供对方读取或者读取对方内容,通讯结束时关闭文件。

套接字的类型有很多,比如Internet套接字、Unix套接字、X.25套接字等。我们通常讨论的是Internet套接字,它是最具代表性的,也是最经典最常用的。根据数据的传输方式,可以将Internet套接字分成两种类型:

流格式套接字(SOCK_STREAM):也叫“面向连接的套接字”,是一种可靠的、双向的通信数据流,数据可以准确无误地到达另一台计算机,如果损坏或丢失,可以重新发送。

数据报格式套接字(SOCK_DGRAM):也叫“无连接的套接字”。计算机只管传输数据,不作数据校验,如果数据在传输中损坏,或者没有到达另一台计算机,是没有办法补救的。

总的来说,套接字是一种在网络中进行通信的约定或方式,通过套接字,一台计算机可以接收其他计算机的数据,也可以向其他计算机发送数据。

11、利用UDP通信时,会不会发生丢包现象?该怎么处理?

在使用UDP进行通信时,确实可能会发生丢包现象。这是因为UDP是一种无连接的协议,它不提供数据包的确认机制,也不保证数据包的顺序。因此,如果网络质量不好,数据包可能会在传输过程中丢失。

处理UDP丢包的方法有很多,以下是一些常见的策略:

增加缓冲区大小:如果丢包是由于缓冲区太小或者处理速度太慢导致的,可以尝试增加系统的发送或接收缓冲区大小。

降低发送速度:如果丢包是由于发送速度过快导致的,可以尝试降低发送速度,或者在发送每个数据包之后添加一些延迟。

使用单独的线程接收数据:如果丢包是由于处理数据的速度太慢导致的,可以尝试使用一个单独的线程来接收数据,并将数据存放在一个缓冲区中,然后使用另一个线程来处理数据。

使用丢包重传(ARQ)和前向纠错(FEC)策略:ARQ策略是在数据包丢失时进行重传,而FEC策略是通过发送额外的冗余数据来恢复丢失的数据包。

需要注意的是,以上方法仅仅是一些简单的示例,实际应用中可能需要更复杂的处理逻辑来应对不同的网络环境和数据传输需求

十、SIMD

  1. SIMD都有哪些版本?一个算法通过使用多线程加速后,可以用SIMD加速吗?

SIMD(单指令多数据)是一种并行计算的方式,它可以使用一条指令同时处理多个数据。SIMD的版本有很多,包括但不限于以下几种:

MMX:这是Intel推出的第一种SIMD指令集,主要用于整数运算。

SSE:这是Intel推出的第二种SIMD指令集,它增加了对浮点数运算的支持,并扩展了数据宽度到128位。

AVX:这是Intel推出的第三种SIMD指令集,它进一步扩展了数据宽度到256位。

在算法优化方面,一个算法在使用多线程加速后,确实可以进一步使用SIMD进行加速。多线程主要是通过在多个处理器核心上并行执行任务来提高性能,而SIMD则是通过在单个处理器核心上并行处理数据来提高性能。这两种技术可以结合使用,以实现更高的性能

  1. SIMD指令推广慢的原因是什么?可否通过编译器优化解决?

SIMD(单指令多数据)指令集的推广速度相对较慢,可能有以下几个原因:

编程复杂性:使用SIMD指令集需要一定的编程技巧和经验。虽然现代编译器和库已经使用内在函数、汇编或两者的组合实现了很多东西,但在高性能计算、游戏开发或编译器开发等细分领域之外,即使是非常有经验的C和C++程序员在很大程度上也不熟悉SIMD内在函数。

硬件支持:不同的处理器支持的SIMD指令集可能不同,这就需要程序员针对不同的硬件环境编写不同的代码。

数据对齐问题:SIMD指令通常要求数据按特定的边界对齐,如果数据没有正确对齐,可能会导致性能下降,甚至程序崩溃。

并行化问题:并不是所有的算法和数据都适合并行化。如果算法中存在大量的数据依赖性,或者数据的访问模式不规则,那么使用SIMD指令可能不会带来太大的性能提升。

尽管存在上述挑战,但通过编译器优化,确实可以在一定程度上解决这些问题。例如,现代编译器如GCC和Clang都提供了自动向量化的功能,可以自动将标量代码转换为使用SIMD指令的向量代码35。此外,还有一些专门的编程语言和库,如OpenMP和Intel的MKL库,提供了更高级的抽象,使得程序员可以更容易地利用SIMD指令

你可能感兴趣的:(算法,sql,缓存,容器,c语言)