参考1:Slice底层实现
参考2:Golang-Slice 内部实现原理解析
扩展的看参考2。
注意:
数组声明的时候,数组长度也属于类型中的一部分,所以两个数组只有数组长度
和类型
完全相同时才能比较、赋值。
代码位置:src/runtime/slice.go
type slice struct {
array unsafe.Pointer
len int
cap int
}
切片的结构体由3部分构成,Pointer 是指向一个数组的指针,len 代表当前切片的长度,cap 是当前切片的容量。cap 总是大于等于 len 的。
切片本身并不是动态数组或者数组指针,它的内部实现是通过指针引用底层数组,设置相关的属性,将数据的读写操作限定在指定的区域内。
切片本身是一个只读对象,修改的是底层数组,而不是切片本身,其工作机制类似于数组指针的一种封装。
切片是对数组中一个连续片段的引用,所以切片是一个引用类型。
判断是否需要扩容:当向切片中追加元素时,如果当前元素个数(长度)超过了底层数组的容量,就需要进行扩容。
注意
:
在 Go 语言中,切片的扩容过程涉及值的复制操作。这是浅拷贝的一种情况,因为只复制了切片中的元素本身,而没有复制元素所引用的对象。
具体来说,在切片扩容时,Go 语言会创建一个新的底层数组,并将原有切片中的元素逐个复制到新的底层数组中。这里复制的是切片中元素的值,而不是复制元素引用的对象。所以,原切片和新切片会引用不同的底层数组,但它们的元素值可能是相同的,因为是值拷贝。
这也意味着,如果切片中的元素是引用类型(例如,切片、映射或自定义结构体),复制的仅是这些引用值,并没有复制引用指向的实际对象。因此,如果修改原切片或新切片中的引用值指向同一个对象,修改会在两个切片中都反映出来,因为它们共享相同的引用。
切片扩容时的值拷贝示例:
package main
import "fmt"
func main() {
// 创建原始切片
slice1 := []int{1, 2, 3}
// 创建新切片,通过 append 扩容
slice2 := append(slice1, 4)
// 修改原切片中的元素
slice1[0] = 100
fmt.Println("原始切片:", slice1) // 输出 [100 2 3]
fmt.Println("新切片:", slice2) // 输出 [1 2 3 4]
}
注意到,修改原切片 slice1 中的元素并不会影响新切片 slice2,这是因为它们指向了不同的底层数组。但是,如果修改切片中的元素是引用类型,比如修改切片中的切片或映射中的值,那么会影响原切片和新切片,因为它们共享相同的引用。
初始化方式:(一般使用make初始化的时候len最好设置为0,避免使用时切片前面的数据出现多余的零值数据。)
make([]T,len);
//与
make([]T,len,cap);
问下列初始化后的输出结果:
make([]int,8);
//与
make([]int,0,8);
这两种都是初始化了一个切片,根据初始化方式可知,主要的区别为是否声明了容量。
make([]int,8);
//声明的切片长度是8,在未使用前,这个切片已有8个数据,数值均为0,
//因为8个位置的值均为类型的零值,int型的零值是0,所以输出是8个0.
make([]int,0,8);
//声明的切片长度是0,容量是8,在未使用前,
//这个切片中没有任何数据,只是容量是8,所以输出为空【即没有数据】。
分析:
slice2 := slice1
深拷贝,拷贝的是数据本身,会创建一个新对象。
copy(slice2, slice1)
新对象和原对象不共享内存,在新建对象的内存中开辟一个新的内存地址,新对象的值修改不会影响原对象值,既然内存地址不同,释放内存地址时,可以分别释放。
当切片的底层数组很大,但切片所取元素数量很小时,底层数组占据的大部分空间都是被浪费的。
比如b数组很大,切片a只引用了b很小的一部分,只要切片a还在,b数组就永远不会被回收,就是造成了内存泄露!
代码示例:
var a []int
func test(b []int) {
a = b[:1] // 和b共用一个底层数组
return
}
解决方法:
不再引用b数组,将需要的数据复制
到一个新的切片中,这样新切片的底层数组,就和b数组无任何关系了。
var a []int
func test(b []int) {
a = make([]int, 1)
copy(a, b[:0])
return
}
切片不是并发安全的,要并发安全,有两种方法:
面试题:切片和map的数据结构并发安全吗?
答:切片的写入和map的写入一样都是非线程安全的,但是map有sync.Map{},切片只能通过加锁
或channel
方式来实现线程安全的并发写操作。
加锁:
适合于对性能要求不高的场景,毕竟锁的粒度太大,这种方式属于通过共享内存来实现通信。
代码示例:
func TestSliceConcurrencySafeByMutex(t *testing.T) {
var lock sync.Mutex //互斥锁
a := make([]int, 0)
var wg sync.WaitGroup
for i := 0; i < 10000; i++ {
wg.Add(1)
go func(i int) {
defer wg.Done()
lock.Lock()
defer lock.Unlock()
a = append(a, i)
}(i)
}
wg.Wait()
t.Log(len(a))
// equal 10000
}
channel:
适合于对性能要求大的场景,channle就是专用于goroutine间通信的,这种方式属于通过通信来实现共享内存,而Go的箴言便是:尽量通过通信来实现内存共享,而不是通过共享内存来实现通信
,推荐此方法!
代码示例:
func TestSliceConcurrencySafeByChanel(t *testing.T) {
buffer := make(chan int)
a := make([]int, 0)
// 消费者
go func() {
for v := range buffer {
a = append(a, v)
}
}()
// 生产者
var wg sync.WaitGroup
for i := 0; i < 10000; i++ {
wg.Add(1)
go func(i int) {
defer wg.Done()
buffer <- i
}(i)
}
wg.Wait()
t.Log(len(a))
// equal 10000
}
参考3:Golang比较两个字符串切片是否相等
方式一:DeepEqual方法
func equal( s1 []int , s2 []int ) bool {
return reflect.DeepEqual(s1, s2)
}
说明:reflect.DeepEqual()接收的是两个interface{}类型的参数,首先判断两个参数的类型是否相同,然后才会根据类型层层判断。
方式二:循环遍历切片逐个元素进行比较
func equal( s1 []int , s2 []int ) bool {
if len(s1) != len(s2) {
return false
}
for i := 0; i < len(s1); i++ {
if s1[i] != s2[i] {
return false
}
}
return true
}
参考1:Golang协程详解和应用
Golang的协程是为了解决多核CPU利用率问题,Golang语言层面并不支持多进程或多线程,但是协程更好用,协程被称为用户态线程,不存在CPU上下文切换问题,效率非常高。
参考1:线程和进程的区别
参考2:协程与线程的区别
两两区分:进程与线程、线程与协程。
进程:
线程:
进程和线程的关系:
协程:
内存占用
创建一个协程的栈内存消耗为 2 KB,实际运行过程中,如果栈空间不够用,会自动进行扩容。创建一个线程则需要消耗 1 MB 栈内存,而且还需要一个被称为 “a guard page” 的区域用于和其他线程的栈空间进行隔离。
创建和销毁
线程创建和销毀都会有巨大的消耗,因为要和操作系统打交道,是内核级
的,通常解决的办法就是线程池。而协程因为是由 Go runtime 负责管理的,创建和销毁的消耗非常小,是用户级
。
切换
当线程切换时,需要保存各种寄存器,以便将来恢复,而 goroutines 切换只需保存三个寄存器。
一般而言,线程切换会消耗 1000-1500 纳秒,一个纳秒平均可以执行 12-18 条指令。所以由于线程切换,执行指令的条数会减少 12000-18000。协程的切换约为 200ns,相当于 2400-3600 条指令。因此,协程切换成本比线程要小得多。
参考1:线程间到底共享了哪些进程资源
线程的私有信息:
(1)线程运行的本质就是函数运行,函数运行时信息保存在栈帧(栈区存储函数运行时的返回地址(程序计数器)、参数、局部变量、寄存器原始值)中,因此每个线程有自己独立、私有的栈区。
(2)线程私有的信息 —— 线程上下文 包括所属线程的栈区、程序计数器、栈指针以及函数运行使用的寄存器
线程的共享信息:
线程之间共享除 线程上下文信息
中的所有内容,包括栈区、堆区、代码区、数据区。
代码区:
进程中的代码区存储的是编译后的可执行机器指令。而这些机器指令是从可执行文件中加载到内存的。
线程之间共享代码区,意味着任何函数都可以被线程执行。
堆区:
malloc/new 出来的数据就存放在这个区域。
栈区:
线程的上下文信息通常是私有的,但它们并没有严格的隔离机制来保护。因此, 若一个线程能拿到来自另一个线程栈帧上的指针,那么该线程就可以改变另一个线程的栈区。
文件:
若线程保存有打开的文件信息,则进程打开的文件也可以被所有的线程使用,这也属于线程间的共享资源。
不可以,因为线程是资源调度的最小单位,一个进程至少要有一个线程来作为主线程。
1、堆是线程共享的内存区域,栈是线程独享的内存区域。
2、堆中主要存放对象实例,栈中主要存放各种基本数据类型、对象的引用。
参考1:https://zhuanlan.zhihu.com/p/323271088
只看 二、Goroutine调度器的GMP模型的设计思想
往后的即可。
Golang的协程调度是通过 GMP模型
实现的。
处理器,它包含了运行协程的资源,如果线程想运行协程,必须先获取处理器,处理器中还包含了可运行的协程队列。
面试官的回答:协程只是一个虚拟的概念,是Go语言层面的一个东西。
其实就是一段代码,依赖于操作系统来执行的,GMP本质就是一个调度的工具,帮我们把程序代码怎么合理的分配到一个线程上的。
在Go中,线程是最终运行协程实体,调度器的功能是把可运行的协程分配到工作线程上。
协程调度器和操作系统的调度器是通过线程结合起来的,每个线程都代表了1个内核线程,操作系统的调度器负责把内核线程分配到CPU的核上执行。
处理器P
和线程M
的个数问题处理器P
的数量:
P的个数取决于设置的GOMAXPROCS,go新版本默认使用服务器最大内核数,比如你的服务器有8核处理器,那么P的数量就是8。
由启动时环境变量
$GOMAXPROCS
或者是由runtime的方法GOMAXPROCS()方法决定。这意味着在程序执行的任意时刻都只有$GOMAXPROCS
个goroutine在同时运行。
线程M
的数量:
线程M
与处理器P
的数量没有绝对关系,一个线程M
阻塞,处理器P
就会去创建或者切换另一个线程M
,所以,即使处理器P
的默认数量是1,也有可能会创建很多个线程M
出来。
处理器P
和线程M
何时会被创建
处理器P
何时创建:在确定了处理器P
的最大数量n后,运行时系统会根据这个数量创建n个处理器P
。线程M
何时创建:没有足够的线程M
来关联处理器P
并运行其中的可运行的G。比如所有的线程M
此时都阻塞住了,而处理器P
中还有很多就绪任务,就会去寻找空闲的线程M
,而没有空闲的,就会去创建新的线程M
。复用线程:避免频繁的创建、销毁线程,而是对线程的复用。
利用并行:GOMAXPROCS
设置P的数量,最多有GOMAXPROCS
个线程分布在多个CPU上同时运行。GOMAXPROCS
也限制了并发的程度,比如GOMAXPROCS = 核数/2
,则最多利用了一半的CPU核进行并行。
抢占:在coroutine中要等待一个协程主动让出CPU才执行下一个协程,在Go中,一个goroutine最多占用CPU 10ms,防止其他goroutine被饿死,这就是goroutine不同于coroutine的一个地方。
全局G队列:在新的调度器中依然有全局G队列,但功能已经被弱化了,当M执行work stealing从其他P偷不到G时,它可以从全局G队列获取G。
参考1:http://t.zoukankan.com/ExMan-p-12091738.html
计算机资源是有限的,所以goroutine肯定也是有限制的,单纯的goroutine,一开始每个占用2K内存,所以这里会受到内存使用量的限制,还有goroutine是通过系统线程来执行的,golang默认最大的线程数是10000个。可以通过runtime/debug中的SetMaxThreads函数,设置M的最大数量。但要注意线程和goroutine不是一一对应关系,理论上内存足够大,而且goroutine不是计算密集型的话,可以开启无限个goroutine。
自己理解,加锁,比如sync.mutx,sync.WaitGroup{}等。
协程是用户态。(线程创建和销毀都会有巨大的消耗,因为要和操作系统打交道,是内核级
的,通常解决的办法就是线程池。而协程因为是由 Go runtime 负责管理的,创建和销毁的消耗非常小,是用户级
。)
参考1:优雅关闭Golang中的协程
有三种方式:
for-range
从channel上接收值,直到channel关闭,该循环将失效自动推出for range
。for select
配合退出队列的队列的方式完成协程的推出。Context方式关闭的代码:
package main
import (
"context"
"fmt"
"sync"
"time"
)
var wg sync.WaitGroup
//第2个协程
func test04(ctx context.Context) {
defer wg.Done()
loop:
for {
fmt.Println("test04")
time.Sleep(time.Second * 1)
// 等待上级通知
select {
case <-ctx.Done():
break loop
default:
}
}
}
//第一个协程
func test03(ctx context.Context) {
defer wg.Done()
//第一个协程调用第2个协程 两个协程都会收到ctx的信号而终止
go test04(ctx)
loop:
for {
fmt.Println("test03")
time.Sleep(time.Second * 1)
// 等待上级通知
select {
case <-ctx.Done():
break loop
default:
}
}
}
//方式3 通过context
func contextExit() {
wg.Add(2) //2个协程在跑
ctx, cancel := context.WithCancel(context.Background())
go test03(ctx)
//3s以后就停止
time.Sleep(time.Second * 3)
cancel() // 通知子goroutine结束
wg.Wait()
}
func main() {
//go语言中通知子 goroutine 退出的三种方式
//方式3 通过context
contextExit()
fmt.Println("方式3 通过context 结束")
}
使用channel,有缓冲的channel可以设置数量,从而控制并发数目。
参考1:golang控制goroutine数量以及获取处理结果
步骤:
一个协程占用2KB内存。
defer+recover来捕获并处理异常。
同 2.3 Golang最多能启动多少个协程
因素:计算机内存
和线程数
。
并发处理。有缓冲的channel可以控制并发数目,从而实现多线程的并发处理。
答:通过channel,将错误信息放入channel中,父级协程监听该channel就能获取到子级的错误信息了。
使用waitGroup来实现监听多个协程同步返回的情况。
首先要记住的是 Go语言使用的是基于标记-清除(Mark-Sweep)算法
改进后的三色标记法
来进行内存垃圾回收。重点是 ※3.1.5 三色标记法
垃圾回收这块整理起来比较繁琐,特别是三色标记法这块,参考和结合的地方较多,所以在具体内容附近加了很多参考的链接,可以复制查找出处。
参考1:浅析 Golang 垃圾回收机制
参考2:Golang 垃圾回收
参考3:Golang 垃圾回收机制详解
参考4:Golang-垃圾回收原理解析
参考5:图解Golang垃圾回收机制!
三色标记法
引用计数法会为每个对象维护一个计数器,当该对象被其他对象引用时,该引用计数加1,当引用该对象的对象销毁(引用失效)时减1,当引用计数为0后即可回收对象。(浅析 Golang 垃圾回收机制)
代表语言:
Python、PHP、Swift。
优点:
对象回收快,因为引用计数为0则立即回收,不会出现内存耗尽或达到某个阈值时才回收。
缺点:
①:无法解决循环引用的问题(Golang-垃圾回收原理解析)。(若是A引用了B,B也引用了A,形成循环引用,当A和B的引用计数更新到只剩彼此的相互引用时,引用计数便无法更新到0,也就不能回收对应的内存了
)(Golang 垃圾回收机制详解)
②:实时维护引用计数也是有损耗的(浅析 Golang 垃圾回收机制)。
时间和空间成本高:每个对象需要额外的空间来存储引用计数,在栈上修改引用计数的时间成本高(因为需要额外的原子操作来保证线程安全)。(Golang-垃圾回收原理解析)
无法保证耗时:引用计数是一种摊销算法,会将内存的回收分摊到整个程序的运行过程,当销毁一个很大的树形结构时无法保证响应时间。(Golang-垃圾回收原理解析)
(Golang-垃圾回收原理解析)
主要分为标记和复制两个步骤:
优点:
缺点:
前述:
(Golang 垃圾回收机制详解)
所以 标记 — 清除法
就是从根变量开始遍历所有引用的对象,然后对引用的对象进行标记,将没有被标记的进行回收。(浅析 Golang 垃圾回收机制)
代表语言
:Golang(三色标记法)
优点:
解决了引用计数的缺点。
缺点:
需要 STW(Stop The World),即暂时停掉程序运行。
算法分两个部分
:标记(mark)和清除(sweep)。标记阶段表明所有已使用的引用对象,清除阶段将未使用的对象回收。
具体步骤:(图解Golang垃圾回收机制!)
(Golang-垃圾回收原理解析)
标记出所有可达对象,然后将可达对象移动到空间的另外一段,最后清理掉边界以外的内存。
优点:
①、避免了内存碎片化的问题。
②、适合老年代算法:老年代对象存活率高的情况下,标记整理算法由于不需要复制对象,效率更高。
缺点:
整理的过程复杂:需要多长遍历内存,导致STW时间比标记清除算法高。
三色标记法只是为了叙述方便而抽象出来的一种说法,实际上的对象是没有三色之分的(浅析 Golang 垃圾回收机制)。前面的标记-x类算法都有一个问题,那就是STW(即gc时暂停整个应用程序),三色标记法是对标记阶段进行改进的算法,目的是在不暂停程序的情况下即可完成对象的可达性分析,垃圾回收线程将所有对象分为三类:(Golang-垃圾回收原理解析)
优点:
不需要STW。(Golang-垃圾回收原理解析)
缺点:
(Golang-垃圾回收原理解析)
①、三色标记法存在并发性问题。
②、错误的回收非垃圾对象。
③、线程切换和上下文转换的消耗会使得垃圾回收的总体成本上升,从而降低系统吞吐量。
④、如果产生垃圾速度大于回收速度时,可能会导致程序中垃圾对象越来越多而无法及时收集。
⑤、能会出现野指针(指向没有合法地址的指针),从而造成严重的程序错误。
三色标记算法属于增量式GC算法,回收器首先将所有对象着色成白色,然后从gc root出发,逐步把所有可达的对象变成灰色再到黑色,最终所有的白色对象都是不可达对象。(Golang-垃圾回收原理解析)
具体流程图:(浅析 Golang 垃圾回收机制)
具体流程文字描述:(Golang-垃圾回收原理解析)
这种方法看似很好,但是将GC和程序会放一起执行,会因为CPU的调度可能会导致被引用的对象会被垃圾回收掉,从而出现错误。(图解Golang垃圾回收机制!)
分析问题的根源所在,主要是因为程序在运行过程中出现了下面俩种情况:(图解Golang垃圾回收机制!)
因此在此基础上拓展出了两种方法,强三色不变式和弱三色不变式。(图解Golang垃圾回收机制!)
(图解Golang垃圾回收机制!)
为了实现这两种不变式的设计思想,从而引出了屏障机制,即在程序的执行过程中加一个判断机制,满足判断机制则执行回调函数。
屏障机制分为插入屏障
和删除屏障
,插入屏障实现的是强三色不变式
,删除屏障则实现了弱三色不变式
。需要注意的是为了保证栈的运行效率,屏障只对堆上的内存对象启用,栈上的内存会在GC结束后启用STW重新扫描。
插入写屏障:
对象被引用时触发的机制,当白色对象被黑色对象引用时,白色对象被标记为灰色(栈上对象无插入屏障)。
缺点:如果灰色对象在栈上新创建了一个新对象,由于栈没有屏障机制,所以新对象仍为白色节点会被回收。
删除写屏障:
对象被删除时触发的机制。如果灰色对象引用的白色对象被删除时,那么白色对象会被标记为灰色。
缺点:这种做法回收精度较低,一个对象即使被删除仍可以活过这一轮再下一轮被回收。同样也存在对栈的二次扫描影响程序的效率。
(图解Golang垃圾回收机制!)
但是插入写屏障
和删除写屏障
在结束时需要STW来重新扫描栈,带来了性能瓶颈,所以Go在1.8引入了混合写屏障
的方式实现了弱三色不变式的设计方式,混合写屏障分下面四步。
混合写屏障也仅是在堆上启动。
(Golang-垃圾回收原理解析)
前面提到的传统GC算法都会STW,这存在两个严重的弊端:
三色标记法结合写屏障技术使得GC避免了STW,因此后面的增量式GC和并发式GC都是基于三色标记和写屏障技术的改进。
增量式垃圾回收:
可以分摊GC时间,避免程序长时间暂停。
存在的问题:
内存屏障技术,需要额外时间开销,并且由于内存屏障技术的保守性,一些垃圾对象不会被回收,会增加一轮gc的总时长。
并发垃圾回收:
运行GC和用户程序并行。
存在的问题:
一定程度上利用多核计算机的优势减少了对用户程序的干扰,不过写屏障的额外开销和保守性问题仍然存在,这是不可避免的。
go v1.5至今都是基于三色标记法实现的并发式GC,将长时间的STW分为分割为多段短的STW,GC大部分执行过程都是和用户代码并行的。
(Golang 垃圾回收)
辅助GC解决的问题是?
当用户分配内存的速度超过gc回收速度时,golang会通过辅助GC暂停用户程序进行gc,避免内存耗尽问题。
辅助GC干了什么?
辅助标记在垃圾回收标记的阶段进行,当用户程序分配内存的时候,先进行指定的扫描任务,即分配了多少内存就要完成多少标记任务。
(Golang 垃圾回收)
(Golang 垃圾回收机制详解)
按照对象生命周期长短划分不同的代空间,生命周期长的放入老年代,短的放入新生代,不同代有不同的回收算法和回收频率。(浅析 Golang 垃圾回收机制)
这样划分,堆就分成了Young和Old两个分区,因此GC也分为新生代GC和老年代GC。(Golang-垃圾回收原理解析)
对象的分配策略:(Golang-垃圾回收原理解析)
代表语言:
Java
优点:
回收性能好。
缺点:
算法复杂。
(浅析 Golang 垃圾回收机制)
插入写屏障、删除写屏障
。参阅:3.1.5.3 插入写屏障、删除写屏障【三色标记的优化(写屏障的机制)】
参考1:深入理解屏障技术
Go1.8
版本引入了混合写屏障机制
,避免了对栈的重新扫描,大大减少了STW的时间。混合写屏障=插入屏障+删除屏障
,它是变形的弱三色不变性,结合了两者的优点。
channel主要用于协程之间通信,属于内存级别的通信。
channel的底层结构hchan
里面有lock字段,它的类型是mutex(锁),所有的发送和读取之前都要加锁,所以channel是线程安全
的。
参考1:https://blog.csdn.net/itopit/article/details/125460420
应用场景:
select {
case <-time.After(time.Second):
select {
case <- time.Tick(time.Second)
ch := make(chan int, 5)
for _, url := range urls {
go func() {
ch <- 1
worker(url)
<- ch
}
}
参考1:golang 系列:channel 全面解析
ch := make(chan T)
无缓冲的channel是阻塞式的:
参考1:golang 系列:channel 全面解析
ch := make(chan T, 2)
第二个参数表示 channel 中可缓冲类型T的数据容量。只要当前 channel 里的元素总数不大于这个可缓冲容量,则当前的 goroutine 就不会被阻塞住。
参考1:golang 系列:channel 全面解析
创建这样一个nil的channel是没有意义,读、写channel都将会被阻塞住。一般为nil的channe主要用在select 上,让select不再从这个 channel里读取数据,达到屏蔽case的目的。
ch1 := make(chan int)
ch2 := make(chan int)
go func() {
if !ok { // 某些原因,设置 ch1 为 nil
ch1 = nil
}
}()
for {
select {
case <-ch1: // 当 ch1 被设置为 nil 后,将不会到达此分支了。
doSomething1()
case <-ch2:
doSomething2()
}
}
参考1:go 从已关闭的channel读取数据
当我们不再使用 channel 的时候,可以对其进行关闭:
close(ch)
提示:
有缓冲的通道和无缓冲的channel关闭结果都是一样的。
panic: send on closed channel
,然后退出程序。判断channel是否关闭可以通过返回状态是false或true来确定,返回false代表已经关闭。
if v, ok := <-ch; !ok {
fmt.Println("channel 已关闭,读取不到数据")
}
重复(多次)关闭channel会报panic: close of closed channel
(关闭已关闭的channel)。
参考1:golang 系列:channel 全面解析
不论是有缓冲通道和无缓冲通道,往channel里读写数据时是有可能被阻塞住的,一旦被阻塞,则需要其他的goroutine执行对应的读写操作,才能解除阻塞状态。
如果阻塞状态一直没有被解除,Go可能会报 fatal error: all goroutines are asleep - deadlock!
错误,所以在使用 channel 时要注意 goroutine 的一发一取,避免 goroutine 永久阻塞!
参考1:golang 系列:channel 全面解析
参考2:Channel底层原理
channel创建后实际是返回了hchan
结构体,它是在runtime/chan.go
中,它的所有字段如下:(来自源码
)
type hchan struct {
qcount uint // total data in the queue
dataqsiz uint // size of the circular queue
buf unsafe.Pointer // points to an array of dataqsiz elements
elemsize uint16
closed uint32
elemtype *_type // element type
sendx uint // send index
recvx uint // receive index
recvq waitq // list of recv waiters
sendq waitq // list of send waiters
// lock protects all fields in hchan, as well as several
// fields in sudogs blocked on this channel.
//
// Do not change another G's status while holding this lock
// (in particular, do not ready a G), as this can deadlock
// with stack shrinking.
lock mutex
}
qcount:
channel 里的元素计数。
dataqsiz:
缓冲的数量。
buf:
当 channel 设置了缓冲数量时,该 buf 指向一个存储缓冲数据的区域,该区域是一个循环队列的数据结构。
elemsize:
要发送或接收的数据类型大小。
closed:
关闭状态。
elemtype:
channel中元素的类型。
sendx:
当 channel 设置了缓冲数量时,数据区域即循环队列此时已发送数据的索引位置。
recvx:
当 channel 设置了缓冲数量时,数据区域即循环队列此时已接收数据的索引位置。
recvq:
想读取数据但又被阻塞住的 goroutine 队列。
sendq:
想发送数据但又被阻塞住的 goroutine 队列。
lock:
互斥锁,所有的发送和读取之前都要加锁,所以channel是线程安全的。
channel 在进行读写数据时,会根据无缓冲、有缓冲设置进行对应的阻塞唤起动作,它们之间还是有区别的。下面我们来捋一下这些不同之处。
总结:
有缓冲 channel 和无缓冲 channel 的读写基本相差不大,只是多了缓冲数据区域的判断而已。
由于对 channel
的读写先后顺序不同,处理也会有所不同,所以,还得再进一步区分:
在这里,我们暂时认为有 2 个 goroutine 在使用 channel 通信,按先写再读的顺序,则具体流程如下:
可以看到,由于 channel 是无缓冲的,所以 G1 暂时被挂在 sendq 队列里,然后 G1 调用了 gopark 休眠了起来。
接着,又有 goroutine 来 channel 读取数据了:
此时 G2 发现 sendq 等待队列里有 goroutine 存在,于是直接从 G1 copy 数据过来,并且会对 G1 设置 goready 函数,这样下次调度发生时, G1 就可以继续运行,并且会从等待队列里移除掉。
先读再写的流程跟上面一样。
G1 暂时被挂在了 recvq 队列,然后休眠起来。
G2 在写数据时,发现 recvq 队列有 goroutine 存在,于是直接将数据发送给 G1。同时设置 G1 goready 函数,等待下次调度运行。
在分析完了无缓冲 channel 的读写后,我们继续看看有缓冲 channel 的读写。同样的,我们分为 2 种情况。
这一次会优先判断缓冲数据区域是否已满,如果未满,则将数据保存在缓冲数据区域,即环形队列里。如果已满,则和之前的流程是一样的。
当 G2 要读取数据时,会优先从缓冲数据区域去读取,并且在读取完后,会检查 sendq 队列,如果 goroutine 有等待队列,则会将它上面的 data 补充到缓冲数据区域,并且也对其设置 goready 函数。
此种情况和无缓冲的先读再写是一样流程,此处不再重复说明。
使用共享内存的话在多线程的场景下为了处理竞态,需要加锁,使用起来比较麻烦。另外使用过多的锁,容易使得程序的代码逻辑艰涩难懂,并且容易使程序死锁,死锁了以后排查问题相当困难,特别是很多锁同时存在的时候。
go语言的channel保证同一个时间只有一个goroutine能够访问里面的数据,为开发者提供了一种优雅简单的工具,所以go原生的做法就是使用channle来通信,而不是使用共享内存来通信。
参考1:对未初始化的的chan进行读写,会怎么样?为什么?
综合:4.2.3 为nil的channel
和4.4 channel的deadlock(死锁)或channel一直阻塞会怎样
。
只声明未初始化的channel说的就是为nil时的情况,它会阻塞读写,如果一直处于阻塞状态会报死锁fatal error: all goroutines are asleep - deadlock!
。
答:读写未初始化的 chan 都会阻塞。
报 fatal error: all goroutines are asleep - deadlock!
为什么对未初始化的 chan 就会阻塞呢?
- 未初始化的 chan 此时是等于 nil,当它不能阻塞的情况下,直接返回 false,表示写 chan 失败。
- 当 chan 能阻塞的情况下,则直接阻塞 gopark(nil, nil, waitReasonChanSendNilChan, traceEvGoStop, 2), 然后调用 throw(s string) 抛出错误,其中 waitReasonChanSendNilChan 就是刚刚提到的报错 “chan send (nil chan)”。
- 未初始化的 chan 此时是等于 nil,当它不能阻塞的情况下,直接返回 false,表示读 chan 失败
- 当 chan 能阻塞的情况下,则直接阻塞 gopark(nil, nil, waitReasonChanReceiveNilChan, traceEvGoStop, 2), 然后调用 throw(s string) 抛出错误,其中 waitReasonChanReceiveNilChan 就是刚刚提到的报错 “chan receive (nil chan)”。
并发处理。有缓冲的channel可以控制并发数目,从而实现多线程并发处理。
首先判断channel是否关闭了,判断是关闭的channel后将这个通道设置为nil,因为设置为nil,这个通道就阻塞住了,select会选择其他没有阻塞的channel来执行,这样达到一个屏蔽的效果。
无缓冲的通道实质是通道容量为0,这是它和有缓冲通道的表象区别。
实质区别从4.5 channel 的数据结构
到4.5.1 无缓冲channel的读写
和4.5.2 有缓冲channel的读写
。
无缓冲的channel可以用来同步通信、超时等。有缓冲的channel可以用来解耦生产者、消费者,并发控制。
参考1:https://jishuin.proginn.com/p/763bfbd381cb
综合1、2、3可知,在操作为nil或关闭的channel会导致panic。
channel底层的结构是hchan:
type hchan struct {
qcount uint // total data in the queue
dataqsiz uint // size of the circular queue
buf unsafe.Pointer // points to an array of dataqsiz elements
elemsize uint16
closed uint32
elemtype *_type // element type
sendx uint // send index
recvx uint // receive index
recvq waitq // list of recv waiters
sendq waitq // list of send waiters
// lock protects all fields in hchan, as well as several
// fields in sudogs blocked on this channel.
//
// Do not change another G's status while holding this lock
// (in particular, do not ready a G), as this can deadlock
// with stack shrinking.
lock mutex
}
最后一个字段是lock
:互斥锁,所有的发送和读取之前都要加锁,所以channel是线程安全的。
package main
import "fmt"
func main() {
//1、初始化
m1 := map[string]int{}
m2 := make(map[string]int, 10)
//2、插入数据
m1["AA"] = 10
m1["BB"] = 20
m1["CC"] = 30
m2["AA"] = 10
m2["BB"] = 20
m2["CC"] = 30
//3、访问数据
fmt.Println("m1 AA=", m1["AA"])
fmt.Println("m2 BB=", m2["BB"])
fmt.Println()
//4、删除
delete(m1, "AA")
delete(m2, "BB")
fmt.Println("m1 AA=", m1["AA"])
fmt.Println("m2 BB=", m2["BB"])
fmt.Println()
//5、遍历
for key, value := range m1 {
fmt.Println("m1 Key=", key, ";Value=", value)
}
fmt.Println()
for key, value := range m2 {
fmt.Println("m2 Key=", key, ";Value=", value)
}
}
未初始化的 map 的值是 nil,使用函数 len() 可以获取 map 中 pair 的数目。
m1 := map[string]int{}
m2 := make(map[string]int, Cap)
注意:
可以使用 make(),但不能使用 new() 来构造 map,如果错误的使用 new() 分配了一个引用对象,会获得一个空引用的指针,相当于声明了一个未初始化的变量并且取了它的地址。
map[key] = value
map[key]
delete(map, key)
Go语言中并没有为 map 提供任何清空所有元素的函数、方法,清空 map 的唯一办法就是重新 make 一个新的 map,不用担心垃圾回收的效率,Go语言中的并行垃圾回收效率比写一个清空函数要高效的多。
for key, value := range map {
fmt.Println("map Key=", key, ";Value=", value)
}
map创建后实际是返回了hmap
结构体,是使用数组+链表的形式实现的,使用拉链法消除hash冲突。
参考1:Golang源码探究 — map
开放寻址法,底层是一个数组,每个数组都存放一个键值对,空闲的地方就是没有放键值对的地方。
步骤:
拉链法前两个步骤一样,也是先哈希再取模,然后会落到数组的一个槽中(每个槽并不存放k-v数据,它们都是指针),然后使用链表将k-v连接起来。查询的时候,获取槽位后,遍历链表来查询。
go的版本是1.17.6
)参考1:Golang Map 底层实现
参考2:Golang底层实现系列——map的底层实现
参考3:golang笔记——map底层原理
参考4:Golang源码探究 —— map
map底层有两个重要的结构体hmap
和bmap
,因为hmap
中的buckets
是一个数组,大小是2的B【字母】
次方个。数组中的每一个元素都是一个bmap
结构体的哈希桶。
hmap结构体
,是在runtime/map.go
中,它的所有字段如下:(来自源码
)
type hmap struct {
// Note: the format of the hmap is also encoded in cmd/compile/internal/reflectdata/reflect.go.
// Make sure this stays in sync with the compiler's definition.
count int // # live cells == size of map. Must be first (used by len() builtin)
flags uint8
B uint8 // log_2 of # of buckets (can hold up to loadFactor * 2^B items)
noverflow uint16 // approximate number of overflow buckets; see incrnoverflow for details
hash0 uint32 // hash seed
buckets unsafe.Pointer // array of 2^B Buckets. may be nil if count==0.
oldbuckets unsafe.Pointer // previous bucket array of half the size, non-nil only when growing
nevacuate uintptr // progress counter for evacuation (buckets less than this have been evacuated)
extra *mapextra // optional fields
}
hmap结构体字段解读:
count
:元素个数,调用 len(map) 时,直接返回此值。
flags:
代表当前 map 的状态(是否处于正在写入的状态等)。
B:
哈希桶的数量的log2,比如有8个桶,那么B=3。
noverflow
:为 map 中溢出桶的数量。当溢出的桶太多时,map 会进行等量扩容
,其实质是避免桶过大导致内存泄露。
hash0:
代表生成 hash 的随机数种子。
buckets:
指向 buckets 数组,大小为 2^B,如果元素个数为0,就为 nil。
oldbuckets:
是在 map 扩容时存储旧桶的,当所有旧桶中的数据都已经转移到了新桶中时,则清空。
nevacuate:
在扩容时使用,用于标记当前旧桶中小于 nevacuate 的数据都已经转移到了新桶中。
extra:
存储Map中的溢出桶相关的信息。
bmap结构体
,是在runtime/map.go
中,它的所有字段如下:(来自源码
)
type bmap struct {
// tophash generally contains the top byte of the hash value
// for each key in this bucket. If tophash[0] < minTopHash,
// tophash[0] is a bucket evacuation state instead.
tophash [bucketCnt]uint8
// Followed by bucketCnt keys and then bucketCnt elems.
// NOTE: packing all the keys together and then all the elems together makes the
// code a bit more complicated than alternating key/elem/key/elem/... but it allows
// us to eliminate padding which would be needed for, e.g., map[int64]int8.
// Followed by an overflow pointer.
}
bmap结构体字段解读:
tophash:
每个tophash存储的都是对应哈希值的高8位(即最高字节)。
keys:
存放键。
values:
存放数据。
overflow:
溢出桶bmp。
bmap包含了4个字段,后面三个字段在编译时才能确定。tophash、keys、values、overflow都是大小为8的数组,它们每个元素一一对应【即tophash对应keys,keys对应values,values对应overflows】。
因为tophash、keys、values、overflow都是大小为8的数组,所以一个桶里可以放8个键值对,但是为了让内存排列更加紧凑,8个key放一起,8个value放一起,8个key的前面则是8个tophash,每个tophash都是对应哈希值的高8位。
最后是一个bmap型指针,指向一个溢出桶overflow,溢出桶的内存布局与常规桶相同,是为了减少扩容次数而引入的,当一个桶存满了,就会在桶后面链一个溢出桶,继续往这里面存。
实际上如果哈希表要分配的桶的数目大于2的4次(16)就认为使用到溢出桶的几率较大,就会预分配2的(B-4)个溢出桶备用,这些溢出桶与常规同在内存中是连续的,只是前面2的B次个用做常规桶, 后面的用做溢出桶。
参考1:Golang Map 底层实现
参考2:Golang底层实现系列——map的底层实现
参考3:golang笔记——map底层原理
参考4:Golang源码探究 —— map
Golang源码探究 —— map
Golang源码探究 —— map
golang笔记——map底层原理
overflow
的bucket
数量过多:bucket
总数 2^ B小于2^15时,如果overflow
的bucket
数量超过 2^B(未用于存储的bucket数量过多),就会触发扩容;【即bucket
数目不大于2 ^ 15,但是使用overflow
数目超过 2^B
就算是多了。】bucket
总数2^ B大于等于2^15,如果overflow
的bucket
数量超过 2^ 15,就会触发扩容。【即bucket
数目大于2^ 15,那么使用overflow
数目一旦超过2^15
就算是多了。】解释:
golang笔记——map底层原理
针对 1:我们知道,每个 bucket 有 8 个空位,在没有溢出,且所有的桶都装满了的情况下,负载因子算出来的结果是 8。因此当负载因子超过 6.5 时,表明很多 bucket 都快要装满了,查找效率和插入效率都变低了。在这个时候进行扩容是有必要的。
针对2:是对第 1 点的补充。就是说在负载因子比较小的情况下,这时候 map 的查找和插入效率也很低,而第 1 点识别不出来这种情况。表面现象就是计算负载子的分子比较小,即 map 里元素总数少,但是 bucket 数量多(真实分配的 bucket 数量多,包括大量的 overflow bucket)。
不难想像造成2. 溢出桶的数量太多。
这种情况的原因:不停地插入、删除元素。先插入很多元素,导致创建了很多 bucket,但是装载因子达不到第 1 点的临界值,未触发扩容来缓解这种情况。之后,删除元素降低元素总数量,再插入很多元素,导致创建很多的 overflow bucket,但就是不会触犯第 1 点的规定,你能拿我怎么办?overflow bucket 数量太多,导致 key 会很分散,查找插入效率低得吓人,因此出台第 2 点规定。这就像是一座空城,房子很多,但是住户很少,都分散了,找起人来很困难。
在mapassign
中会判断是否要扩容:Golang源码探究 —— map
//触发扩容的时机
func mapassign(t *maptype, h *hmap, key unsafe.Pointer) unsafe.Pointer {
...
// If we hit the max load factor or we have too many overflow buckets,
// and we're not already in the middle of growing, start growing.
// 如果达到了最大的负载因子或者有太多的溢出桶
// 或是是已经在扩容中
if !h.growing() && (overLoadFactor(h.count+1, h.B) || tooManyOverflowBuckets(h.noverflow, h.B)) {
hashGrow(t, h)
goto again // Growing the table invalidates everything, so try again
}
}
判断负载因子超过 6.5:golang笔记——map底层原理
func overLoadFactor(count int, B uint8) bool {
return count > bucketCnt && uintptr(count) > loadFactorNum*(bucketShift(B)/loadFactorDen)
}
判断overflow buckets 太多:golang笔记——map底层原理
func tooManyOverflowBuckets(noverflow uint16, B uint8) bool {
// If the threshold is too low, we do extraneous work.
// If the threshold is too high, maps that grow and shrink can hold on to lots of unused memory.
// "too many" means (approximately) as many overflow buckets as regular buckets.
// See incrnoverflow for more details.
if B > 15 {
B = 15
}
// The compiler doesn't see here that B < 16; mask B to generate shorter shift code.
return noverflow >= uint16(1)<<(B&15)
}
map的两个扩容的时机,都会发生扩容。但是扩容的策略并不相同,毕竟两种条件应对的场景不同。但map扩容采用的都是渐进式,桶被操作(增删改)时才会重新分配。
Golang Map 底层实现
翻倍扩容
:针对的是 达到最大的负载因子
的情况,扩容后桶的数量为原来的两倍。Golang源码探究 —— map对于达到最大的负载因子
的扩容,它是因为元素太多,而 bucket 数量太少,解决办法
很简单:将 B 加 1,bucket 最大数量(2^ B)直接变成原来 bucket 数量的 2 倍。于是,就有新老 bucket 了。
注意:
这时候元素都在老 bucket 里,还没迁移到新的 bucket 来。而且,新 bucket 只是最大数量变为原来最大数量(2^ B)的 2 倍(2^B * 2)。golang笔记——map底层原理
等量扩容
:针对的是溢出桶的数量太多
的情况,溢出桶太多了,导致查询效率低。扩容时,桶的数量不增加。Golang源码探究 —— map对于溢出桶的数量太多
的扩容,其实元素没那么多,但是 overflow bucket 数特别多,说明很多 bucket 都没装满。解决办法
就是开辟一个新 bucket 空间,将老 bucket 中的元素移动到新 bucket,使得同一个 bucket 中的 key 排列地更紧密。这样,原来在 overflow bucket 中的 key 可以移动到 bucket 中来。节省空间,提高 bucket 利用率,map 的查找和插入效率自然就会提升。golang笔记——map底层原理
Golang源码探究 —— map
步骤一:
步骤二:
迁移数据
步骤三:
所有旧桶驱逐完成后,回收所有旧桶(oldbuckets)。
golang笔记——map底层原理
由于 map 扩容需要将原有的 key/value 重新搬迁到新的内存地址,如果有大量的 key/value 需要搬迁,会非常影响性能。因此 Go map 的扩容采取了一种称为“渐进式”地方式,每次最多只会搬迁 2 个 bucket。
翻倍扩容
(达到最大的负载因子):【可能会变,也可能不会变】
因为新的 buckets 数量是之前的一倍,所以在迁移时要重新计算 key 的哈希,才能决定它到底落在哪个 bucket。例如,原来 B = 5,计算出 key 的哈希后,只用看它的低 5 位,就能决定它落在哪个 bucket。扩容后,B 变成了 6,因此需要多看一位,它的低 6 位决定 key 落在哪个 bucket。因此,某个 key 在搬迁前后 bucket 序号可能和原来相等,也可能是相比原来加上 2^B(原来的 B 值),取决于 hash 值 第 6 位bit 位是 0 还是 1。golang笔记——map底层原理
等量扩容
(溢出桶的数量太多):【可能会变,也可能不会变】
从老的 buckets 搬迁到新的 buckets,由于 bucktes 数量不变,因此可以按序号来搬,比如原来在 0 号 bucktes,到新的地方后,仍然放在 0 号 buckets。【如果迁移后是紧密的按顺序排列,则不变;如果不按顺序排列,会变】golang笔记——map底层原理
参考1:为什么说Go的Map是无序的?
首先是For ... Range ...
遍历Map的索引的起点是随机的。
其次,往map中存入时就不是按顺序存储的,所以是无序的。
翻倍扩容和等量扩容都可能会发生无序的情况,原因看 5.3.6 翻倍扩容、等量扩容中Key的变化
。
golang笔记——map底层原理
map 在扩容后,会发生 key 的搬迁,原来落在同一个 bucket 中的 key,搬迁后,有些 key 就要远走高飞了(bucket 序号加上了 2^B)。而遍历的过程,就是按顺序遍历 bucket,同时按顺序遍历 bucket 中的 key。搬迁后,key 的位置发生了重大的变化,有些 key 飞上高枝,有些 key 则原地不动。这样,遍历 map 的结果就不可能按原来的顺序了。
当我们在遍历 go 中的 map 时,并不是固定地从 0 号 bucket 开始遍历,每次都是从一个随机值序号的 bucket 开始遍历,并且是从这个 bucket 的一个随机序号的 cell 开始遍历。这样,即使你是一个写死的 map,仅仅只是遍历它,也不太可能会返回一个固定序列的 key/value 对了。
golang笔记——map底层原理
从语法上看,是可以的。Go 语言中只要是可比较的类型都可以作为 key。除开 slice,map,functions 这几种类型,其他类型都是 OK 的。具体包括:布尔值、数字、字符串、指针、通道、接口类型、结构体、只包含上述类型的数组。这些类型的共同特征是支持 == 和 != 操作符,k1 == k2 时,可认为 k1 和 k2 是同一个 key。如果是结构体,只有 hash 后的值相等以及字面值相等,才被认为是相同的 key。很多字面值相等的,hash出来的值不一定相等,比如引用。
float 型可以作为 key,但是由于精度的问题,会导致一些诡异的问题,慎用之。
golang笔记——map底层原理
map 并不是一个线程安全的数据结构。多个协程同时读写同时读写一个 map,如果被检测到,会直接 panic。
如果在同一个协程内边遍历边删除,并不会检测到同时读写,理论上是可以这样做的。但是,遍历的结果就可能不会是相同的了,有可能结果遍历结果集中包含了删除的 key,也有可能不包含,这取决于删除 key 的时间:是在遍历到 key 所在的 bucket 时刻前或者后。
如果想要并发安全的读写,可以通过读写锁来解决:sync.RWMutex。
读之前调用 RLock() 函数,读完之后调用 RUnlock() 函数解锁;写之前调用 Lock() 函数,写完之后,调用 Unlock() 解锁。
golang笔记——map底层原理
无法对 map 的 key 或 value 进行取址,将无法通过编译。
如果通过其他 hack 的方式,例如 unsafe.Pointer 等获取到了 key 或 value 的地址,也不能长期持有,因为一旦发生扩容,key 和 value 的位置就会改变,之前保存的地址也就失效了。
golang笔记——map底层原理
golang笔记——map底层原理
不安全,只读是线程安全的,主要是不支持并发写操作的,原因是 map 写操作不是并发安全的,当尝试多个 Goroutine 操作同一个 map,会产生报错:fatal error: concurrent map writes
。所以map适用于读多写少的场景。
解决办法
:要么加锁,要么使用sync包中提供了并发安全的map,也就是sync.Map,其内部实现上已经做了互斥处理。
golang的map用的是hashmap,是使用数组+链表的形式实现的,使用拉链法
消除hash冲突。拉链法见:5.2.2 拉链法(map使用的方式)
参考1:https://www.jianshu.com/p/1132055d708b
map是检查是否有另外线程修改h.flag
来判断,是否有并发问题。
// 在更新map的函数里检查并发写
if h.flags&hashWriting == 0 {
throw("concurrent map writes")
}
// 在读map的函数里检查是否有并发写
if h.flags&hashWriting != 0 {
throw("concurrent map read and map write")
}
参考1:http://c.biancheng.net/view/34.html
map 在并发情况下,只读是线程安全的,同时读写是线程不安全的。会报panic:fatal error: concurrent map read and map write
,因为Go语言原生的map并不是并发安全的,对它进行并发读写操作的时候,需要加锁。
参考1:golang对map排序
golang中map元素是随机无序的,所以在对map range遍历的时候也是随机的,如果想按顺序读取map中的值,可以结合切片来实现。
如果想按顺序读取map中的值,可以结合切片来实现。
参考1:https://www.cnblogs.com/wuchangblog/p/16393070.html
不能,每个协程只能捕获到自己的 panic 不能捕获其它协程。
sync.Map是并发安全的。底层通分离读写map和原子指令来实现读的近似无锁,并通过延迟更新的方式来保证读的无锁化。
sync.Map 特性:
sync.Map的基本操作的完整代码:
package main
import (
"fmt"
"sync"
)
func main() {
//1、初始化
var sMap sync.Map
//2、插入数据
sMap.Store(1,"a")
sMap.Store("AA",10)
sMap.Store("BB",20)
sMap.Store(3,"CC")
//3、访问数据
fmt.Println("Load方法")
//Load:①如果待查找的key存在,则返回key对应的value,true;
lv1,ok1 := sMap.Load(1)
fmt.Println(ok1,lv1) //输出结果:true a
//Load:②如果待查找的key不存在,则返回nil,false
lv2,ok2 := sMap.Load(2)
fmt.Println(ok2,lv2) //输出结果:false
fmt.Println()
fmt.Println("LoadOrStore方法")
//LoadOrStore:①如果待查找的key存在,则返回key对应的value,true;
losv1,ok1 := sMap.LoadOrStore(1,"aaa")
fmt.Println(ok1,losv1) //输出结果:true a
//LoadOrStore:②如果待查找的key不存在,则返回添加的value,false
losv2,ok2 := sMap.LoadOrStore(2,"bbb")
fmt.Println(ok2,losv2) //输出结果:false bbb
fmt.Println()
fmt.Println("LoadAndDelete方法")
//LoadAndDelete:①如果待查找的key存在,则返回key对应的value,true,同时删除该key-value;
ladv1,ok1 := sMap.LoadAndDelete(1)
fmt.Println(ok1,ladv1) //输出结果:true a
//LoadAndDelete:②如果待查找的key不存在,则返回nil,false
ladv2,ok2 := sMap.LoadAndDelete(1)
fmt.Println(ok2,ladv2) //输出结果:false
//4、删除
fmt.Println()
fmt.Println("Delete方法")
sMap.Delete(2)
fmt.Println()
fmt.Println("Range方法")
// 5、遍历所有sync.Map中的键值对
sMap.Range(func(k, v interface{}) bool {
fmt.Println("k-v:", k, v)
return true
})
}
sync.Map无须初始化,直接声明即可使用。
var sMap sync.Map
sync.Map插入数据使用自带的Store(key,value)。源码解读 Golang 的 sync.Map 实现原理 有对 Store
的源码分析。
sMap.Store(1,"a")
sMap.Store("AA",10)
注意:Store(key, value interface{})
参数都是interface{}类型,所以同一个sync.Map能存储不同类型的数据。
源码:
func (m *Map) Store(key, value interface{}) {
}
sync.Map访问有三个方法:Load()、LoadOrStore()、LoadAndDelete()
Load(key interface{}) (value interface{}, ok bool)
源码解读 Golang 的 sync.Map 实现原理 有对 Load
的源码分析。①、如果待查找的key存在,则返回key对应的value,true;
lv1,ok1 := sMap.Load(1)
fmt.Println(ok1,lv1) //输出结果:true a
②、如果待查找的key不存在,则返回nil,false;
lv2,ok2 := sMap.Load(2)
fmt.Println(ok2,lv2) //输出结果:false
LoadOrStore(key, value interface{}) (actual interface{}, loaded bool)
①、如果待查找的key存在,则返回key对应的value,true,不会修改原来key对应的value;
losv1,ok1 := sMap.LoadOrStore(1,"aaa")
fmt.Println(ok1,losv1) //输出结果:true a
②、如果待查找的key不存在,则返回添加的value,false;
losv2,ok2 := sMap.LoadOrStore(2,"bbb")
fmt.Println(ok2,losv2) //输出结果:false bbb
LoadAndDelete(key interface{}) (value interface{}, loaded bool)
①、如果待查找的key存在,则返回key对应的value,true,同时删除该key-value;
ladv1,ok1 := sMap.LoadAndDelete(1)
fmt.Println(ok1,ladv1) //输出结果:true a
②、如果待查找的key不存在,则返回nil,false;
ladv2,ok2 := sMap.LoadAndDelete(1)
fmt.Println(ok2,ladv2) //输出结果:false
sync.Map删除用 Delete(key interface{})
,查看源码会发现它是调用的LoadAndDelete(key)
最终来实现的。源码解读 Golang 的 sync.Map 实现原理 有对 Delete
的源码分析。
源码:
func (m *Map) Delete(key interface{}) {
m.LoadAndDelete(key)
}
同map一样,Go语言也没有为sync.Map
提供任何清空所有元素的函数、方法,清空sync.Map
的唯一办法就是重新声明一个新的 sync.Map
。
sync.Map使用 Range
配合一个回调函数进行遍历操作,通过回调函数返回内部遍历出来的值,Range 参数中回调函数的返回值在需要继续迭代遍历时,返回 true,终止迭代遍历时,返回 false。
sMap.Range(func(k, v interface{}) bool {
fmt.Println("k-v:", k, v)
return true
})
go的版本是1.17.6
)sync.Map 的实现原理可概括为:
保证读写一致
】参考1:源码解读 Golang 的 sync.Map 实现原理
参考2:Golang的Map并发性能以及原理分析
sync.Map是在sync/map.go
中,它的所有字段如下:(来自源码)
type Map struct {
mu Mutex
read atomic.Value // readOnly
dirty map[interface{}]*entry
misses int
}
sync.Map结构体字段解读:
mu:
互斥锁,保护 dirty 字段,当涉及到dirty数据的操作的时候,需要使用这个锁。
read:
只读的数据,实际数据类型为 readOnly
,也是一个map,因为只读,所以不会有读写冲突。实际上,实际也会更新read的entries,如果entry是未删除的(unexpunged),并不需要加锁。如果entry已经被删除了,需要加锁,以便更新dirty数据。
dirty:
dirty数据包含当前的map包含的entries,它也包含最新的entries(包括read中未删除的数据,虽有冗余,但是提升dirty字段为read的时候非常快,不用一个一个的复制,而是直接将这个数据结构作为read字段的一部分),有些数据还可能没有移动到read字段中(即直接将dirty晋升为read)
。
对于dirty的操作需要加锁,因为对它的操作可能会有读写竞争。
当dirty为空的时候, 比如初始化或者刚提升完,下一次的写操作会复制read字段中未删除的数据到这个数据中。
misses:
当从Map中读取entry的时候,如果read中不包含这个entry,会尝试从dirty中读取,这个时候会将misses加一,当misses累积到 dirty的长度的时候, 就会将dirty晋升为read,避免从dirty中miss太多次。因为操作dirty需要加锁。【保证读写一致
】
readOnly结构体:
type readOnly struct {
m map[interface{}]*entry
amended bool
}
readOnly结构体字段解读:
m:
内建 map,m的value的类型为*entry
。
amended:
用于判断dirty
里是否存在read
里没有的key
,通过该字段决定是否加锁读dirty
,如果有则为true。
readOnly.m
和Map.dirty
存储的值类型是*entry,它包含一个指针p,指向用户存储的value值。
entry
数据结构则用于存储sync.Map中值的指针:
type entry struct {
p unsafe.Pointer // 等同于 *interface{}
}
如果当p指针指向expunged这个指针的时候,则表明该元素被删除,但不会立即从map中删除,如果在未删除之前又重新赋值则会重用该元素。
entry结构体字段解读:
p:
指向用户存储的value值,p
有三种状态。
参考1:Golang的Map并发性能以及原理分析
从图中可以看出,read map
和 dirty map
中含有相同的一部分 entry
,我们称作是 normal entries
,是双方共享的。状态就是上面所说的p的值为nil
和unexpunged
时。
但是 read map
中含有一部分 entry
是不属于 dirty map
的,而这部分 entry
就是状态为 expunged
状态的 entry
。而 dirty map
中有一部分 entry
也是不属于 read map
的,而这部分其实是来自 Store
操作形成的(也就是新增的 entry
),换句话说就是新增的 entry
是出现在 dirty map
中的。
读取数据时首先从m.read
中加载,不存在的情况下,并且m.dirty
中有新数据,加锁,然后从m.dirty
中加载。
参考1:Golang的Map并发性能以及原理分析
read map:
是用来进行 lock free 操作的(其实可以读写,但是不能做删除操作,因为一旦做了删除操作,就不是线程安全的了,也就无法 lock free)。
dirty map:
是用来在无法进行 lock free 操作的情况下,需要 lock 来做一些更新工作的对象。
参考1:Golang的Map并发性能以及原理分析
当需要不停地新增和删除的时候,会导致 dirty map 不停地更新,甚至在 miss 过多之后,导致 dirty 成为 nil,并进入重建的过程,所以 sync.Map 适用于读多写少的场景。
。
是否支持多协程并发安全。
参考1:sync.Map详解
sync.Map 适用于读多写少的场景。
对于写多的场景,会导致不断地从 dirty map 中读取,导致 dirty map 提升为 read map,这是一个 O(N) 的操作,会进一步降低性能。
go的版本是1.17.6
)接口的底层结构有两个结构体 iface
和 eface
,区别在于 iface
描述的接口包含方法,而 eface
则是不包含任何方法的空接口:interface{}
。这两个结构体都在runtime/runtime2.go
中。(Golang之接口底层分析)
参考1:Go interface的底层实现研究(1)
iface
结构体,是在runtime/runtime2.go
中,它的所有字段如下:(来自源码)
type iface struct {
tab *itab
data unsafe.Pointer
}
iface
结构体字段解读:
tab :
指针类型,指向一个 itab 实体, 它表示接口的类型以及赋给这个接口的实体类型。
data:
则指向接口具体的值,一般而言是一个指向堆内存的指针。
itab
结构体,是在runtime/runtime2.go
中,它的所有字段如下:(来自源码)
type itab struct {
inter *interfacetype
_type *_type
hash uint32 // copy of _type.hash. Used for type switches.
_ [4]byte
fun [1]uintptr // variable sized. fun[0]==0 means _type does not implement inter.
}
itab
结构体字段解读:
inter:
接口自身定义的类型信息,用于定位到具体interface
类型。
_type:
接口实际指向值的类型信息-实际对象类型,用于定义具体interface
类型;
hash:
_type.hash
的拷贝,是类型的哈希值,用于快速查询和判断目标类型和接口中类型是一致。
fun:
动态数组,接口方法实现列表(方法集),即函数地址列表,按字典序排序,如果数组中的内容为空表示 _type
没有实现 inter 接口。
itab.inter
是interface
的类型元数据,它里面记录了这个接口类型的描述信息,接口要求的方法列表就记录在interfacetype.mhdr
里。
interfacetype
结构体,是在runtime/type.go
中,它的所有字段如下:(来自源码)
type interfacetype struct {
typ _type
pkgpath name
mhdr []imethod
}
interfacetype
结构体字段解读:
typ:
接口的信息。
pkgpath:
接口的包路径。
mhdr:
接口要求的方法列表。
iface 结构体详解:
tab._type
就是接口的动态类型,也就是被赋给接口类型的那个变量的类型元数据。itab
中的 _type
和 iface
中的 data
能简要描述一个变量。_type
是这个变量对应的类型,data
是这个变量的值。
itab.fun
记录的是动态类型实现的那些接口要求的方法的地址,是从方法元数据中拷贝来的,为的是快速定位到方法。如果itab._type
对应的类型没有实现这个接口,则itab.fun[0]=0
,这在类型断言时会用到。当fun[0]
为0时,说明_type
并没有实现该接口,当有实现接口时,fun
存放了第一个接口方法的地址,其他方法一次往下存放,这里就简单用空间换时间,其实方法都在_type
字段中能找到,实际在这记录下,每次调用的时候就不用动态查找了。
参考1:Go interface的底层实现研究(1)
eface
结构体,是在runtime/runtime2.go
中,它的所有字段如下:(来自源码)
type eface struct {
_type *_type
data unsafe.Pointer
}
eface
结构体字段解读:
_type:
类型信息。
data:
数据信息,指向数据指针。
_type
结构体,是在runtime/type.go
中,它的所有字段如下:(来自源码)
type _type struct {
size uintptr
ptrdata uintptr // size of memory prefix holding all pointers
hash uint32
tflag tflag
align uint8
fieldAlign uint8
kind uint8
// function for comparing objects of this type
// (ptr to object A, ptr to object B) -> ==?
equal func(unsafe.Pointer, unsafe.Pointer) bool
// gcdata stores the GC type data for the garbage collector.
// If the KindGCProg bit is set in kind, gcdata is a GC program.
// Otherwise it is a ptrmask bitmap. See mbitmap.go for details.
gcdata *byte
str nameOff
ptrToThis typeOff
}
_type
结构体字段解读:
size:
类型占用内存大小。
ptrdata:
包含所有指针的内存前缀大小。
hash:
类型 hash。
tflag:
标记位,主要用于反射。
align:
对齐字节信息。
fieldAlign:
当前结构字段的对齐字节数。
kind:
基础类型枚举值。
equal:
比较两个形参对应对象的类型是否相等。
gcdata:
GC 类型的数据。
str:
类型名称字符串在二进制文件段中的偏移量。
ptrToThis:
类型元信息指针在二进制文件段中的偏移量。
重点说明:
const (
kindBool = 1 + iota
kindInt
kindInt8
kindInt16
kindInt32
kindInt64
kindUint
kindUint8
kindUint16
kindUint32
kindUint64
kindUintptr
kindFloat32
kindFloat64
kindComplex64
kindComplex128
kindArray
kindChan
kindFunc
kindInterface
kindMap
kindPtr
kindSlice
kindString
kindStruct
kindUnsafePointer
kindDirectIface = 1 << 5
kindGCProg = 1 << 6
kindMask = (1 << 5) - 1
)
str
和 ptrToThis
,对应的类型是 nameoff
和 typeOff
。分表表示name
和type
针对最终输出文件所在段内的偏移量。在编译的链接步骤中,链接器将各个 .o
文件中的段合并到输出文件,会进行段合并,有的放入 .text
段,有的放入 .data
段,有的放入 .bss
段。nameoff
和typeoff
就是记录了对应段的偏移量。参考1:Go语言接口的nil判断
答:可以比较,因为nil
在 Go语言中只能被赋值给指针和接口。接口在底层的实现主要考虑eface
结构体,它有两个部分:type
和 data
。
两种情况:
显式地将 nil
赋值给接口时,接口的 type
和 data
都将为 nil
。此时,接口与 nil
值判断是相等的。
将一个带有类型的 nil
赋值给接口时,只有 data
为 nil
,而 type
为 nil
,此时,接口与 nil
判断将不相等。
参考1:golang中接口值(interface)的比较
这个问题,接口在底层的实现主要考虑eface
结构体,它有两个部分:type
和 data
。interface
可以使用 == 或 != 比较。
2个interface 相等有以下 2 种情况:
参考1:golang的context
在Golang
的http
包的Server
中,每一个请求都有一个对应的goroutine
负责处理,请求处理函数通常会启动额外的goroutine
去处理,当一个请求被取消或者超时,所有用来处理该请求的goroutine都应该及时退出,这样系统才能释放这些goroutine占用的资源,就不会有大量的goroutine去占用资源。
注意:go1.6及之前版本请使用golang.org/x/net/context。go1.7及之后已移到标准库context。
参考1:golang 系列:context 详解
参考2:快速掌握 Golang context 包,简单示例
从Context
的功能可以看出来,它是用来传递信息
的。这种传递并不仅仅是将数据塞给被调用者,它还能进行链式传递
,通过保存父子Context
关系,不断的迭代遍历来获取数据。
因为 Context
可以链式传递,这就使得 goroutine
之间能够进行链式的信号通知了,从而进而达到自上而下的通知效果。例如通知所有跟当前 context 有关系的 goroutine 进行取消处理。
因为Context
的调用是链式的,所以通过WithCancel
,WithDeadline
,WithTimeout
或WithValue
派生出新的 Context
。当父 Context
被取消时,其派生的所有 Context
都将取消。
通过context.WithXXX
都将返回新的 Context
和 CancelFunc
。调用 CancelFunc
将取消子代,移除父代对子代的引用,并且停止所有定时器。未能调用 CancelFunc
将泄漏子代,直到父代被取消或定时器触发。go vet
工具检查所有流程控制路径上使用 CancelFuncs
。
参考1:https://www.qycn.com/xzx/article/9390.html
本文中的四种使用场景的分析和相关代码同参考1完全相同。
1. RPC调用
在主goroutine上有4个RPC,RPC2/3/4是并行请求的,我们这里希望在RPC2请求失败之后,直接返回错误,并且让RPC3/4停止继续计算。这个时候,就使用的到Context。
代码:
package main
import (
"context"
"sync"
"github.com/pkg/errors"
)
func Rpc(ctx context.Context, url string) error {
result := make(chan int)
err := make(chan error)
go func() {
// 进行RPC调用,并且返回是否成功,成功通过result传递成功信息,错误通过error传递错误信息
isSuccess := true
if isSuccess {
result <- 1
} else {
err <- errors.New("some error happen")
}
}()
select {
case <- ctx.Done():
// 其他RPC调用调用失败
return ctx.Err()
case e := <- err:
// 本RPC调用失败,返回错误信息
return e
case <- result:
// 本RPC调用成功,不返回错误信息
return nil
}
}
func main() {
ctx, cancel := context.WithCancel(context.Background())
// RPC1调用
err := Rpc(ctx, "http://rpc_1_url")
if err != nil {
return
}
wg := sync.WaitGroup{}
// RPC2调用
wg.Add(1)
go func(){
defer wg.Done()
err := Rpc(ctx, "http://rpc_2_url")
if err != nil {
cancel()
}
}()
// RPC3调用
wg.Add(1)
go func(){
defer wg.Done()
err := Rpc(ctx, "http://rpc_3_url")
if err != nil {
cancel()
}
}()
// RPC4调用
wg.Add(1)
go func(){
defer wg.Done()
err := Rpc(ctx, "http://rpc_4_url")
if err != nil {
cancel()
}
}()
wg.Wait()
}
这里使用了waitGroup
来保证main函数在所有RPC调用完成之后才退出。
在Rpc函数中,第一个参数是一个CancelContext, 这个Context形象的说,就是一个传话筒,在创建CancelContext的时候,返回了一个听声器(ctx)和话筒(cancel函数)。所有的goroutine都拿着这个听声器(ctx),当主goroutine想要告诉所有goroutine要结束的时候,通过cancel函数把结束的信息告诉给所有的goroutine。当然所有的goroutine都需要内置处理这个听声器结束信号的逻辑(ctx->Done())。我们可以看Rpc函数内部,通过一个select来判断ctx的done和当前的rpc调用哪个先结束。
这个waitGroup和其中一个RPC调用就通知所有RPC的逻辑,其实有一个包已经帮我们做好了。errorGroup。具体这个errorGroup包的使用可以看这个包的test例子。
有人可能会担心我们这里的cancel()会被多次调用,context包的cancel调用是幂等的。可以放心多次调用。
我们这里不妨品一下,这里的Rpc函数,实际上我们的这个例子里面是一个“阻塞式”的请求,这个请求如果是使用http.Get或者http.Post来实现,实际上Rpc函数的Goroutine结束了,内部的那个实际的http.Get却没有结束。所以,需要理解下,这里的函数最好是“非阻塞”的,比如是http.Do,然后可以通过某种方式进行中断。
比如像这篇文章Cancel http.Request using Context中的这个例子:
func httpRequest(
ctx context.Context,
client *http.Client,
req *http.Request,
respChan chan []byte,
errChan chan error
) {
req = req.WithContext(ctx)
tr := &http.Transport{}
client.Transport = tr
go func() {
resp, err := client.Do(req)
if err != nil {
errChan <- err
}
if resp != nil {
defer resp.Body.Close()
respData, err := ioutil.ReadAll(resp.Body)
if err != nil {
errChan <- err
}
respChan <- respData
} else {
errChan <- errors.New("HTTP request failed")
}
}()
for {
select {
case <-ctx.Done():
tr.CancelRequest(req)
errChan <- errors.New("HTTP request cancelled")
return
case <-errChan:
tr.CancelRequest(req)
return
}
}
}
它使用了http.Client.Do,然后接收到ctx.Done的时候,通过调用transport.CancelRequest来进行结束。
我们还可以参考net/dail/DialContext。
换而言之,如果你希望你实现的包是“可中止/可控制”的,那么你在你包实现的函数里面,最好是能接收一个Context函数,并且处理了Context.Done。
2. PipeLine
pipeline
模式就是流水线模型,流水线上的几个工人,有n个产品,一个一个产品进行组装。其实pipeline模型的实现和Context并无关系,没有context我们也能用chan实现pipeline模型。但是对于整条流水线的控制,则是需要使用上Context的。这篇文章Pipeline Patterns in Go的例子是非常好的说明。这里就大致对这个代码进行下说明。
runSimplePipeline的流水线工人有三个,lineListSource负责将参数一个个分割进行传输,lineParser负责将字符串处理成int64,sink根据具体的值判断这个数据是否可用。他们所有的返回值基本上都有两个chan,一个用于传递数据,一个用于传递错误。(<-chan string, <-chan error)输入基本上也都有两个值,一个是Context,用于传声控制的,一个是(in <-chan)输入产品的。
我们可以看到,这三个工人的具体函数里面,都使用switch处理了case <-ctx.Done()。这个就是生产线上的命令控制。
func lineParser(ctx context.Context, base int, in <-chan string) (
<-chan int64, <-chan error, error) {
...
go func() {
defer close(out)
defer close(errc)
for line := range in {
n, err := strconv.ParseInt(line, base, 64)
if err != nil {
errc <- err
return
}
select {
case out <- n:
case <-ctx.Done():
return
}
}
}()
return out, errc, nil
}
3. 超时请求
我们发送RPC请求的时候,往往希望对这个请求进行一个超时的限制。当一个RPC请求超过10s的请求,自动断开。当然我们使用CancelContext,也能实现这个功能(开启一个新的goroutine,这个goroutine拿着cancel函数,当时间到了,就调用cancel函数)。
鉴于这个需求是非常常见的,context包也实现了这个需求:timerCtx。具体实例化的方法是 WithDeadline 和 WithTimeout。
具体的timerCtx里面的逻辑也就是通过time.AfterFunc来调用ctx.cancel的。
官方的例子:
package main
import (
"context"
"fmt"
"time"
)
func main() {
ctx, cancel := context.WithTimeout(context.Background(), 50*time.Millisecond)
defer cancel()
select {
case <-time.After(1 * time.Second):
fmt.Println("overslept")
case <-ctx.Done():
fmt.Println(ctx.Err()) // prints "context deadline exceeded"
}
}
在http的客户端里面加上timeout也是一个常见的办法。
uri := "https://httpbin.org/delay/3"
req, err := http.NewRequest("GET", uri, nil)
if err != nil {
log.Fatalf("http.NewRequest() failed with '%s'\n", err)
}
ctx, _ := context.WithTimeout(context.Background(), time.Millisecond*100)
req = req.WithContext(ctx)
resp, err := http.DefaultClient.Do(req)
if err != nil {
log.Fatalf("http.DefaultClient.Do() failed with:\n'%s'\n", err)
}
defer resp.Body.Close()
在http服务端设置一个timeout如何做呢?
package main
import (
"net/http"
"time"
)
func test(w http.ResponseWriter, r *http.Request) {
time.Sleep(20 * time.Second)
w.Write([]byte("test"))
}
func main() {
http.HandleFunc("/", test)
timeoutHandler := http.TimeoutHandler(http.DefaultServeMux, 5 * time.Second, "timeout")
http.ListenAndServe(":8080", timeoutHandler)
}
我们看看TimeoutHandler的内部,本质上也是通过context.WithTimeout来做处理。
func (h *timeoutHandler) ServeHTTP(w ResponseWriter, r *Request) {
...
ctx, cancelCtx = context.WithTimeout(r.Context(), h.dt)
defer cancelCtx()
...
go func() {
...
h.handler.ServeHTTP(tw, r)
}()
select {
...
case <-ctx.Done():
...
}
}
context还提供了valueCtx的数据结构。这个valueCtx最经常使用的场景就是在一个http服务器中,在request中传递一个特定值,比如有一个中间件,做cookie验证,然后把验证后的用户名存放在request中。
我们可以看到,官方的request里面是包含了Context的,并且提供了WithContext的方法进行context的替换。
package main
import (
"net/http"
"context"
)
type FooKey string
var UserName = FooKey("user-name")
var UserId = FooKey("user-id")
func foo(next http.HandlerFunc) http.HandlerFunc {
return func(w http.ResponseWriter, r *http.Request) {
ctx := context.WithValue(r.Context(), UserId, "1")
ctx2 := context.WithValue(ctx, UserName, "yejianfeng")
next(w, r.WithContext(ctx2))
}
}
func GetUserName(context context.Context) string {
if ret, ok := context.Value(UserName).(string); ok {
return ret
}
return ""
}
func GetUserId(context context.Context) string {
if ret, ok := context.Value(UserId).(string); ok {
return ret
}
return ""
}
func test(w http.ResponseWriter, r *http.Request) {
w.Write([]byte("welcome: "))
w.Write([]byte(GetUserId(r.Context())))
w.Write([]byte(" "))
w.Write([]byte(GetUserName(r.Context())))
}
func main() {
http.Handle("/", foo(test))
http.ListenAndServe(":8080", nil)
}
在使用ValueCtx的时候需要注意一点,这里的key不应该设置成为普通的String或者Int类型,为了防止不同的中间件对这个key的覆盖。最好的情况是每个中间件使用一个自定义的key类型,比如这里的FooKey,而且获取Value的逻辑尽量也抽取出来作为一个函数,放在这个middleware的同包中。这样,就会有效避免不同包设置相同的key的冲突问题了。
参考1:快速掌握 Golang context 包,简单示例
Context
放入结构体,相反context
应该作为第一个参数传入,命名为ctx
。 func DoSomething(ctx context.Context,arg Arg)error { // ... use ctx ... }
。nil
的 Context
。如果不知道用哪种 Context
,可以使用context.TODO()
。context
的Value
相关方法只应该用于在程序和接口中传递的和请求相关的元数据,不要用它来传递一些可选的参数。Context
可以传递给在不同的goroutine
;Context
是并发安全的。context
的 Done()
方法往往需要配合 select {}
使用,以监听退出。context
执行取消动作,所有派生的 context
都会触发取消。参考1:golang 系列:context 详解
Context
主要有四种:
emptyCtx
:空的 context,实现了上面的 4 个接口,但都是直接 return 默认值,没有具体功能代码。一般用作最初始的 context,作为父 context
使用。 context.Background()
和返回的就是 emptyCtx
。一般的将它们作为Context的根,往下派生。cancelCtx
:用来取消通知用的 context
。WithCancel
方法创建的是 cancelCtx
类型的 context
。timerCtx
:用来超时通知用的 context
。WithDeadline
方法创建的是 timerCtx
类型的 context
。valueCtx
:用来传值的 context
。WithValue
方法创建的是 valueCtx
类型的 context
。WithCancel
、WithDeadline
、WithValue
三个方法在创建的时候都会要求传 父级context
进来,以此达到链式传递信息的目的。
go的版本是1.17.6
)参考1:快速掌握 Golang context 包,简单示例
参考2:golang 系列:context 详解
参考3:golang的context
Context是一个接口
,是在context/context.go
中,它的所有抽象方法如下:(来自源码)
type Context interface {
Deadline() (deadline time.Time, ok bool)
Done() <-chan struct{}
Err() error
Value(key interface{}) interface{}
}
Context接口中抽象方法
解读:
Deadline():
返回截止时间和ok。
deadline
时间,同时ok为true
是表示设置了截止时间;Done():
返回一个只读channel
(只有在被cancel后才会返回),它的数据类型是 struct{}
,一个空结构体。当times out
或者父级Context
调用cancel
方法后,将会close channel
来进行通知,但是不会涉及具体数据传输,根据这个信号,开发者就可以做一些清理动作,比如退出goroutine
。多次调用Done
方法会返回的是同一个Channel
。
Err():
返回一个错误。如果上面的 Done()
的 channel
没被 close
,则 error
为 nil
;如果 channel
已被 close
,则 error
将会返回 close
的原因,说明该context
为什么被关掉,比如超时
或手动取消
。
Value():
返回被绑定到 Context
的值,是一个键值对,所以要通过一个Key
才可以获取对应的值,这个值一般是线程安全的。对于同一个上下文来说,多次调用Value
并传入相同的Key
会返回相同的结果,该方法仅用于传递跨API和进程间请求域的数据
。
Context接口中的具体方法
解读:
参考1:golang中的context
参考2:golang的context
Background()&TODO()
Background():
是所有派生Context
的根Context
,该Context
通常由接收request
的第一个goroutine
创建。它不能被取消、没有值、也没有过期时间,常作为处理request
的顶层context
存在。
TODO():
也是返回一个没有值的Context
,目前不知道它具体的使用场景,如果我们不知道该传什么类型的Context
的时候,可以使用这个。
Background()
和TODO()
本质上是emptyCtx
结构体类型,是一个不可取消,没有设置截止时间,没有携带任何值的Context
。
WithCancel(parent Context) (ctx Context, cancel CancelFunc)
返回一个继承的Context
和CancelFunc取消方法
,在父协程context
的Done
函数被关闭时会关闭自己的Done
通道,或者在执行了CancelFunc取消方法
之后,会关闭自己的Done通道。这种关闭的通道可以作为一种广播的通知操作,告诉所有context
相关的函数停止当前的工作直接返回。通常使用场景用于主协程用于控制子协程的退出,用于一对多处理。
WithDeadline(parent Context, d time.Time) (Context, CancelFunc)
参数是传递一个上下文,等待超时时间,超时后,会返回超时时间,并且会关闭context的Done通道,其他传递的context收到Done关闭的消息的,直接返回即可。同样用户通知消息出来。
以下三种情况会取消该创建的context:
1、到达指定时间点;
2、调用了CancelFunc取消方法;
3、父节点context关闭。
WithTimeout(parent Context, timeout time.Duration) (Context, CancelFunc)
WithTimeout()
里是直接调用并返回的WithDeadline()
,所以它和WithDeadline()
功能是一样,只是传递的时间是从当前时间加上超时时间。
func WithTimeout(parent Context, timeout time.Duration) (Context, CancelFunc) {
return WithDeadline(parent, time.Now().Add(timeout))
}
WithValue(parent Context, key, val interface{}) Context
每个context
都可以放一个key-value
对, 通过WithValue
方法可以找key
对应的value
值,如果没有找到,就从父context
中找,直到找到为止。
参考1:https://blog.csdn.net/weixin_38664232/article/details/123663759
context本身是线程安全的,所以context携带value也是线程安全的。
context包提供两种创建根context的方式:
又提供了四个函数(WithCancel
、WithDeadline
、WithTimeout
、WithValue
)基于父Context
牌生,其中使用WithValue
函数派生的context
来携带数据,每次调用WithValue
函数都会基于当前context
派生一个新的子context
,WithValue
内部主要就是调用valueCtx类:
func WithValue(parent Context, key, val interface{}) Context {
if parent == nil {
panic("cannot create context from nil parent")
}
if key == nil {
panic("nil key")
}
if !reflectlite.TypeOf(key).Comparable() {
panic("key is not comparable")
}
return &valueCtx{parent, key, val}
}
说明:参数中的parent
是当前valueContext
的父节点。
valueCtx
结构如下:
type valueCtx struct {
Context
key, val interface{}
}
valueContext
继承父Context
,这种是采用匿名接口的继承实现方式,key
、val
用来存储携带的键值对。
通过上面的代码分析,可以发现:
添加键值对不是在原来的父Context
结构体上直接添加,而是以此context
作为父节点,重新创建一个新的valueContext子节点
,将键值对添加到子节点上,由此形成一条context
链。
获取键值对的过程也是层层向上调用,直到首次设置key的父节点,如果没有找到首次设置key的父节点,会向上遍历直到根节点,如果根节点找到了key就会返回,否则就会找到最终的根Context(emptyCtx)
返回nil。如下图所示:
总结:
context添加的键值对是一个链式的,会不断衍生新的context,所以context本身是不可变的,因此是线程安全的。
参考1:go中select语句
select
语句就是用来监听和channel
有关的IO
操作,当IO
操作发生时,触发对应的case
动作。有了select
语句,可以实现main主线程
与goroutine线程
之间的互动。
//for {
select {
case <-ch1 : // 检测有没有数据可读
// 一旦成功读取到数据,则进行该case处理语句
case ch2 <- 1 : // 检测有没有数据可写
// 一旦成功向ch2写入数据,则进行该case处理语句
default:
// 如果以上都没有符合条件,那么进入default处理流程
}
}//
·select语句外面可使用for循环来实现不断监听IO的目的。·
注意事项:
select
语句只能用于channel
信道的IO操作,每个case
都必须是一个信道。default
条件,在没有IO
操作发生时,select
语句就会一直阻塞;如果有一个或多个IO操作同时发生时,Go运行时会随机选择一个case执行,但此时将无法保证执行顺序;
对于case语句,如果存在信道值为nil的读写操作,则该分支将被忽略,可以理解为相当于从select语句中删除了这个case;
default
条件,又一直没有IO
操作发生的情况,select
语句会引起死锁(fatal error: all goroutines are asleep - deadlock!
),如果不希望出现死锁,可以设置一个超时时间的case来解决;for
中的select
语句,不能添加default
,否则会引起CPU
占用过高的问题;参考1:go语言中select实现优先级
在 9.1 注意事项3
中已知无法保证执行顺序的情况。
问题描述:我们有一个函数会持续不间断地从ch1
和ch2
中分别接收任务1
和任务2
,如何确保当ch1
和ch2
同时达到就绪状态时,优先执行任务1
,在没有任务1
的时候再去执行任务2
呢?
实现代码:
func worker2(ch1, ch2 <-chan int, stopCh chan struct{}) {
for {
select {
case <-stopCh:
return
case job1 := <-ch1:
fmt.Println(job1)
case job2 := <-ch2:
priority:
for {
select {
case job1 := <-ch1:
fmt.Println(job1)
default:
break priority
}
}
fmt.Println(job2)
}
}
}
使用了嵌套的select,还组合使用了for
循环和label
来解决问题。上面的代码在外层select选中执行job2 := <-ch2
时,进入到内层select
循环继续尝试执行job1 := <-ch1
,当ch1
就绪时就会一直执行,否则跳出内层select
,继续执行job2
。
这是两个任务的情况,在任务数可数的情况下可以层层嵌套来实现对多个任务排序,对于有规律的任务可以使用递归的。
参考1:https://blog.csdn.net/eddycjy/article/details/122053524
注意:
关闭的channel
不是nil
,所以在select
语句中依然可以监听并执行对应的case
,只不过在读取关闭后的channel
时,读取到的数据是零值,ok是false。要想知道某个通道是否关闭,判断ok是否为false即可。
要想判断某个通道是否关闭,当返回的ok为false时,执行c = nil 将通道置为nil,相当于读一个未初始化的通道,则会一直阻塞。至于为什么读一个未初始化的通道会出现阻塞,可以看我的另一篇 对未初始化的的chan进行读写,会怎么样?为什么? 。select中如果任意某个通道有值可读时,它就会被执行,其他被忽略。则select会跳过这个阻塞case,可以解决不断读已关闭通道的问题。
参考1:https://blog.csdn.net/eddycjy/article/details/122053524
要想屏蔽某个已经关闭的通道,判断通道的ok是false
后,将channel
置为nil
,select
再监听该通道时,相当于监听一个未初始化的通道,则会一直阻塞,select
会跳过这个阻塞,从而达到屏蔽的目的。
参考1:https://blog.csdn.net/eddycjy/article/details/122053524
只有一个case的情况下,则会死循环。
关闭的channel
不是nil
,所以在select
语句中依然可以监听并执行对应的case
,只不过在读取关闭后的channel
时,读取到的数据是零值,ok是false。
参考1:https://blog.csdn.net/eddycjy/article/details/122053524
答:因为只有一个已经关闭的channel,且已经置为了nil,这时select会先阻塞,最后发生死锁(fatal error: all goroutines are asleep - deadlock!
)。
对于既不设置default
条件,又一直没有IO
操作发生的情况,select
语句会引起死锁(fatal error: all goroutines are asleep - deadlock!
),如果不希望出现死锁,可以设置一个超时时间的case来解决;
defer
的作用就是把defer
关键字之后的函数执行压入一个栈中延迟执行
,多个defer
的执行顺序是后进先出
LIFO,也就是先执行最后一个defer,最后执行第一个defer。
在这些操作中,最容易忽略的就是在每个函数退出处正确地释放和关闭资源。
参考1:go defer、return的执行顺序
多个defer
的执行顺序是后进先出
LIFO,也就是先执行最后一个defer,最后执行第一个defer。
参考1:go defer、return的执行顺序
参考2:Go语言中defer和return执行顺序解析
return返回值的运行机制:
return并非原子操作,共分为赋值、返回值两步操作。
defer、return、返回值三者的执行是:
return最先执行,先将结果写入返回值中(即赋值);接着defer开始执行一些收尾工作;最后函数携带当前返回值退出(即返回值)。
如果函数的返回值是无名的(不带命名返回值),则go语言会在执行return的时候会执行一个类似创建一个临时变量作为保存return值的动作,所以defer里面的操作不会影响返回值
。
package main
import (
"fmt"
)
func main() {
fmt.Println("return:", Demo()) // 打印结果为 return: 0
}
func Demo() int {
var i int
defer func() {
i++
fmt.Println("defer2:", i) // 打印结果为 defer: 2
}()
defer func() {
i++
fmt.Println("defer1:", i) // 打印结果为 defer: 1
}()
return i
}
代码示例,实际上一共执行了3步操作:
1)赋值,因为返回值没有命名,所以return 默认指定了一个返回值(假设为s),首先将i赋值给s,i初始值是0,所以s也是0。
2)后续的defer操作因为是针对i,进行的,所以不会影响s,此后因为s不会更新,所以s不会变还是0。
3)返回值,return s,也就是return 0
相当于:
var i int
s := i
return s
有名返回值的函数,由于返回值在函数定义的时候已经将该变量进行定义,在执行return的时候会先执行返回值保存操作,而后续的defer函数会改变这个返回值(虽然defer是在return之后执行的,但是由于使用的函数定义的变量,所以执行defer操作后对该变量的修改会影响到return的值
)。
由于返回值已经提前定义了,不会产生临时零值变量,返回值就是提前定义的变量,后续所有的操作也都是基于已经定义的变量,任何对于返回值变量的修改都会影响到返回值本身。
package main
import (
"fmt"
)
func main() {
fmt.Println("return:", Demo2()) // 打印结果为 return: 2
}
func Demo2() (i int) {
defer func() {
i++
fmt.Println("defer2:", i) // 打印结果为 defer: 2
}()
defer func() {
i++
fmt.Println("defer1:", i) // 打印结果为 defer: 1
}()
return i // 或者直接 return 效果相同
}
可以,在 10.2.2 defer、return、返回值 的执行返回值顺序
下有名返回值(函数返回值为已经命名的返回值)
的讲解中可以知道,可以更改。
有名返回值的函数,由于返回值在函数定义的时候已经将该变量进行定义,在执行return的时候会先执行返回值保存操作,而后续的defer函数会改变这个返回值(虽然defer是在return之后执行的,但是由于使用的函数定义的变量,所以执行defer操作后对该变量的修改会影响到return的值
)。
由于返回值已经提前定义了,不会产生临时零值变量,返回值就是提前定义的变量,后续所有的操作也都是基于已经定义的变量,任何对于返回值变量的修改都会影响到返回值本身。
参考1:循环内部使用defer的正确姿势
重点是理解defer的执行机制,defer是在函数退出的时候才执行的
,所以可以将打开关闭、文件等操作单独写到一个函数里,或者是写到匿名函数中。
参考1:golang之反射
反射基本介绍:
反射重要的函数:
interface{} ——> reflect.Value:
rVal := reflect.ValueOf(b)
reflect.Value ——> interface{}:
iVal := rVal.Interface()
interface{} ——> 原来的变量(类型断言):
v := iVal.(Stu)
反射的注意事项:
//比如:
var num int = 10 //num的Type是int,Kind也是int
var stu Student //stu的Type是包名.Student,Kind是struct
interface{}
和Reflect.Value
之间相互转换:变量 <——> interface{} <——> reflect.Value
参考1:Go语言反射(reflection)简述
看参考1的 使用反射获取结构体的成员类型
部分。
package main
import (
"fmt"
"reflect"
)
func main() {
// 声明一个空结构体
type cat struct {
Name string
// 带有结构体tag的字段
Type int `json:"type" id:"100"`
}
// 创建cat的实例
ins := cat{Name: "mimi", Type: 1}
// 获取结构体实例的反射类型对象
typeOfCat := reflect.TypeOf(ins)
// 遍历结构体所有成员
for i := 0; i < typeOfCat.NumField(); i++ {
// 获取每个成员的结构体字段类型
fieldType := typeOfCat.Field(i)
// 输出成员名和tag
fmt.Printf("name: %v tag: '%v'\n", fieldType.Name, fieldType.Tag)
}
// 通过字段名, 找到字段类型信息
if catType, ok := typeOfCat.FieldByName("Type"); ok {
// 从tag中取出需要的tag
fmt.Println(catType.Tag.Get("json"), catType.Tag.Get("id"))
}
}
输出结果:
name: Name tag: ‘’
name: Type tag: ‘json:“type” id:“100”’
type 100
参考1:golang面试题:json包变量不加tag会怎么样?
private
。由于取不到反射信息,所以不能转成json。public
,可以转为json:代码:
package main
import (
"encoding/json"
"fmt"
)
type JsonTest struct {
aa string //小写无tag
bb string `json:"BB"` //小写+tag
CC string //大写无tag
DD string `json:"DJson"` //大写+tag
}
func main() {
jsonTest := JsonTest{aa: "1", bb: "2", CC: "3", DD: "4"}
fmt.Printf("转为json前jsonTest结构体的内容 = %+v\n", jsonTest)
jsonInfo, _ := json.Marshal(jsonTest)
fmt.Printf("转为json后的内容 = %+v\n", string(jsonInfo))
}
参考1:golang容易导致内存泄漏的几种情况
参考1:内存泄漏
内存泄漏指因为疏忽或错误造成程序未能释放已经不再使用的内存的情况。内存泄漏并不是指内存在物理上的消失,而是应用程序分配某段内存后,因为设计错误,失去了对该段内存的控制,因而造成了内存的浪费。
内存泄漏的危害:
长期运行的程序出现内存泄漏,影响很大,如操作系统、后台服务等等,出现内存泄漏会导致响应越来越慢,最终卡死。
默认的time.After()
是会有内存泄露问题的,因为每次time.After(duration x)
会产生NewTimer()
,在duration x
到期之前,新创建的timer
不会被垃圾回收,到期之后才会垃圾回收。
随着时间推移,尤其是duration x
很大的话,会产生内存泄露的问题,应特别注意。
for true {
select {
case <-time.After(time.Minute * 3):
// do something
default:
time.Sleep(time.Duration(1) * time.Second)
}
}
为了保险起见,使用NewTimer()
或者NewTicker()
代替的方式主动释放资源。
timer := time.NewTicker(time.Duration(2) * time.Second)
defer timer.Stop()
for true {
select {
case <-timer.C:
// do something
default:
time.Sleep(time.Duration(1) * time.Second)
}
}
在使用time.NewTicker时需要手动调用Stop()方法释放资源,否则将会造成永久性的内存泄漏。
timer := time.NewTicker(time.Duration(2) * time.Second)
// defer timer.Stop()
for true {
select {
case <-timer.C:
// do something
default:
time.Sleep(time.Duration(1) * time.Second)
}
}
使用select时如果有case没有覆盖完全的情况且没有default分支进行处理,会出现阻塞,最终导致内存泄漏。
goroutine
阻塞的情况func main() {
ch1 := make(chan int)
ch2 := make(chan int)
ch3 := make(chan int)
go Getdata("https://www.baidu.com",ch1)
go Getdata("https://www.baidu.com",ch2)
go Getdata("https://www.baidu.com",ch3)
select{
case v:=<- ch1:
fmt.Println(v)
case v:=<- ch2:
fmt.Println(v)
}
}
上面代码中这种情况会阻塞在ch3的消费处导致内存泄漏。
func main() {
fmt.Println("main start")
msgList := make(chan int, 100)
go func() {
for {
select {
case <-msgList:
default:
}
}
}()
c := make(chan os.Signal, 1)
signal.Notify(c, os.Interrupt, os.Kill)
s := <-c
fmt.Println("main exit.get signal:", s)
}
上述for循环条件一旦命中default则会出现循环空转的情况,并最终导致CPU暴涨。
channel阻塞主要分为写阻塞
和读阻塞
两种情况。
读写均会堵塞。
func channelTest() {
//声明未初始化的channel读写都会阻塞
var c chan int
//向channel中写数据
go func() {
c <- 1
fmt.Println("g1 send succeed")
time.Sleep(1 * time.Second)
}()
//从channel中读数据
go func() {
<-c
fmt.Println("g2 receive succeed")
time.Sleep(1 * time.Second)
}()
time.Sleep(10 * time.Second)
}
①:无缓冲channel的阻塞通常是写操作因为没有读而阻塞。
func channelTest() {
var c = make(chan int)
//10个协程向channel中写数据
for i := 0; i < 10; i++ {
go func() {
<- c
fmt.Println("g1 receive succeed")
time.Sleep(1 * time.Second)
}()
}
//1个协程丛channel读数据
go func() {
c <- 1
fmt.Println("g2 send succeed")
time.Sleep(1 * time.Second)
}()
//会有写的9个协程阻塞得不到释放
time.Sleep(10 * time.Second)
}
②:有缓冲的channel因为缓冲区满了,写操作阻塞。
func channelTest() {
var c = make(chan int, 8)
//10个协程向channel中写数据
for i := 0; i < 10; i++ {
go func() {
<- c
fmt.Println("g1 receive succeed")
time.Sleep(1 * time.Second)
}()
}
//1个协程丛channel读数据
go func() {
c <- 1
fmt.Println("g2 send succeed")
time.Sleep(1 * time.Second)
}()
//会有写的几个协程阻塞写不进去
time.Sleep(10 * time.Second)
}
从channel读数据,但是没有goroutine往进写数据。
func channelTest() {
var c = make(chan int)
//1个协程向channel中写数据
go func() {
<- c
fmt.Println("g1 receive succeed")
time.Sleep(1 * time.Second)
}()
//10个协程丛channel读数据
for i := 0; i < 10; i++ {
go func() {
c <- 1
fmt.Println("g2 send succeed")
time.Sleep(1 * time.Second)
}()
}
//会有读的9个协程阻塞得不到释放
time.Sleep(10 * time.Second)
}
例如在for循环中申请过多的goroutine来不及释放导致内存泄漏。
I/O连接未设置超时时间,导致goroutine一直在等待,代码会一直阻塞。
goroutine无法获取到锁资源,导致goroutine阻塞。
当程序死锁时其他goroutine也会阻塞。
func mutexTest() {
m1, m2 := sync.Mutex{}, sync.RWMutex{}
//g1得到锁1去获取锁2
go func() {
m1.Lock()
fmt.Println("g1 get m1")
time.Sleep(1 * time.Second)
m2.Lock()
fmt.Println("g1 get m2")
}()
//g2得到锁2去获取锁1
go func() {
m2.Lock()
fmt.Println("g2 get m2")
time.Sleep(1 * time.Second)
m1.Lock()
fmt.Println("g2 get m1")
}()
//其余协程获取锁都会失败
go func() {
m1.Lock()
fmt.Println("g3 get m1")
}()
time.Sleep(10 * time.Second)
}
waitgroup的Add、Done和wait数量不匹配会导致wait一直在等待。
当两个slice 共享地址,其中一个为全局变量,另一个也无法被GC;
append slice 后一直使用,没有进行清理。
var a []int
func test(b []int) {
a = b[:3]
return
}
由于数组时Golang的基本数据类型,每个数组占用不通的内存空间,生命周期互不干扰,很难出现内存泄漏的情况,但是数组作为形参传输时,遵循的时值拷贝
,如果函数被多个goroutine调用且数组过大时,则会导致内存使用激增。
//统计nums中target出现的次数
func countTarget(nums [1000000]int, target int) int {
num := 0
for i := 0; i < len(nums) && nums[i] == target; i++ {
num++
}
return num
}
因此对于大数组放在形参场景下通常使用切片或者指针进行传递,避免短时间的内存使用激增。
参考1:https://www.jb51.net/article/243510.htm
一共四种:
参考1:Golang = 比较与赋值
参考2:golang中如何比较struct,slice,map是否相等以及几种对比方法的区别
- 结构体只能比较是否相等,但是不能比较大小。
- 相同类型的结构体才能够进行比较,结构体是否相同不但与属性类型有关,还与属性顺序相关,sn3 与 sn1 就是不同的结构体;
- 如果 struct 的所有成员都可以比较,则该 struct 就可以通过 == 或 != 进行比较是否相等,比较时逐个项进行比较,如果每一项都相等,则两个结构体才相等,否则不相等;(像切片、map、函数等是不能比较的)
参考1:Golang数据结构实现(二)集合Set
//定义1个set结构体 内部主要是使用了map
type set struct {
elements map[interface{}]bool
}
参考1:说说Golang的runtime
runtime
包含Go运行时的系统交互的操作,例如控制goruntine
的功能。还有debug
,pprof
进行排查问题和运行时性能分析,tracer
来抓取异常事件信息,如 goroutine
的创建,加锁解锁状态,系统调用进入推出和锁定还有GC相关的事件,堆栈大小的改变以及进程的退出和开始事件等等;race进行竞态关系检查以及CGO
的实现。总的来说运行时是调度器和GC。
参考1:详解Golang并发操作中常见的死锁情形
fatal error: all goroutines are asleep - deadlock!
解决办法很简单,开辟两条协程,一条协程写,一条协程读。func main() {
ch := make(chan int, 0)
ch <- 666
x := <- ch
fmt.Println(x)
}
func main() {
ch := make(chan int,0)
ch <- 666
go func() {
<- ch
}()
}
我们可以看到,这条协程开辟在将数字写入到管道之后,因为没有人读,管道就不能写,然后写入管道的操作就一直阻塞。这时候你就有疑惑了,不是开辟了一条协程在读吗?但是那条协程开辟在写入管道之后,如果不能写入管道,就开辟不了协程。
func main() {
chHusband := make(chan int,0)
chWife := make(chan int,0)
go func() {
select {
case <- chHusband:
chWife<-888
}
}()
select {
case <- chWife:
chHusband <- 888
}
}
func main() {
var rmw09 sync.RWMutex
ch := make(chan int,0)
go func() {
rmw09.Lock()
ch <- 123
rmw09.Unlock()
}()
go func() {
rmw09.RLock()
x := <- ch
fmt.Println("读到",x)
rmw09.RUnlock()
}()
for {
runtime.GC()
}
}
参考1:Go Exec 僵尸与孤儿进程
僵尸进程(zombie process)指:完成执行(通过exit系统调用,或运行时发生致命错误或收到终止信号所致),但在操作系统的进程表中仍然存在其进程控制块,处于“终止状态”的进程。
解决&预防
:
收割僵尸进程的方法是通过 kill
命令手工向其父进程发送SIGCHLD信号。如果其父进程仍然拒绝收割僵尸进程,则终止父进程,使得 init
进程收养僵尸进程。init
进程周期执行 wait
系统调用收割其收养的所有僵尸进程。
参考1:Golang函数参数的值传递和引用传递
值传递和引用传递都有,看入参的类型。
值传递:
是指在调用函数时将实际参数复制一份传递到函数中,这样在函数中如果对参数进行修改,将不会影响到实际参数。
引用传递:
引用传递是指在调用函数时将实际参数的地址传递到函数中,那么在函数中对参数所进行的修改,将影响到实际参数,由于引用类型(slice、map、interface、channel)自身就是指针,所以这些类型的值拷贝给函数参数,函数内部的参数仍然指向它们的底层数据结构。
参考1:https://www.jianshu.com/p/93e205e70e83
Golang的引用类型包括 slice
、map
和 channel
。
参考1:make和new的区别
new
和 make
主要区别如下:
在讲new
和make
的使用场景之前,先介绍一下golang中的值类型和引用类型。
引用类型和值类型
值类型:
int
、float
、bool
和string
这些类型都属于值类型,使用这些类型的变量直接指向存在内存中的值,值类型的变量的值存储在栈中。当使用等号=
将一个变量的值赋给另一个变量时,如 j = i
,实际上是在内存中将 i 的值进行了拷贝。可以通过 &i 获取变量 i 的内存地址。 (struct在方法中传参时是值类型而非引用类型)
引用类型:
特指slice
、map
、channel
这三种预定义类型。能够通过make()
函数创建的都是引用类型,比如slice
和map
,slice
虽然看起来像数组,但是他其实是一个指向数组内存空间的一个指针类型。
使用场景:
参考1:互斥锁机制,互斥锁与读写锁区别
互斥锁和读写锁的区别:
参考1:go定时器NewTicker&NewTimer
NewTimer是延迟d时间后触发,如果需要循环则需要Reset。NewTimer的延迟时间并不是精确、稳定的,比如设置30ms,有可能会35、40ms后才触发,即使在系统资源充足的情况下,所以一个循环的timer在60ms内并不能保证会触发2两次,而ticker会。
它会调整时间间隔或者丢弃 tick 信息以适应反应慢的接者,所以回调触发不是稳定的,有可能在小于d的时间段触发,也有可能大于d的时间段触发,即使应用什么都不做。但在一段时间内,触发次数是保证的,比如在系统资源充足的情况下,设定触发间隔30ms,上一ticket触发间隔是44ms,下一触发间隔可能就是16ms,所以60ms内还是会触发两个ticket。
区别:
ticker的稳定性不如timer,一个空转的go程序,tickter也是不稳定的,触发间隔并不会稳定在d时间段,在ms级别上;而timer相对稳定,但也不是绝对的,timer也会在大于d的时间后触发。
回答:使用多协程。
答:并发处理。有缓冲的channel可以控制并发数目,从而实现多线程并发处理。
参考1:Go语言strconv包实现字符串和数值类型的相互转换
strconv包里有相关的转换方法。
string 与 int 类型之间的转换
Itoa():
整型转字符串。
Atoi():
字符串转整型。
Parse 系列函数
Parse
系列函数用于将字符串转换为指定类型的值,其中包括 ParseBool()
、ParseFloat()
、ParseInt()
、ParseUint()
。
Format 系列函数
Format
系列函数实现了将给定类型数据格式化为字符串类型的功能,其中包括 FormatBool()
、FormatInt()
、FormatUint()
、FormatFloat()
。
Append 系列函数
Append
系列函数用于将指定类型转换成字符串后追加到一个切片中,其中包含 AppendBool()
、AppendFloat()
、AppendInt()
、AppendUint()
。
Append
系列函数和Format
系列函数的使用方法类似,只不过是将转换后的结果追加到一个切片中。
参考1:golang标准库-sync包使用和应用场景
参考2:Golang - sync包的使用
回答:map、mutex、waitGroup{}等。
WaitGroup, Once, Mutex, RWMutex, Cond, Pool, Map
。
参考1:golang 几种字符串的拼接方式
参考2:Golang的五种字符串拼接方式
+
号func BenchmarkAddStringWithOperator(b *testing.B) {
hello := "hello"
world := "world"
for i := 0; i < b.N; i++ {
_ = hello + "," + world
}
}
Golang里面的字符串都是不可变的,每次运算都会产生一个新的字符串,所以会产生很多临时的无用的字符串,不仅没有用,还会给GC带来额外的负担,所以性能比较差。
fmt.Sprintf()
func BenchmarkAddStringWithSprintf(b *testing.B) {
hello := "hello"
world := "world"
for i := 0; i < b.N; i++ {
_ = fmt.Sprintf("%s,%s", hello, world)
}
}
内部使用 []byte
实现,不像直接运算符这种会产生很多临时的字符串,但是内部的逻辑比较复杂,有很多额外的判断,还用到了 interface
,所以性能也不是很好。
strings.Join()
func BenchmarkAddStringWithJoin(b *testing.B) {
hello := "hello"
world := "world"
for i := 0; i < b.N; i++ {
_ = strings.Join([]string{hello, world}, ",")
}
}
join
会先根据字符串数组的内容,计算出一个拼接之后的长度,然后申请对应大小的内存,一个一个字符串填入,在已有一个数组的情况下,这种效率会很高,但是如果本来没有的话,去构造这个数据的代价也不小,效率也不高。
buffer.WriteString()
func BenchmarkAddStringWithBuffer(b *testing.B) {
hello := "hello"
world := "world"
for i := 0; i < 1000; i++ {
var buffer bytes.Buffer
buffer.WriteString(hello)
buffer.WriteString(",")
buffer.WriteString(world)
_ = buffer.String()
}
}
这个比较理想,可以当成可变字符使用,对内存的增长也有优化,如果能预估字符串的长度,还可以用 buffer.Grow() 接口来设置 capacity
。
性能:
strings.Join()
能有比较好的性能。buffer.WriteString()
以获得更好的性能。fmt.Sprintf()
。参考1:Golang中int, int8, int16, int32, int64和uint区别
答:
我们看一下官方文档
int is a signed integer type that is at least 32 bits in size. It is a distinct type, however, and not an alias for, say, int32.
意思是 int 是一个至少32位的有符号整数类型。但是,它是一个不同的类型,而不是int32的别名。int 和 int32 是两码事。
uint is a variable sized type, on your 64 bit computer uint is 64 bits wide.
uint 是一种可变大小的类型,在64位计算机上,uint 是64位宽的。uint 和 uint8 等都属于无符号 int 类型。uint 类型长度取决于 CPU,如果是32位CPU就是4个字节,如果是64位就是8个字节。
总结
go语言中的 int 的大小是和操作系统位数相关的,32位操作系统,int 类型的大小是4字节【int32类型】。64位操作系统,int 类型的大小是8个字节【int64类型】。
参考1:深入理解 Go Modules 的 go.mod 与 go.sum
go.mod
:
它用来标记一个 module 和它的依赖库以及依赖库的版本。会放在 module 的主文件夹下,一般以 go.mod 命名。
上面我们说到,Go 在做依赖管理时会创建两个文件,go.mod 和 go.sum。
go.sum
:
go.sum 则是记录了所有依赖的 module 的校验信息,以防下载的依赖被恶意篡改,主要用于安全校验。
参考1:Go 包管理与依赖查找顺序
go mod tidy
做了什么事情参考1:go mod tidy的作用
参考1:golang 实现定时任务
目前比较主流的两种go常用的定时库:
robfig/cron:说到定时任务,会想到 crontab
,其常见于Unix
和类Unix
的操作系统之中。robfig/cron
库使用了类 crontab
的方式来执行定时任务。
jasonlvhit/gocron:类 crontab
的设置方式可能并不友好,jasonlvhit/gocron
提供了更为人性化的执行方式。
参考1:GO:理解指针的作用
指针是指向了一个值的内存地址。
指针的作用:
参考1:golang 错误处理
panic
panic的引发:
发生panic
后,程序会从调用panic
的函数位置或发生panic
的地方立即返回,逐层向上执行函数的defer
语句,然后逐层打印函数调用堆栈,直到被recover
捕获或运行到最外层函数而退出。
此外,defer
逻辑里也可以再次调用panic
或抛出panic
。defer 里面的 panic
能够被后续执行的 defer
捕获。
recover
recover()
用来捕获panic
,阻止panic
继续向上传递。recover()
和defer
一起使用,但是recover()
只有在defer
后面的函数体内被直接调用才能捕获panic
终止异常,否则返回nil
,异常继续向外传递。
error
Go语言内置错误接口类型error
。任何类型只要实现Error() string
方法,都可以传递error
接口类型变量。Go语言典型的错误处理方式是将error
作为函数最后一个返回值。在调用函数时,通过检测其返回的error
值是否为nil
来进行错误处理。
参考1:golang实现面向对象的封装、继承、多态
参考1:Golang 的锁机制
Golang
中的锁分为互斥锁
、读写锁
、原子锁
即原子操作。
Golang
里有专门的方法来实现锁,就是 sync
包,这个包有两个很重要的锁类型。一个叫 Mutex
, 利用它可以实现互斥锁
。一个叫 RWMutex
,利用它可以实现读写锁
。
sync.Mutex
互斥锁是同一时刻某一资源只能上一个锁,上锁后只能被此线程使用,直至解锁。加锁后即不能读也不能写。
sync.RWMutex
读写锁将使用者分为读者
和写者
两个概念,支持同时多个读者一起读共享资源,但写时只能有一个,并且在写时不可以读。理论上来说,sync.RWMutex 的 Lock() 也是个互斥锁。
参考1:使用Golang时遇到的一些坑
参考1:Go项目实现优雅关机与平滑重启
优雅的关机
优雅关机就是服务端关机命令发出后不是立即关机,而是等待当前还在处理的请求全部处理完毕后再退出程序,是一种对客户端友好的关机方式。而执行Ctrl+C
关闭服务端时,会强制结束进程导致正在访问的请求出现问题。
实现原理
Go 1.8版本之后,在 os/signal
包中, http.Server
内置的 Shutdown()
方法就支持优雅地关机。
Shutdown工作的机制:当程序检测到中断信号时,我们调用http.Server
中的Shutdown()
方法,该方法将阻止新的请求进来,同时保持当前的连接,直到当前连接完成则终止程序!
流程:
8080端口开启了一个web服务,并且只注册了一条路由,“/”, 但客户端访问127.0.0.1:8080/时,过10秒才会响应,如果这时我们按下ctrl+c,给程序发送syscall.SIGINT信号,他会等待10秒将当前请求处理完,他才会消亡,当然也取决于创建的5秒的context超时时间。
代码:
package main
import (
"context"
"github.com/gin-gonic/gin"
"log"
"net/http"
"os"
"os/signal"
"syscall"
"time"
)
// 实现优雅关机和平滑重启
func main() {
router := gin.Default()
router.GET("/", func(c *gin.Context) {
// 这个10秒的延时。是为了演示操作方便,实际上线一定注释掉
time.Sleep(time.Second * 10)
c.String(http.StatusOK, "hello xiaosheng")
})
srv := &http.Server{
Addr: ":8080",
Handler: router,
}
// 必须开启一个go routine 因为如果不开起,下面会一直listen and serve,进入死循环
// err != http.ErrServerClosed这个很重要
go func() {
// 开启一个goroutine启动服务
if err := srv.ListenAndServe(); err != nil && err != http.ErrServerClosed {
log.Fatalf("listen : %s\n", err)
}
}()
// 等待中断信号来优雅关掉服务器, 为关闭服务器做一个5秒的延时
quit := make(chan os.Signal, 1)
// kill 默认会发送syscall.SIGTREN信号
// kill -2发送syscall.SIGINT信号,我们常用的ctrl+c就是触发系统SIGINT信号
// kill -9发送syscall.SIGKILL信号,但是不能被捕获,所以不需要添加他
// signal.Notify把收到的syscall.SIGINT或syscall.SIGTREN信号传给quit
signal.Notify(quit, syscall.SIGINT, syscall.SIGTERM) // 此处不会阻塞
<-quit // 阻塞在此,当收到上述两种信号的时候才会往下执行
log.Println("ShutDown Server ...")
// 创建一个5秒超时的context
ctx, cancel := context.WithTimeout(context.Background(), time.Second*5)
defer cancel()
// 5秒内优雅关闭服务, (将未处理完的请求处理完再关闭服务), 超过5秒就退出
if err := srv.Shutdown(ctx); err != nil {
log.Fatal("shut down:", err)
}
log.Println("Server exiting...")
}
优雅的重启
(实际使用的比较少)
可以使用fvbock/endless
来替换默认的 ListenAndServe
启动服务来实现。
流程
go build -o graceful_restart
编译,并执行./graceful_restart
,终端输出当前pid(假设为44444)。hello xiaosheng!
修改为hello world!
,再次编译go build -o graceful_restart
。127.0.0.1:8080/
,此时客户端浏览器等待服务端返回响应。kill -1 44444
命令给程序发送syscall.SIGHUP
重启信号。代码:
import (
"log"
"net/http"
"time"
"github.com/fvbock/endless"
"github.com/gin-gonic/gin"
)
func main() {
router := gin.Default()
router.GET("/", func(c *gin.Context) {
// 这个5秒的延时。是为了演示操作方便,实际上线一定注释掉
time.Sleep(5 * time.Second)
c.String(http.StatusOK, "hello gin!")
})
// 默认endless服务器会监听下列信号:
// syscall.SIGHUP,syscall.SIGUSR1,syscall.SIGUSR2,syscall.SIGINT,syscall.SIGTERM和syscall.SIGTSTP
// 接收到 SIGHUP 信号将触发`fork/restart` 实现优雅重启(kill -1 pid会发送SIGHUP信号)
// 接收到 syscall.SIGINT或syscall.SIGTERM 信号将触发优雅关机
// 接收到 SIGUSR2 信号将触发HammerTime
// SIGUSR1 和 SIGTSTP 被用来触发一些用户自定义的hook函数
if err := endless.ListenAndServe(":8080", router); err!=nil{
log.Fatalf("listen: %s\n", err)
}
log.Println("Server exiting...")
这样做在不影响当前未处理完请求的同时完成了程序代码的替换,实现了平滑重启。但实际上用的不多
,因为实际都是多台服务器,或者说有类似supervisor的软件管理进程时就不适用这种方式,因为他进程pid变了,他自己重启和supervisor的软件管理进程给他重启就冲突了。