Go应用崩溃案例分析:编译时插桩与竞态检测的冲突

Go编译时插桩工具与-race竞态检测冲突导致应用崩溃,问题根源在于g0协程的racectx为0,解决方案为在相关函数添加//go:norace指令并避免使用map。

原文标题:1 行命令引发的Go应用崩溃

原文作者:阿里云开发者

冷月清谈:

本文分析了一个Go应用在使用编译时自动插桩工具otel go build并开启竞态检测(-race)时崩溃的原因。

问题出现在使用otel go build -race命令编译后,程序在运行时崩溃。经过调试发现,崩溃源于__tsan_func_enter,关键点是runtime.contextPropagate。

otel go build工具会在runtime.newproc1函数开头插入一段代码,这段代码调用了contextPropagate函数,进而调用TakeSnapShot函数。由于开启了竞态检测,Go编译器会在TakeSnapShot函数的入口和出口分别插入racefuncenter()和racefuncexit()函数调用,最终调用__tsan_func_enter导致崩溃。

崩溃的根本原因是g_racectx(R14)的值为0。具体来说,newproc1函数是在g0协程下执行的,而g0协程的racectx字段在程序启动时被主动设置为0,因此导致__tsan_func_enter函数出错。

最终的解决方案是在TakeSnapShot函数声明后加上//go:norace指令,使编译器忽略该函数的竞态检测,避免插入racefuncenter()调用。但是,由于TakeSnapShot函数中使用了map数据结构,而map相关的操作会被编译器展开成mapinititer()等函数调用,这些函数会主动启用竞态检测器,且无法添加//go:norace指令。因此,还需要避免在TakeSnapShot函数中使用map数据结构。

怜星夜思:

1、文章提到了g0协程主要负责调度,那g0协程崩溃了,会不会影响其他的goroutine的调度?
2、除了文中提到的 //go:norace 指令,还有其他方法可以避免这种编译时插桩和竞态检测的冲突吗?
3、文章中提到的Go自动插桩技术,除了监控,还有什么其他应用场景?

原文内容

阿里妹导读


这篇文章分析了Go编译时插桩工具导致go build -race竞态检测产生崩溃的原因。

不久前,阿里云 ARMS 团队、编译器团队、MSE 团队携手合作,共同发布并开源了 Go 语言的编译时自动插桩技术。该技术以其零侵入的特性,为 Go 应用提供了与 Java 监控能力相媲美的解决方案。开发者只需将 go build 替换为新编译命令 otel go build,就能实现对 Go 应用的全面监控和治理。

问题描述

近期,我们收到用户反馈,使用otel go build -race替代正常的go build -race命令后,编译生成的程序会导致崩溃。-race[3]是Go编译器的一个参数,用于检测数据竞争(data race)问题。通过为每个变量的访问添加额外检查,确保多个 goroutine 不会以不安全方式同时访问这些变量。

理论上,我们的工具不应影响-race竞态检查的代码,因此出现崩溃的现象是非预期的,所以我们花了一些时间排查这个崩溃问题,崩溃的堆栈信息如下:

(gdb) bt
#0  0x000000000041e1c0 in __tsan_func_enter ()
#1  0x00000000004ad05a in racecall ()
#2  0x0000000000000001 in ?? ()
#3  0x00000000004acf99 in racefuncenter ()
#4  0x00000000004ae7f1 in runtime.racefuncenter (callpc=4317632)
#5  0x0000000000a247d8 in ../sdk/trace.(*traceContext).TakeSnapShot (tc=<optimized out>, ~r0=...)
#6  0x00000000004a2c25 in runtime.contextPropagate
#7  0x0000000000480185 in runtime.newproc1.func1 ()
#8  0x00000000004800e2 in runtime.newproc1 (fn=0xc00030a1f0, callergp=0xc0000061e0, callerpc=12379404, retVal0=0xc0002c8f00)
#9  0x000000000047fc3f in runtime.newproc.func1 ()
#10 0x00000000004a992a in runtime.systemstack ()
....
可以看到崩溃源于 __tsan_func_enter,而引发该问题的关键点是 runtime.contextPropagate。我们的工具在 runtime.newproc1 函数的开头插入了以下代码:
func newproc1(fn *funcval, callergp *g, callerpc uintptr) (retVal0 *g) {
   // 我们插入的代码
   retVal0.otel_trace_context = contextPropagate(callergp.otel_trace_context)

   …
}

// 我们插入的代码
func contextPropagate(tls interface{}) interface{} {
 if tls == nil {
   return nil
 }
 if taker, ok := tls.(ContextSnapshoter); ok {
   return taker.TakeSnapShot()
 }
 return tls
}

// 我们插入的代码
func (tc *traceContext) TakeSnapShot() interface{} {
 …
}

TakeSnapShot 被 Go 编译器在函数入口和出口分别注入了 racefuncenter() 和 racefuncexit(),最终调用 __tsan_func_enter导致崩溃。由此确定崩溃问题确实是我们的注入代码导致的,继续深入排查。

排查过程


崩溃根源

使用 objdump 查看 __tsan_func_enter 的源码,看到它接收两个函数参数,出错的地方是第一行 mov 0x10(%rdi),%rdx,它约等于 rdx = *(rdi + 0x10)。打印寄存器后发现 rdi = 0,根据调用约定,rdi 存放的是第一个函数参数,因此这里的问题就是函数第一个参数 thr 为 0。

// void __tsan_func_enter(ThreadState *thr, void *pc);
000000000041e1c0 <__tsan_func_enter>:
 41e1c0:  48 8b 57 10            mov    0x10(%rdi),%rdx
 41e1c4:  48 8d 42 08            lea    0x8(%rdx),%rax
 41e1c8:  a9 f0 0f 00 00         test   $0xff0,%eax
 ...
那么第一个参数 thr 是谁传进来的呢?接着往上分析调用链。

调用链分析

出错的整个调用链是 racefuncenter(Go) -> racecall(Go) -> __tsan_func_enter(C)。需要注意的是,前两个函数都是 Go 代码,Go 函数调用 Go 函数遵循 Go 的调用约定在 amd64 平台,前九个函数参数使用以下寄存器:

图片

另外以下寄存器用于特殊用途:

后两个函数一个Go代码一个C代码,Go 调用 C 的情况下,遵循 System V AMD64 调用约定,在 Linux 平台上使用以下寄存器作为前六个参数:
图片

理解了Go和C的调用约定之后,再来看整个调用链的代码:

TEXT  racefuncenter<>(SB), NOSPLIT|NOFRAME, $0-0
 MOVQ  DX, BXx
 MOVQ  g_racectx(R14), RARG0     // RSI存放thr
 MOVQ  R11, RARG1                 // RDI存放pc
 MOVQ  $__tsan_func_enter(SB), AX // AX存放__tsan_func_enter函数指针
 CALL  racecall<>(SB)
 MOVQ  BX, DX
 RET
TEXT  racecall<>(SB), NOSPLIT|NOFRAME, $0-0
 ...
 CALL  AX  // 调用__tsan_func_enter函数指针
 ...
racefuncenterg_racectx(R14) 和 R11 分别放入 C 调用约定的参数寄存器 RSI(RARG0) 和 RDI(RARG1),并将 __tsan_func_enter 放入 Go 调用约定的参数寄存器 RAX,然后调用 racecall,它进一步调用 __tsan_func_enter(RAX),这一系列操作大致相当于 __tsan_func_enter(g_racectx(R14), R11)

不难看出,问题的根源在于 g_racectx(R14) 为 0。根据 Go 的调用约定R14 存放当前 goroutine ,它不可能为 0 ,因此出问题的必然是R14.racectx 字段为 0。为了避免无效努力,通过调试器dlv二次确认:

(dlv) p *(*runtime.g)(R14)
runtime.g {
       racectx: 0,
       ...
}
那么为什么当前R14.racectx为0?下一步看看R14具体的状态。

协程调度

func newproc(fn *funcval) {
 gp := getg()
 pc := sys.GetCallerPC() #1
 systemstack(func() {
   newg := newproc1(fn, gp, pc, false, waitReasonZero) #2
   ...
 })
}
经过排查,在代码 #1 处,R14.racectx 是正常的,但到了代码 #2 处,R14.racectx 就为空了,原因是 systemstack 被调用,它有一个切换协程的动作,具体如下:
// func systemstack(fn func())
TEXT runtime·systemstack(SB), NOSPLIT, $0-8
 ...
 // 切换到g0协程
 MOVQ  DX, g(CX)
 MOVQ  DX, R14 // 设置 R14 寄存器
 MOVQ  (g_sched+gobuf_sp)(DX), SP

 // 在g0协程上运行目标函数fn
 MOVQ  DI, DX
 MOVQ  0(DI), DI
 CALL  DI

 // 切换回原始协程
   …

原来systemstack有一个切换协程的动作,会先把当前协程切换成g0,然后执行fn,最后恢复原始协程执行。

在 Go 语言的 GMP(Goroutine-Machine-Processor)调度模型中,每个系统级线程 M 都拥有一个特殊的g0 协程,以及若干用于执行用户任务的普通协程 g。g0 协程主要负责当前 M 上用户 g 的调度工作。由于协程调度是不可抢占的,调度过程中会临时切换到系统栈(system stack)上执行代码。在系统栈上运行的代码是隐式不可抢占的,并且垃圾回收器不会扫描系统栈。

到这里我们已经知道执行 newproc1 时的协程总是 g0,而 g0.racectx是在 main 执行开始时被主动设置为 0,最终导致程序崩溃:

// src/runtime/proc.go#main
// The main goroutine.
func main() {
 mp := getg().m

 // g0 的 racectx 仅用于作为主 goroutine 的父级。
   // 不应将其用作其他目的。
 mp.g0.racectx = 0
 …

解决方案

到这里基本上可以做一个总结了,程序崩溃的原因如下:

  • newproc1 中插入的 contextPropagate 调用TakeSnapshot,而TakeSnapshotgo build -race 强行在函数开始插入了 racefuncenter() 函数调用,该函数将使用 racectx

  • newproc1 是在 g0 协程执行下运行,该协程的 racectx 字段是 0,最终导致崩溃。

一个解决办法是给TakeSnapshot加上 Go编译器的特殊指令 //go:norace,该指令需紧跟在函数声明后面,用于指定该函数的内存访问将被竞态检测器忽略,Go编译器将不会强行插入racefuncenter()调用。

疑惑1

runtime.newproc1 中不只调用了我们注入的contextPropagate,还有其他函数调用,为什么这些函数没有被编译器插入 race 检查的代码(如 racefuncenter)?

经过排查后发现,Go 编译器会特殊处理 runtime 包,针对 runtime 包中的代码设置 NoInstrument 标志,从而跳过生成 race 检查的代码:

// /src/cmd/internal/objabi/pkgspecial.go
var pkgSpecialsOnce = sync.OnceValue(func() map[string]PkgSpecial {
   ...
   for _, pkg := range runtimePkgs {
       set(pkg, func(ps *PkgSpecial) {
           ps.Runtime = true
           ps.NoInstrument = true
       })
   }
   ...
})

疑惑2

理论上插入 //go:norace 之后问题应该得到解决,但实际上程序还是发生了崩溃。经过排查发现,TakeSnapShot 中有 map 初始化和 map 循环操作,这些操作会被编译器展开成 mapinititer() 等函数调用。这些函数直接手动启用了竞态检测器,而且无法加上 //go:norace

func mapiterinit(t *abi.SwissMapType, m *maps.Map, it *maps.Iter) {
 if raceenabled && m != nil {
       // 主动的race检查
   callerpc := sys.GetCallerPC()
   racereadpc(unsafe.Pointer(m), callerpc, abi.FuncPCABIInternal(mapiterinit))
 }
   ...
}
对此问题的解决办法是在newproc1注入的代码里面,避免使用map数据结构。

总结

以上就是 Go 自动插桩工具在使用 go build -race 时出现崩溃的分析全过程。通过对崩溃内容和调用链的排查,我们找到了产生问题的根本原因以及相应的解决方案。这将有助于我们在理解运行时机制的基础上,更加谨慎地编写注入到运行时的代码。

最后诚邀大家试用我们的Go自动插桩商业化产品[2],并加入我们的钉钉群(开源群:102565007776,商业化群:35568145),共同提升Go应用监控与服务治理能力。通过群策群力,我们相信能为Go开发者社区带来更加优质的云原生体验。

[1] Go自动插桩开源项目:https://github.com/alibaba/opentelemetry-go-auto-instrumentation
[2] 阿里云ARMS Go Agent商业版:https://help.aliyun.com/zh/arms/tracing-analysis/monitor-go-applications/

[3] Go竞态检查 https://go.dev/doc/articles/race_detector


无代理ECS数据备份与高效环境搭建


基于快照提供数据保护和环境搭建,实现无代理且有效可靠的数据备份,同时可以快速克隆部署开发测试环境。   


点击阅读原文查看详情。

emmm,或许可以试试用汇编重写冲突的函数?这样可以更精细地控制代码,避免编译器自动插入一些导致问题的代码。不过这方法有点复杂就是了。

可以考虑在编译时就区分是否开启了-race,根据情况选择是否进行插桩,这样就能从根本上避免冲突。

还可以用于故障注入,在代码中插入一些模拟错误的逻辑,可以用来测试系统的健壮性。

g0崩溃了,肯定就凉凉了,调度都没了,其他的goroutine也别想跑了,就像司令部被炸了,前线士兵就算再厉害也没用。

安全相关的场景也可以考虑,比如插入一些安全检查的代码,检测一些潜在的安全漏洞。

g0 崩溃会导致整个 Go 程序崩溃。g0 负责调度其他 goroutine,它崩溃了,调度机制就失效了,其他 goroutine 也就无法继续执行。

这个问题问得好!g0 的崩溃的确会影响其他 goroutine 的调度,实际上,g0 崩溃会导致整个runtime瘫痪。因为 g0 不仅仅负责调度,还负责一些底层的系统调用,一旦 g0 崩溃,会导致程序无法正常运行。

我觉得可以用来做性能分析,在函数的入口和出口插入计时代码,就能统计出每个函数的执行时间。

修改插桩逻辑,避免在 g0 协程执行的代码路径中进行可能触发 race 检测的操作,例如文中提到的 map 操作。或者,将这些操作延迟到其他 goroutine 中执行。