Linux性能调优之使用BPF工具观测CPU性能指标

news2024/11/27 3:56:41

写在前面


  • 博文内容涉及工具来自《BPF Performance Tools》 一书,
  • CPU性能指标涉及:
    • 系统短期创建的线程进程跟踪
    • 进程线程的CPU运行时长,脱离时长统计
    • 线程的运行队列长度,等待延时时间,有多少线程在等待,多核队列是否均衡
    • 线程运行调用栈和脱离调用栈跟踪
    • 线程 软硬中断 CPU时间,LLC 三级缓存命中率分析
    • 内核态系统调用跟踪分析
  • 这里感谢译本的作者,抱着英文版的瞅了好久…,有条件小伙伴可以支持下
  • 理解不足小伙伴帮忙指正 😃,生活加油

喜欢文字的人,大多敏感且心软,忽然不快乐忽然被回忆揪住心脏忽然沉默到泪流。或许是内心孤独的缘故,轻易便可从他人的故事里看到自己的影子所以,悲伤总要比别人多一半。


实验环境,大部分是在 Rocky 上完成,Demo 需要 root 如果你用普通用户执行,会报错

┌──[root@vms99.liruilongs.github.io]-[/usr/share/bcc/tools]
└─$hostnamectl
   Static hostname: vms99.liruilongs.github.io
         Icon name: computer-vm
           Chassis: vm
        Machine ID: ea70bf6266cb413c84266d4153276342
           Boot ID: 0d01838b0095494c82d1befb174a317d
    Virtualization: vmware
  Operating System: Rocky Linux 8.9 (Green Obsidian)
       CPE OS Name: cpe:/o:rocky:rocky:8:GA
            Kernel: Linux 4.18.0-513.9.1.el8_9.x86_64
      Architecture: x86-64
┌──[root@vms99.liruilongs.github.io]-[/usr/share/bcc/tools]
└─$

传统的性能工具提供了对 CPU 各种用量的测量,比如CPU 的使用率(mpstat),平均负载(uptime),上下文切换(perf),软硬中断(proc/*)的CPU使用率,运行队列长度(mpstat)等,

BPF 跟踪工具可以提供更多细节信息,包括内核态和用户态的埋点跟踪,利用PMC来获取定时采样的CPU数据和CPU 内部数据

在使用 BPF 工具的时候需要考虑工具所带来的消耗问题,最糟糕的情况下,针对调度器的跟踪可能会消耗 10% 的系统性能。

通过 BPF 工具可以回答以下这些问题:

系统短期创建了哪些新进程(线程)?

execsnoop

execsnoop(8) 可以列出新进程运行信息,是一个CPU调度监控工具,用于跟踪全系统中的新进程执行信息。利用这个工具可以找到 消耗大量CPU的短期进程,并且可以用来分析软件执行过程,包括启动脚本等。

execsnoop(8)直接跟踪 execve(2)系统调用(是最常用的exec(2)变体),可以直接打印 execve(2)的调用参数和返回值。

┌──[root@liruilongs.github.io]-[/usr/share/bcc/tools]
└─$./execsnoop
PCOMM            PID     PPID    RET ARGS
sshd             50066   1076      0 /usr/sbin/sshd -D -R
unix_chkpwd      50068   50066     0  root
unix_chkpwd      50069   50066     0  root
bash             50071   50070     0 /bin/bash
id               50072   50071     0 /usr/bin/id -un
hostnamectl      50074   50073     0 /usr/bin/hostnamectl --transient
8                50075   1         0 /proc/self/fd/8 --deserialize 76 --log-level info --log-target journal-or-kmsg
systemd-hostnam  50075   1         0 /usr/lib/systemd/systemd-hostnamed
grepconf.sh      50077   50071     0 /usr/libexec/grepconf.sh -c
grep             50078   50077     0 /usr/bin/grep -qsi ^COLOR.*none /etc/GREP_COLORS
.................................

一般情况下 execsnoop(8)用来寻找高频出现、消耗资源短期进程,比如那种频繁创建销毁的,或者是那种一直新建连接的。

列表解释:

  • PCOMM:进程名称
  • PID:进程ID
  • PPID:父进程ID
  • RET:系统调用返回值,0表示成功
  • ARGS:系统调用的参数

这里看一个特殊情况,用 pymultiprocessing 模块创建多个进程

┌──[root@vms99.liruilongs.github.io]-[~]
└─$cat jc.py
import multiprocessing
import time

def short_task(duration):
    print(f"Task started, will run for {duration} seconds.")
    time.sleep(duration)
    print(f"Task finished.")

if __name__ == "__main__":
    processes = []
    num_tasks = 5
    task_duration = 2  # Duration of each task in seconds

    for _ in range(num_tasks):
        p = multiprocessing.Process(target=short_task, args=(task_duration,))
        processes.append(p)
        p.start()

    for p in processes:
        p.join()

    print("All tasks completed.")
┌──[root@vms99.liruilongs.github.io]-[~]
└─$

运行命令测试

┌──[root@vms99.liruilongs.github.io]-[~]
└─$python jc.py
Task started, will run for 2 seconds.
Task started, will run for 2 seconds.
Task started, will run for 2 seconds.
Task started, will run for 2 seconds.
Task started, will run for 2 seconds.
Task finished.
Task finished.
Task finished.
Task finished.
Task finished.
All tasks completed.

通过 execsnoop 来跟踪新的进程

┌──[root@vms99.liruilongs.github.io]-[/usr/share/bcc/tools]
└─$./execsnoop
PCOMM            PID     PPID    RET ARGS
python3          37950   2082      0 /usr/bin/python3 jc.py

会发现只有一个,这是为什么?这是因为默认情况下,multiprocessing 使用 os.fork() 来创建子进程,而没有执行 os.exec*() ,所以 execsnoop 无法捕捉到这些子进程的创建,前面我们有讲, execsnoop 主要跟踪 exec 以及对应的变体。

在执行的时候打印一下方法栈

...........
 File "/root/jc.py", line 20, in <module>
    p.start()
  File "/usr/lib/python3.10/multiprocessing/process.py", line 121, in start
    self._popen = self._Popen(self)
  File "/usr/lib/python3.10/multiprocessing/context.py", line 224, in _Popen
    return _default_context.get_context().Process._Popen(process_obj)
  File "/usr/lib/python3.10/multiprocessing/context.py", line 281, in _Popen
    return Popen(process_obj)
  File "/usr/lib/python3.10/multiprocessing/popen_fork.py", line 19, in __init__
    self._launch(process_obj)
  File "/usr/lib/python3.10/multiprocessing/popen_fork.py", line 71, in _launch
    code = process_obj._bootstrap(parent_sentinel=child_r)
  File "/usr/lib/python3.10/multiprocessing/process.py", line 314, in _bootstrap
    self.run()
  File "/usr/lib/python3.10/multiprocessing/process.py", line 108, in run
    self._target(*self._args, **self._kwargs)
  File "/root/jc.py", line 8, in short_task
    traceback.print_stack()

我们可以在源码的这个位置看到

┌──[root@liruilongs.github.io]-[~] 
└─$vim +71 /usr/lib/python3.10/multiprocessing/popen_fork.py
..........
 62     def _launch(self, process_obj):
 63         code = 1
 64         parent_r, child_w = os.pipe()
 65         child_r, parent_w = os.pipe()
 66         self.pid = os.fork()
 67         if self.pid == 0:
 68             try:
 69                 os.close(parent_r)
 70                 os.close(parent_w)
 71                 code = process_obj._bootstrap(parent_sentinel=child_r)
 72             finally:
 73                 os._exit(code)
.......

在运维脚本中我们经常会用到 subprocess 模块来执行 命令行操作,也会遇到这种情况,默认情况下,subprocess 使用 os.fork()os.exec*() 组合的方式来创建子进程,如果类似 multiprocessing ,只使用了 os.fork 但是没有使用 exec*(),就会无法被跟踪。

import subprocess

# 使用 subprocess.PIPE 会导致 execsnoop 无法捕获子进程
process = subprocess.Popen(['python', 'script.py'], stdout=subprocess.PIPE)

# 使用 subprocess.DEVNULL 可以让 execsnoop 捕获子进程
process = subprocess.Popen(['python', 'script.py'], stdout=subprocess.DEVNULL)

在编码中一般以线程为单位进行编码,线程也是 CPU 上下文切换的基本单位,那么线程的创建如何被跟踪?

thrcadsnoop

thrcadsnoop(8),可以用来跟踪线程的创建,通过跟踪 pthread_create() 库调⽤来跟踪线程的创建

这里在看一个 Demo,通过 pythreading 模块创建多个线程

┌──[root@vms99.liruilongs.github.io]-[~]
└─$cat xc.py
import threading
import time

def worker():
    """线程执行的任务"""
    time.sleep(3)
    print(f"Thread {threading.current_thread().name} is running")

# 创建并启动多个线程
threads = []
for i in range(5):
    t = threading.Thread(target=worker, name=f"Thread-{i}")
    threads.append(t)
    t.start()

# 等待所有线程完成
for t in threads:
    t.join()

print("All threads have finished.")
┌──[root@vms99.liruilongs.github.io]-[~]
└─$

运行 Demo

┌──[root@vms99.liruilongs.github.io]-[~]
└─$python xc.py
Thread Thread-0 is running
Thread Thread-1 is running
Thread Thread-3 is running
Thread Thread-2 is running
Thread Thread-4 is running
All threads have finished.

通过输出可以看到线程的创建速度,以及创建线程的父ID,和线程的函数入口。

┌──[root@vms99.liruilongs.github.io]-[~]
└─$threadsnoop
TIME(ms)   PID     COMM             FUNC
0          12177   b'python3'       b'[unknown]'
0          12177   b'python3'       b'[unknown]'
0          12177   b'python3'       b'[unknown]'
0          12177   b'python3'       b'[unknown]'
0          12177   b'python3'       b'[unknown]'

可以看大函数状态均为 [unknown],通常意味着 threadsnoop 无法获取当前线程正在执行的具体函数名。可能是由于缺乏调试信息或其他原因。

可以通过源码简单了解下

┌──[root@vms99.liruilongs.github.io]-[~]
└─$cat /usr/share/bcc/tools/threadsnoop
#!/usr/libexec/platform-python
# @lint-avoid-python-3-compatibility-imports
#
# threadsnoop   List new thread creation.
#               For Linux, uses BCC, eBPF. Embedded C.
#
# Copyright (c) 2019 Brendan Gregg.
# Licensed under the Apache License, Version 2.0 (the "License").
# This was originally created for the BPF Performance Tools book
# published by Addison Wesley. ISBN-13: 9780136554820
# When copying or porting, include this comment.
#
# 02-Jul-2019   Brendan Gregg   Ported from bpftrace to BCC.

from __future__ import print_function
from bcc import BPF

# load BPF program
b = BPF(text="""
#include <linux/sched.h>

struct data_t {
    u64 ts;
    u32 pid;
    u64 start;
    char comm[TASK_COMM_LEN];
};

BPF_PERF_OUTPUT(events);

void do_entry(struct pt_regs *ctx) {
    struct data_t data = {};
    data.ts = bpf_ktime_get_ns();
    data.pid = bpf_get_current_pid_tgid() >> 32;
    data.start = PT_REGS_PARM3(ctx);
    bpf_get_current_comm(&data.comm, sizeof(data.comm));

    events.perf_submit(ctx, &data, sizeof(data));
};
""")

# Since version 2.34, pthread features are integrated in libc
try:
    b.attach_uprobe(name="pthread", sym="pthread_create", fn_name="do_entry")
except Exception:
    b.attach_uprobe(name="c", sym="pthread_create", fn_name="do_entry")

print("%-10s %-7s %-16s %s" % ("TIME(ms)", "PID", "COMM", "FUNC"))

start_ts = 0

# process event
def print_event(cpu, data, size):
    global start_ts
    event = b["events"].event(data)
    if start_ts == 0:
        start_ts = event.ts
    func = b.sym(event.start, event.pid)
    if (func == "[unknown]"):
        func = hex(event.start)
    print("%-10d %-7d %-16s %s" % ((event.ts - start_ts) / 1000000,
        event.pid, event.comm, func))

b["events"].open_perf_buffer(print_event)
while 1:
    try:
        b.perf_buffer_poll()
    except KeyboardInterrupt:
        exit()
┌──[root@vms99.liruilongs.github.io]-[~]
└─$

BPF 程序无法确定线程创建时调用的具体函数名

系统进程运行时长是多长?为什么退出了?

exitsnoop

exitsnoop(8)'是一个BCC 工具,用于跟踪进程的退出事件,打印出进程的总运行时长和退出原因。运行时长是指进程从创建到终止的时长,包括CPU运行时间非运行时间(就绪和等待)

使用的是sched:sched_process_exit内核跟踪点和它的参数信息,同时利用 bpf_get_current_task()以便从task 结构体中读取起始信息(这并不是一个稳定接口)。

这里我们使用上面的创建进程的 py 脚本来观察 exitsnoop

┌──[root@vms99.liruilongs.github.io]-[~]
└─$python jc.py
Task started, will run for 2 seconds.
Task started, will run for 2 seconds.
Task started, will run for 2 seconds.
Task started, will run for 2 seconds.
Task started, will run for 2 seconds.
Task finished.
Task finished.
Task finished.
Task finished.
Task finished.
All tasks completed.

通过下面的输出可以看到,exitsnoopexecsnoop 虽然都可以用来调试短期进程,但是是的有区别的,exitsnoop 可以跟踪那些 没有调用 exec以及变体创建进程的进程,他同时会输出父进程和子进程的数据。

┌──[root@vms99.liruilongs.github.io]-[/usr/share/bcc/tools]
└─$./exitsnoop
PCOMM            PID     PPID    TID     AGE(s)  EXIT_CODE
python3          37904   37903   37904   2.00    0
python3          37908   37903   37908   2.00    0
python3          37907   37903   37907   2.00    0
python3          37906   37903   37906   2.00    0
python3          37905   37903   37905   2.01    0
python3          37903   2082    37903   2.04    0

输出信息中可以看到,最长时间的进程为父进程,上面的进程都为子进程。同时展示了线程ID,EXIT_CODE 列可以看到线程的退出状态码

线程每次唤醒时在CPU上花费多长时间?

cpudist

通过 cpudist 可以展示每次线程唤醒之后在CPU上执行的时长分布的直方图。

需要说明 cpudist 在内部跟踪 CPU 调度器的上下文切换事件,在生产环境中如果频繁的上下文切换,那么这个工具的额外开销就很严重

可以看到在 10 秒中 8192 -> 16383 us 为最多的时间区间,即线程在CPU上执行的时间相对较长,没有发生频繁的上下文切换。

┌──[root@vms99.liruilongs.github.io]-[/usr/share/bcc/tools]
└─$cpudist 10 1
Tracing on-CPU time... Hit Ctrl-C to end.

     usecs               : count     distribution
         0 -> 1          : 0        |                                        |
         2 -> 3          : 16       |                                        |
         4 -> 7          : 250      |***                                     |
         8 -> 15         : 232      |***                                     |
        16 -> 31         : 471      |*******                                 |
        32 -> 63         : 158      |**                                      |
        64 -> 127        : 70       |*                                       |
       128 -> 255        : 34       |                                        |
       256 -> 511        : 5        |                                        |
       512 -> 1023       : 0        |                                        |
      1024 -> 2047       : 12       |                                        |
      2048 -> 4095       : 45       |                                        |
      4096 -> 8191       : 160      |**                                      |
      8192 -> 16383      : 2621     |****************************************|
     16384 -> 32767      : 602      |*********                               |
     32768 -> 65535      : 288      |****                                    |
     65536 -> 131071     : 27       |                                        |
    131072 -> 262143     : 2        |                                        |
┌──[root@vms99.liruilongs.github.io]-[/usr/share/bcc/tools]
└─$

使用 -m 参数可以按照毫秒数输出,这时可以看到 CPU 上线文切换非常快,每个线程运行时间为 0-1 毫秒,也就是 0-1000 微秒。实际上这是在一个空闲的机器的执行的。如果在一个生产系统,频繁的上线文切换,而且CPU 唤醒之后执行时间很少,就可能存在性能问题

┌──[root@vms99.liruilongs.github.io]-[/usr/share/bcc/tools]
└─$cpudist -m
Tracing on-CPU time... Hit Ctrl-C to end.

^C
     msecs               : count     distribution
         0 -> 1          : 1019     |****************************************|
         2 -> 3          : 0        |                                        |
         4 -> 7          : 0        |                                        |
         8 -> 15         : 1        |                                        |
┌──[root@vms99.liruilongs.github.io]-[/usr/share/bcc/tools]
└─$cpu

当前那些进程正在占用CPU,使用比例是多少?

profile

profile 是一个定时采样调用栈信息并汇报调用栈出现频率信息的一个工具,该工具的消耗基本可以忽略不计,而且采样频率可以随时调整。

默认情况下,该工具会以 49Hz 的频率同时采样所有的 CPU 内核态用户态的调用栈信息。但是用户态的栈信息往往会获取不到

┌──[root@vms99.liruilongs.github.io]-[/usr/share/bcc/tools]
└─$profile
Sampling at 49 Hertz of all threads by user + kernel stack... Hit Ctrl-C to end.
^C
    _raw_spin_unlock_irqrestore
    _raw_spin_unlock_irqrestore
    prepare_to_swait_event
    rcu_gp_kthread
    kthread
    ret_from_fork
    -                rcu_sched (14)
        1

    kmem_cache_alloc_node
    kmem_cache_alloc_node
    __alloc_skb
    __ip_append_data.isra.50
    ip_append_data.part.51
    ip_send_unicast_reply
    tcp_v4_send_reset
    tcp_v4_rcv
    ip_protocol_deliver_rcu
    ip_local_deliver_finish
    ip_local_deliver
    ip_rcv
    __netif_receive_skb_core
    process_backlog
    __napi_poll
    net_rx_action
    __softirqentry_text_start
    do_softirq_own_stack
    do_softirq.part.16
    __local_bh_enable_ip
    ip_finish_output2
    ip_output
    __ip_queue_xmit
    __tcp_transmit_skb
    tcp_connect
    tcp_v4_connect
    __inet_stream_connect
    inet_stream_connect
    __sys_connect
    __x64_sys_connect
    do_syscall_64
    entry_SYSCALL_64_after_hwframe
    [unknown]
    -                haproxy (1203)
        1

    show_vma_header_prefix
    show_vma_header_prefix
    show_map_vma
    show_map
    seq_read
    vfs_read
    ksys_read
    do_syscall_64
    entry_SYSCALL_64_after_hwframe
    [unknown]
    [unknown]
    -                awk (39726)
        1
.............        
┌──[root@vms99.liruilongs.github.io]-[/usr/share/bcc/tools]
└─$

通过输出我们可以看到,第一个采集的线程为 rcu_sched,PID 为 14, 采集可一次。与内核的 RCU 机制有关。

第二个调用栈数据为 haproxy 进程,pid 为 1203,通过内核态函数的调用可以看到主要进网络数据包的处理,以及TCP 连接的建立。

  • kmem_cache_alloc_node 表示分配内存。
  • __ip_append_data 和 ip_send_unicast_reply 表示处理 IP 数据。
  • tcp_v4_send_reset 和 tcp_v4_rcv 表示 TCP 协议的处理。
  • __sys_connect 和 __x64_sys_connect 表示进行系统调用以建立连接。

实际中生产环境, 上面的输出会很多,所以一般情况会通过火焰图快速理解 prefile 的命令的输出。

火焰图

通过 -f 折叠输出,通过 -a 来标记 内核态和用户态函数。

┌──[root@vms99.liruilongs.github.io]-[~]
└─$profile -af 20 > profilelrl.log

需要使用 FlameGraph 项目来输出,所以这里我们克隆项目

┌──[root@vms99.liruilongs.github.io]-[~]
└─$git clone https://github.com/brendangregg/FlameGraph.git
正克隆到 'FlameGraph'...
remote: Enumerating objects: 1285, done.
remote: Counting objects: 100% (707/707), done.
remote: Compressing objects: 100% (146/146), done.
remote: Total 1285 (delta 584), reused 575 (delta 561), pack-reused 578
接收对象中: 100% (1285/1285), 1.92 MiB | 174.00 KiB/s, 完成.
处理 delta 中: 100% (761/761), 完成.
┌──[root@vms99.liruilongs.github.io]-[~]
└─$cd FlameGraph/

然后通过下面的命令生成对应的 火焰图 矢量图

┌──[root@vms99.liruilongs.github.io]-[~/FlameGraph]
└─$./flamegraph.pl  --hash --bgcolors=grey <  ../out.txt > out.svg
Can't locate open.pm in @INC (you may need to install the open module) (@INC contains: /usr/local/lib64/perl5 /usr/local/share/perl5 /usr/lib64/perl5/vendor_perl /usr/share/perl5/vendor_perl /usr/lib64/perl5 /usr/share/perl5) at ./flamegraph.pl line 97.
BEGIN failed--compilation aborted at ./flamegraph.pl line 97.

可以看到报错了,这个错误消息表明在运行 ./flamegraph.pl 脚本时,Perl 解释器无法找到所需的 open.pm 模块。该模块可能没有正确安装或没有包含在 Perl 解释器的模块搜索路径中。

要解决这个问题,你可以尝试以下几个步骤:

检查模块安装:确保 open.pm 模块已经正确安装。你可以使用 CPAN 或其他 Perl 模块管理工具来安装该模块。

安装模块管理器

┌──[root@vms99.liruilongs.github.io]-[~/FlameGraph]
└─$yum install perl-CPAN -y

安装模块

┌──[root@vms99.liruilongs.github.io]-[~/FlameGraph]
└─$cpan open
Loading internal null logger. Install Log::Log4perl for logging messages

CPAN.pm requires configuration, but most of it can be done automatically.
If you answer 'no' below, you will enter an interactive dialog for each
configuration option instead.

Would you like to configure as much as possible automatically? [yes] yes
CPAN: HTTP::Tiny loaded ok (v0.074)
...............
http://www.cpan.org/modules/03modlist.data.gz
Reading '/root/.cpan/sources/modules/03modlist.data.gz'
DONE
Writing /root/.cpan/Metadata
Running install for module 'open'
The most recent version "1.13" of the module "open"
is part of the perl-5.38.2 distribution. To install that, you need to run
  force install open   --or--
  install P/PE/PEVANS/perl-5.38.2.tar.gz

安装完之后提示我们需要安装对应的 perl 版本

┌──[root@vms99.liruilongs.github.io]-[~/FlameGraph]
└─$perl -v

This is perl 5, version 26, subversion 3 (v5.26.3) built for x86_64-linux-thread-multi
(with 58 registered patches, see perl -V for more detail)

Copyright 1987-2018, Larry Wall

Perl may be copied only under the terms of either the Artistic License or the
GNU General Public License, which may be found in the Perl 5 source kit.

Complete documentation for Perl, including FAQ lists, should be found on
this system using "man perl" or "perldoc perl".  If you have access to the
Internet, point your browser at http://www.perl.org/, the Perl Home Page.

┌──[root@vms99.liruilongs.github.io]-[~/FlameGraph]
└─$yum -y install  perl -y

升级 perl 版本之后,火焰图可以正常生成,通过帮助文档可以简单了解命令的使用

┌──[root@vms99.liruilongs.github.io]-[~]
└─$./FlameGraph/flamegraph.pl  --help
USAGE: ./FlameGraph/flamegraph.pl [options] infile > outfile.svg

        --title TEXT     # change title text
        --subtitle TEXT  # second level title (optional)
        --width NUM      # width of image (default 1200)
        --height NUM     # height of each frame (default 16)
        --minwidth NUM   # omit smaller functions. In pixels or use "%" for
                         # percentage of time (default 0.1 pixels)
        --fonttype FONT  # font type (default "Verdana")
        --fontsize NUM   # font size (default 12)
        --countname TEXT # count type label (default "samples")
        --nametype TEXT  # name type label (default "Function:")
        --colors PALETTE # set color palette. choices are: hot (default), mem,
                         # io, wakeup, chain, java, js, perl, red, green, blue,
                         # aqua, yellow, purple, orange
        --bgcolors COLOR # set background colors. gradient choices are yellow
                         # (default), blue, green, grey; flat colors use "#rrggbb"
        --hash           # colors are keyed by function name hash
        --random         # colors are randomly generated
        --cp             # use consistent palette (palette.map)
        --reverse        # generate stack-reversed flame graph
        --inverted       # icicle graph
        --flamechart     # produce a flame chart (sort by time, do not merge stacks)
        --negate         # switch differential hues (blue<->red)
        --notes TEXT     # add notes comment in SVG (for debugging)
        --help           # this message

        eg,
        ./FlameGraph/flamegraph.pl --title="Flame Graph: malloc()" trace.txt > graph.svg

输出我们上面的采集数据,启动一个 http 服务访问

┌──[root@vms99.liruilongs.github.io]-[~]
└─$./FlameGraph/flamegraph.pl  < profilelrl.log > profilelrl.svg
┌──[root@vms99.liruilongs.github.io]-[~] 
└─$python -m http.server
Serving HTTP on 0.0.0.0 port 8000 (http://0.0.0.0:8000/) ...
192.168.26.1 - - [18/Oct/2024 05:15:37] "GET / HTTP/1.1" 200 -
192.168.26.1 - - [18/Oct/2024 05:15:37] code 404, message File not found
192.168.26.1 - - [18/Oct/2024 05:15:37] "GET /favicon.ico HTTP/1.1" 404 -
192.168.26.1 - - [18/Oct/2024 05:15:52] "GET /profilelrl.svg HTTP/1.1" 200 -

可以看到采集的应用程序调用栈很少,当前系统是一个空闲的系统,我们使用 stress 来做 CPU 负载模拟,所以看到的基本上是 stress 的调用栈

实际上生产场景的火焰图相对复杂

线程在运行队列中等待的时间有多长?

runqlat

CPU 调度的最小单位为线程,线程的运行队列长度可以反应CPU 是否处于饱和状态, runqlat 是基于 BCC 和 bpftrace 的 CPU 调度器延迟分析工具,CPU 调度器延迟通常被称为运行队列延迟,实际上不是简单的队列, runqlat 统计的是每个线程等待CPU的耗时。

这里我们通过 stress 来模拟CPU 的饱和状态。启动 100 个线程

┌──[root@vms99.liruilongs.github.io]-[~]
└─$stress --cpu 100 --timeout 100s
stress: info: [38244] dispatching hogs: 100 cpu, 0 io, 0 vm, 0 hdd
stress: info: [38244] successful run completed in 100s
┌──[root@vms99.liruilongs.github.io]-[~]
└─$

下面的命令使用 runqlat 每隔 10 秒输出一次, 就输出一次的的直方图数据,

  • usecs:表示延迟的时间区间(以微秒为单位)。
  • count:表示在该时间区间内发生的事件数量。
  • distribution:通过星号 (*) 表示的分布图,用于可视化延迟的分布。
┌──[root@vms99.liruilongs.github.io]-[/usr/share/bcc/tools]
└─$./runqlat 10 1
Tracing run queue latency... Hit Ctrl-C to end.

     usecs               : count     distribution
         0 -> 1          : 13       |                                        |
         2 -> 3          : 119      |**                                      |
         4 -> 7          : 355      |******                                  |
         8 -> 15         : 183      |***                                     |
        16 -> 31         : 144      |**                                      |
        32 -> 63         : 219      |***                                     |
        64 -> 127        : 72       |*                                       |
       128 -> 255        : 21       |                                        |
       256 -> 511        : 22       |                                        |
       512 -> 1023       : 74       |*                                       |
      1024 -> 2047       : 143      |**                                      |
      2048 -> 4095       : 214      |***                                     |
      4096 -> 8191       : 326      |*****                                   |
      8192 -> 16383      : 247      |****                                    |
     16384 -> 32767      : 200      |***                                     |
     32768 -> 65535      : 331      |*****                                   |
     65536 -> 131071     : 586      |**********                              |
    131072 -> 262143     : 2295     |****************************************|
    262144 -> 524287     : 1589     |***************************             |
    524288 -> 1048575    : 554      |*********                               |
   1048576 -> 2097151    : 31       |                                        |
   2097152 -> 4194303    : 1        |                                        |
┌──[root@vms99.liruilongs.github.io]-[/usr/share/bcc/tools]
└─$

可以看到,离群点为较高的延迟 131072 微秒及以上 占整个延迟区间的大部分,通过分布图也可以直观的感受。大部分线程处于等待状态,并且等待时间较长,可以确定当前CPU 呈现饱和状态

runqlat(8)利用对 CPU 调度器的线程唤醒事件线程上线文切换事件的跟踪来计算线程从唤醒到运行之前的时间间隔

在比较繁忙的系统中,这类事件的发生频率可能很好,每秒超过10000次,所以在使用这个命令的时候需要多加注意。

也可以通过 sar(1) 来同时展示 CPU 利用率(-u) 和 运行队列性能指标(-q)

┌──[root@vms99.liruilongs.github.io]-[/usr/share/bcc/tools]
└─$sar -uq 1
Linux 4.18.0-513.9.1.el8_9.x86_64 (vms99.liruilongs.github.io)  2024年10月09日  _x86_64_        (6 CPU)

11时27分08秒     CPU     %user     %nice   %system   %iowait    %steal     %idle
11时27分09秒     all     96.13      0.00      3.87      0.00      0.00      0.00

11时27分08秒   runq-sz  plist-sz   ldavg-1   ldavg-5  ldavg-15   blocked
11时27分09秒       100       592     15.81     14.33     11.57         0

11时27分09秒     CPU     %user     %nice   %system   %iowait    %steal     %idle
11时27分10秒     all     95.51      0.00      4.49      0.00      0.00      0.00

11时27分09秒   runq-sz  plist-sz   ldavg-1   ldavg-5  ldavg-15   blocked
11时27分10秒       101       592     15.81     14.33     11.57         0

可以看到 用户态CPU 利用率为 趋于饱和,空闲时间为0,同时平均运行队列长度为 100左右,包括正在运行 + 等待的线程(与vmstat的r列相同), 1,5,15 分钟的负载为 15 左右,但是通过下面的输出可以看到当前我们只有6个逻辑核。

┌──[root@vms99.liruilongs.github.io]-[/usr/share/bcc/tools]
└─$lscpu | grep CPU:
CPU:             6

一般情况下,平均负载ldavg-1 ldavg-5 ldavg-15远远超过 CPU 逻辑核数的的时候,认为系统负载非常高,CPU 趋于饱和状态 ,通过 runq-sz > CUP数量 我们可以推断出 平局负载高的原因之一是因为 存在大量的线程在等待CPU调度,堆积在运行队列

实际上对于运行队列的长度我们也可以通过专门的 BPF 工具来采集

运行队列最长的时候有多少线程在等待执行?

runqlen

runqlen 是一个基于 BCCbpftrace 的工具,用于采样 CPU运行队列的长度信息,统计有多少线程正在等待运行,同样可以以直方图的形式展现。

下面的输出为一台空闲的机器的 运行队列长度采集输出。可以看到,大部分时间的运行队列的长度都为0,即线程不需要等待可以立即执行。

┌──[root@vms99.liruilongs.github.io]-[/usr/share/bcc/tools]
└─$./runqlen 10 1
Sampling run queue length... Hit Ctrl-C to end.

     runqlen       : count     distribution
        0          : 5123     |****************************************|

通过 stress 来模拟 CPU 饱和

┌──[root@vms99.liruilongs.github.io]-[~]
└─$stress --cpu 100 --timeout 100s
stress: info: [38556] dispatching hogs: 100 cpu, 0 io, 0 vm, 0 hdd

同样的命令再次执行,可以很明显的看到变化,队列长度集中在 10 到 25 之间,即大部分的CPU任务存在积压,线程需要等待才能执行。

┌──[root@vms99.liruilongs.github.io]-[/usr/share/bcc/tools]
└─$./runqlen 10 1
Sampling run queue length... Hit Ctrl-C to end.

     runqlen       : count     distribution
        0          : 367      |*******************************         |
        1          : 73       |******                                  |
        2          : 39       |***                                     |
        3          : 53       |****                                    |
        4          : 57       |****                                    |
        5          : 45       |***                                     |
        6          : 83       |*******                                 |
        7          : 90       |*******                                 |
        8          : 97       |********                                |
        9          : 84       |*******                                 |
        10         : 118      |**********                              |
        11         : 135      |***********                             |
        12         : 189      |****************                        |
        13         : 110      |*********                               |
        14         : 166      |**************                          |
        15         : 170      |**************                          |
        16         : 318      |***************************             |
        17         : 297      |*************************               |
        18         : 459      |****************************************|
        19         : 232      |********************                    |
        20         : 308      |**************************              |
        21         : 358      |*******************************         |
        22         : 213      |******************                      |
        23         : 137      |***********                             |
        24         : 141      |************                            |
        25         : 143      |************                            |
        26         : 93       |********                                |
        27         : 42       |***                                     |
        28         : 63       |*****                                   |
        29         : 58       |*****                                   |
        30         : 33       |**                                      |
        31         : 29       |**                                      |
        32         : 8        |                                        |
        33         : 33       |**                                      |
        34         : 10       |                                        |
        35         : 13       |*                                       |
        36         : 0        |                                        |
        37         : 0        |                                        |
        38         : 3        |                                        |
┌──[root@vms99.liruilongs.github.io]-[/usr/share/bcc/tools]
└─$

原书作者把运行队列被定义为二级指标,而且运行时间延迟被定义为一级指标,因为运行队列延迟会直接的按比例影响系统性能,而运行队列长度则不一样。

runqlen 可以进一步定性 runqlat 发现的问题,同时,runqlen 的采样频率为 99HZ,而 runqlat 需要跟踪 CPU 调度器,后者比前者有更多的性能消耗,一般情况下,会通过 runqlen 来发现问题,通过runqlat 的量化延迟,确定问题。

当进程进行单CPU亲和性配置的时候,一个进程的多个线程始终中一个CPU运行,这个时候,如果队列长度为3,即可确定该进程,有一个线程中运行,3线程位于队列中。

runqlatrunqlen 可以分析当前系统CPU使用异常是否存在由CPU调度延迟影响的,那么如果确定之后,如何定位到具体的线程,或者说应用程序?

runqslower

runqslower 可以列出运行队列中等待延迟超过阈值的线程名字,同时输出受延迟影响的进程名字和对应的延迟时长

┌──[root@vms99.liruilongs.github.io]-[/usr/share/bcc/tools]
└─$./runqslower
Tracing run queue latency higher than 10000 us
TIME     COMM             TID           LAT(us)
12:11:12 b'stress'        39402           13089
12:11:12 b'stress'        39401           14679
12:11:12 b'stress'        39397           23660
12:11:12 b'stress'        39395           17852
12:11:12 b'kworker/u256:28' 573             22854
12:11:12 b'stress'        39398           34532
12:11:12 b'stress'        39399           52749
12:11:12 b'stress'        39400          107725
12:11:12 b'runqslower'    39303           76346
12:11:12 b'kworker/u256:28' 573             11797
12:11:12 b'stress'        39408           10779
12:11:12 b'stress'        39405          134470
12:11:12 b'runqslower'    39303           10063
12:11:12 b'stress'        39410           19963
12:11:12 b'stress'        39407          150640
12:11:12 b'runqslower'    39303           11418
12:11:12 b'stress'        39370           13291
12:11:12 b'stress'        39403          132886
12:11:12 b'runqslower'    39303           33169
12:11:12 b'stress'        39390          121633

上面的输出为超过默认阈值 10000 us 毫秒的的运行队列发生的次数,可以看到大多为上面的测试工具 stress 的线程。LAT(us)为线程在运行队列中的等待延迟,单位是微秒。

不同 CPU之间的运行队列是否均衡?

runqlen

当其他运行队列中有需要运行的程序时,我们希望知道哪些CPU仍然处于空闲状态? 即对于每个进程,每个 CPU 的权重是否一致,是否存在不均衡的情况。通过 runqlen-C 选项可以为每个CPU输出一个直方图。

┌──[root@vms99.liruilongs.github.io]-[/usr/share/bcc/tools]
└─$./runqlen -C
Sampling run queue length... Hit Ctrl-C to end.
^C

cpu = 1
     runqlen       : count     distribution
        0          : 0        |                                        |
        1          : 0        |                                        |
        2          : 0        |                                        |
        3          : 0        |                                        |
        4          : 0        |                                        |
        5          : 0        |                                        |
        6          : 0        |                                        |
        7          : 92       |***********************                 |
        8          : 0        |                                        |
        9          : 65       |****************                        |
        10         : 0        |                                        |
        11         : 77       |*******************                     |
        12         : 0        |                                        |
        13         : 0        |                                        |
        14         : 157      |****************************************|

cpu = 0
     runqlen       : count     distribution
        0          : 0        |                                        |
        1          : 0        |                                        |
        2          : 0        |                                        |
        3          : 0        |                                        |
        4          : 0        |                                        |
        5          : 0        |                                        |
        6          : 0        |                                        |
        7          : 0        |                                        |
        8          : 0        |                                        |
        9          : 0        |                                        |
        10         : 0        |                                        |
        11         : 0        |                                        |
        12         : 0        |                                        |
        13         : 0        |                                        |
        14         : 0        |                                        |
        15         : 0        |                                        |
        16         : 0        |                                        |
        17         : 0        |                                        |
        18         : 0        |                                        |
        19         : 333      |****************************************|
        20         : 0        |                                        |
        21         : 0        |                                        |
        22         : 0        |                                        |
        23         : 0        |                                        |
        24         : 132      |***************                         |
┌──[root@vms99.liruilongs.github.io]-[/usr/share/bcc/tools]
└─$

可以很直观的看的 每个 CPU 上的线程队列长度,CPU 0 和 CPU 1 的运行队列长度分布存在明显的差异,这表明两个 CPU 的运行队列并不均衡,CPU0 的负载要高于 CPU1.可能是CPU 亲和性配置,或者编码中绑定了CPU

cpuunclaimed

cpu_unclaimed 工具用于采样 CPU 运行队列的长度,并关注在某个 CPU 上有排队线程的情况下有多少其他 CPU 处于空闲状态。这个工具可以帮助识别 CPU 资源分配的不均衡问题,

这个命令在我的实验环境中会报错,时间关系我也没有研究,感兴趣小伙伴可以留言讨论,

下面为一个Demo数据,表示在 12:34:56 时,CPU 0 上有 10 个线程排队,而有 3 个 CPU 处于空闲状态。

TIME        CPU  QUEUE_LENGTH  IDLE_CPUS
12:34:56    0    10            3
12:34:57    1    5             2
12:34:58    2    0             4
...

为什么某个线程会主动脱离CPU?脱离时间有多长?

offcputime

offcputime(8) 用于统计线程阻塞和脱离CPU 运行的时间,同时会输出调用栈信息,

输出顺序依次为 内核态函数,用户态件函数,之后是进程名字,ID 以及调用栈出现的全部时间,也就是脱离时间。

┌──[root@vms99.liruilongs.github.io]-[/usr/share/bcc/tools]
└─$offcputime 1
Tracing off-CPU time (us) of all threads by user + kernel stack for 1 secs.

    。。。。。。。。。。。。。。。。。。。。。。。。。。

    finish_task_switch
    __sched_text_start
    schedule
    schedule_hrtimeout_range_clock
    do_select
    core_sys_select
    kern_select
    __x64_sys_select
    do_syscall_64
    entry_SYSCALL_64_after_hwframe
    __select
    -                httpd (38029)
        921073

    finish_task_switch
    __sched_text_start
    schedule
    schedule_hrtimeout_range_clock
    do_select
    core_sys_select
    kern_select
    __x64_sys_select
    do_syscall_64
    entry_SYSCALL_64_after_hwframe
    __select
    -                tuned (1713)
        947681

。。。。。。。。
┌──[root@vms99.liruilongs.github.io]-[/usr/share/bcc/tools]
└─$

以上面的 httpd 为例,httpd 服务被阻塞,进程号为38029,脱离时长为 38029 微秒。

可以看到只有内核态函数,没有用户态函数,栈顶函数为 __select,用于在内核中处理文件描述符的状态检查。一旦某个文件描述符变为可用,或超时发生,__select 将返回,表明可以开始进行相应的 I/O 操作。即可以立即为当前进行脱离CPU的原因为 IO 阻塞。

offcputime 同时也可以用来分析并发的场景,比如长时间的锁等待之类,通过对函数的调用栈进行分析。

看一个 lock 的 Demo

┌──[root@vms99.liruilongs.github.io]-[~]
└─$cat lock_demo.py
import threading
import time

lock = threading.Lock()

def worker(id):
    print(f"Worker {id} started")
    with lock:
        print(f"Worker {id} acquired lock")
        time.sleep(2)  # 模拟长时间的计算或 I/O
    print(f"Worker {id} released lock")

threads = []
for i in range(5):
    t = threading.Thread(target=worker, args=(i,))
    threads.append(t)
    t.start()

for t in threads:
    t.join()

print("All workers finished")

一个基本的线程安全Demo,执行分析

┌──[root@vms99.liruilongs.github.io]-[~]
└─$python lock_demo.py
Worker 0 started
Worker 0 acquired lock
Worker 1 started
Worker 2 started
Worker 3 started
Worker 4 started
Worker 0 released lock
Worker 1 acquired lock
Worker 1 released lock
Worker 2 acquired lock
Worker 2 released lock
Worker 3 acquired lock
Worker 3 released lock
Worker 4 acquired lock
Worker 4 released lock
All workers finished

threadsnoop 观察线程创建情况

┌──[root@vms99.liruilongs.github.io]-[~]
└─$threadsnoop
TIME(ms)   PID     COMM             FUNC
0          51671   b'python3'       b'[unknown]'
0          51671   b'python3'       b'[unknown]'
0          51671   b'python3'       b'[unknown]'
0          51671   b'python3'       b'[unknown]'
0          51671   b'python3'       b'[unknown]'

offcputime 观察脱离情况

┌──[root@vms99.liruilongs.github.io]-[~/FlameGraph]
└─$offcputime  -p `pgrep -f lock_demo.py`
Tracing off-CPU time (us) of PID 51397 by user + kernel stack... Hit Ctrl-C to end.
^C
    .......................
    finish_task_switch
    __sched_text_start
    schedule
    futex_wait_queue_me
    futex_wait
    do_futex
    __x64_sys_futex
    do_syscall_64
    entry_SYSCALL_64_after_hwframe
    [unknown]
    -                python3 (51402)
        157

    finish_task_switch
    __sched_text_start
    schedule
    futex_wait_queue_me
    futex_wait
    do_futex
    __x64_sys_futex
    do_syscall_64
    entry_SYSCALL_64_after_hwframe
    [unknown]
    -                python3 (51400)
        213

    finish_task_switch
    __sched_text_start
    schedule
    futex_wait_queue_me
    futex_wait
    do_futex
    __x64_sys_futex
    do_syscall_64
    entry_SYSCALL_64_after_hwframe
    [unknown]
    -                python3 (51397)
        267

    finish_task_switch
    __sched_text_start
    schedule
    do_nanosleep
    hrtimer_nanosleep
    common_nsleep_timens
    __x64_sys_clock_nanosleep
    do_syscall_64
    entry_SYSCALL_64_after_hwframe
    [unknown]
    [unknown]
    -                python3 (51400)
        2002609

    finish_task_switch
    __sched_text_start
    schedule
    do_nanosleep
    hrtimer_nanosleep
    common_nsleep_timens
    __x64_sys_clock_nanosleep
    do_syscall_64
    entry_SYSCALL_64_after_hwframe
    [unknown]
    [unknown]
    -                python3 (51402)
        2003178
..................
┌──[root@vms99.liruilongs.github.io]-[~/FlameGraph]
└─$

简单分析调用栈中的函数:

futex_wait_queue_mefutex_wait:这些函数表明线程正在等待一个 futex(快速用户空间锁),通常是由于线程在等待某个锁或条件变量。

do_futex__x64_sys_futex:这些函数表示进行系统调用以处理 futex。

do_nanosleep 和 hrtimer_nanosleep:这些函数表明线程正在进行睡眠操作(例如,使用 time.sleep()),使其在指定的时间内脱离 CPU。

unknown 这是一个用户态方法没有捕获到函数名字

多个线程在竞争同一个锁,导致它们在 futex 等待队列中排队。这是并发编程中常见的问题,尤其是在使用锁或条件变量时。

脱离CPU 火焰图

和火焰图一样,实际上面的输出会很多,通过脱离火焰图可以更方便的查看。

┌──[root@vms99.liruilongs.github.io]-[~]
└─$./FlameGraph/flamegraph.pl  --bgcolors=green  --colors=green   --title='offcputime' --height=20  --width=1926  < offcputime.log > offcputime.log.svg

当前系统的所以脱离CPU数据

下转到某个线程查看

哪些软中断和硬中断占用了CPU 时间?

长时间的软硬中断通过会到来性能问题

softirqs

softirqs(8) 用于显示系统中软中断消耗的CPU 时间,软中断事件的计数记录在 /proc/softirqs 中,全系统的软中断可以通过 mpstat(1) 中的 %soft 列显示

BCC版本的 softirqs 可以计数,同时可以输出每个 IRQ 的处理时间。

┌──[root@vms99.liruilongs.github.io]-[/usr/share/bcc/tools]
└─$softirqs  10 1
Tracing soft irq event time... Hit Ctrl-C to end.

SOFTIRQ          TOTAL_usecs
net_tx                     6
block                     21
net_rx                   203
sched                   3456
timer                   7674
rcu                    72515
┌──[root@vms99.liruilongs.github.io]-[/usr/share/bcc/tools]
└─$

列明解释:

  • SOFTIRQ:软中断的类型。
  • TOTAL_usecs:每种软中断类型在采样期间消耗的总微秒数。

上面的软中断类型:

  • net_tx:网络数据包发送软中断,消耗了6微秒。
  • block:块设备I/O软中断,消耗了21微秒。
  • net_rx:网络数据包接收软中断,消耗了203微秒。
  • sched:调度软中断,消耗了3456微秒。例如进程切换
  • timer:定时器软中断,消耗了7674微秒。例如周期性任务
  • rcu:RCU(Read-Copy-Update)软中断,消耗了72515微秒。主要用于并发数据结构的更新。

-d 将 IRQ 时间以直方图显示,可以直观的识别中断处理中某些耗时很长的情况。

┌──[root@vms99.liruilongs.github.io]-[~/FlameGraph]
└─$softirqs -d 10 1
Tracing soft irq event time... Hit Ctrl-C to end.


softirq = sched
     usecs               : count     distribution
         0 -> 1          : 34       |***                                     |
         2 -> 3          : 318      |********************************        |
         4 -> 7          : 394      |****************************************|
         8 -> 15         : 31       |***                                     |
        16 -> 31         : 10       |*                                       |
        32 -> 63         : 8        |                                        |
        64 -> 127        : 0        |                                        |
       128 -> 255        : 1        |                                        |

softirq = timer
     usecs               : count     distribution
         0 -> 1          : 2        |                                        |
         2 -> 3          : 41       |*****                                   |
         4 -> 7          : 228      |********************************        |
         8 -> 15         : 280      |****************************************|
        16 -> 31         : 26       |***                                     |
        32 -> 63         : 36       |*****                                   |
        64 -> 127        : 15       |**                                      |
       128 -> 255        : 2        |                                        |

softirq = net_rx
     usecs               : count     distribution
         0 -> 1          : 20       |****************************************|
         2 -> 3          : 4        |********                                |
         4 -> 7          : 10       |********************                    |
         8 -> 15         : 17       |**********************************      |
        16 -> 31         : 8        |****************                        |
        32 -> 63         : 5        |**********                              |
        64 -> 127        : 4        |********                                |
       128 -> 255        : 1        |**                                      |

softirq = rcu
     usecs               : count     distribution
         0 -> 1          : 377      |****************************************|
         2 -> 3          : 37       |***                                     |
         4 -> 7          : 65       |******                                  |
         8 -> 15         : 30       |***                                     |
        16 -> 31         : 59       |******                                  |
        32 -> 63         : 7        |                                        |
        64 -> 127        : 2        |                                        |
       128 -> 255        : 1        |                                        |

softirq = tasklet
     usecs               : count     distribution
         0 -> 1          : 0        |                                        |
         2 -> 3          : 0        |                                        |
         4 -> 7          : 0        |                                        |
         8 -> 15         : 0        |                                        |
        16 -> 31         : 0        |                                        |
        32 -> 63         : 1        |****************************************|

softirq = block
     usecs               : count     distribution
         0 -> 1          : 0        |                                        |
         2 -> 3          : 0        |                                        |
         4 -> 7          : 0        |                                        |
         8 -> 15         : 0        |                                        |
        16 -> 31         : 4        |****************************************|

softirq = net_tx
     usecs               : count     distribution
         0 -> 1          : 0        |                                        |
         2 -> 3          : 2        |****************************************|
         4 -> 7          : 1        |********************                    |
┌──[root@vms99.liruilongs.github.io]-[~/FlameGraph]
└─$

可以看到大部分软中断处理时间都在 0 到 15 微秒之间,这表明系统对于大多数常见事件(如网络接收、定时器等)的响应是高效的。

一些软中断的处理时间较长(如 RCU 和定时器),可能需要进一步调查以优化性能。

tasklet 和 block 软中断的触发频率较低,可能表明这些功能在当前负载下使用不多。

hardirqs

hardirqs 用来显示 硬中断的时间,和软中断的使用方法一样,

┌──[root@vms99.liruilongs.github.io]-[/usr/share/bcc/tools]
└─$hardirqs 10 1
Tracing hard irq event time... Hit Ctrl-C to end.

HARDIRQ                    TOTAL_usecs
ens160-rxtx-0                        5
ens160-rxtx-2                        6
nvme0q3                             22
nvme0q4                             22
nvme0q2                             23
ahci[0000:02:03.0]                  39
┌──[root@vms99.liruilongs.github.io]-[/usr/share/bcc/tools]
└─$
  • ens160-rxtx*: 网络相关的收发操作,中断时间很少
  • nvme0q* : 与 NVMe 存储设备的队列相关的硬中断
  • ahci[0000:02:03.0]: 与 AHCI 控制器相关的硬中断,处理时间为 39 微秒。这个时间相对较长,可能指示在处理 SATA 设备数据时存在一些延迟

也可以以直方图的形式输出 IRQ 时间信息

┌──[root@vms99.liruilongs.github.io]-[~/FlameGraph]
└─$hardirqs -Td  10 1
Tracing hard irq event time... Hit Ctrl-C to end.

06:37:27

hardirq = nvme0q5
     usecs               : count     distribution
         0 -> 1          : 0        |                                        |
         2 -> 3          : 0        |                                        |
         4 -> 7          : 0        |                                        |
         8 -> 15         : 1        |*************                           |
        16 -> 31         : 3        |****************************************|
        32 -> 63         : 1        |*************                           |

hardirq = ens160-rxtx-0
     usecs               : count     distribution
         0 -> 1          : 26       |******************************          |
         2 -> 3          : 26       |******************************          |
         4 -> 7          : 34       |****************************************|
         8 -> 15         : 8        |*********                               |

hardirq = ens160-rxtx-1
     usecs               : count     distribution
         0 -> 1          : 9        |***************************             |
         2 -> 3          : 13       |****************************************|
         4 -> 7          : 6        |******************                      |

.................

为什么CPU系统时间很高?

当CPU 存在很高的 内核态占用的时候,我们需要分析具体的原因

syscount

syscount 用来统计系统中的系统调用数量,用于解决内核态使用率高是不是由于系统调用导致的?具体是哪些系统调用?

每 10 秒的系统调用输出,可以看到最频繁的是 select,用于 I/O 处理

┌──[root@vms99.liruilongs.github.io]-[/usr/share/bcc/tools]
└─$syscount -i 10
Tracing syscalls, printing top 10... Ctrl+C to quit.
[12:28:20]
SYSCALL                   COUNT
select                      729
semop                       188
bpf                          55
epoll_wait                   52
setsockopt                   51
connect                      50
close                        29
socket                       26
fcntl                        25
read                         15
..............

Detaching...
┌──[root@vms99.liruilongs.github.io]-[/usr/share/bcc/tools]
└─$

如果我们确定了某个系统调用很频繁,需要进一步分析,可以使用 argdist 来通过内核跟踪点或者内核函数来统计调用的参数和返回值

argdist

以上文的 read 内核函数为例,通过 tplist 方法获取参数信息

┌──[root@vms99.liruilongs.github.io]-[~/FlameGraph]
└─$tplist -v syscalls:sys_enter_read
syscalls:sys_enter_read
    int __syscall_nr;
    unsigned int fd;
    char * buf;
    size_t count;

count 为调用的读缓存大小,然后使用 argdist 来输出直方图信息

┌──[root@vms99.liruilongs.github.io]-[~/FlameGraph]
└─$argdist -H 't:syscalls:sys_enter_read():int:args->count'
..............
[06:20:16]
     args->count         : count     distribution
         0 -> 1          : 0        |                                        |
         2 -> 3          : 0        |                                        |
         4 -> 7          : 0        |                                        |
         8 -> 15         : 0        |                                        |
        16 -> 31         : 0        |                                        |
        32 -> 63         : 0        |                                        |
        64 -> 127        : 0        |                                        |
       128 -> 255        : 0        |                                        |
       256 -> 511        : 0        |                                        |
       512 -> 1023       : 0        |                                        |
      1024 -> 2047       : 0        |                                        |
      2048 -> 4095       : 0        |                                        |
      4096 -> 8191       : 0        |                                        |
      8192 -> 16383      : 0        |                                        |
     16384 -> 32767      : 1        |****************************************|
^C┌──[root@vms99.liruilongs.github.io]-[~/FlameGraph]
└─$

可以看到,当前的read 调用缓存集中在 16384 -> 32767 字节

然后将这个值与系统调用的返回值进行比对,也就是实际读取的字节数量,进一步分析

┌──[root@vms99.liruilongs.github.io]-[~/FlameGraph]
└─$tplist -v syscalls:sys_exit_read
syscalls:sys_exit_read
    int __syscall_nr;
    long ret;
┌──[root@vms99.liruilongs.github.io]-[~/FlameGraph]
└─$
┌──[root@vms99.liruilongs.github.io]-[~/FlameGraph]
└─$argdist -H 't:syscalls:sys_exit_read():int:args->ret'
。。。。。。。。
[06:22:02]
     args->ret           : count     distribution
         0 -> 1          : 0        |                                        |
         2 -> 3          : 0        |                                        |
         4 -> 7          : 0        |                                        |
         8 -> 15         : 17       |****************************************|
        16 -> 31         : 0        |                                        |
        32 -> 63         : 1        |**                                      |
        64 -> 127        : 0        |                                        |
       128 -> 255        : 1        |**                                      |
       256 -> 511        : 0        |                                        |
       512 -> 1023       : 1        |**                                      |
^C┌──[root@vms99.liruilongs.github.io]-[~/FlameGraph]
└─$

对于系统调用的统计,也可以使用 -P 选项指定跟踪某个进程,这里的1 为 systemd,这样会以进程的维度来统计系统调用。

┌──[root@vms99.liruilongs.github.io]-[~]
└─$syscount -Pi 1
Tracing syscalls, printing top 10... Ctrl+C to quit.
[06:14:09]
PID    COMM               COUNT
12442  cockpit-bridge     11603
51948  top                 2027
955    tuned                 47
55669  syscount              23
2681   httpd                 20
1126   haproxy               19
2680   httpd                 18
12122  sshd                   9
2679   httpd                  9
51745  sshd                   9

.............

可以看到调用最多的为 cockpit-bridge,是一个自带的系统工具,用于远程管理。

应用程序处理每个请求时的LLC的命中率是多少?

通过对缓存命中率的分析,可以优化编码,提高缓存利用率,llcstat 为共享缓存的命中率分析。

llcstat

llcstat 用于利用性能监控计数器(PMC)来按进程输出最后一级缓存的命中率,LLC ,一般指多核共享缓存。

在虚拟机中执行会报错,没有PMC 信息,下面为文档的Demo

# ./llcstat.py 20 -c 5000
Running for 20 seconds or hit Ctrl-C to end.
PID      NAME             CPU     REFERENCE         MISS   HIT%
0        swapper/15       15        3515000       640000  81.79%
238      migration/38     38           5000            0 100.00%
4512     ntpd             11           5000            0 100.00%
150867   ipmitool         3           25000         5000  80.00%
150895   lscpu            17         280000        25000  91.07%
151807   ipmitool         15          15000         5000  66.67%
150757   awk              2           15000         5000  66.67%
151213   chef-client      5         1770000       240000  86.44%
151822   scribe-dispatch  12          15000            0 100.00%
123386   mysqld           5            5000            0 100.00%
[...]

列说明:

  • CPU:执行该进程的 CPU 核心。
  • REFERENCE:访问缓存的总次数(缓存引用)。
  • MISS:缓存未命中的次数。
  • HIT%:缓存命中率,表示成功访问缓存的比例。

关于Linux性能调优之使用BPF工具监控CPU性能指标就和小伙伴们分享到这里

博文部分内容参考

© 文中涉及参考链接内容版权归原作者所有,如有侵权请告知 😃


《BPF Performance Tools》


© 2018-2024 liruilonger@gmail.com, 保持署名-非商用-相同方式共享(CC BY-NC-SA 4.0)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2219497.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

python语言入门必须要学习的模块化编程案例游戏---画图案例(三)【源码大全】

彩虹五角星 import turtle #引用turtle库 q turtle.Pen() #构造画笔 turtle.bgcolor("black") …

java基于SpringBoot+Vue+uniapp微信小程序的自助点餐系统的详细设计和实现(源码+lw+部署文档+讲解等)

项目运行截图 技术框架 后端采用SpringBoot框架 Spring Boot 是一个用于快速开发基于 Spring 框架的应用程序的开源框架。它采用约定大于配置的理念&#xff0c;提供了一套默认的配置&#xff0c;让开发者可以更专注于业务逻辑而不是配置文件。Spring Boot 通过自动化配置和约…

(悬臂)梁结构固有频率理论求解

文章目录 0、背景1、梁固有频率的理论解法1.1 简支梁和悬臂梁1.2 其他支撑形式的梁2、支座带旋转弹簧的悬臂梁固有频率求解3、算例及仿真0、背景 为了给风电塔筒结果的ABAQUS模型中添加支座弹簧,需要先搞清楚ABAQUS中弹簧单元的性质。很遗憾,网络上关于土弹簧的资料很少,帮…

【Linux】从 fork() 到 exec():理解 Linux 进程程序替换的魔法

1.前言 进程程序替换是指一个进程用另一个新的可执行程序来替换当前正在执行的程序&#xff0c;这个过程通过通过exec系列函数完成。在Linux或UNIX系统中&#xff0c;进程程序替换通常发生在一个进程通过fork()创建了子进程之后&#xff0c;子进程用exec()函数加载和执行另一个…

HTTP(HyperText Transfer Protocol)协议

前言 HTTP作为应用层协议&#xff0c;定义了客户端与服务器之间的通信规则&#xff0c;使得浏览器或其他客户端程序能够请求并获取Web服务器上的超文本信息。 在分布式、协作式的超媒体信息系统中&#xff0c;HTTP协议扮演着核心角色&#xff0c;它支持了信息的组织、检索和呈现…

ChatGPT01-preivew体验报告:内置思维链和多个llm组合出的COT有啥区别呢?丹田与练气+中学生物理奥赛题测试,名不虚传还是名副其实?

一个月前&#xff0c;o1发布的时候&#xff0c;我写了篇文章介绍 逻辑推理能力堪比博士生&#xff0c;OpenAI发布全新AI模型系列&#xff1a; o1 - 大模型或许进入新阶段&#xff0c;还翻译了官方的介绍 解密OpenAI o1是如何让LLMs获得逻辑推理能力的 - CoT * RL&#xff0c;也…

Ribbon客户端负载均衡策略测试及其改进

文章目录 一、目的概述二、验证步骤1、源码下载2、导入IDE3、运行前修改配置4、策略说明5、修改策略 三、最终结论四、改进措施1. 思路分析2. 核心代码3. 测试页面 一、目的概述 为了验证Ribbon客户端负载均衡策略在负载节点失效的情况下&#xff0c;是否具有故障转移的功能&a…

学习 UE5 的一些前置操作总结

随着 Unity, Godot 这些引擎都玩抽象&#xff0c;主动捅自己一刀后&#xff0c;UE5 的风头不可谓不盛&#xff0c;本着多学一点免得失业的思路方针&#xff0c;咱也研究了一下 UE5 引擎&#xff0c;然后发现想要开始使用 UE5 &#xff0c;包含了很多前置操作&#xff0c;这里总…

Java项目-基于springboot框架的家具商城系统项目实战(附源码+文档)

作者&#xff1a;计算机学长阿伟 开发技术&#xff1a;SpringBoot、SSM、Vue、MySQL、ElementUI等&#xff0c;“文末源码”。 开发运行环境 开发语言&#xff1a;Java数据库&#xff1a;MySQL技术&#xff1a;SpringBoot、Vue、Mybaits Plus、ELementUI工具&#xff1a;IDEA/…

使用Yolov10和Ollama增强OCR

1. 训练自定义 Yolov10 数据集 利用物体检测增强 OCR 的第一步是在数据集上训练自定义 YOLO 模型。YOLO&#xff08;只看一遍&#xff09;是一种功能强大的实时对象检测模型&#xff0c;它将图像划分为网格&#xff0c;使其能够在一次前向传递中识别多个对象。这种方法非常适合…

AI大模型开发架构设计(14)——基于LangChain大模型的案例架构实战

文章目录 基于LangChain大模型的案例架构实战1 LangChain 顶层架构设计以及关键技术剖析LangChain 是什么?LangChain的主要功能是什么&#xff1f;LangChain 顶层架构设计LangChain 典型使用场景&#xff1a;QA 问答系统LangChain 顶层架构设计之 Model I/OLangChain 顶层架构…

No.17 笔记 | XXE漏洞:XML外部实体注入攻击

1. XXE漏洞概览 XXE&#xff08;XML External Entity&#xff09;是一种允许攻击者干扰应用程序对XML输入处理的漏洞。 1.1 XXE漏洞比喻 想象XML解析器是一个听话的机器人&#xff0c;而XXE就是利用这个机器人的"过分听话"来获取不应该获取的信息。 1.2 XXE漏洞危…

基于SSM汽车零部件加工系统的设计

管理员账户功能包括&#xff1a;系统首页&#xff0c;个人中心&#xff0c;员工管理&#xff0c;经理管理&#xff0c;零件材料管理&#xff0c;产品类型管理&#xff0c;产品信息管理&#xff0c;产品出库管理&#xff0c;产品入库管理 员工账号功能包括&#xff1a;系统首页…

spring-cloud-alibaba-nacos-config2023.0.1.*启动打印配置文件内容

**背景&#xff1a;**在开发测试过程中如果可以打印出配置文件的内容&#xff0c;方便确认配置是否准确&#xff1b;那么如何才可以打印出来呢&#xff1b; spring-cloud-alibaba-nacos-config 调整日志级别 logging:level:com.alibaba.cloud.nacos.configdata.NacosConfigD…

Java爬虫:获取商品销量详情API返回值的实战指南

在数字化时代&#xff0c;数据已成为电商运营的核心。商品销量数据不仅反映了市场的需求和趋势&#xff0c;还能为商家提供决策支持。通过Java爬虫技术&#xff0c;我们可以高效地获取这些数据&#xff0c;从而深入分析商品的市场表现。 为何选择Java爬虫获取销量数据 自动化处…

股票与基金资料收集

声明&#xff1a;本内容是网上资料的收集与整理而成&#xff0c;不定时更新。仅供参考&#xff0c;不构成任何投资建议。 目录&#xff1a; 一、股票 1、黄金交叉和死亡交叉 2、技术指标 3、T、TR、THR含义 二、基金 平准基金 一、股票 1、黄金交叉和死亡交叉 “黄金交…

【C++_string类练习】仅仅反转字母

题目链接&#xff1a;仅仅反转字母 解题思路&#xff1a; 这种反转字符的题目我第一个想到的方法就是&#xff1a;双指针 一个指针在前start&#xff0c;一个指针在后back&#xff0c; 如果指针所指向的位置的值是字母&#xff0c;那么两个指针位置的值就进行交换&#xff0…

P2-3与P2-4.【C语言基本数据类型、运算符和表达式】第三节与第四节

讲解视频&#xff1a; P2-3.【基本数据类型、运算符和表达式】第三节 P2-4.【基本数据类型、运算符和表达式】第四节 目录 必备知识与理论 任务实施 必备知识与理论 C语言中把除了控制语句和输入输出以外的几乎所有的基本操作都作为运算符处理。 其运算符和表达式数量之多&a…

以简单组合优化为例讨论计算复杂性

此为课题组所指导本科生和低年级硕士生学习组合优化问题汇报 所用教材&#xff1a;北京大学屈婉玲教授《算法设计与分析》 课程资料&#xff1a;https://www.icourse163.org/course/PKU-1002525003 承诺不用于任何商业用途&#xff0c;仅用于学术交流和分享 更多内容请关注课题…

centOS实用命令

一、查看进程&#xff0c;端口占用 netstat命令(window和linux通用&#xff0c;细节不同) 查看端口占用(linux) netstat -ano |grep 8080查看端口占用(window) netstat -ano |findstr 8080ps命令 可以直接使用ps aux查看所有用户的进程信息 一些参数 参数解释-p根据进程P…