c++中如何获取函数运行耗时_c++11 chrono高精度计时【汇总】

11次阅读

c++kquote>std::chrono::high_resolution_clock是c++11+测时首选,跨平台、高精度(通常纳秒级),需用同一时钟的time_point相减并显式转换duration;ScopedTimer通过RaiI自动记录起止时间。

c++中如何获取函数运行耗时_c++11 chrono高精度计时【汇总】

std::chrono::high_resolution_clock 获取函数耗时最可靠

在 C++11 及之后,std::chrono::high_resolution_clock 是获取函数运行耗时的首选——它不依赖系统 API,跨平台,精度通常达纳秒级(实际取决于底层实现,linux/windows 下多为微秒或更好)。不要用 clock()time(),它们分辨率低、语义模糊(clock() 是 CPU 时间,不是墙钟时间)。

关键点:

  • high_resolution_clock 是别名,可能等价于 steady_clocksystem_clock,但标准只要求它“尽可能高精度”,且推荐用于性能测量
  • 必须用同一时钟的 time_point 相减,不能混用不同 clock(如 steady_clock::now() - system_clock::now() 会编译失败)
  • 差值是 duration 类型,需显式转换为常用单位(如毫秒),否则直接输出是未格式化的计数

写一个通用的 ScopedTimer 类自动测时

手动写 start = high_resolution_clock::now()end = ... 容易漏、难复用。封装成 RAII 类最稳妥,构造时记录起点,析构时打印/保存耗时。

class ScopedTimer {     using Clock = std::chrono::high_resolution_clock;     Clock::time_point start_;     std::string label_; public:     explicit ScopedTimer(const char* label = "timer") : label_(label) {         start_ = Clock::now();     }     ~ScopedTimer() {         auto end = Clock::now();         auto us = std::chrono::duration_cast(end - start_).count();         std::cout << label_ << ": " << us << " μsn";     } };

使用示例:

立即学习C++免费学习笔记(深入)”;

void heavy_computation() {     ScopedTimer timer("sort");     std::vector v(100000, 0);     std::iota(v.begin(), v.end(), 0);     std::random_shuffle(v.begin(), v.end());     std::sort(v.begin(), v.end()); } // 析构时自动输出耗时

注意:

  • 避免在循环内频繁构造/析构(有轻微开销),若需高频采样,改用单次 time_point 记录 + 手动计算
  • 若需纳秒级输出,把 microseconds 换成 nanoseconds,但多数平台实际达不到真纳秒精度

steady_clock vs high_resolution_clock:选哪个?

多数场景下,直接用 high_resolution_clock 即可。但如果代码逻辑要求“单调性”(即时间不能倒流,不受系统时钟调整影响),应选 steady_clock ——它专为此设计,且在所有主流 STL 实现中(libstdc++、libc++、MSVC STL)都基于单调时钟源(如 Linux 的 CLOCK_MONOTONIC)。

high_resolution_clock 在某些旧实现中可能退化为 system_clock(受 NTP 调整影响),虽罕见但存在风险。因此更严谨的做法是:

  • 测性能 → 优先用 steady_clock(保证单调 + 高精度已足够)
  • 需和系统时间对齐(如打日志带绝对时间戳)→ 用 system_clock
  • 仅当明确需要“当前平台理论最高精度”且接受潜在非单调性 → 用 high_resolution_clock

示例统一写法:

auto start = std::chrono::steady_clock::now(); // ... code ... auto elapsed = std::chrono::steady_clock::now() - start; auto ms = std::chrono::duration_cast(elapsed).count();

常见错误:类型转换丢失精度或溢出

直接对 duration 调用 .count() 得到的是内部计数值(如纳秒数),若未经 duration_cast 就转成 intFloat,可能截断或溢出。

典型错误写法:

// ❌ 错误:隐式转换丢失精度,且可能溢出 auto d = end - start; long long ns = d.count(); // 假设是纳秒,但 d 可能是 nanoseconds、microseconds 等,count() 含义模糊 double ms = ns / 1000000.0; // 手动除易错

正确做法始终用 duration_cast

// ✅ 正确:语义清晰,编译器做安全转换 auto us = std::chrono::duration_cast(end - start); std::cout << us.count() << " μsn"; // 此时 count() 明确返回微秒数

其他易踩坑点:

  • auto 推导 time_point 没问题,但别对 durationauto 后直接 .count() —— 类型不直观,易误判量纲
  • 在 Release 模式下,空函数或纯计算可能被优化掉,测时结果为 0;确保被测代码有可观测副作用(如写全局变量、调用 volatile 函数)
  • 单次测量意义不大,建议跑多次取最小值或平均值(尤其对短耗时函数)

真正要注意的不是“怎么写第一行 now()”,而是时钟选择是否满足场景需求、duration 转换是否无损、以及是否意识到编译器优化对测量结果的干扰。这几个点没踩准,再漂亮的计时代码也得不到真实数据。

text=ZqhQzanResources