
用 std::chrono::high_resolution_clock 获取函数耗时最可靠
在 C++11 及之后,std::chrono::high_resolution_clock 是获取函数运行耗时的首选——它不依赖系统 API,跨平台,精度通常达纳秒级(实际取决于底层实现,linux/windows 下多为微秒或更好)。不要用 clock() 或 time(),它们分辨率低、语义模糊(clock() 是 CPU 时间,不是墙钟时间)。
关键点:
-
high_resolution_clock是别名,可能等价于steady_clock或system_clock,但标准只要求它“尽可能高精度”,且推荐用于性能测量 - 必须用同一时钟的
time_point相减,不能混用不同 clock(如steady_clock::now() - system_clock::now()会编译失败) - 差值是
duration类型,需显式转换为常用单位(如毫秒),否则直接输出是未格式化的计数
写一个通用的 ScopedTimer 类自动测时
手动写 start = high_resolution_clock::now() 和 end = ... 容易漏、难复用。封装成 RAII 类最稳妥,构造时记录起点,析构时打印/保存耗时。
class ScopedTimer { using Clock = std::chrono::high_resolution_clock; Clock::time_point start_; std::string label_; public: explicit ScopedTimer(const char* label = "timer") : label_(label) { start_ = Clock::now(); } ~ScopedTimer() { auto end = Clock::now(); auto us = std::chrono::duration_cast(end - start_).count(); std::cout << label_ << ": " << us << " μsn"; } };
使用示例:
立即学习“C++免费学习笔记(深入)”;
void heavy_computation() { ScopedTimer timer("sort"); std::vector v(100000, 0); std::iota(v.begin(), v.end(), 0); std::random_shuffle(v.begin(), v.end()); std::sort(v.begin(), v.end()); } // 析构时自动输出耗时
注意:
- 避免在循环内频繁构造/析构(有轻微开销),若需高频采样,改用单次
time_point记录 + 手动计算 - 若需纳秒级输出,把
microseconds换成nanoseconds,但多数平台实际达不到真纳秒精度
steady_clock vs high_resolution_clock:选哪个?
多数场景下,直接用 high_resolution_clock 即可。但如果代码逻辑要求“单调性”(即时间不能倒流,不受系统时钟调整影响),应选 steady_clock ——它专为此设计,且在所有主流 STL 实现中(libstdc++、libc++、MSVC STL)都基于单调时钟源(如 Linux 的 CLOCK_MONOTONIC)。
high_resolution_clock 在某些旧实现中可能退化为 system_clock(受 NTP 调整影响),虽罕见但存在风险。因此更严谨的做法是:
- 测性能 → 优先用
steady_clock(保证单调 + 高精度已足够) - 需和系统时间对齐(如打日志带绝对时间戳)→ 用
system_clock - 仅当明确需要“当前平台理论最高精度”且接受潜在非单调性 → 用
high_resolution_clock
示例统一写法:
auto start = std::chrono::steady_clock::now(); // ... code ... auto elapsed = std::chrono::steady_clock::now() - start; auto ms = std::chrono::duration_cast(elapsed).count();
常见错误:类型转换丢失精度或溢出
直接对 duration 调用 .count() 得到的是内部计数值(如纳秒数),若未经 duration_cast 就转成 int 或 Float,可能截断或溢出。
典型错误写法:
// ❌ 错误:隐式转换丢失精度,且可能溢出 auto d = end - start; long long ns = d.count(); // 假设是纳秒,但 d 可能是 nanoseconds、microseconds 等,count() 含义模糊 double ms = ns / 1000000.0; // 手动除易错
正确做法始终用 duration_cast:
// ✅ 正确:语义清晰,编译器做安全转换 auto us = std::chrono::duration_cast(end - start); std::cout << us.count() << " μsn"; // 此时 count() 明确返回微秒数
其他易踩坑点:
- 用
auto推导time_point没问题,但别对duration用auto后直接.count()—— 类型不直观,易误判量纲 - 在 Release 模式下,空函数或纯计算可能被优化掉,测时结果为 0;确保被测代码有可观测副作用(如写全局变量、调用 volatile 函数)
- 单次测量意义不大,建议跑多次取最小值或平均值(尤其对短耗时函数)
真正要注意的不是“怎么写第一行 now()”,而是时钟选择是否满足场景需求、duration 转换是否无损、以及是否意识到编译器优化对测量结果的干扰。这几个点没踩准,再漂亮的计时代码也得不到真实数据。