对于测量算法时间(大约以毫秒为单位),以下两种方法哪种更好:
clock_t start = clock();
algorithm();
clock_t end = clock();
double time = (double) (end-start) / CLOCKS_PER_SEC * 1000.0;
或者,
time_t start = time(0);
algorithm();
time_t end = time(0);
double time = difftime(end, start) * 1000.0;
此外,从Freenode的C++频道的一些讨论中,我了解到clock的分辨率非常差,因此对于(相对)快速的算法,计时将为零。但是,time()和clock()哪个具有更好的分辨率?或者它们是相同的吗?