在旧的(单线程)时代,我们指示测试团队始终报告应用程序的CPU时间而不是实际时间。这样,如果他们说版本1中的一个操作需要5个CPU秒,而在版本2中需要10个CPU秒,那么我们就有了问题。
现在,随着越来越多的多线程,这似乎不再有意义了。可能是应用程序的版本1需要5个CPU秒,版本2需要10个CPU秒,但是如果版本1是单线程的,而版本2使用4个线程(每个线程消耗2.5个CPU秒),那么版本2仍然更快。
另一方面,使用实际时间来比较性能也不可靠,因为它可能会受到许多其他元素的影响(运行其他应用程序,网络拥塞,非常繁忙的数据库服务器,碎片化的磁盘等)。
您认为最好的“数字化”性能的方法是什么? 希望它不是直觉,因为那不是客观的“价值”,可能会导致开发团队和测试团队之间的冲突。
现在,随着越来越多的多线程,这似乎不再有意义了。可能是应用程序的版本1需要5个CPU秒,版本2需要10个CPU秒,但是如果版本1是单线程的,而版本2使用4个线程(每个线程消耗2.5个CPU秒),那么版本2仍然更快。
另一方面,使用实际时间来比较性能也不可靠,因为它可能会受到许多其他元素的影响(运行其他应用程序,网络拥塞,非常繁忙的数据库服务器,碎片化的磁盘等)。
您认为最好的“数字化”性能的方法是什么? 希望它不是直觉,因为那不是客观的“价值”,可能会导致开发团队和测试团队之间的冲突。