C#实现测量程序运行时间及cpu使用时间

    对一个服务器程序想统计每秒可以处理多少数据包,要如何做?答案是用处理数据包的总数,除以累记处理数据包用的时间。这里要指出的是, 运行一段程序,使用的cpu时间,跟实际运行的时间是不一样的。附例如下:

     private   void  ShowRunTime()
            {
            TimeSpan ts1 
=  Process.GetCurrentProcess().TotalProcessorTime;
            Stopwatch stw 
=   new  Stopwatch();
            stw.Start();

            
int  Circles  =   1000 ;
            
for  ( int  i  =   0 ; i  <  Circles;  ++ i)
            {
                Console.WriteLine(i.ToString());
            }

            
double  Msecs  =  Process.GetCurrentProcess().TotalProcessorTime.Subtract(ts1).TotalMilliseconds;
            stw.Stop();

            Console.WriteLine(
string .Format( " 循环次数:{0} CPU时间(毫秒)={1} 实际时间(毫秒)={2} " , Circles, Msecs, stw.Elapsed.TotalMilliseconds, stw.ElapsedTicks));
            Console.WriteLine(
string .Format( " 1 tick = {0}毫秒 " , stw.Elapsed.TotalMilliseconds  /  stw.Elapsed.Ticks));
        }

    程序输出如下:

    循环次数:1000 CPU时间(毫秒)=50.072 实际时间(毫秒)=666.9071
    1 tick = 0.0001毫秒

    可以看出在这个例子中,两者差距比较大,其原因如下:

    1)Windows是多任务操作系统,按照线程为单位对cpu时间轮询分配。即一个程序运行的中途,可能被剥夺cpu资源,供其他程序运行。

    2)程序本身会有不占用cpu时间的等待过程。这个等待可能是我们程序主动的,比如启动一个进程,然后等待进程的结束;也可能是我们没有意识到的,如例子 的Console.WriteLine方法,猜想其内部进行了一系列的异步I/O操作然后等待操作的完成,这其间并没有占用调用进程的cpu时间,但耗费 了很多等待时间。

    总结:

    1)性能的测量,应该用程序运行时间来测量,当然也需要使用cpu时间作为参考,如果两者差距很大,需要考虑为何出现这种情况。

    2).Net的Stopwatch类可以精确到1/10000毫秒,基本可以满足测量精度。
 

你可能感兴趣的:(.NET)