请问怎样计算出一个C语言程序运行所需具体时间(精确到0.1秒)?
信息学竞赛一般对一个程序得出数据的时间有限制,比如1秒,0.5秒什么的,但是我不知道我写出的程序需要用多少秒,所以想请教大家如何计算出一个C语言程序运行所需具体时间(精确...
信息学竞赛一般对一个程序得出数据的时间有限制,比如1秒,0.5秒什么的,
但是我不知道我写出的程序需要用多少秒,所以想请教大家如何计算出一个C语言程序运行所需具体时间(精确到0.1秒),可以举例说明,可以分情况(最好,最坏,平均),最好详细些,谢谢. 展开
但是我不知道我写出的程序需要用多少秒,所以想请教大家如何计算出一个C语言程序运行所需具体时间(精确到0.1秒),可以举例说明,可以分情况(最好,最坏,平均),最好详细些,谢谢. 展开
3个回答
展开全部
#include <time.h>
i=clock();
/*程序段*/
printf("计算耗时:%dms\n",clock()-i);
这个可以精确到毫秒级
i=clock();
/*程序段*/
printf("计算耗时:%dms\n",clock()-i);
这个可以精确到毫秒级
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
展开全部
可以使用clock函数,其用法请看这里:
http://zhidao.baidu.com/question/5091449.html
http://zhidao.baidu.com/question/5091449.html
参考资料: http://zhidao.baidu.com/question/5091449.html
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
推荐律师服务:
若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询