1. 直接用c来执行,通linux 的time命令来记录执行的用时
sum.c: #include <stdio.h> int sum(int num){ long sum=0; int i =0; for( i=1;i<=num;i++){ sum=sum+i; }; return sum; } int main(){ int i ; for (i=0;i<1000000;i++){ sum(100); } return 0; |
测试结果的例子:
real 1.16
user 1.13
sys 0.01
2.通过Python调用so文件和python的测试结果
sum_test.py: defsum_python(num): s = 0 for i in xrange(1,num+1): s += i return s fromctypesimportcdll c_lib = cdll.LoadLibrary('./sum.so') defsum_c(num): return c_lib.sum(num) deftest(num): importtimeit t1 = timeit.Timer('c_lib.sum(%d)' % num, 'from __main__ import c_lib') t2 = timeit.Timer('sum_python(%d)' % num, 'from __main__ import sum_python') print 'c', t1.timeit(number=1000000) print 'python', t2.timeit(number=1000000) if __name__ == '__main__': test(100) |
测试结果的例子
c 1.02756714821
python 7.90672802925
3.测试erlang的测试结果
刚刚学了erlang,那就一起测试一下erlang的运算性能
sum.erl:
-module(sum).
-export([sum/2,sum_test/2]).
sum(0,Sum) ->
Sum;
sum(Num,Sum) ->
sum(Num-1,Sum+Num).
sum_test(Num,0) ->
0;
sum_test(Num,Times) ->
sum(Num,0),
sum_test(Num,Times-1).
调用:
timer:tc(sum,sum_test,[100,1000000]).
测试结果的例子:
{2418486,0}
4.测试结果
用上面的测试方法,进行10次测试,去除最大值和最小值,再计算平均值,得出:
单位:秒
· 求和的运行,使用的内存比较小,但是占用CPU资源比较多。
· 原生的C是最快的,Python调用c会稍微慢一点,原因是计算100的和的操作是在c里面做的,而执行100万次的逻辑是在python做的
· erlang的性能虽然比c稍慢,但是也是不错的,
· Python的运行效率惨不忍睹。。。