本方法测试使用get_k_data更新某一单项历史数据(比如60分钟线),计算耗时。
测试用服务器使用amazon web service+cloud9云编程平台,使用两种不同的服务器配置,服务器物理地址为美西俄勒冈。
测试结果:
T2.micro 20.10 开始 20.45结束 耗时35分钟
T2.small 20.57 开始 21.34结束 耗时37分钟
备注:
T2.micro使用1vCPU,1G内存;T2.smallT2.micro使用1vCPU,2G内存,通过监控平台可知数据更新占用系统开销几乎忽略不计,CPU 5%以内,虽然有频繁的读取和保存数据动作,但硬盘几乎没有读写开销,网络开销也很低。
两台服务器差距不大的原因可能提示瓶颈在于中美两国网络连接延迟的问题。
半小时左右的更新时间属于基本不可接受范围,后续想办法进行改进。
windows版测试结果
用本机使用VS CODE跑下来的结果是运行3个时间段的全部数据,总耗时22分钟,平均单个例如5分钟的数据需要7分钟左右,速度还是比较理想的。
当然,本机性能还是很强劲的,I7 6700HQ+16MB内存+SSD
根据linux版的测试结果,硬件条件不是瓶颈,估计还是和网络有关,国内网络速度相对比较快。
彩蛋
后续增加对对于T2.nano的测试,服务器0.5vCPU,0.5G内存
T2.nano 21.55 开始 22.32结束 耗时37分钟,使用时间和前面两台服务器基本一致
使用T2.nano跑下来的服务器开销,可用内存剩余20MB,服务器也蛮不容易的,一种被榨干的感觉