【PyTorch】使 Ray-tune 充分利用电脑资源

正愁训练网络调参麻烦,搜到了 Ray-tune 这个工具。

为了充分利用电脑的 CPU、GPU 资源,需要写出类似以下的代码。详情看注释:

ray.shutdown()  # 避免 ray.init() 出错
ray.init(num_cpus=12, num_gpus=1)  # ray 默认不使用 GPU,所以需要传入参数

...

result = tune.run(
    start_train,
    scheduler=tune_scheduler,
    config=configs,
    resources_per_trial={"gpu": 0.25, "cpu": 3},  # 允许只分一部分 GPU 给每个 trial
    num_samples=200,
)

现在,就有 4 个 trail 同时运行了。

关于 Ray-tune 的实例,PyTorch 有个官方示例:Hyperparameter tuning with Ray Tune — PyTorch Tutorials 2.0.1+cu117 documentation

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容