清除python TensorRT build之后常驻的显存

业务需要,需要TensorRT 模型转换的进程常驻,使用中发现每次build后会占据一个显存缓存,del也无法清除,后来找到了:
python - How to run TensorRT in multiple threads? - Stack Overflow

import pycuda.driver as cuda
from pycuda.tools import make_default_context
print("Create TensorRT Plan.")
cuda.init()  # Initialize CUDA
ctx = make_default_context()
TRT_LOGGER = trt.Logger()
build_result = self.build_engine(TRT_LOGGER)
ctx.pop()
del ctx
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

  • 按照Nvidia官方教程按照部署TensorRT成功后, 在python环境下多进程启动tensorrt实例时,系...
    zbharper阅读 14,061评论 0 1
  • Getting Started Use the Current Stable Version (7.1) Buil...
    Leonzai阅读 5,987评论 0 3
  • *面试心声:其实这些题本人都没怎么背,但是在上海 两周半 面了大约10家 收到差不多3个offer,总结起来就是把...
    Dove_iOS阅读 27,419评论 30 472
  • 表情是什么,我认为表情就是表现出来的情绪。表情可以传达很多信息。高兴了当然就笑了,难过就哭了。两者是相互影响密不可...
    Persistenc_6aea阅读 127,853评论 2 7
  • 16宿命:用概率思维提高你的胜算 以前的我是风险厌恶者,不喜欢去冒险,但是人生放弃了冒险,也就放弃了无数的可能。 ...
    yichen大刀阅读 11,312评论 0 4

友情链接更多精彩内容