清除python TensorRT build之后常驻的显存

业务需要,需要TensorRT 模型转换的进程常驻,使用中发现每次build后会占据一个显存缓存,del也无法清除,后来找到了:
python - How to run TensorRT in multiple threads? - Stack Overflow

import pycuda.driver as cuda
from pycuda.tools import make_default_context
print("Create TensorRT Plan.")
cuda.init()  # Initialize CUDA
ctx = make_default_context()
TRT_LOGGER = trt.Logger()
build_result = self.build_engine(TRT_LOGGER)
ctx.pop()
del ctx
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 按照Nvidia官方教程按照部署TensorRT成功后, 在python环境下多进程启动tensorrt实例时,系...
    zbharper阅读 11,621评论 0 1
  • Getting Started Use the Current Stable Version (7.1) Buil...
    Leonzai阅读 1,994评论 0 3
  • *面试心声:其实这些题本人都没怎么背,但是在上海 两周半 面了大约10家 收到差不多3个offer,总结起来就是把...
    Dove_iOS阅读 27,273评论 30 472
  • 表情是什么,我认为表情就是表现出来的情绪。表情可以传达很多信息。高兴了当然就笑了,难过就哭了。两者是相互影响密不可...
    Persistenc_6aea阅读 126,502评论 2 7
  • 16宿命:用概率思维提高你的胜算 以前的我是风险厌恶者,不喜欢去冒险,但是人生放弃了冒险,也就放弃了无数的可能。 ...
    yichen大刀阅读 6,135评论 0 4