240 发简信
IP属地:重庆
  • Tensor张量的操作

    torch.linspace(1, 16, 16).view(4, 4)mask = torch.gt(a, 8)a = torch.tenso...

  • Resize,w 360,h 240
    __init__.py

    基本原理 __init__.py文件的主要作用有: 标识包:告诉Python解释器这个目录应该被视为一个Python包。 初始化代码:可以在这个...

  • markdown常用速查

    一、如何显示# * >等符号?1、加" \ "转义:比如要写__name__就需要写成"\_\_name__"2、可以使用反引号" ` "包裹需...

  • __name__=='__main__'

    每个py脚本都有自己的名字,姑且起一个叫“code_ex1.py”, python会给每个脚本自动赋予一个全局变量,包括__name__,如果在...

  • 模型压缩和加速——参数共享(Parameter Sharing)及其pytorch实现

    一、参数共享含义 参数共享(Parameter Sharing)是模型压缩与加速中的一种重要技术。通过参数共享,多个神经元或层可以共享相同的权重...

  • 模型压缩和加速——参数量化(Parameter Quantization)及其pytorch实现

    参数量化(Parameter Quantization)是一种有效的模型压缩技术,通过减少模型参数的位宽(例如从32位浮点数减少到8位整数)来减...

  • 模型压缩和加速——低秩分解(Low-rank Decomposition)及其pytorch实现

    一、低秩分解的含义 低秩分解本质是一种矩阵分解技术,旨在将一个矩阵分解为两个或多个矩阵的乘积,从而将高维数据压缩为低维表示,以减少参数量。在大模...

  • Resize,w 360,h 240
    模型压缩和加速——知识蒸馏(Knowledge Distillation)及pytorch实现

    一、知识蒸馏的含义 知识蒸馏(Knowledge Distillation)是一种用于模型压缩和迁移学习的技术,通过将一个复杂模型(称为教师模型...

  • 模型压缩和加速——网络剪枝(Network Pruning)及其pytorch实现

    一、网络剪枝的步骤 神经网络中的一些权重和神经元是可以被剪枝的,这是因为这些权重可能为零或者神经元的输出大多数时候为零,表明这些权重或神经元是冗...

个人介绍
外脑->思考->连接->创造