240 发简信
IP属地:湖北
  • Resize,w 360,h 240
    PyTorch学习笔记|单层神经网络

    单层回归网络 其实神经网络并不复杂,我们经过前面的铺垫,如果只看单层的网络(输入层不算),其实就是下面这张图片,好像其实也就是一个线性回归的方程...

    2.1 32 0 1
  • Resize,w 360,h 240
    PyTorch学习笔记|动态计算图与梯度下降入门

    autograd回溯机制 新版PyTorch中的张量已经不仅仅是一个纯计算的载体,张量本身也可支持微分运算。这种可微分性其实不仅体现在我们可以使...

    2.1 24 0 1
  • Resize,w 360,h 240
    PyTorch学习笔记|基本优化思想和最小二乘法

    在正式开始神经网络建模之前,我们还需要掌握一些基本数学工具,在Pytorch中,最核心的就是梯度计算工具,也就是Pytorch的autograd...

    2.1 28 0 1
  • Resize,w 360,h 240
    PyTorch学习笔记|张量的线性代数运算

    PyTorch中并未设置单独的矩阵对象类型,因此PyTorch中,二维张量就相当于矩阵对象,并且拥有一系列线性代数相关函数和方法。 矩阵的形变及...

    2.1 32 0 1
  • Resize,w 360,h 240
    PyTorch学习笔记|张量的广播和科学运算

    pytorch中tensor设计了六大类数学运算,分别是:1.逐点运算(Pointwise Ops)指的是针对Tensor中每个元素执行的相同运...

    2.1 26 0 1
  • Resize,w 360,h 240
    PyTorch学习笔记|张量的索引分片、合并和维度调整

    我们继续学习张量的相关基础操作。 索引 这个依旧是和numpy差不多,我们简单看一些例子。 tensor.view方法可以返回一个类似视图的结果...

    2.1 39 0 1
  • Resize,w 360,h 240
    PyTorch学习笔记|张量的创建和形变

    最近准备学习下深度学习,记录下学习内容。 安装PyTorch 建议使用anaconda,然后根据下面代码更新一下anaconda的相关环境。 c...

    0.6 16 0 1
  • 2025年碎碎念

    今天已经是2026年初三了,是的,这应该是我最晚的一次来写年终总结了。年底确实是有点懈怠了,很久不写公众号,也感觉没啥思绪,也没啥内容,但是每年...

    2.1 43 0 1
  • Resize,w 360,h 240
    Python高效办公|再谈自定义排序

    前言 之前我讲过Excel怎么自定义排序,之前的思路是下面这样的。 ① 读入数据,定义好排序的列表。② 定义空的DataFrame,通过循环过滤...

    2.4 45 0 1
个人介绍
罗攀,林学的研究僧
《从零开始学Python网络爬虫》
《从零开始学Python数据分析》作者
Python中文社区、Python爱好者社区专栏作者
个人微信公众号:罗罗攀,以后文章会在公众号首发,一起学习打卡Python