定义两个间距,一个用于内容,另一个用于风格 测量两张图片内容的不同,而用来测量两张图片风格的不同。然后,我们输入第三张图片,并改变这张图片,使其与内容图片的内容间距和风格图片...

定义两个间距,一个用于内容,另一个用于风格 测量两张图片内容的不同,而用来测量两张图片风格的不同。然后,我们输入第三张图片,并改变这张图片,使其与内容图片的内容间距和风格图片...
边界框(bounding box) 是最后定位目标的框,是结果 anchor box 目标检测算法通常在输入图像中采样大量区域,然后判断这些区域是否包含我们感兴趣的目标 其中...
本是应用于迁移学习的方法,使用预训练的模型,但是输出层自己定义 定义并加载模型 剩下就是读取数据正常训练了 如果不冻结前面层的参数,建议前面层lr较小,输出层lr较大
读取图像: 翻转和裁剪 颜色变化: 亮度(brightness)、对比度(contrast)、饱和度(saturation)和色调(hue)变化 叠加以上的变化 这样就获得了...
随机梯度下降 每次使用一个样本 批量梯度下降 每次使用全部样本 小批量梯度下降 每次使用一个batch
矛盾 纯粹的优化方法是最小化训练集的损失函数而我们的目标是测试集损失函数的最小化,也就是可以泛化而不是过拟合 需要避免的几种情况: 局部最小值鞍点梯度消失 优化的目标:凸函数...
BN层: 全连接层的BN 位置:仿射变换和激活函数之间pytorch:nn.BatchNorm1d 卷积层的BN 位置:卷积计算和激活函数之间pytorch:nn.Batch...
和seq2seq模型相似,Transformer同样基于编码器-解码器架构,其区别主要在于以下三点: Transformer blocks:将seq2seq模型重的循环网络替...
内容包括: attention机制 为什么需要attention 简介 Seq2Seq attention 为什么需要attention 由于之前的输入文本无论长度,最后都变...
内容包括: 机器翻译难点 数据预处理 数据清洗 3.encoder-decoder结构 机器翻译难点: 普通的rnn,输入n个x,那么输出n个y,但是机器翻译输入和输出长度往...
内容包括: AlexNet VGG NiN GoogLeNet 以下几种都是常用的CNN架构 AlexNet 特征: 8层变换,其中有5层卷积和2层全连接隐藏层,以及1个全连...
内容包括: LeNet介绍 模型结构 LeNet介绍 使用全连接层的局限性: 图像在同一列邻近的像素在这个向量中可能相距较远。它们构成的模式可能难以被模型识别。对于大尺寸的输...
内容包括: 卷积 二维卷积 特征图和感受野 填充和步幅 4.多输入通道和多输出通道 池化 平均池化 最大池化 卷积 二维卷积 步骤:卷积核和矩阵点乘再求和,滑动卷积核再重复上...
内容包括: GRU LSTM 双向循环神经网络 GRU R为重置门,重置门有助于捕捉时间序列里短期的依赖关系Z为更新门,更新门有助于捕捉时间序列里长期的依赖关系 LSTM 遗...
梯度消失和梯度爆炸 梯度消失:反向传播过程中,一旦出现某神经元梯度趋近于0,那么往回传播时,由于梯度是连乘的,那么前面的梯度都趋近于0,相当于很多神经元没有训练 梯度爆炸:梯...
内容包括: 训练误差和泛化误差 训练集,交叉验证集,测试集 k折交叉验证 过拟合和欠拟合 过拟合的解决手段 训练误差和泛化误差 训练误差是在训练集上的误差泛化误差是通过训练集...
主要内容包括: 循环神经网络简介 为什么需要循环神经网络 循环神经网络架构 循环神经网络构造 梯度裁剪 循环神经网络简介 为什么需要循环神经网络 根据之前提到的语言模型理论,...
内容包括:1.语言模型 1.语言模型和时间序列 2.n-gram 语言模型 一段文本可以看作一个离散时间序列,给定一组参数(文本中的词),输出这组参数的概率 n-gram 假...
内容包括: 读入文本 分词 建立字典,将每个词映射到一个索引 将文本从词的序列转换为索引的序列 读入文本 将文件里所有标点全都去掉,划分为一个一个句子并读入list 分词 每...
内容包括: MLP简介 与普通感知机的区别 2.为什么需要多层感知机 激活函数 1.不同激活函数介绍relusigmoidtanh 区别 MLP简介 与普通感知机区别 加入了...