1X1卷积核最开始是在颜水成论文 [1312.4400] Network In Network 中提出的,后来被[GoogLeNet 1409....
1X1卷积核最开始是在颜水成论文 [1312.4400] Network In Network 中提出的,后来被[GoogLeNet 1409....
Attention机制源于对Seq2Seq模型的几个问题优化。Seq2Seq是基于Encoder-Decoder架构思想实现。Encoder和D...
本文承接上文 TensorFlow-slim 训练 CNN 分类模型(续),阐述通过 tf.contrib.slim 的函数 slim.lear...
在使用 TensorFlow 的时候,很多地方都会遇到 protobuf (.proto) 文件,比如配置 TensorFlow Detecti...
这篇文章将说明怎么同时导入多个预训练模型进行训练。 前面的文章 TensorFlow 使用预训练模型 ResNet-50 介绍了怎么导入一个单模...
基础Memory-network 传统的RNN/LSTM等模型的隐藏状态或者Attention机制的记忆存储能力太弱,无法存储太多的信息,很容易...
最近,AI靠着深度学习不仅成为传统的工业、医疗、商业和互联网领域的前沿,还包括新的领域,像自动驾驶和服务型机器人的研发。究竟这门在学术界和工业界...
前 言 之前只是知道1x1的卷积核用在Inception模块中具有降维的作用,并没有认真的思考它是怎么样实现降维的,以及它还有哪些作用。于是查...
介绍 前几天,某个公众号发文质疑马蜂窝网站,认为它搬运其它网站的旅游点评,对此,马蜂窝网站迅速地做出了回应。相信大多数关注时事的群众已经了解...
背景:目前keras框架使用简单,很容易上手,深得广大算法工程师的喜爱,但是当部署到客户端时,可能会出现各种各样的bug,甚至不支持使用kera...
专题公告
深度学习