240 发简信
IP属地:上海
  • Resize,w 360,h 240
    Neural Sentiment Classification with User and Product Attention

    采用了hierarchy的架构,即两层encoder(rnn_size取200),分别代表word-level和sentence-level。亮...

  • Resize,w 360,h 240
    Character-level Convolutional Networks for Text Classification

    文中指出,在大规模数据集上(尤其是书写不规范的ugc),cnn文本分类问题在char-level同样有很好的效果。文中alphabet总共有70...

  • Resize,w 360,h 240
    Hierarchical Attention Networks for Document Classification

    hierarchy指的是两层--word层和sentence层,模型很简单,想法很自然 word embedding bi-gru 作为word...

  • Resize,w 360,h 240
    DeepFM: A Factorization-Machine based Neural Network for CTR Prediction

    DeepFM是一个集成了FM和DNN的神经网络框架,思路和Google的Wide&Deep相似,都包括wide和deep两部分。W&D模型的wi...

  • Resize,w 360,h 240
    Product-based Neural Networks for User Response Prediction

    ctr预估 其中底层为embedding+乘积层,embedding层由FM初始化(见FNN),从参数规模考虑embedding_size选择了...

  • Resize,w 360,h 240
    Deep Learning over Multi-field Categorical Data

    ctr预估 ctr中传统的FM,以神经网络的角度来看可以等效为下图: 对比FM公式来看,第一项为图中最左边常数,第二项为每个field的权重,第...

  • Resize,w 360,h 240
    Wide & Deep Learning for Recommender Systems

    推荐系统 Wide Component:一层线性结构(类似lr),特征包括raw feature以及手工特征(如cross product) D...

  • GBDT, XGBoost, LightGBM

    GBDT 梯度提升树实在提升树的基础上发展而来的一种使用范围更广的方法,当处理回归问题时,提升树可以看作是梯度提升树的特例(分类问题时是不是特例...

  • Resize,w 360,h 240
    Convolutional Sequence to Sequence Learning

    传统的embedding,将词向量空间映射到d维 编码器+解码器--多层cnn,卷积核的大小k,参数规模为kd * 2d,其中kd为每一次卷积的...