240 发简信
IP属地:上海
  • Resize,w 360,h 240
    损失函数

    损失函数与评价指标之间的关系[https://zhuanlan.zhihu.com/p/67469129] 1 PointWise Loss 输...

  • Resize,w 360,h 240
    knn vs kmeans

    knn VS Kmeans https://www.cnblogs.com/mantch/p/11246705.html[https://www...

  • bagging and boosting

    Bagging 首先介绍Bootstraping,即自助法:它是一种有放回的抽样方法(可能抽到重复的样本)。 1、Bagging (bootst...

  • npl reading list

    DL Basic Word2Vec skipgram cbow hierarchical softmax Negative sampli...

  • Resize,w 360,h 240
    PLATO: Pre-trained Dialogue Generation Model with Discrete Latent Variable

    1. 论文介绍 本论文由百度发表于ACL2020,重磅推出了拥有16亿参数规模的超大型模型PLATO-2,该模型在公共数据集的测试超越了goog...

  • Resize,w 360,h 240
    【论文笔记】UniLM - Unified Language Model Pre-training for Natural Language Understanding and Generation

    摘要 UniLM由微软研究院在bert的基础上开发的新型预训练模型,可在自然语言理解和生成任务上进行微调,模型采用了三个任务进行预训练:单向、双...