240 发简信
IP属地:北京
  • Resize,w 360,h 240
    理解Batch Normalization系列4——实践(清晰解释)

    前面三期都是在学习和理解,如果熟悉了头两期,这一期的实践将变得异常简单! 本期的代码地址:https://github.com/leichaoc...

  • Resize,w 360,h 240
    理解Batch Normalization系列3——为什么有效及11个问题(清晰解释)

    前面两期,我们了解了原理、训练及评估,然而为什么有效及若干细节仍值得讨论。 系列目录 理解Batch Normalization系列1——原理 ...

  • Resize,w 360,h 240
    理解Batch Normalization系列2——训练及评估(清晰解释)

    上一期介绍了Batch Normalization的前向传播,然而想法美好,然而能否计算、如何计算这些新参数才是重点。 系列目录 理解Batch...

  • Resize,w 360,h 240
    理解Batch Normalization系列1——原理(清晰解释)

    Batch Normalization技巧自从2015年被谷歌提出以来,因其有效提升网络训练效率,获得广泛应用与持续研究。然而,要透彻理解BN却...

  • Resize,w 360,h 240
    数据算法工程师常犯的六个错误

    尽管我们对经典理论教材能做到人手一册,如数家珍,但是在实际应用中,一方面,我们常常会疏忽掉理论,甚至是理论常识;另一方面,不考虑实际情况,首先上...

  • Resize,w 360,h 240
    图表示学习入门3——图神经网络(Graph Neural Networks)

    图神经网络(Graph Neural Network)在社交网络、推荐系统、知识图谱上的效果初见端倪,成为近2年大热的一个研究热点。然而,什么是...

    1.9 7486 0 16
  • Resize,w 360,h 240
    图表示学习入门2——Node2Vec

    《图表示学习入门1》中,讨论了为什么要进行图(graph)表示,以及两种解决图表示问题的思路。这篇把Node2Vec来作为线性化思路的一个典型来...

    1.3 6462 0 13
  • Resize,w 360,h 240
    图表示学习入门1——导言

    Jure Leskovec的《Graph Representation Learning》可能是迄今(2019年10月)为止最容易理解的图神经网...

    1.1 6476 0 10