240 发简信
IP属地:北京
  • 120
    概述

    1、学习地图 2、

  • 剑指offer

    1、二维数组中的查找 在一个二维数组中(每个一维数组的长度相同),每一行都按照从左到右递增的顺序排序,每一列都按照从上到下递增的顺序排序。请完成一个函数,输入这样的一个二维数...

  • 120
    队列和栈

    基础: 1、用数组结构实现大小固定的队列和栈 数组实现栈思路:用一个指针来确定位置,当大于数组长度或者为0时抛出异常 数组实现队列思路:先定义一个size为队列大小,初始si...

  • 120

    基础 1、实现二叉树的先序、中序、后序遍历,包括递归和非递归方式2、在二叉树中找到一个节点的后继节点 3、判断一棵二叉树是否是平衡二叉树4、判断一棵树是否是搜索二叉树、判断一...

  • 排序

    基本排序:插入,选择,冒泡 三大排序:归并,快速,堆排 1、归并排序 -- 时间复杂度O(N*logN),空间复杂度O(N) 思路:递归方法,本质是压栈出栈的过程,关键点是找...

  • 120
    手撕transformer

    1. 从encoder-decoder说起 encoder-decoder是一个框架,在生成模型中使用广泛,这里以翻译系统为例。 添加encoder-decoder图片 en...

  • 120
    一些零碎的知识

    1、MLE和MAP MLE: 模型已定,参数未知 极大似然估计,是一种参数估计的方法。即假设样本满足某种分布,利用已知的样本结果信息去反推最有可能导致这些样本出现的模型参数值...

  • 过拟合

    摘要过拟合的问题在机器学习算法中很常见,在深度学习中更常见的是模型train不起来,而不是过拟合,过拟合的处理方法可以是:降低模型复杂度,正则,dropout,earlyst...

  • 优化算法总结

    机器学习中的无约束优化算法,包括最小二乘、梯度下降、牛顿/拟牛顿法;样本量不算很大,且存在解析解,可选用最小二乘法,速度快;样本量大时使用梯度下降或牛顿法,二者区别是梯度下降...

  • HMM

    1、概率计算 2、参数估计 3、模型预测

  • LDA

    1、隐Dirichlet分布 2、先验分布-共轭分布 3、Beta分布-Dirichlet分布 4、LDA 5、Gibbs采样和更新规则

  • EM与贝叶斯

    1、高斯混合模型GMM 2、最大似然推倒EM 3、GMM的参数估计 4、朴素贝叶斯

  • SVM

    1、SVM的原理和目标 2、SVM计算过程 3、线性不可分SVM 4、核函数 5、SMO算法

  • 120
    集成学习

    总览:提升算法按照基分类器是否强依赖,分类器可由基分类器并行生成的为Boosting,串行生成的为Bagging;Bagging中的代表是RF(随机森林),Boosting中...

  • 决策树与随机森林

    1、信息熵 只考虑离散情况 熵:度量变量不确定性,越确定熵越小,完全确定的事件熵为0信息熵的定义:$$ 条件熵:h(y | x) = h(x, y) - h(x) x与y的不...

  • 聚类算法总结

    1、相似度的度量方法 2、K-means聚类 3、层次聚类 4、密度聚类 DBSCAN DensityPeak 5、谱聚类 谱聚类与PCA关系

  • 120
    回归问题

    摘要线性回归解决预测问题,细分为一般线性回归、多项式回归、广义线性回归的递进关系,Logistic和Softmax回归解决分类问题,Logistic回归解决二分类,Softm...

  • 120
    链表

    1、链表相加 题目 给定两个链表,分别表示两个非负整数,逆序存储在链表中,计算两个数的和,并返回链表头指针,如:输入:2->4->3、5->6->4,输出7->0->8 思路...