Hermitian矩阵: 又被称为厄尔米特矩阵,指的是共轭矩阵。矩阵中的每一个第行第列的元素都与第行列的元素共轭相等。称为的共轭转置,矩阵即,若矩阵中元素都是实数,则。 ...

Hermitian矩阵: 又被称为厄尔米特矩阵,指的是共轭矩阵。矩阵中的每一个第行第列的元素都与第行列的元素共轭相等。称为的共轭转置,矩阵即,若矩阵中元素都是实数,则。 ...
奇异值分解(Singular Value Decomposition,SVD): 定义: 任意的实矩阵都可以分解为: 其中,是满足的阶酉矩阵(unitary mat...
贝叶斯决策轮: 对分类任务来说,在所有相关概率都已知的理想情形下,贝叶斯决策论考虑如何基于这些概率和误判损失来选择最优的类别标记。 假设有N种可能的类别标记,即,是将一...
本文整理了在Windows系统上安装代码审查工具Arcanist的过程。目的是配合Phabricator进行代码review。配置成功后可使用arc diff命令来发起cod...
@DestinyBaozi 比爸爸大了一岁,我留级一年,最后和你同岁毕业
写给23岁的自己对于未来几年,我有话于你: 第一件事便是做学问,也是接下来几年最主要的事情。你现在是研究生,不只是学生,更是一种职业,你务必把学习当做自己本身应该担负起来的责任,而不是为...
牛逼,你怎么年龄这么大
写给23岁的自己对于未来几年,我有话于你: 第一件事便是做学问,也是接下来几年最主要的事情。你现在是研究生,不只是学生,更是一种职业,你务必把学习当做自己本身应该担负起来的责任,而不是为...
神经元模型: ,其中为权值,为阈值通过激活函数处理产生的输出(或)。 感知机: 感知机由两层神经元组成,输入层和输出层,感知机只有一层功能神经元,学习能力有限,只能学...
原理: 每次按照下降的方向进行计算,属于贪心的算法。 算法(就最小二乘法讨论): 若训练集: 训练函数: 参数向量: 损失函数: 梯度: gradi...
信息熵 熵是接收的每条消息中包含的信息的平均量,被称为信息熵、信源熵、平均自信息量,为不确定性的量度。简而言之,越是确定的事,信息熵小,而越不确定的事信息熵越大。 随机...
基本流程: 略 划分选择: “信息熵”是度量样本集合纯度最常用的一项指标 “信息增益”是度量某个属性对划分的增益 表示该属性的权重值 剪枝处理: 剪枝...
白噪声,是一种功率谱密度为常数的随机信号或随机过程,即此信号在各个频段上的功率是一样的。白噪声的信号特点,使得大脑很容易适应,如果音量不是很大,一段时间后就好像听不见了。能让...
机器学习误差: 训练误差或者经验误差:学习器在训练集上的误差 泛化误差:在新样本上的误差 评估方法: 留出法:直接将数据集分为互斥的集合,一个作为训练集一个作为测...
基本形式: 一般形式: 向量形式: 线性回归: 最小二乘法: 最小二乘法就是试图找到一条直线,使所有样本到直线的欧式距离只和最小,求解和使 最小化...
多分类学习的基本思路是“拆解法”,即将多分类任务拆为若干个二分类任务求解。最经典的拆分策略有三种: “一对一”(OvO):将N个类别两两配对,两个其中一个作为正例,另一...
若训练样例数正例和反例的差别很大,则会对学习过程造成困扰。例如998个反例,2个正例,那么学习方法只需永远将测试新样本设为反例,那么就会99.8%的精度,但是这样是没有价...
不得行哦,太短了
类别不平衡问题若训练样例数正例和反例的差别很大,则会对学习过程造成困扰。例如998个反例,2个正例,那么学习方法只需永远将测试新样本设为反例,那么就会99.8%的精度,但是这样是没有价...
无用之道:没有只做一件事能做成的事关于别的 本来想写完上周写的诗人张稹的故事,但上周提笔的时候可以说是神情恍惚,胡写一气。本周就不接着上周的内容写了,写点其他的,写一些无用的东西。至于张稹的故事,我打算还是在...