第二章讲的是单变量线性回归。
线性回归很简单,主要讲的是假设函数和代价函数,以及梯度下降算法。
首先是假设函数,这个是机器学习的核心,所有的算法都是为了求出一个合适的假设函数。
而为了高效率的求出假设函数,就引出了代价函数这个东西,代价函数的实质就是代价两个字,但预期值和实际值相差最小,就是代价函数最优,也就是假设函数最好的时候。
梯度下降算法是求代价函数最常用也最通用的方法。
因为之前学过线性代数和离散数学等科目,所以理解起来还是很容易的。
吴恩达机器学习——单变量线性回归
©著作权归作者所有,转载或内容合作请联系作者
- 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
- 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
- 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
推荐阅读更多精彩内容
- 未经允许,不得擅自改动和转载 我们的第一个学习算法是线性回归算法。在这段视频中,你会看到这个算法的概况,更重要的是...
- 1. 模型表示 我们的第一个学习算法是线性回归算法。 让我们通过一个例子来开始:这个例子是预测住房价格的,我们要使...
- AI人工智能时代,机器学习,深度学习作为其核心,本文主要介绍机器学习的基础算法,以详细线介绍 线性回归算法 及其 ...