- 第3章 线性回归算法、逻辑回归算法
- 3.1 线性回归算法
- 3.1.1 数学模型
- 3.1.2 批量梯度下降算法
- 3.1.3 随机梯度下降算法
- 3.2 逻辑回归算法
- 3.2.1 线性回归与逻辑回归对比
- 3.2.2 正则化
- 3.3 Spark ML线性回归
- 3.3.1 Spark ML训练参数
- 3.4 Spark ML逻辑回归
- 3.4.1 Spark ML训练参数
为了使得损失函数 J(θ) 最小,可以使用后面介绍的两种方法: 批量梯度下降算法、随机梯度下降算法。
3.2 逻辑回归算法 3.2.1 线性回归与逻辑回归对比
- 逻辑回归与线性回归的不同点在于: 将线性回归的输出范围,例如从负无穷到正无穷,压缩到 0 和 1 之间; 把大值压缩到这个范围还有个很好的用处,就是可以消除特别冒尖的变量的影响。
Sigmoid函数有个很漂亮的“S”形,如下图所示:
到此为止,公式看不下去了额…
3.3 Spark ML线性回归 3.3.1 Spark ML训练参数
3.4 Spark ML逻辑回归 3.4.1 Spark ML训练参数
声明:本文是学习时记录的笔记,如有侵权请告知删除!
原视频地址:https://www.bilibili.com/video/BV1pb411c7QG



