栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Python

task04 分类问题

Python 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

task04 分类问题

回归问题和分类问题的联系和区别、如何利用回归解决分类问题为什么分类问题的损失函数可以是交叉熵而不是均方误差线性判别分析和逻辑回归在估计参数方面有何异同二次判别分析 线性判别分析 朴素贝叶斯之间的联系和区别python numpy实现逻辑回归
1 都是对输入的数据进行预测。输出不同 分类输出的是离散值 回归是连续值
2 先看两者公式
最小均方误差 MSE Mean Squared Error Loss
L_{mse} frac{1}{2}(a - y)^2
交叉熵误差CEE Cross Entropy Error Loss
L_{cee} -(y*ln(a) (1-y)*ln(1-a))

看下这两个Loss function对w的导数 也就是SGD梯度下降时 w的梯度。
sigmoid sigma^{’}(z) 在输出接近 0 和 1 的时候是非常小的 故导致在使用最小均方差Loss时 模型参数w会学习的非常慢。而使用交叉熵Loss则没有这个问题。为了更快的学习速度 分类问题一般采用交叉熵损失函数。
3 线性回归的参数计算方法是最小二乘法 逻辑回归的参数计算方法是梯度下降
4 朴素贝叶斯 对线性回归分类的简化

在线性判别分析中 我们假设每种分类类别下的特征遵循同一个协方差矩阵 每两个特征之间是存在协方差的 因此在线性判别分析中各种特征是不是独立的。但是 朴素贝叶斯算法对线性判别分析作进一步的模型简化 它将线性判别分析中的协方差矩阵中的协方差全部变成0 只保留各自特征的方差 也就是朴素贝叶斯假设各个特征之间是不相关的。在之前所看到的偏差-方差理论中 我们知道模型的简化可以带来方差的减少但是增加偏差 因此朴素贝叶斯也不例外 它比线性判别分析模型的方差小 偏差大。

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/267107.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号