简单介绍SVM:从分类平面,到求两类之间的最大间隔,到转化为max 1/w^2 即min w^2,带限制条件的优化问题,然后就是找到优化问题的解决办法,首先是用拉格朗日乘子把约束优化转化为无约束优化,对各个变量求导令其为0,并且增加KKT条件,对α(y(wx+b))=0 以及α>=0,将得到的式子带入拉格朗日式子中转化为对偶问题,最后利用SMO来解决这个对偶问题SVM推导:解释原问题和对偶问题,一般一个最优化问题对偶问题给出的是主问题的最优解的下界,当强对偶条件成立时,两者相等SVM和LR最大区别:损失函数不同。LR损失函数是对数损失,SVM损失是hinge损失,SVM只考虑分类面上的点,而LR考虑所有点,在SVM中,在支持向量之外添加减少任何点都对结果没有影响,而LR则是会对每一个点都会影响决策;SVM不能产生概率,LR可以产生概率,SVM不是改了模型,基于的假设不是关于概率的



