【机器学习】---逻辑回归从初识到应用
2018-01-27 00:05
239 查看
=========================================================
声明:由于不同平台阅读格式不一致(尤其源码部分),所以获取更多阅读体验!!
请关注本人博客园地址:http://www.cnblogs.com/LHWorldBlog/p/8319502.html
个人网站地址:http://www.lhworldblog.com/?p=125&preview=true
==========================================================
一、前述
逻辑回归是一种分类算法,对多元线性回归的结果做一定的缩放。是一种线性(x是一次的)有监督(有x,y)分类(要么是正列,要么是负例)算法。
二、具体
如果最后预测的结果大于0.5 是正例 小于0.5是负例
做分类的误差来源于两种情况:
假设Y是正列 1-p^
假如本来是1这个类别:预测出来的结果是0.6则预测对了预测的误差是1-0.6=0.4
假如本来是1这个类别:预测出来的结果是0.1 则误差1-0.1=0.9
假设是负例p^
假设预测出来的是0.1 则误差是0.1
假设预测出来的是0.6 则误差是0.6
三、代码
PS:1.6是正负例的交界。
声明:由于不同平台阅读格式不一致(尤其源码部分),所以获取更多阅读体验!!
请关注本人博客园地址:http://www.cnblogs.com/LHWorldBlog/p/8319502.html
个人网站地址:http://www.lhworldblog.com/?p=125&preview=true
==========================================================
一、前述
逻辑回归是一种分类算法,对多元线性回归的结果做一定的缩放。是一种线性(x是一次的)有监督(有x,y)分类(要么是正列,要么是负例)算法。
二、具体
如果最后预测的结果大于0.5 是正例 小于0.5是负例
做分类的误差来源于两种情况:
假设Y是正列 1-p^
假如本来是1这个类别:预测出来的结果是0.6则预测对了预测的误差是1-0.6=0.4
假如本来是1这个类别:预测出来的结果是0.1 则误差1-0.1=0.9
假设是负例p^
假设预测出来的是0.1 则误差是0.1
假设预测出来的是0.6 则误差是0.6
三、代码
#逻辑回归预测鸢尾花,根据花瓣的宽度 import numpy as np from sklearn import datasets from sklearn.linear_model import LogisticRegression import matplotlib.pyplot as plt iris = datasets.load_iris()# 鸢尾花数据集 print(list(iris.keys())) print(iris['DESCR'])#数据集的描述 print(iris['feature_names'])#数据集的特证名字 #150条数据 三种花 每种花50条数据 #根据花的花瓣,花萼,花蕊来分类 X = iris['data'][:, 3:] # 逗号左边第一行到所有行 ,逗号右边第3列开始到最后 总共4列 实际上就是最后一列 # print(X) print(iris['target']) y = (iris['target'] == 2).astype(np.int) print(y) #保留类别为2的花。 log_reg = LogisticRegression()#构建逻辑回归 log_reg.fit(X, y)#根据最后一个花瓣的宽度来预测 X_new = np.linspace(0, 3, 1000).reshape(-1, 1)#0-3之间切分1000次 print(X_new) y_proba = log_reg.predict_proba(X_new)#预测的概率 给一个0-1之间的一个概率值 y_hat = log_reg.predict(X_new)#预测的结果 print(y_proba) print(y_hat) plt.plot(X_new, y_proba[:, -1], 'g-', label='Iris-Virginica') plt.plot(X_new, y_proba[:, 0], 'b--', label='Not Iris-Virginica') plt.show() print(log_reg.predict([[1.7], [1.5]])) #PS 对应1.6的时候正列结果是鸢尾花 #小于1.6的时候是负例不是鸢尾花
PS:1.6是正负例的交界。
相关文章推荐
- 机器学习系列(3)_逻辑回归应用之Kaggle泰坦尼克之灾
- 机器学习系列(3)_逻辑回归应用之Kaggle泰坦尼克之灾
- 机器学习系列(3)_逻辑回归应用之Kaggle泰坦尼克之灾
- 机器学习(三):逻辑回归应用_手写数字识别_OneVsAll_Python
- 机器学习系列(3)_逻辑回归应用之Kaggle泰坦尼克之灾
- 机器学习系列(3)_逻辑回归应用之Kaggle泰坦尼克之灾
- 【机器学习】--线性回归从初识到应用
- 机器学习系列(3)_逻辑回归应用之Kaggle泰坦尼克之灾
- 机器学习系列(3)_逻辑回归应用之Kaggle泰坦尼克之灾
- 机器学习系列(3)_逻辑回归应用之Kaggle泰坦尼克之灾
- 机器学习笔记(4):多类逻辑回归-使用gluton
- 斯坦福机器学习-第三周(分类,逻辑回归,过度拟合及解决方法)
- 逻辑回归:使用SGD(Stochastic Gradient Descent)进行大规模机器学习
- 【机器学习】Logistic逻辑回归详解
- 机器学习逻辑回归模型总结——从原理到sklearn实践
- 【学习笔记】斯坦福大学公开课(机器学习) 之逻辑斯蒂回归
- Stanford机器学习---第三讲. 逻辑回归和过拟合问题的解决 logistic Regression & Regularization
- [小白式机器学习(一)] logistic regression(LR)对数几率回归 / 逻辑回归 公式推导
- 机器学习逻辑回归:原理推导
- 【机器学习入门】Andrew NG《Machine Learning》课程笔记之四:分类、逻辑回归和过拟合