线性回归之普通最小二乘
2018-11-29 19:27
204 查看
[code]from sklearn import linear_model reg=linear_model.LinearRegression() print(reg.fit([[0,0],[1,1],[2,2]],[0,1,2])) #LinearRegression(copy_X=True, fit_intercept=True, n_jobs=1, normalize=False) print(reg.coef_)#[0.5 0.5] #fit_intercept是用来计算截距,默认为true #normalize标准化,默认为true #copy_X复制x数据,默认为true #n_jobs计算性能,默认为1 #用该类实例化出的对象有两个属性:coef_:估计系数,intercept_:截距 #该类实例化出的对象有几种方法,fit(x,y,[权重]);get_params([deep])得到参数估计量,默认为true #predict(x)用来预测,score(x,y,sample_weight=none)用来返回确认系数R^2的预测。
[code]from sklearn.linear_model import LinearRegression import pandas as pd import numpy as np import matplotlib.pyplot as plt #reg=linear_model.LinearRegression() #print(reg.fit([[0,0],[1,1],[2,2]],[0,1,2])) #LinearRegression(copy_X=True, fit_intercept=True, n_jobs=1, normalize=False) #print(reg.coef_)#[0.5 0.5] #fit_intercept是用来计算截距,默认为true #normalize标准化,默认为true #copy_X复制x数据,默认为true #n_jobs计算性能,默认为1 #用该类实例化出的对象有两个属性:coef_:估计系数,intercept_:截距 #该类实例化出的对象有几种方法,fit(x,y,[权重]);get_params([deep])得到参数估计量,默认为true #predict(x)用来预测,score(x,y,sample_weight=none)用来返回确认系数R^2的预测。 data=pd.DataFrame({'a':[150,200,250,300,350,400,600], 'b':[5450,6850,8750,9650,10450,13450,16450]}) #print(data) data_train=np.array(data['a']).reshape(data['a'].shape[0],1) #print(data_train) data_test=data['b'] #print(data_test) reg=LinearRegression() reg.fit(data_train,data_test) c=reg.predict(268.5) print(c)#[8833.54255319] print(reg.coef_*268.5+reg.intercept_)#[8833.54255319] #print(reg.score(data_train,data_test)) plt.scatter(data['a'],data['b']) plt.plot(data['a'],data['b'],color='blue') plt.plot(data['a'],reg.predict(np.array(data['a']).reshape(data['a'].shape[0],1)),color='red') plt.show()
相关文章推荐
- 模式识别之线性回归---最小二乘和线性回归2
- 模式识别之线性回归---最小二乘和线性回归
- scikit-learn学习笔记:1.1 广义线性模型-普通的最小二乘(Ordinary Least Squares)
- 线性回归 最小二乘 梯度下降 随机梯度下降
- 【机器学习详解】线性回归、梯度下降、最小二乘的几何和概率解释
- 用最小二乘做为线性回归的代价函数的一些解释
- 线性回归方法之最小二乘法、梯度下降法概念区分
- 线性回归——最小二乘法_实例(二)
- 机器学习:scipy和sklearn中普通最小二乘法与多项式回归的使用对
- 逻辑回归、线性回归、最小二乘、极大似然、梯度下降
- 4000 Python 回归 普通最小二乘法(Ordinary Least Squares)
- 机器学习笔记_回归_4: 最小二乘的改进(1)
- 最小二乘(OLS)回归法及其在R中的…
- 线性回归——最小二乘法_实例(一)
- 161206 - Ordinary least square, ridge regression and weighted least square 最小二乘,岭回归,加权最小二乘
- 【目标跟踪: 相关滤波器 二】岭回归(正则化最小二乘分类器)
- 分别用普通线性回归、岭回归、Lasso回归对boston房价进行预测,比较效果
- 概率统计与机器学习:独立同分布,极大似然估计,线性最小二乘回归
- 《机器学习实战》学习笔记-[8]-回归-普通最小二乘OLS
- 最小二乘 岭回归 lasso回归