机器学习:Python实现多项式线性回归

机器学习:Python实现多项式线性回归在统计学中,多项式回归是回归分析的一种形式,其中独立变量x和因变量y之间的关系被建模为x中的n次多项式。

大家好,欢迎来到IT知识分享网。

在统计学中,多项式回归是回归分析的一种形式,其中独立变量x和因变量y之间的关系被建模为x中的n次多项式。多项式回归拟合x值与y的相应条件均值之间的非线性关系,被表示为E(y |x),并已被用于描述诸如组织生长速率、湖泊沉积物中碳同位素分布的非线性现象。虽然多项式回归适合于数据的非线性模型,但作为一个统计估计问题,它是线性的,因为回归函数E(y | x)在从数据估计的未知参数中是线性的。因此,多项式回归被认为是多元线性回归的一个特例。

由“基线”变量的多项式展开得到的解释性(独立)变量称为高次项。这些变量也用于分类设置。

请注意PR与MLR(多元线性回归)非常相似,但同时考虑同一个X1变量而不是不同的变量,但用不同的幂;基本上我们用一个变量来表示同一个原始变量的不同幂。

PR由下式给出:

机器学习:Python实现多项式线性回归

当SL直线不适合我们的obervations并且我们想要获得抛物线效果时,我们使用PR:

机器学习:Python实现多项式线性回归

PR有自己独特的案例,当我们遇到问题时,我们可能先尝试SLR和MLR,看看会发生什么。有了PR,我们有时会获得更好的结果。例如,PR用于观察流行病如何在人口中传播,以及类似的用例,因此它是我们想要预测的问题,当然,在我们的库中拥有更多工具总是好的。但此时您可能会问自己为什么PR仍被视为线性模型?这里的诀窍是,当我们谈论线性和非线性模型时,我们并没有考虑变量,而是考虑系数。所以问题是函数是否可以表示为这些系数的线性组合,最终未知是找到系数值的目标,这就是线性和非线性指系数的原因。所以PR是MLR的一个特例,而不是标准的新型回归

为了实现这个Python,我们首先要从sklearn.linearmodel创建一个LR模型并调用我们的Object lin_reg:

# Data Preprocessing

# Importing the Library

import numpy as np

import matplotlib.pyplot as plt

import pandas as pd

# Importing the dataset

dataset= pd.read_csv(‘Data.csv’)

X = dataset.iloc[: , 1:2].values

Y = dataset.iloc[: , 2].values

# Fitting Simple Linear Regression model to the data set

from sklearn.linear_model import LinearRegression

regressor = LinearRegression()

regressor.fit(X, y)

下一步是通过sklearn.preprocessing库中的一个名为POLYNOMIAL FEATURE的类来构建PR模型。在这个对象中,我们将调用poly_reg作为我们的转换工具,它将在一个新的多项式矩阵中转换我们的矩阵X,我们可以在其中指定我们想要运行机器学习模型的程度,Python代码如下:

# Data Preprocessing

# Importing the Library

import numpy as np

import matplotlib.pyplot as plt

import pandas as pd

# Importing the dataset

dataset= pd.read_csv(‘Data.csv’)

X = dataset.iloc[: , 1:2].values

Y = dataset.iloc[: , 2].values

# Fitting Simple Linear Regression model to the data set

from sklearn.linear_model import LinearRegression

regressor = LinearRegression()

regressor.fit(X, y)

# Fitting Polynomial Regression to the Dataset

poly_reg = PolunomialFeatures(degree = 2)

X_poly = poly_reg.fit_transform(X)

poly_reg.fit(X_poly, y)

lin_reg_2 = LinearRegression()

lin_reg_2.fit(X_poly, y)

下一步是通过SCATTER和PLOT功能可视化我们PR的结果,Python实现如下:

# Data Preprocessing

# Importing the Library

import numpy as np

import matplotlib.pyplot as plt

import pandas as pd

# Importing the dataset

dataset= pd.read_csv(‘Data.csv’)

X = dataset.iloc[: , 1:2].values

Y = dataset.iloc[: , 2].values

# Fitting Simple Linear Regression model to the data set

from sklearn.linear_model import LinearRegression

regressor = LinearRegression()

regressor.fit(X, y)

# Fitting Polynomial Regression to the Dataset

poly_reg = PolynomialFeatures(degree = 2)

X_poly = poly_reg.fit_transform(X)

poly_reg.fit(X_poly, y)

lin_reg_2 = LinearRegression()

lin_reg_2.fit(X_poly, y)

# Visualising the Linear Regression results

plt.scatter(X, y, color = ‘red’)

plt.plot(X, lin_reg.predict(X), color = ‘blue’)

plt.title(‘Truth or Bluff (Linear Regression)’)

plt.xlabel(‘Position level’)

plt.ylabel(‘Salary’)

plt.show()

# Visualising the Polynomial Regression results

plt.scatter(X, y, color = ‘red’)

plt.plot(X, lin_reg_2.predict(X), color = ‘blue’)

plt.title(‘Truth or Bluff (Linear Regression)’)

plt.xlabel(‘Position level’)

plt.ylabel(‘Salary’)

plt.show()

注意:我们可以通过RRANGE函数创建一个新的X_grid来获得更高的分辨率,我们在其中指定下限和上限

# Data Preprocessing

# Importing the Library

import numpy as np

import matplotlib.pyplot as plt

import pandas as pd

# Importing the dataset

dataset= pd.read_csv(‘Data.csv’)

X = dataset.iloc[: , 1:2].values

Y = dataset.iloc[: , 2].values

# Fitting Simple Linear Regression model to the data set

from sklearn.linear_model import LinearRegression

regressor = LinearRegression()

regressor.fit(X, y)

# Fitting Polynomial Regression to the Dataset

poly_reg = PolynomialFeatures(degree = 2)

X_poly = poly_reg.fit_transform(X)

poly_reg.fit(X_poly, y)

lin_reg_2 = LinearRegression()

lin_reg_2.fit(X_poly, y)

# Visualising the Linear Regression results

plt.scatter(X, y, color = ‘red’)

plt.plot(X, lin_reg.predict(X), color = ‘blue’)

plt.title(‘Truth or Bluff (Linear Regression)’)

plt.xlabel(‘Position level’)

plt.ylabel(‘Salary’)

plt.show()

# Visualising the Polynomial Regression results

X_grid = np.arrange(min(X), max(X), 0.1)

X_grid = X_grid.reshape()

plt.scatter(X, y, color = ‘red’)

plt.plot(X, lin_reg_2.predict(X), color = ‘blue’)

plt.title(‘Truth or Bluff (Linear Regression)’)

plt.xlabel(‘Position level’)

plt.ylabel(‘Salary’)

plt.show()

# Predicting a new result with Linear Regression

lin_reg.predict(6.5)

# Predicting a new result with Polynomial Regression

lin_reg_2.predict(poly_reg.fit_transform(6.5)

最后一步是通过PREDICT函数预测我们的LR和PR的结果。

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://yundeesoft.com/60114.html

(0)
上一篇 2024-05-10 07:45
下一篇 2024-05-12 18:00

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注微信