Python知識(shí)分享網(wǎng) - 專業(yè)的Python學(xué)習(xí)網(wǎng)站 學(xué)Python,上Python222
Python和PyTorch深入實(shí)現(xiàn)線性回歸模型:一篇文章全面掌握基礎(chǔ)機(jī)器學(xué)習(xí)技術(shù)
發(fā)布于:2023-07-30 11:34:16

 

1. 簡(jiǎn)介

 

1.1 線性回歸模型概述

Python和PyTorch深入實(shí)現(xiàn)線性回歸模型:一篇文章全面掌握基礎(chǔ)機(jī)器學(xué)習(xí)技術(shù) 圖1

線性回歸是一種統(tǒng)計(jì)學(xué)中的預(yù)測(cè)分析,該方法用于建立兩種或兩種以上變量間的關(guān)系模型。線性回歸使用最佳的擬合直線(也稱為回歸線)在獨(dú)立(輸入)變量和因變量(輸出)之間建立一種直觀的關(guān)系。簡(jiǎn)單線性回歸是輸入變量和輸出變量之間的線性關(guān)系,而多元線性回歸是多個(gè)輸入變量和輸出變量之間的線性關(guān)系。

 

1.2 Python和PyTorch簡(jiǎn)介

Python和PyTorch深入實(shí)現(xiàn)線性回歸模型:一篇文章全面掌握基礎(chǔ)機(jī)器學(xué)習(xí)技術(shù) 圖2

Python 是一種強(qiáng)大的編程語言,特別適合處理和分析大數(shù)據(jù),廣泛應(yīng)用于各種科學(xué)計(jì)算中。Python有很多庫可以方便地實(shí)現(xiàn)各種高級(jí)功能,例如:NumPy, Pandas, Matplotlib等。

PyTorch 是一個(gè)開源的 Python 機(jī)器學(xué)習(xí)庫,基于 Torch。它主要由 Facebook 的 AI 研究團(tuán)隊(duì)開發(fā),用于實(shí)現(xiàn)深度學(xué)習(xí)算法。PyTorch 以張量為基本數(shù)據(jù)結(jié)構(gòu),可以在GPU或CPU上進(jìn)行計(jì)算。具有動(dòng)態(tài)定義計(jì)算圖的特性,使得 PyTorch 在編寫和調(diào)試模型方面更具優(yōu)勢(shì)。

在接下來的部分,我們將使用Python和PyTorch庫實(shí)現(xiàn)線性回歸模型。

 

2. 工具和庫的準(zhǔn)備

在開始實(shí)現(xiàn)線性回歸模型之前,我們需要準(zhǔn)備好相關(guān)的工具和庫。我們將使用Python作為編程語言,而PyTorch將作為主要的深度學(xué)習(xí)庫。

 

2.1 Python環(huán)境配置

首先,我們需要安裝Python。如果你的計(jì)算機(jī)上還沒有安裝Python,可以從Python的官方網(wǎng)站下載:https://www.python.org/downloads/
安裝完成后,可以通過在命令行中運(yùn)行以下命令來驗(yàn)證Python是否安裝成功:

 

python --version

 

你應(yīng)該能看到Python的版本號(hào)。如果Python已成功安裝,我們可以開始安裝必要的Python庫。這些庫包括:NumPy,Pandas,Matplotlib 和 PyTorch。

 

2.2 PyTorch安裝與使用簡(jiǎn)介

接下來,我們需要安裝PyTorch庫。PyTorch的安裝過程取決于你的操作系統(tǒng)和你是否已經(jīng)安裝了CUDA(如果你打算在GPU上運(yùn)行PyTorch,那么你需要CUDA)。你可以在PyTorch官方網(wǎng)站上找到詳細(xì)的安裝指南:https://pytorch.org/get-started/locally/

在命令行中運(yùn)行以下命令,根據(jù)你的環(huán)境選擇合適的命令:

 

# For CPU only
pip install torch==1.9.0+cpu torchvision==0.10.0+cpu torchaudio===0.9.0 -f https://download.pytorch.org/whl/torch_stable.html

# For CUDA 10.2
pip install torch==1.9.0+cu102 torchvision==0.10.0+cu102 torchaudio===0.9.0 -f https://download.pytorch.org/whl/torch_stable.html

 

安裝完成后,我們可以通過運(yùn)行以下Python代碼來驗(yàn)證PyTorch是否已成功安裝:

 

import torch
print(torch.__version__)

 

3. 數(shù)據(jù)準(zhǔn)備

 

3.1 數(shù)據(jù)集概述

在這個(gè)示例中,我們將使用一個(gè)虛構(gòu)的數(shù)據(jù)集,該數(shù)據(jù)集包含房屋面積和價(jià)格的信息。我們的目標(biāo)是通過面積來預(yù)測(cè)房價(jià),這是一個(gè)典型的線性回歸問題。

假設(shè)我們有以下數(shù)據(jù):

Python和PyTorch深入實(shí)現(xiàn)線性回歸模型:一篇文章全面掌握基礎(chǔ)機(jī)器學(xué)習(xí)技術(shù) 圖3

 

3.2 數(shù)據(jù)加載和預(yù)處理

接下來,我們需要加載數(shù)據(jù)并進(jìn)行預(yù)處理。這通常包括缺失值的處理,數(shù)據(jù)規(guī)范化等步驟。在這個(gè)示例中,我們假設(shè)所有數(shù)據(jù)都是完整的,不需要進(jìn)行缺失值處理。但是,為了使梯度下降算法能更快地收斂,我們需要對(duì)數(shù)據(jù)進(jìn)行規(guī)范化處理。

 

import numpy as np

# 房屋面積
areas = np.array([50, 60, 70, ..., 120, 130, 140], dtype=float)

# 房價(jià)
prices = np.array([300, 360, 420, ..., 720, 780, 840], dtype=float)

# 數(shù)據(jù)規(guī)范化
areas = (areas - np.mean(areas)) / np.std(areas)
prices = (prices - np.mean(prices)) / np.std(prices)

 

上面的代碼首先定義了房屋面積和價(jià)格的數(shù)組,然后對(duì)這兩個(gè)數(shù)組進(jìn)行了規(guī)范化處理,即使得這兩個(gè)數(shù)組的值在0附近波動(dòng),標(biāo)準(zhǔn)差為1。這樣處理的好處是可以加速梯度下降的收斂。

 

4. 線性回歸理論基礎(chǔ)

在這一部分,我們將介紹線性回歸的基本理論知識(shí),包括線性回歸的數(shù)學(xué)模型和梯度下降法。

 

4.1 線性回歸模型公式

線性回歸模型的基本公式如下:

 

y = wx + b

 

其中,y是我們要預(yù)測(cè)的目標(biāo)變量,x是我們的特征變量,w和b是我們的模型參數(shù),分別代表權(quán)重和偏置。

 

4.2 損失函數(shù)和梯度下降

為了訓(xùn)練我們的模型,我們需要一個(gè)方法來度量我們的模型的預(yù)測(cè)值和實(shí)際值之間的差距。這就是損失函數(shù)(也叫成本函數(shù))。對(duì)于線性回歸模型,我們通常使用均方誤差(MSE)作為損失函數(shù):

 

L = 1/N * ∑(y_pred - y_actual)^2

 

其中,y_pred是模型的預(yù)測(cè)值,y_actual是實(shí)際值,N是樣本的數(shù)量。

我們的目標(biāo)是通過調(diào)整模型的參數(shù)w和b來最小化損失函數(shù)。這個(gè)過程被稱為優(yōu)化。梯度下降是一種常見的優(yōu)化方法,工作原理是計(jì)算損失函數(shù)關(guān)于參數(shù)的梯度(導(dǎo)數(shù)),然后按照梯度的反方向調(diào)整參數(shù),以便在損失函數(shù)上下降。

 

5. 使用PyTorch實(shí)現(xiàn)線性回歸模型

有了前面的理論基礎(chǔ),我們現(xiàn)在可以開始使用PyTorch來實(shí)現(xiàn)我們的線性回歸模型。

 

5.1 定義模型

首先,我們需要定義我們的模型。在PyTorch中,我們可以通過繼承torch.nn.Module類來定義我們的模型,并實(shí)現(xiàn)forward方法來定義前向傳播。

 

import torch
import torch.nn as nn

class LinearRegressionModel(nn.Module):
    def __init__(self):
        super(LinearRegressionModel, self).__init__()
        self.linear = nn.Linear(1, 1)  # 輸入和輸出的維度都是1

    def forward(self, x):
        out = self.linear(x)
        return out

 

5.2 實(shí)例化模型類

然后,我們可以創(chuàng)建一個(gè)模型的實(shí)例。

 

model = LinearRegressionModel()

 

5.3 設(shè)置損失函數(shù)和優(yōu)化器

接下來,我們定義我們的損失函數(shù)和優(yōu)化器。我們使用均方誤差作為損失函數(shù),使用隨機(jī)梯度下降作為優(yōu)化器。

 

criterion = nn.MSELoss()
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)

 

5.4 訓(xùn)練模型

最后,我們可以開始訓(xùn)練我們的模型。

 

# 轉(zhuǎn)換為 PyTorch 張量
inputs = torch.from_numpy(areas)
targets = torch.from_numpy(prices)

# 轉(zhuǎn)換為二維張量
inputs = inputs.view(-1,1)
targets = targets.view(-1,1)

# 進(jìn)行 60 輪訓(xùn)練
for epoch in range(60):
    # 前向傳播
    outputs = model(inputs)
    loss = criterion(outputs, targets)
    
    # 反向傳播和優(yōu)化
    optimizer.zero_grad()
    loss.backward()
    optimizer.step()
    
    if (epoch+1) % 5 == 0:
        print ('Epoch [{}/{}], Loss: {:.4f}'.format(epoch+1, 60, loss.item()))

 

上述代碼將完成線性回歸模型的訓(xùn)練過程,訓(xùn)練結(jié)果將在控制臺(tái)輸出。

 

6. 模型評(píng)估與預(yù)測(cè)

訓(xùn)練完成后,我們需要評(píng)估模型的性能,并使用模型進(jìn)行預(yù)測(cè)。

 

6.1 模型評(píng)估

首先,我們可以計(jì)算模型在所有訓(xùn)練數(shù)據(jù)上的平均損失。

 

model.eval()  # 將模型設(shè)置為評(píng)估模式
with torch.no_grad():  # 不需要計(jì)算梯度
    predictions = model(inputs)
    loss = criterion(predictions, targets)
print('Final Loss:', loss.item())

 

在這里,model.eval()是將模型設(shè)置為評(píng)估模式,這樣在計(jì)算梯度時(shí),不會(huì)考慮到dropout和batch normalization等操作。torch.no_grad()是告訴PyTorch我們不需要計(jì)算梯度,因?yàn)槲覀儾恍枰M(jìn)行模型優(yōu)化。

 

6.2 模型預(yù)測(cè)

下面我們來使用訓(xùn)練好的模型進(jìn)行預(yù)測(cè)。

 

# 預(yù)測(cè)一個(gè) 100 平方米的房子的價(jià)格
area = torch.tensor([100.0])
area = (area - torch.mean(inputs)) / torch.std(inputs)  # 需要進(jìn)行同樣的數(shù)據(jù)規(guī)范化
price = model(area)
print('Predicted price:', price.item())

 

上述代碼使用訓(xùn)練好的模型預(yù)測(cè)了一個(gè)100平方米房子的價(jià)格。需要注意的是,我們?cè)陬A(yù)測(cè)新數(shù)據(jù)時(shí),需要對(duì)新數(shù)據(jù)進(jìn)行與訓(xùn)練數(shù)據(jù)相同的預(yù)處理操作。

到此為止,我們已經(jīng)完成了線性回歸模型的全部內(nèi)容,包括理論知識(shí)的學(xué)習(xí),使用PyTorch進(jìn)行模型實(shí)現(xiàn)和訓(xùn)練,以及模型的評(píng)估和預(yù)測(cè)。

 

7. 總結(jié)

我們已經(jīng)完成了一次完整的線性回歸模型的構(gòu)建、訓(xùn)練和預(yù)測(cè)過程。在這個(gè)過程中,我們學(xué)習(xí)了線性回歸模型的基本理論知識(shí),如何使用PyTorch實(shí)現(xiàn)線性回歸模型,以及如何評(píng)估和使用訓(xùn)練好的模型。

 

7.1 關(guān)鍵點(diǎn)總結(jié)

在本文中,我們主要做了以下幾點(diǎn)內(nèi)容:

1、介紹了線性回歸模型的基本概念和數(shù)學(xué)原理。

2、使用Python和PyTorch實(shí)現(xiàn)了線性回歸模型的訓(xùn)練和預(yù)測(cè)過程。

3、展示了如何評(píng)估模型的性能。

通過這次的學(xué)習(xí),希望你對(duì)線性回歸模型有了更深的理解,并能在實(shí)際問題中靈活運(yùn)用。

 

7.2 展望

雖然線性回歸模型是最基本的機(jī)器學(xué)習(xí)模型,但是其思想和方法在許多復(fù)雜的模型中都有所體現(xiàn)。例如,神經(jīng)網(wǎng)絡(luò)就可以看作是對(duì)線性回歸模型的擴(kuò)展和深化。因此,理解和掌握線性回歸模型對(duì)于學(xué)習(xí)更復(fù)雜的機(jī)器學(xué)習(xí)模型非常重要。

 

 

 

轉(zhuǎn)載自:https://www.cnblogs.com/xfuture/p/17587795.html