线性回归的神经网络法——机器学习
创始人
2024-04-12 03:22:08
0

一、算法思想


        线性回归方程在神经网络深度学习中线性回归方程是需要掌握的最基础的式子,就是:y=wx+b,其中w,b是未知的。

        神经网络就是可以通过收集大量的数据集,然后将这些数据集进行训练后得到几个较为准确的参数,训练数据集后会得到两个参数,当损失率越小,那么测试集得到的数据就越准确。

 

二、算法原理


        在常规的神经网络中,神经网络结构中有多个层,非线性激活函数和每个节点上面的偏差单元。使用一个有一个或者多个权重w的层,在简单线性回归中,权重w和偏差单元一般都写成一个参数向量β其中偏差单元是y轴上面的截距,w是回归线的斜率。

 

三、算法分析


 

(1)数据处理:即得到y和x,不过在这里称为标签和特征,之后当用更加复杂的数据以及模型的时候,则需要对其进行一些预处理来的到更好的结果

(2)构建模型:在这里的模型就是线性回归函数y = k*x+b

​(3)训练模型:在这个过程中,会不断调整k和b的值来贴近真实值,具体怎么操作在之后会详细说明

​(4)预测:很明显,就是通过新的x值来预测以后的y值

四、源程序代码


import numpy as np
import matplotlib.pyplot as plt# 样本数据
x = [1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20]
y = [3, 4, 5, 5, 2, 4, 7, 8, 11, 8, 10, 11, 13, 13, 16, 17, 16, 17, 18, 20]
m = 20  # 样本数量
alpha = 0.01  # 学习率
θ_0 = 1  # 初始化θ_0的值
θ_1 = 1  # 初始化θ_1的值# 预测目标变量y的值
def predict(θ_0, θ_1, x):y_predicted = θ_0 + θ_1 * xreturn y_predicted# 遍历整个样本数据,计算偏差,使用批量梯度下降法
def loop(m, θ_0, θ_1, x, y):sum1 = 0sum2 = 0error = 0for i in range(m):a = predict(θ_0, θ_1, x[i]) - y[i]b = (predict(θ_0, θ_1, x[i]) - y[i]) * x[i]error1 = a * asum1 = sum1 + asum2 = sum2 + berror = error + error1return sum1, sum2, error# 批量梯度下降法进行更新θ的值
def batch_gradient_descent(x, y, θ_0, θ_1, alpha, m):gradient_1 = (loop(m, θ_0, θ_1, x, y)[1] / m)while abs(gradient_1) > 0.001:  # 设定一个阀值,当梯度的绝对值小于0.001时即不再更新了gradient_0 = (loop(m, θ_0, θ_1, x, y)[0] / m)gradient_1 = (loop(m, θ_0, θ_1, x, y)[1] / m)error = (loop(m, θ_0, θ_1, x, y)[2] / m)θ_0 = θ_0 - alpha * gradient_0θ_1 = θ_1 - alpha * gradient_1return (θ_0, θ_1, error)θ_0 = batch_gradient_descent(x, y, θ_0, θ_1, alpha, m)[0]
θ_1 = batch_gradient_descent(x, y, θ_0, θ_1, alpha, m)[1]
error = batch_gradient_descent(x, y, θ_0, θ_1, alpha, m)[2]
print("The θ_0 is %f, The θ_1 is %f, The The Mean Squared Error is %f " % (θ_0, θ_1, error))plt.figure(figsize=(6, 4))  # 新建一个画布
plt.scatter(x, y, label='y')  # 绘制样本散点图
plt.xlim(0, 21)  # x轴范围
plt.ylim(0, 22)  # y轴范围
plt.xlabel('x', fontsize=20)  # x轴标签
plt.ylabel('y', fontsize=20)  # y轴标签x = np.array(x)
y_predict = np.array(θ_0 + θ_1 * x)
plt.plot(x, y_predict, color='red')  # 绘制拟合的函数图
plt.show()

五、运行结果及分析

六、实验总结


 

线性回归的神经网络法我理解的就是对方程: 根据现有的数据来求解该方程中的w和b。

但由于实际问题中的数据x和y并不是都能被这个方程所描述,就像二维的散点图中,不能用一条直线来穿过所有的点,所以目标是要让这条直线能够穿过尽可能多的点,不在该直线上的点也能让它尽可能的离这条直线近。

即要找到合适的w和b使得计算出来的y'与真实的y误差最小化。给定训练数据特征X和对应的已知标签y,线性回归的目标是找到一组权重向量w和偏置b:

当给定从X的同分布中取样的新样本特征时, 这组权重向量和偏置能够使得新样本预测标签的误差尽可能小。

相关内容

热门资讯

喜欢穿一身黑的男生性格(喜欢穿... 今天百科达人给各位分享喜欢穿一身黑的男生性格的知识,其中也会对喜欢穿一身黑衣服的男人人好相处吗进行解...
发春是什么意思(思春和发春是什... 本篇文章极速百科给大家谈谈发春是什么意思,以及思春和发春是什么意思对应的知识点,希望对各位有所帮助,...
网络用语zl是什么意思(zl是... 今天给各位分享网络用语zl是什么意思的知识,其中也会对zl是啥意思是什么网络用语进行解释,如果能碰巧...
为什么酷狗音乐自己唱的歌不能下... 本篇文章极速百科小编给大家谈谈为什么酷狗音乐自己唱的歌不能下载到本地?,以及为什么酷狗下载的歌曲不是...
家里可以做假山养金鱼吗(假山能... 今天百科达人给各位分享家里可以做假山养金鱼吗的知识,其中也会对假山能放鱼缸里吗进行解释,如果能碰巧解...
华为下载未安装的文件去哪找(华... 今天百科达人给各位分享华为下载未安装的文件去哪找的知识,其中也会对华为下载未安装的文件去哪找到进行解...
四分五裂是什么生肖什么动物(四... 本篇文章极速百科小编给大家谈谈四分五裂是什么生肖什么动物,以及四分五裂打一生肖是什么对应的知识点,希...
怎么往应用助手里添加应用(应用... 今天百科达人给各位分享怎么往应用助手里添加应用的知识,其中也会对应用助手怎么添加微信进行解释,如果能...
客厅放八骏马摆件可以吗(家里摆... 今天给各位分享客厅放八骏马摆件可以吗的知识,其中也会对家里摆八骏马摆件好吗进行解释,如果能碰巧解决你...
苏州离哪个飞机场近(苏州离哪个... 本篇文章极速百科小编给大家谈谈苏州离哪个飞机场近,以及苏州离哪个飞机场近点对应的知识点,希望对各位有...