百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术分类 > 正文

神经网络与传统统计方法的简单对比

ztj100 2025-08-07 00:06 5 浏览 0 评论

传统的统计方法如OLS假设变量之间符合简单的线性关系或者高阶线性关系进行拟合(或函数逼近),然而,并不是所有关系都是简单的线性关系或者高阶线性关系,这时就需要借助神经网络 (neural network,NN)等方法来进行建模。神经网络可以在不需要知道函数关系具体形式的条件下近似各种函数关系。

预测模型

1. scikit-learn

下例使用scikit-learn 库中的 MLPRegressor 类,该类可用 DNN 进行回归估计。DNN 有时也被称为多层感知器(multi-layer perceptron,MLP)。从最终的MSE来看,结果并不完美,但是对一个配置简单的模型来说,效果已经非常不错了。

from sklearn.neural_network import MLPRegressor

# 生成样本数据
def f(x):
    return 2 * x ** 2 - x ** 3 / 3
x = np.linspace(-2, 4, 25)
y = f(x)

# 实例化 MLPRegressor 对象
model = MLPRegressor(hidden_layer_sizes=3 * [256], learning_rate_init=0.03, max_iter=5000)
# 拟合或学习步骤。
model.fit(x.reshape(-1, 1), y)
# 预测步骤
y_ = model.predict(x.reshape(-1, 1))
MSE = ((y - y_) ** 2).mean()
MSE
# Out:
# 0.003216321978018745

样本和预测结果图

plt.figure(figsize=(10, 6))
plt.plot(x, y, 'ro', label='sample data')
plt.plot(x, y_, lw=3.0, label='dnn estimation')
plt.legend();


2. Keras

下一个示例使用了 Keras 深度学习软件包中的序列模型 Sequential,对该模型每轮进行100次迭代训练,重复5轮。每轮训练之后,我们将更新并绘制由神经网络预测的近似值。如图显示,随着每一轮训练的近似值的准确率逐渐提高,MSE值逐渐降低。与之前的模型相似,最终结果并不完美,但是鉴于模型的简单性,它还是不错的。

import tensorflow as tf
tf.random.set_seed(100)

from keras.layers import Dense
from keras.models import Sequential

# 实例化 Sequential 模型对象
model = Sequential()
# 添加采用整流线性单元(ReLU)激活函数的全连接层作为隐藏层
model.add(Dense(256, activation='relu', input_dim=1))
# 添加线性激活的输出层
model.add(Dense(1, activation='linear'))
# 编译模型对象
model.compile(loss='mse', optimizer='rmsprop')

# 原始样本数据图
plt.figure(figsize=(10, 6))
plt.plot(x, y, 'ro', label='sample data')

# 迭代训练指定次数
for _ in range(1, 6):
    # 训练神经网络
    model.fit(x, y, epochs=100, verbose=False)
    # 预测近似值
    y_ = model.predict(x)
    # 计算当前的 MSE
    MSE = ((y - y_.flatten()) ** 2).mean()
    print(f'round={_} | MSE={MSE:.5f}')
    # 绘制当前的近似结果
    plt.plot(x, y_, '--', label=f'round={_}')
plt.legend();
# Out:
# round=1 | MSE=3.87256
# round=2 | MSE=0.92527
# round=3 | MSE=0.28527
# round=4 | MSE=0.13191
# round=5 | MSE=0.09568


从以上两个示例来看,相比OLS回归完美的复刻原有方程的系数,神经网络只能提供一个近似的预测,那么为什么还要使用神经网络呢?假设我们的数据不是通过预定义好的数学函数生成的,而是随机产生的特征和标签呢?下面我们再看一个例子,当然该示例仅用于说明,不具有实际意义。

# 随机生成测试数据
np.random.seed(0)
x = np.linspace(-1, 1)
y = np.random.random(len(x)) * 2 - 1
# 用不同的多次项OLS回归进行拟合
plt.figure(figsize=(10, 6))
plt.plot(x, y, 'ro', label='sample data')
for deg in [1, 5, 9, 11, 13, 15]:
    reg = np.polyfit(x, y, deg=deg)
    y_ = np.polyval(reg, x)
    MSE = ((y - y_) ** 2).mean()
    print(f'deg={deg:2d} | MSE={MSE:.5f}')
    plt.plot(x, np.polyval(reg, x), label=f'deg={deg}')
plt.legend();
# Out:
# deg= 1 | MSE=0.28153
# deg= 5 | MSE=0.27331
# deg= 9 | MSE=0.25442
# deg=11 | MSE=0.23458
# deg=13 | MSE=0.22989
# deg=15 | MSE=0.21672


明显可见,OLS 回归的效果并不理想。OLS回归假设我们可以通过有限个(基于多项式的)基函数的组合来逼近目标函数,由于样本数据集是随机生成的,因此在这种情况下,OLS 回归效果不佳。下面我们用神经网络来试下。

model = Sequential()
model.add(Dense(256, activation='relu', input_dim=1))
# 此处添加3个隐藏层
for _ in range(3):
    model.add(Dense(256, activation='relu'))
model.add(Dense(1, activation='linear'))
model.compile(loss='mse', optimizer='rmsprop')
# 显示神经网络架构以及可训练参数的数量
model.summary()
# Out:
# Model: "sequential_1"
# _________________________________________________________________
#  Layer (type)                Output Shape              Param #   
# =================================================================
#  dense_2 (Dense)             (None, 256)               512       
#                                                                  
#  dense_3 (Dense)             (None, 256)               65792     
#                                                                  
#  dense_4 (Dense)             (None, 256)               65792     
#                                                                  
#  dense_5 (Dense)             (None, 256)               65792     
#                                                                  
#  dense_6 (Dense)             (None, 1)                 257       
#                                                                  
# =================================================================
# Total params: 198,145
# Trainable params: 198,145
# Non-trainable params: 0
# _________________________________________________________________
%%time
plt.figure(figsize=(10, 6))
plt.plot(x, y, 'ro', label='sample data')
for _ in range(1, 8):
    model.fit(x, y, epochs=500, verbose=False)
    y_ =  model.predict(x)
    MSE = ((y - y_.flatten()) ** 2).mean()
    print(f'round={_} | MSE={MSE:.5f}')
    plt.plot(x, y_, '--', label=f'round={_}')
plt.legend();
# Out:
# round=1 | MSE=0.13428
# round=2 | MSE=0.08515
# round=3 | MSE=0.05811
# round=4 | MSE=0.04389
# round=5 | MSE=0.03376
# round=6 | MSE=0.00722
# round=7 | MSE=0.00644
# CPU times: user 22.8 s, sys: 3.97 s, total: 26.8 s
# Wall time: 12.1 s



尽管预测结果并不完美,但预测结果明显好于OLS。神经网络架构有近200000个可训练的参数(权重),与OLS 回归(最多使用15+1个参数)相比,这提供了相对较高的灵活性。

分类任务

神经网络也可以很容易地用于分类任务。考虑以下基于 Keras 实现神经网络分类,二元特征数据和二元标签数据是随机生成的。建模方面的主要调整是将输出层的激活函数从linear更改为sigmoid。虽然分类效果并不完美,但是也达到了很高的准确率。

# 创建随机特征数据和标签数据
f = 5
n = 10
np.random.seed(124812)
x = np.random.randint(0, 2, (n, f))
y = np.random.randint(0, 2, n)
model = Sequential()
model.add(Dense(256, activation='relu', input_dim=f))
# 输出层的激活函数为 sigmoid
model.add(Dense(1, activation='sigmoid'))
# 损失函数为 binary_crossentropy
model.compile(loss='binary_crossentropy', optimizer='rmsprop', metrics=['acc'])
model.fit(x, y, epochs=50, verbose=False)
y_ = np.where(model.predict(x).flatten() > 0.5, 1, 0)
# 预测值与标签数据的比较结果
y == y_
# Out:
# array([ True,  True,  True,  True,  True,  True,  True, False,  True, True])
# 绘制每轮训练的损失函数和准确率值
res = pd.DataFrame(model.history.history)
res.plot(figsize=(10, 6));


由以上示例说明,对比传统统计方法,神经网络的一些基本特征:

  1. 问题无关性

在给定一组特征值的情况下,神经网络方法的性能与需要预测或者分类的具体标签值是无关的。而统计方法(比如OLS 回归)可能对较小的一组问题表现良好,对其他问题则表现不太好或根本没有效果。

2. 增量学习

给定一个用来度量成功的目标,神经网络中的最佳权重是基于随机初始化和增量改进而逐步学习得到的。这些增量改进是在考虑预测值和样本标签值之间的差异后,通过神经网络反向传播权重更新来实现的。

3. 通用函数逼近器

有严格的数学定理表明神经网络(即使只有一个隐藏层)几乎可以逼近任何函数。

相关推荐

其实TensorFlow真的很水无非就这30篇熬夜练

好的!以下是TensorFlow需要掌握的核心内容,用列表形式呈现,简洁清晰(含表情符号,<300字):1.基础概念与环境TensorFlow架构(计算图、会话->EagerE...

交叉验证和超参数调整:如何优化你的机器学习模型

准确预测Fitbit的睡眠得分在本文的前两部分中,我获取了Fitbit的睡眠数据并对其进行预处理,将这些数据分为训练集、验证集和测试集,除此之外,我还训练了三种不同的机器学习模型并比较了它们的性能。在...

机器学习交叉验证全指南:原理、类型与实战技巧

机器学习模型常常需要大量数据,但它们如何与实时新数据协同工作也同样关键。交叉验证是一种通过将数据集分成若干部分、在部分数据上训练模型、在其余数据上测试模型的方法,用来检验模型的表现。这有助于发现过拟合...

深度学习中的类别激活热图可视化

作者:ValentinaAlto编译:ronghuaiyang导读使用Keras实现图像分类中的激活热图的可视化,帮助更有针对性...

超强,必会的机器学习评估指标

大侠幸会,在下全网同名[算法金]0基础转AI上岸,多个算法赛Top[日更万日,让更多人享受智能乐趣]构建机器学习模型的关键步骤是检查其性能,这是通过使用验证指标来完成的。选择正确的验证指...

机器学习入门教程-第六课:监督学习与非监督学习

1.回顾与引入上节课我们谈到了机器学习的一些实战技巧,比如如何处理数据、选择模型以及调整参数。今天,我们将更深入地探讨机器学习的两大类:监督学习和非监督学习。2.监督学习监督学习就像是有老师的教学...

Python教程(三十八):机器学习基础

...

Python 模型部署不用愁!容器化实战,5 分钟搞定环境配置

你是不是也遇到过这种糟心事:花了好几天训练出的Python模型,在自己电脑上跑得顺顺当当,一放到服务器就各种报错。要么是Python版本不对,要么是依赖库冲突,折腾半天还是用不了。别再喊“我...

超全面讲透一个算法模型,高斯核!!

...

神经网络与传统统计方法的简单对比

传统的统计方法如...

AI 基础知识从0.1到0.2——用“房价预测”入门机器学习全流程

...

自回归滞后模型进行多变量时间序列预测

下图显示了关于不同类型葡萄酒销量的月度多元时间序列。每种葡萄酒类型都是时间序列中的一个变量。假设要预测其中一个变量。比如,sparklingwine。如何建立一个模型来进行预测呢?一种常见的方...

苹果AI策略:慢哲学——科技行业的“长期主义”试金石

苹果AI策略的深度原创分析,结合技术伦理、商业逻辑与行业博弈,揭示其“慢哲学”背后的战略智慧:一、反常之举:AI狂潮中的“逆行者”当科技巨头深陷AI军备竞赛,苹果的克制显得格格不入:功能延期:App...

时间序列预测全攻略,6大模型代码实操

如果你对数据分析感兴趣,希望学习更多的方法论,希望听听经验分享,欢迎移步宝藏公众号...

AI 基础知识从 0.4 到 0.5—— 计算机视觉之光 CNN

...

取消回复欢迎 发表评论: