数据标准化与归一化Python实现方法
时间:2025-07-31 23:53:48 198浏览 收藏
各位小伙伴们,大家好呀!看看今天我又给各位带来了什么文章?本文标题是《数据标准化与归一化怎么用Python实现?》,很明显是关于文章的文章哈哈哈,其中内容主要会涉及到等等,如果能帮到你,觉得很不错的话,欢迎各位多多点评和分享!
在Python中使用Scikit-learn实现数据标准化和归一化,1. 标准化通过StandardScaler将数据转换为均值为0、标准差为1的分布,适用于对异常值不敏感、分布不确定或基于梯度下降的模型;2. 归一化通过MinMaxScaler将数据缩放到[0,1]区间,适用于需明确范围或无显著异常值的场景;3. 非数值型数据需先进行独热编码或标签编码后再缩放;4. 缺失值需先填充或删除,确保数据完整后再进行标准化或归一化,整体流程为处理缺失值→编码分类特征→特征缩放。
在Python中实现数据标准化和归一化,我们通常会用到Scikit-learn这个强大的库。它提供了非常方便的工具,比如StandardScaler
用于标准化,以及MinMaxScaler
用于归一化。这两种操作都是数据预处理的关键步骤,能帮助我们的机器学习模型更好地理解和学习数据。

解决方案
数据标准化和归一化本质上都是对特征进行缩放,让它们落入一个特定的范围或分布中。这对于许多机器学习算法来说至关重要,尤其是那些基于距离计算或梯度下降的算法。
数据标准化 (Standardization)
标准化(也称Z-score标准化)是将数据转换成均值为0、标准差为1的分布。它的公式是:x_scaled = (x - mean) / std_dev
。
在Python中,使用sklearn.preprocessing.StandardScaler
:

import numpy as np from sklearn.preprocessing import StandardScaler # 假设我们有一些数据,比如特征X data = np.array([[100], [150], [200], [120], [180]]) # 初始化StandardScaler scaler = StandardScaler() # 对数据进行拟合和转换 # fit_transform会先计算数据的均值和标准差,然后应用转换 scaled_data = scaler.fit_transform(data) print("原始数据:\n", data) print("标准化后的数据:\n", scaled_data) # 验证均值和标准差 print("标准化后数据的均值:", scaled_data.mean()) print("标准化后数据的标准差:", scaled_data.std())
你会发现,标准化后的数据,其均值非常接近0,标准差非常接近1。
数据归一化 (Normalization)
归一化(也称Min-Max归一化)是将数据缩放到一个固定的范围,最常见的是[0, 1]或[-1, 1]。它的公式是:x_scaled = (x - min) / (max - min)
。
在Python中,使用sklearn.preprocessing.MinMaxScaler
:

import numpy as np from sklearn.preprocessing import MinMaxScaler # 假设还是同样的数据 data = np.array([[100], [150], [200], [120], [180]]) # 初始化MinMaxScaler,默认范围是[0, 1] min_max_scaler = MinMaxScaler() # 对数据进行拟合和转换 normalized_data = min_max_scaler.fit_transform(data) print("原始数据:\n", data) print("归一化后的数据:\n", normalized_data) # 验证最小值和最大值 print("归一化后数据的最小值:", normalized_data.min()) print("归一化后数据的最大值:", normalized_data.max())
这里,归一化后的数据会被压缩到0到1之间。选择哪种方法,往往取决于你使用的具体算法以及数据的特性。
为什么数据需要标准化或归一化?
这个问题其实挺核心的。我个人在处理数据的时候,几乎每次都会考虑这一步。想象一下,如果你的数据集里,一个特征是“收入”(可能几万到几十万),另一个是“年龄”(几十岁),这两个特征的数值范围差异巨大。
很多机器学习算法,尤其是那些依赖于距离计算的(比如K近邻KNN、支持向量机SVM),或者通过梯度下降优化的(比如线性回归、逻辑回归、神经网络),会因为特征的量纲差异而表现不佳。收入这个特征的数值范围太大,它在距离计算时会占据主导地位,导致年龄这样的特征几乎被“忽略”掉。这显然不是我们希望看到的,因为每个特征可能都蕴含着有价值的信息。
再比如,神经网络的梯度下降过程,如果特征值范围差异大,梯度可能会在某些维度上非常大,导致训练不稳定,甚至无法收敛。标准化或归一化把所有特征都拉到一个相似的尺度上,避免了量纲差异带来的偏倚,让模型能够公平地对待每个特征,从而提升模型的训练效率、稳定性和最终的预测性能。这就像是给所有参赛选手都设定了相同的起跑线,比赛才能更公平。
标准化和归一化有什么区别,我该如何选择?
这确实是初学者常问的问题,也是我刚开始接触数据预处理时纠结的地方。简单来说,它们处理数据的方式不同,适用场景也因此有了区分。
标准化 (Standardization): 它把数据转换成均值为0,标准差为1的分布。这个过程不会改变数据的分布形态,只是平移和缩放。
- 优点:对异常值不那么敏感。因为它是基于均值和标准差来缩放的,即使有几个极端值,它们对整体均值和标准差的影响相对有限,不会像归一化那样把异常值也紧紧地压缩到固定范围的边缘。
- 适用场景:
- 当你对数据的分布没有明确假设时(比如不确定数据是否服从正态分布)。
- 算法对特征的方差敏感,比如主成分分析(PCA)。
- 神经网络,因为它可以帮助模型更快地收敛。
- 算法假设数据是正态分布的,即使数据不是严格的正态分布,标准化也能使其更接近这个假设。
归一化 (Normalization): 它把数据缩放到一个固定的区间,通常是[0, 1]或[-1, 1]。
- 优点:简单直观,能将所有数据点映射到预设的区间内。
- 缺点:对异常值非常敏感。如果数据中有一个极大的异常值,它会把所有其他正常数据点都压缩在一个非常小的子区间内,导致大部分数据点的值非常接近,从而丢失了它们之间的相对差异。
- 适用场景:
- 当你需要将数据映射到一个明确的固定范围时,比如图像处理中像素值通常在[0, 255]或[0, 1]。
- 某些算法明确要求输入特征在特定范围内,比如一些神经网络的激活函数(如Sigmoid函数,其输出范围是[0, 1])。
- 当数据分布已知且没有显著异常值时。
我的选择策略: 在实际项目中,我通常会先考虑标准化。因为它对异常值的鲁棒性更好,而且大多数情况下,它对各种机器学习算法都表现良好。如果模型表现不佳,或者我明确知道某个算法需要特定范围的输入(例如某些深度学习模型的特定层),我才会尝试归一化。有时候,甚至需要尝试两种方法,通过交叉验证来评估哪种对当前任务效果最好。没有一劳永逸的答案,数据科学很多时候就是这样,需要一点点实验和调整。
处理非数值型数据和缺失值对标准化/归一化的影响?
这是数据预处理中一个非常现实且关键的问题,因为实际数据往往不是那么“干净”。如果直接把含有非数值型数据或缺失值的特征丢给StandardScaler
或MinMaxScaler
,Python会报错。这些缩放器只能处理数值型数据。
非数值型数据 (Categorical Data): 像“颜色”(红、绿、蓝)或“城市”(北京、上海)这类非数值型数据,是不能直接进行标准化或归一化的。它们代表的是类别,而不是数值大小。
- 处理方式:在进行任何缩放操作之前,你必须将这些类别数据转换为数值形式。最常见的方法是:
- 独热编码 (One-Hot Encoding):将每个类别转换为一个独立的二进制特征(0或1)。比如“颜色”会变成“颜色_红”、“颜色_绿”、“颜色_蓝”三个新特征。这是处理无序分类特征的常用方法。
- 标签编码 (Label Encoding):将每个类别映射到一个整数。比如“红”->0,“绿”->1,“蓝”->2。这种方法适用于有序分类特征,或者当算法本身能够处理序数关系时。 转换完成后,这些新的数值特征(特别是独热编码后的)就可以与其他数值特征一起进行标准化或归一化了。
缺失值 (Missing Values):
数据集中经常会有缺失值(比如NaN
,Not a Number)。缩放器无法处理这些缺失值。
- 处理方式:在进行标准化或归一化之前,必须先处理缺失值。常见的策略有:
- 删除 (Deletion):如果缺失值数量很少,或者你认为缺失的这些行或列对整体分析影响不大,可以直接删除包含缺失值的行或列。但这可能导致信息丢失。
- 填充 (Imputation):这是更常用的方法。用某个统计量(如均值、中位数、众数)或者通过更复杂的模型(如K近邻填充、回归填充)来填补缺失值。
- 均值/中位数填充:对于数值型特征,用该特征的均值或中位数来填充缺失值。中位数对异常值更鲁棒。
- 众数填充:对于分类特征,可以用众数来填充。
- 固定值填充:用一个特定的值(比如0或-1)来填充,但这需要谨慎,确保这个值不会引入新的偏差。
- 模型预测填充:使用机器学习模型来预测缺失值,这通常更复杂但可能更准确。
处理完缺失值后,确保所有特征都是数值类型,并且没有
NaN
,然后才能安全地进行标准化或归一化。
所以,一个完整的预处理流程通常是:处理缺失值 -> 编码非数值型数据 -> 对数值型特征进行标准化/归一化。这个顺序很重要,不能颠倒。
今天带大家了解了的相关知识,希望对你有所帮助;关于文章的技术知识我们会一点点深入介绍,欢迎大家关注golang学习网公众号,一起学习编程~
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
320 收藏
-
364 收藏
-
362 收藏
-
349 收藏
-
243 收藏
-
160 收藏
-
407 收藏
-
189 收藏
-
298 收藏
-
232 收藏
-
471 收藏
-
315 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 立即学习 542次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 立即学习 511次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 立即学习 498次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 立即学习 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 立即学习 484次学习