PythonK-means异常检测全解析
时间:2025-08-13 12:27:47 413浏览 收藏
哈喽!今天心血来潮给大家带来了《Python K-means异常检测方法详解》,想必大家应该对文章都不陌生吧,那么阅读本文就都不会很困难,以下内容主要涉及到,若是你正在学习文章,千万别错过这篇文章~希望能帮助到你!
聚类异常检测通过将数据分簇并识别远离所属簇的数据点来发现异常。具体步骤为:1.准备数据并进行标准化预处理;2.使用K-means聚类算法对数据分簇;3.计算每个点到所属簇中心的距离;4.设定阈值识别异常点;5.可视化结果并输出异常点索引。此外,选择合适的K值可通过肘部法则、轮廓系数或业务理解确定;异常阈值可基于百分位数、箱线图、统计方法或可视化确定;但K-means存在对初始值和K值敏感、假设簇为凸形、无法检测全局异常等局限,需结合数据特征和业务需求选择合适算法。
聚类异常检测,简单来说,就是把数据分成几堆,然后看看有没有哪个数据点离它所属的那堆特别远。如果特别远,那它就可能是个异常值。Python实现起来其实挺方便的,K-means是其中一个常用的方法。

import numpy as np from sklearn.cluster import KMeans from sklearn.preprocessing import StandardScaler from sklearn.metrics import pairwise_distances import matplotlib.pyplot as plt # 1. 准备数据 (假设你已经有数据了) # 这里用一个简单的例子生成一些数据,大部分集中在一起,少数分散开 np.random.seed(42) normal_data = np.random.randn(100, 2) * 2 # 大部分数据集中在原点附近 outlier_data = np.random.randn(10, 2) * 10 + 15 # 少量数据远离原点 data = np.vstack((normal_data, outlier_data)) # 2. 数据预处理:标准化 scaler = StandardScaler() scaled_data = scaler.fit_transform(data) # 3. K-Means 聚类 n_clusters = 3 # 假设数据可以分成3堆 kmeans = KMeans(n_clusters=n_clusters, random_state=42, n_init=10) # 显示指定n_init kmeans.fit(scaled_data) # 4. 计算每个点到其所属簇中心的距离 distances = pairwise_distances(scaled_data, kmeans.cluster_centers_, metric='euclidean') cluster_labels = kmeans.labels_ distances_to_center = np.array([distances[i, cluster_labels[i]] for i in range(len(scaled_data))]) # 5. 设定阈值,判断异常点 threshold = np.percentile(distances_to_center, 95) # 距离大于95%的点的距离,认为是异常点 anomalies = distances_to_center > threshold # 6. 可视化结果 plt.figure(figsize=(8, 6)) plt.scatter(scaled_data[:, 0], scaled_data[:, 1], c=cluster_labels, cmap='viridis', label='Normal Data') plt.scatter(scaled_data[anomalies, 0], scaled_data[anomalies, 1], c='red', marker='x', s=100, label='Anomalies') plt.title('K-Means Clustering for Anomaly Detection') plt.xlabel('Feature 1 (Scaled)') plt.ylabel('Feature 2 (Scaled)') plt.legend() plt.show() print("异常点的索引:", np.where(anomalies)[0])
数据预处理很重要,不然结果可能偏差很大。距离阈值的选择也需要根据实际情况调整。
如何选择合适的K值?
K-means里K值的选择,有时候真让人头大。没有一个万能公式,得结合数据特性和业务理解。

肘部法则(Elbow Method): 跑几次K-means,K从1跑到某个较大值,每次记录SSE(Sum of Squared Errors,误差平方和)。SSE会随着K增大而减小,但减小的速度会越来越慢。画出K和SSE的图,找到“肘部”,也就是SSE下降速度明显变缓的点,那个K值可能就是个不错的选择。
from sklearn.cluster import KMeans import matplotlib.pyplot as plt sse = [] list_k = list(range(1, 11)) for k in list_k: km = KMeans(n_clusters=k, n_init=10) km.fit(scaled_data) sse.append(km.inertia_) # Plot sse against k plt.figure(figsize=(6, 6)) plt.plot(list_k, sse, '-o') plt.xlabel(r'Number of clusters *k*') plt.ylabel('Sum of squared distance'); plt.show()
轮廓系数(Silhouette Score): 轮廓系数考虑了簇内的凝聚度和簇间的分离度。值越高,聚类效果越好。可以计算不同K值下的轮廓系数,选择得分最高的那个。
from sklearn.metrics import silhouette_score silhouette_scores = [] list_k = list(range(2, 11)) # 至少要分成两类 for k in list_k: km = KMeans(n_clusters=k, random_state=42, n_init=10) km.fit(scaled_data) silhouette_scores.append(silhouette_score(scaled_data, km.labels_)) plt.figure(figsize=(6, 6)) plt.plot(list_k, silhouette_scores, '-o') plt.xlabel(r'Number of clusters *k*') plt.ylabel('Silhouette Score') plt.show()
业务理解: 别忘了业务背景!有时候,业务上天然地知道数据应该分成几类,那就直接用那个K值。
选择K值不是一蹴而就的,可能需要多次尝试和调整。
如何确定异常阈值?
阈值决定了哪些数据点会被判定为异常。太高了,很多异常点会被漏掉;太低了,正常点又会被误判。
百分位数法: 就像前面代码里用的,取距离的百分位数。比如,95%的百分位数意味着距离大于这个值的点,被认为是异常点。具体用哪个百分比,需要根据数据分布来调整。如果数据分布比较集中,异常点比较突出,可以适当调高百分比。
箱线图法: 利用四分位数距(IQR)来定义异常值。通常,大于Q3 + 1.5 IQR或小于Q1 - 1.5 IQR的点被认为是异常值。这种方法比较简单粗暴,但有时候也挺有效。
统计方法: 如果数据符合某种分布(比如正态分布),可以计算均值和标准差,然后根据3σ原则,将距离均值超过3倍标准差的点视为异常值。
可视化: 把距离画出来,看看数据的分布情况,手动选择一个合适的阈值。这种方法比较主观,但有时候能发现一些隐藏的模式。
import seaborn as sns import matplotlib.pyplot as plt sns.boxplot(x=distances_to_center) plt.show() sns.histplot(distances_to_center, kde=True) plt.show()
结合业务: 异常检测的最终目的是解决实际问题。所以,阈值的选择要结合业务目标。比如,如果目标是尽可能减少漏报,那就降低阈值;如果目标是尽可能减少误报,那就提高阈值。
阈值的选择没有绝对的正确答案,需要根据具体情况灵活调整。
K-means聚类用于异常检测的局限性有哪些?
K-means虽然简单易用,但也有一些局限性,特别是在异常检测方面。
对初始值敏感: K-means的聚类结果受初始聚类中心的影响很大。不同的初始值可能导致完全不同的聚类结果,进而影响异常检测的效果。虽然可以通过多次运行K-means并选择最佳结果来缓解这个问题(
n_init
参数),但并不能完全消除。对K值的选择敏感: 前面已经说过了,K值的选择是个难题。如果K值选得不好,聚类结果可能不准确,导致异常检测的效果下降。
假设簇是凸形的: K-means假设每个簇都是凸形的,也就是像圆形或球形一样。如果数据的簇不是凸形的,K-means的聚类效果会很差。比如,如果数据是环状的,K-means就很难正确聚类。
对数据分布有假设: K-means假设所有簇的大小和密度都差不多。如果数据中存在大小或密度差异很大的簇,K-means的效果也会受到影响。
无法检测全局异常: K-means只能检测相对于簇的局部异常。如果数据中存在一些全局异常,也就是远离所有簇的点,K-means可能无法检测到。
需要预先知道异常的比例: 在选择阈值时,通常需要预先知道数据中异常的比例。如果不知道异常的比例,就很难选择一个合适的阈值。
总之,K-means虽然是一种常用的聚类算法,但在异常检测方面也有一些局限性。在实际应用中,需要根据数据的特点和业务需求,选择合适的异常检测算法。如果K-means不适用,可以考虑其他的算法,比如DBSCAN、Isolation Forest等。
终于介绍完啦!小伙伴们,这篇关于《PythonK-means异常检测全解析》的介绍应该让你收获多多了吧!欢迎大家收藏或分享给更多需要学习的朋友吧~golang学习网公众号也会发布文章相关知识,快来关注吧!
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
341 收藏
-
216 收藏
-
469 收藏
-
416 收藏
-
245 收藏
-
476 收藏
-
286 收藏
-
490 收藏
-
356 收藏
-
247 收藏
-
297 收藏
-
187 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 立即学习 542次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 立即学习 511次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 立即学习 498次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 立即学习 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 立即学习 484次学习