登录
首页 >  文章 >  python教程

PythonK-means聚类算法实现教程

时间:2025-11-23 14:31:41 412浏览 收藏

怎么入门文章编程?需要学习哪些知识点?这是新手们刚接触编程时常见的问题;下面golang学习网就来给大家整理分享一些知识点,希望能够给初学者一些帮助。本篇文章就来介绍《Python实现K-means聚类算法详解》,涉及到,有需要的可以收藏一下

首先使用scikit-learn实现K-means聚类,通过make_blobs生成300个样本的模拟数据,设置4个簇;接着构建KMeans模型并用fit_predict获得聚类标签;然后用matplotlib可视化聚类结果与簇中心;最后通过肘部法绘制不同K值对应的惯性值,选择拐点确定最优簇数;若特征量纲差异大,需先标准化处理。

Python中使用K-means算法

在Python中使用K-means算法进行聚类分析非常常见,尤其适用于无监督学习任务。该算法通过将数据划分为K个簇,使得每个数据点归属于离其最近的簇中心,从而实现数据的自动分组。下面介绍如何使用scikit-learn库实现K-means算法,并给出关键步骤和代码示例。

导入必要的库

进行K-means聚类前,需要导入常用的科学计算和数据可视化库:

  • import numpy as np
  • import matplotlib.pyplot as plt
  • from sklearn.cluster import KMeans
  • from sklearn.datasets import make_blobs

生成或加载数据

K-means适用于数值型特征数据。可以使用sklearn生成模拟数据来测试算法效果:

  • X, _ = make_blobs(n_samples=300, centers=4, cluster_std=0.6, random_state=0)

这行代码生成了包含300个样本、4个中心的数据集,适合用于聚类演示。

构建并训练K-means模型

指定簇的数量K(这里设为4),然后拟合模型:

  • kmeans = KMeans(n_clusters=4, random_state=0)
  • y_pred = kmeans.fit_predict(X)

fit_predict方法会返回每个样本所属的簇标签。

可视化聚类结果

使用matplotlib绘制数据点和簇中心,便于观察聚类效果:

  • plt.scatter(X[:, 0], X[:, 1], c=y_pred, cmap='viridis')
  • plt.scatter(kmeans.cluster_centers_[:, 0], kmeans.cluster_centers_[:, 1], s=200, c='red', marker='x', label='Centroids')
  • plt.legend()
  • plt.title("K-means Clustering Result")
  • plt.show()

选择最优K值(肘部法)

实际应用中K值通常未知,可以通过“肘部法”确定较优的簇数量:

  • inertias = []
  • for k in range(1, 10):
  •   kmeans = KMeans(n_clusters=k, random_state=0)
  •   kmeans.fit(X)
  •   inertias.append(kmeans.inertia_)
  • plt.plot(range(1, 10), inertias, marker='o')
  • plt.xlabel('Number of Clusters (k)')
  • plt.ylabel('Inertia')
  • plt.title('Elbow Method for Optimal k')
  • plt.show()

选择“拐点”处的K值作为最佳聚类数。

基本上就这些。只要数据合适,K-means实现起来不复杂但容易忽略标准化和K值选择的问题。如果特征量纲差异大,建议先用StandardScaler进行归一化处理。

今天关于《PythonK-means聚类算法实现教程》的内容介绍就到此结束,如果有什么疑问或者建议,可以在golang学习网公众号下多多回复交流;文中若有不正之处,也希望回复留言以告知!

相关阅读
更多>
最新阅读
更多>
课程推荐
更多>