任务一
对以下数据集使用K均值聚类算法:
1)观察实验结果是否符合预期;
2)利用SSE标准确定K值;
3)自行调参并观察对聚类结果的影响。
注意:需要把类别信息去掉。
“tutorial3_Data Exploration”中的鸢尾花数据集“iris.data”
“tutorial4_Data Preprocessing”中的癌症数据集“breast-cancer-wisconsin.data”
breast-cancer-wisconsin.data
import pandas as pdcancer = pd.read_csv('D:\\数据挖掘\\实验3 聚类 代码与数据\\breast-cancer-wisconsin.data',header=None,names=['id','Clump Thickness','Uniformity of Cell Size','Uniformity of Cell Shape','Marginal Adhesion','Single Epithelial Cell Size','Bare Nuclei','Bland Chromation','Normal Nucleoli','Mitoses','Class'])cancer
import pandas as pd
import numpy as np
from sklearn import cluster
from sklearn.preprocessing import StandardScaler
from sklearn.impute import SimpleImputer# 数据预处理
cancer.replace('?', np.nan, inplace=True) # 将 '?' 替换为 NaN
cancer.dropna(inplace=True) # 删除包含 NaN 值的行
cancer = cancer.astype(float) # 将数据类型转换为浮点型# 使用SimpleImputer填补缺失值
imputer = SimpleImputer(strategy='median')
cancer_imputed = imputer.fit_transform(cancer)# 数据缩放
scaler = StandardScaler()
data_scaled = scaler.fit_transform(cancer_imputed)# 将缩放后的数据转换为 DataFrame
data_scaled_df = pd.DataFrame(data_scaled, columns=cancer.columns)# 删除 'Class' 列
data = data_scaled_df.drop('Class', axis=1)
data = data_scaled_df.drop('id', axis=1)# 使用K均值聚类算法
k_means = cluster.KMeans(n_clusters=2, max_iter=100, random_state=1)
k_means.fit(data)
labels = k_means.labels_# 创建 DataFrame 来存储聚类结果
result_df = pd.DataFrame(labels, index=cancer.index, columns=['Cluster ID'])
print(result_df['Cluster ID'].value_counts()) # 打印各个簇的样本数量pd.DataFrame(labels, index=cancer.id, columns=['Cluster ID'])
# 训练不同K值下的KMeans模型,并记录SSE
sse = []
k_range = range(1, 11)
for k in k_range:kmeans = KMeans(n_clusters=k, random_state=42)kmeans.fit(data) sse.append(kmeans.inertia_)# 绘制SSE与K值的关系图
import matplotlib.pyplot as pltplt.plot(k_range, sse, marker='o')
plt.xlabel('Number of clusters (K)')
plt.ylabel('Sum of Squared Errors (SSE)')
plt.title('Elbow Method for Optimal K')
plt.show()
利用SEE标准确定K,发现拐点在k=2的时候,说明k的最优值是2,符合该数据集
调整参数
max_iter最大迭代次数,通过改变最大迭代次数,发现对分类的影响不是很大
改变k值,可以得出和上面一样的结论,k为2的时候的效果最好
改变tol,发现收敛阈值对于模型的性能的影响不是很大
任务二
层次聚类层次聚类(学习笔记-CSDN博客https://blog.csdn.net/qq_55552561/article/details/135165713?spm=1001.2014.3001.5501
任务三
查阅scikit-learn文档中的数据生成器(Samples generator,https://scikit-learn.org/stable/modules/classes.html#module-sklearn.datasets )请至少生成5种不同(形状或者分布)的数据集,并使用DBScan和谱聚类进行聚类分析,观察实验结果,结合算法原理进行分析。
谱聚类和DBscan数据挖掘--聚类-CSDN博客
数据生成器scikit-learn文档中的数据生成器-CSDN博客
生成数据:
# 生成数据集
datasets = [
make_blobs(n_samples=1000, centers=3, cluster_std=1.0, random_state=42),
make_moons(n_samples=1000, noise=0.1, random_state=42),
make_circles(n_samples=1000, noise=0.05, factor=0.5, random_state=42),
make_classification(n_samples=1000, n_features=20, n_classes=2, n_clusters_per_class=2),
make_regression(n_samples=100, n_features=2)
]
from sklearn.datasets import make_blobs, make_moons, make_circles,make_classification,make_regression
from sklearn.cluster import DBSCAN, SpectralClustering
import matplotlib.pyplot as plt# 生成数据集
datasets = [make_blobs(n_samples=1000, centers=3, cluster_std=1.0, random_state=42),make_moons(n_samples=1000, noise=0.1, random_state=42),make_circles(n_samples=1000, noise=0.05, factor=0.5, random_state=42),make_classification(n_samples=1000, n_features=20, n_classes=2, n_clusters_per_class=2),make_regression(n_samples=100, n_features=2)
]# DBSCAN 和谱聚类参数设置
dbscan = DBSCAN(eps=0.1, min_samples=5)
spectral = SpectralClustering(n_clusters=3, affinity='nearest_neighbors', random_state=42)# 数据集索引
dataset_names = ['Blobs', 'Moons', 'Circles', 'S Curve', 'Swiss Roll']# 分别对每个数据集进行可视化和聚类分析
for idx, (X, y) in enumerate(datasets):# 可视化原始数据集plt.figure(figsize=(18, 4))# 绘制原始数据集plt.subplot(1, 3, 1)plt.scatter(X[:, 0], X[:, 1], c=y, cmap='viridis')plt.title(f"Original {dataset_names[idx]} Dataset")plt.xlabel("Feature 1")plt.ylabel("Feature 2")# DBSCAN 聚类dbscan.fit(X)db_labels = dbscan.labels_# 谱聚类spectral.fit(X)spectral_labels = spectral.labels_# 绘制DBSCAN聚类结果plt.subplot(1, 3, 2)plt.scatter(X[:, 0], X[:, 1], c=db_labels, cmap='viridis')plt.title(f"DBSCAN Clustering on {dataset_names[idx]}")plt.xlabel("Feature 1")plt.ylabel("Feature 2")# 绘制谱聚类结果plt.subplot(1, 3, 3)plt.scatter(X[:, 0], X[:, 1], c=spectral_labels, cmap='viridis')plt.title(f"Spectral Clustering on {dataset_names[idx]}")plt.xlabel("Feature 1")plt.ylabel("Feature 2")plt.tight_layout()plt.show()
运行得到的结果
可以看出聚类存在很大的问题,特别是谱聚类,因为按理说谱聚类是对kmeans的一个方面的改进,应该可以比较好地对圆形数据和月牙形地数据做一个比较好的分类,但上述结果明显没有做到,于是下面将五个数据集分开,对不同的数据集,用不一样的明显参数进行分类。
此外,在对数据生成的函数的进一步的了解,发现make_classification和make_swiss_roll生成的数据,不适用于对聚类算法的研究,于是下面只研究Blobs、Moons和Circle的数据。
Blobs数据:
修改了DBscan参数
# DBSCAN 和谱聚类参数设置
dbscan = DBSCAN(eps=0.5, min_samples=5)
spectral = SpectralClustering(n_clusters=3, affinity='nearest_neighbors', random_state=42)
下面是三种不同的Blobs数据
这个数据集上,DBscan和谱聚类的分类效果都挺好的
在上述这个数据集上的聚类,可以明显看出DBSCAN没有正确地进行分类,进行过多次调参,都没有办法达到更好的分类效果
在给定的合成数据集中,既有 DBSCAN 及谱聚类未能很好地对数据进行有效聚类。DBSCAN 未能有效识别形状复杂且交错的数据结构,这是因为 DBSCAN 对于类别之间的密度差异和噪声数据敏感,对于密度相近的区域难以分辨。而对于谱聚类,尽管它能够在某些情况下处理非凸形状的聚类结构,但它仍然基于样本之间的相似度图进行聚类,难以很好地解决数据交错在一起的情况。
对于交错在一起的数据,即使是 DBSCAN 和谱聚类这样的聚类算法也可能遇到困难。DBSCAN 依赖于密度可达性的概念,因此无法很好地处理密度相似的区域,谱聚类虽然不受凸形状的限制,但也是基于样本之间的相似性度量,因此在处理交错在一起的数据时也存在挑战。
对于类似这种交错在一起的数据结构,可能需要更复杂或更适合此类情况的聚类方法,或者在应用传统聚类算法之前,对数据进行特征工程或预处理,以更好地凸显数据内部的聚类结构,比如使用核方法、降维技术等。另外,使用可视化工具对数据进行分析,能够帮助更好地理解数据的特性及算法的表现,从而为选择适当的聚类算法提供指导。
Moons数据:
修改了谱聚类的参数
# DBSCAN 和谱聚类参数设置
dbscan = DBSCAN(eps=0.1, min_samples=5)
spectral = SpectralClustering(n_clusters=2, affinity='rbf', random_state=42,gamma=500)
Circles数据:
使用和上面这个月牙形一样的参数
# DBSCAN 和谱聚类参数设置
dbscan = DBSCAN(eps=0.1, min_samples=5)
spectral = SpectralClustering(n_clusters=2, affinity='rbf', random_state=42,gamma=500)