数据挖掘实训报告Word文件下载.docx

上传人:b****6 文档编号:21199617 上传时间:2023-01-28 格式:DOCX 页数:14 大小:201.50KB
下载 相关 举报
数据挖掘实训报告Word文件下载.docx_第1页
第1页 / 共14页
数据挖掘实训报告Word文件下载.docx_第2页
第2页 / 共14页
数据挖掘实训报告Word文件下载.docx_第3页
第3页 / 共14页
数据挖掘实训报告Word文件下载.docx_第4页
第4页 / 共14页
数据挖掘实训报告Word文件下载.docx_第5页
第5页 / 共14页
点击查看更多>>
下载资源
资源描述

数据挖掘实训报告Word文件下载.docx

《数据挖掘实训报告Word文件下载.docx》由会员分享,可在线阅读,更多相关《数据挖掘实训报告Word文件下载.docx(14页珍藏版)》请在冰豆网上搜索。

数据挖掘实训报告Word文件下载.docx

四、项目内容及过程

1.读取数据集

从sklearn中读取iris和digits数据集并测试打印

fromsklearnimportdatasets

iris=datasets.load_iris()

digits=datasets.load_digits()

print'

iris:

'

iris.data,'

\ndigits:

digits.data

打印的数据集存在numpy.ndarray中,ndarray会自动省略较长矩阵的中间部分。

Iris数据集的样本数据为其花瓣的各项属性

Digits数据集的样本数据为手写数字图像的像素值

2.划分数据集

引入sklearn的model_selection使用train_test_split划分digits数据集,训练集和测试集比例为8:

2

fromsklearn.model_selectionimporttrain_test_split

x_train,x_test,y_train,y_test=train_test_split(digits.data,digits.target,test_size=0.2)

x_train:

x_train,'

\nx_test:

x_test,'

\ny_train:

y_train,'

\ny_test:

y_test

3.使用KNN和SVM对digits测试集分类

引用sklearn的svm.SVC和neighbors.KNeighborsClassifier模块调用算法,使用classification_report查看预测结果的准确率和召回率

fromsklearn.metricsimportclassification_report

fromsklearnimportneighbors

clf=neighbors.KNeighborsClassifier()

clf.fit(x_train,y_train)

y_pred=clf.predict(x_test)

printclassification_report(y_test,y_pred)

fromsklearn.svmimportSVC

clf=SVC()

 

KNN的预测结果:

所有数字的预测正确率几乎达到了100%

SVM的预测结果:

对部分数字的预测误差较大,基本情况不如KNN

考虑SVM分类器的特性,在分类前对特征值进行标准化后再分类:

fromsklearnimportpreprocessing

min_max_scaler=preprocessing.MinMaxScaler()

x_train=min_max_scaler.fit_transform(x_train)

x_test=min_max_scaler.fit_transform(x_test)

标准化数据后SVM的预测结果达到了KNN的准度:

4.使用贝叶斯和决策树对iris数据集分类

x_train,x_test,y_train,y_test=train_test_split(iris.data,iris.target,test_size=0.4)

fromsklearnimportnaive_bayes

clf=naive_bayes.GaussianNB()

fromsklearnimporttree

clf=tree.DecisionTreeClassifier()

决策树和贝叶斯都有较好的分类效果

五、实验结果分析

为什么用svm和knn处理digits数据集,用tree和bayes处理iris数据集,这是一个经验问题。

我们都知道digits数据集的每一个特征就是像素点的像素值,他们的维度都是在0~255以内;

像素点之间的维度完全一致,互相没有优先级。

这种情况下使用线性分类器如KNN、SVM、Logistic会有更好的效果。

而iris数据集虽然长度和宽度维度差不多相同,但是两者之间有优先级的区分,按照人脑分类的思维方式可能是先按照长度判断再按照宽度等思维方式,很接近决策树的算法原理,贝叶斯同样。

所以概率性分类器有更好的效果。

实际情况也是使用SVM预测iris的结果和Bayes预测digits的结果不甚理想(虽然也有很高的准度了)。

当然,通过调整分类器的参数,能使各个分类器的预测结果都达到满意结果,综合表现还是KNN更抢眼,能在各种数据集面前都有出色表现,但KNN在训练样本数量达到一定程度后,有超高的计算复杂度。

所以面对实际情况,选用什么分类器,如何调节参数都是值得深思的问题。

项目2:

基于sklearn的数据聚类挖掘

一、实验任务

①熟悉sklearn数据挖掘平台的基本功能。

②用K-Means进行数据聚类分析。

二、实验环境及条件

随机产生的100个坐标点,范围为[0,100]

四、实验内容及过程

1.随机产生坐标值

产生的随机值在0-100,因为sklearn的k-means模块要求输入的坐标形式为[[x0,y0],…,[x…,y…],…,[xn,yn]],而实际产生的是[x0,…,xn]和[y0,…,yn],所以还需要对坐标进行一次转换

fromsklearn.clusterimportKMeans

importnumpyasnp

importmatplotlib.pyplotasplt

importrandom

defcreate_coordinate():

x,y=[],[]

foriinrange(100):

x.append(random.randint(0,100))

y.append(random.randint(0,100))

returnx,y

x,y=create_coordinate()

old_coordinate=[[x[i],y[i]]foriinrange(100)]

coordinate=np.array(old_coordinate)

printold_coordinate

产生的随机坐标值:

2.创建做图函数

使用k-means对坐标点分为3类,对0类标为红色,1类标为绿色,2类标为蓝色。

并将三类坐标的中心点以‘*’表示在图中

defcreate_chart(x,y,label,center):

x_0=[x[i]foriinrange(len(x))iflabel[i]==0]

x_1=[x[i]foriinrange(len(x))iflabel[i]==1]

x_2=[x[i]foriinrange(len(x))iflabel[i]==2]

y_0=[y[i]foriinrange(len(y))iflabel[i]==0]

y_1=[y[i]foriinrange(len(y))iflabel[i]==1]

y_2=[y[i]foriinrange(len(y))iflabel[i]==2]

plt.scatter(x_0,y_0,c='

r'

plt.scatter(x_1,y_1,c='

g'

plt.scatter(x_2,y_2,c='

b'

plt.scatter([i[0]foriincenter],[i[1]foriincenter],c='

m'

s=600,marker='

*'

plt.grid()

plt.show()

3.使用k-means聚类并预测新增点的类别

kmeans=KMeans(n_clusters=3,random_state=0).fit(coordinate)

printkmeans.predict([[0,0],[50,50],[100,100]])

create_chart(x,y,kmeans.labels_,kmeans.cluster_centers_)

对新点的预测:

221

点的聚类情况:

这次试验,使用sklearn的k-means对100个坐标点聚类。

K-means因为其本身算法的原因,点数越多聚类速度越慢。

所以在20个点和100个点的聚类时间上有很大差距。

聚类问题不同于分类问题,没有明确的预测和分类结果,聚类时对数据的边界可能会各不相同,聚类问题在用户画像/个性化推荐等应用上有较好地发挥。

实验3:

在Python程序中引用sklearn

①用Python开发一个综合部分挖掘算法的演示程序,核心算法来自sklearn类库。

②演示程序界面友好。

PyQt4

使用PyQt4创建windows窗体,并提供可选择的分类方式:

SVM——支持向量机算法

KNN——K邻近算法

Bayes——朴素贝叶斯算法

Tree——C4.5决策树算法

Logistic——Logistic回归算法

可选择的归一化方式:

Standard-标准归一化

MaxAndMin-最大最小归一化

可选择的验证比例

可选范围——(0,1)

可调节的分类器参数

根据具体分类器设置参数

部分代码

确认按钮响应事件

defOKPushButton_OnClick(self):

data_name=self.data_comboBox.currentText()

classify_name=self.classify_comboBox.currentText()

normalization_name=self.normalization_comboBox.currentText()

parameter_string=self.parameter_text.toPlainText()

validation_string=self.validation_text.text()

y_test,y_pred=self.load_datasets_and_classify(data_name,classify_name,normalization_name,parameter_string,validation_string)

fromsklearn.metricsimportclassification_report

self.descTextEdit.setText(classification_report(y_test,y_pred))

分类算法执行

defload_datasets_and_classify\

(self,data_name,classify_name,normalization_name,parameter_string,validation_string):

fromsklearnimportdatasets

fromsklearn.model_selectionimporttrain_test_split

rate=0.2

ifvalidation_string!

='

:

try:

rate=float(validation_string)

except:

self.alert_info(u"

输入的数值必须是0~1的浮点数"

return

ifdata_name=='

iris'

origin_data=datasets.load_iris()

elifdata_name=='

digits'

origin_data=datasets.load_digits()

else:

self.alert_info(u"

未知数据集"

return

data=origin_data.data

target=origin_data.target

ifnormalization_name=='

standard'

fromsklearnimportpreprocessing

scaler=preprocessing.StandardScaler().fit(x_train)

scaler.transform(x_train)

scaler.transform(x_test)

elifnormalization_name=='

max_min'

min_max_scaler=preprocessing.MinMaxScaler()

x_train=min_max_scaler.fit_transform(x_train)

x_test=min_max_scaler.fit_transform(x_test)

none'

pass

未知归一化方式"

程序演示结果

使用PyQt4创建windows窗体,然后结合实验1和2的部分代码生成代码演示程序。

说句实话,不太清楚这个试验到底要干嘛,为了给演示程序的界面添加控件就花了很多时间,算是学习到如何使用python创建windows应用程序了。

欢迎您的下载,

资料仅供参考!

致力为企业和个人提供合同协议,策划案计划书,学习资料等等

打造全网一站式需求

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 幼儿教育 > 幼儿读物

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1