精编范文svm算法实验实验报告优秀word范文 13页Word文件下载.docx

上传人:b****2 文档编号:13816754 上传时间:2022-10-13 格式:DOCX 页数:11 大小:24.09KB
下载 相关 举报
精编范文svm算法实验实验报告优秀word范文 13页Word文件下载.docx_第1页
第1页 / 共11页
精编范文svm算法实验实验报告优秀word范文 13页Word文件下载.docx_第2页
第2页 / 共11页
精编范文svm算法实验实验报告优秀word范文 13页Word文件下载.docx_第3页
第3页 / 共11页
精编范文svm算法实验实验报告优秀word范文 13页Word文件下载.docx_第4页
第4页 / 共11页
精编范文svm算法实验实验报告优秀word范文 13页Word文件下载.docx_第5页
第5页 / 共11页
点击查看更多>>
下载资源
资源描述

精编范文svm算法实验实验报告优秀word范文 13页Word文件下载.docx

《精编范文svm算法实验实验报告优秀word范文 13页Word文件下载.docx》由会员分享,可在线阅读,更多相关《精编范文svm算法实验实验报告优秀word范文 13页Word文件下载.docx(11页珍藏版)》请在冰豆网上搜索。

精编范文svm算法实验实验报告优秀word范文 13页Word文件下载.docx

TICEVAL201X.txt:

这个数据集是需要预测(4000个客户记录)的数据集。

它和TICDATA201X.txt它具有相同的格式,只是没有最后一列的目标记录。

我们只希望返回预测目标的列表集,所有数据集都用制表符进行分隔。

共有4003(自己加了三条数据),根据要求,用来做预测。

TICTGTS201X.txt:

最终的目标评估数据。

这是一个实际情况下的目标数据,将与我们预测的结果进行校验。

我们的预测结果将放在result.txt文件中。

数据集理解:

本实验任务可以理解为分类问题,即分为2类,也就是数据源的第86列,可以分为0、1两类。

我们首先需要对TICDATA201X.txt进行训练,生成model,再根据model进行预测。

2、数据清理

代码中需要对数据集进行缩放的目的在于:

A、避免一些特征值范围过大而另一些特征值范围过小;

B、避免在训练时为了计算核函数而计算内积的时候引起数值计算的困难。

因此,通常将数据缩放到[-1,1]或者是[0,1]之间。

二、数据挖掘的算法说明

1、svm算法说明

LIBSVM软件包是台湾大学林智仁(Chih-JenLin)博士等用C++实现的SVM库,并且拥有matlab,perl等工具箱或者代码,移植和使用都比较方便.它可以解决分类问题(包括C-SVC、n-SVC)、回归问题(包括e-SVR、n-SVR)以及分布估计(one-class-SVM)等问题,提供了线性、多项式、径向基和S形函数四种常用的核函数供选择,可以有效地解决多类问题、交叉验证选择参数、对不平衡样本加权、多类问题的概率估计等。

2、实现过程

在源程序里面,主要由以下2个函数来实现:

(1)structsvm_model*svm_train(conststructsvm_problem*prob,conststructsvm_parameter*param);

该函数用来做训练,参数prob,是svm_problem类型数据,具体结构定义如下:

structsvm_problem//存储本次参加运算的所有样本(数据集),及其所属类别。

{

intn;

//记录样本总数

double*y;

//指向样本所属类别的数组

structsvm_node**x;

//指向一个存储内容为指针的数组

};

其中svm_node的结构体定义如下:

structsvm_node//用来存储输入空间中的单个特征

{

intindex;

//输入空间序号,假设输入空间数为m

doublevalue;

//该输入空间的值

所以,prob也可以说是问题的指针,它指向样本数据的类别和输入向量,在内存中的具体结构图如下:

图1.1LIBSVM训练时,样本数据在内存中的存放结构

只需在内存中申请n*(m+1)*sizeof(structsvm_node)大小的空间,并在里面填入每个样本的每个输入空间的值,即可在程序中完成prob参数的设置。

参数param,是svm_parameter数据结构,具体结构定义如下:

structsvm_parameter//训练参数

intsvm_type;

//SVM类型,

intkernel_type;

//核函数类型

intdegree;

/*forpoly*/

doublegamma;

/*forpoly/rbf/sigmoid*/

doublecoef0;

/*forpoly/sigmoid*/

/*thesearefortrainingonly*/

doublecache_size;

/*inMB制定训练所需要的内存*/

doubleeps;

/*stoppingcriteria*/

doubleC;

/*forC_SVC,EPSILON_SVRandNU_SVR,惩罚因子*/

int_weight;

/*forC_SVC权重的数目*/

int*weight_label;

/*forC_SVC权重,元素个数由_weight决定*/double*weight;

/*forC_SVC*/

doublenu;

/*forNU_SVC,ONE_CLASS,andNU_SVR*/

doublep;

/*forEPSILON_SVR*/

intshrinking;

/*usetheshrinkingheuristics指明训练过程是否使用压缩*/

intprobability;

/*doprobabilityestimates指明是否要做概率估计*/}

其中,SVM类型和核函数类型如下:

enum{C_SVC,NU_SVC,ONE_CLASS,EPSILON_SVR,NU_SVR};

/*svm_type*/enum{LINEAR,POLY,RBF,SIGMOID,PRECOMPUTED};

/*kernel_type*/只需申请一个svm_parameter结构体,并按实际需要设定SVM类型、核函数和各种参数的值即可完成参数param的设置。

设定完这两个参数,就可以直接在程序中调用训练函数进行训练了,该其函数返回一个structsvm_model*SVM模型的指针,可以使用svm_save_model(constchar*model_file_name,conststructsvm_model*model)函数,把这个模型保存在磁盘中。

至此,训练函数的移植已经完成。

(2)doublesvm_predict(conststructsvm_model*model,conststructsvm_node*x);

参数model,是一个SVM模型的指针,可以使用函数structsvm_model*svm_load_model(constchar*model_file_name),导入训练时保存好的SVM模型,此函数返回一个SVM模型的指针,可以直接赋值给变量model。

参数x,是conststructsvm_node结构体的指针,本意是一个输入空间的指针,但实际上,该函数执行的时候,是从参数x处计算输入空间,直到遇到单个样本数据结束标记-1才结束,也就是说,该函数运算了单个样本中的所有输入空间数据。

因此,在调用此函数时,必须先把预测样本的数据按图3.4中的固定格式写入内存中。

另外,该函数只能预测一个样本的值,本文需要对图像中的所有像数点预测,就要使用for循环反复调用。

该函数返回一个double类型,指明被预测数据属于哪个类。

面对两分类问题的时候,通常使用+1代表正样本,即类1;

-1代表负样本,即类2。

最后根据返回的double值就可以知道预测数据的类别了。

三、算法源代码及注释说明

1、需要在工程中添加头文件svm.h和源文件svm.cpp

2、自己编写的源代码(C++实现)(共230行):

#include"

svm.h"

#include<

iostream>

list>

iterator>

vector>

string>

ctime>

usingnamespacestd;

#ifdefWIN32

#pragmawarning(disable:

45144786)

#endif

svm_parameterparam;

svm_problemprob;

svm_model*svmModel;

list<

svm_node*>

xList;

double>

yList;

constintMAX=10;

constintnTstTimes=10;

vector<

int>

predictvalue;

realvalue;

inttrainNum=0;

//设置参数

voidsetParam()

param.svm_type=C_SVC;

param.kernel_type=RBF;

param.degree=3;

param.gamma=0.5;

param.coef0=0;

param.nu=0.5;

param.cache_size=40;

param.C=500;

param.eps=1e-3;

param.p=0.1;

param.shrinking=1;

//param.probability=0;

param._weight=0;

param.weight=NULL;

param.weight_label=NULL;

}

voidtrain(char*filePath)

FILE*fp;

intk;

intline=0;

inttemp;

if((fp=fopen(filePath,"

rt"

))==NULL)return;

while

(1)

svm_node*features=newsvm_node[85+1];

for(k=0;

k<

85;

k++)

fscanf(fp,"

%d"

&

temp);

features[k].index=k+1;

features[k].value=temp/(MAX*1.0);

features[85].index=-1;

xList.push_back(features);

yList.push_back(temp);

line++;

trainNum=line;

if(feof(fp))

break;

setParam();

prob.l=line;

篇二:

SVM分类器-人脸识别专题报告

SVM分类器-人脸识别专题报告

摘要:

本次试验报告,介绍了人脸识别方法分类器的设计并进行人脸识别。

主要是设计SVM分类器,并用来进行人脸分类识别,并对分类器实验结果做出分析。

实验主要步骤:

首先对图像预处理,转换成向量,再通过PCA算法对ORL人脸数据库图像进行降维特征提取,运用SVM工具箱对数据进行训练,再利用SVM分类方法对特征向量进行分类识别,寻找和待识别图片最为接近的训练样本第一张图片。

最后在matlab上进行实验仿真,分析实验结果。

关键字:

最近邻法、PCA算法、多类SVM、人脸识别

1.引言

人脸识别是模式识别的一

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 解决方案 > 学习计划

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1