搜索引擎系统学习与开发实践总结报告.docx

上传人:b****5 文档编号:7910399 上传时间:2023-01-27 格式:DOCX 页数:30 大小:196.47KB
下载 相关 举报
搜索引擎系统学习与开发实践总结报告.docx_第1页
第1页 / 共30页
搜索引擎系统学习与开发实践总结报告.docx_第2页
第2页 / 共30页
搜索引擎系统学习与开发实践总结报告.docx_第3页
第3页 / 共30页
搜索引擎系统学习与开发实践总结报告.docx_第4页
第4页 / 共30页
搜索引擎系统学习与开发实践总结报告.docx_第5页
第5页 / 共30页
点击查看更多>>
下载资源
资源描述

搜索引擎系统学习与开发实践总结报告.docx

《搜索引擎系统学习与开发实践总结报告.docx》由会员分享,可在线阅读,更多相关《搜索引擎系统学习与开发实践总结报告.docx(30页珍藏版)》请在冰豆网上搜索。

搜索引擎系统学习与开发实践总结报告.docx

搜索引擎系统学习与开发实践总结报告

搜索引擎系统学习与开发实践总结

 

目  录

一、搜索引擎概述3

搜索引擎的发展历史3

搜索引擎分类4

搜索引擎组成及工作原理5

二、网络蜘蛛6

概述6

主要组成6

关键技术8

经验总结8

三、切词器8

概述8

切分原理10

经验总结13

四、索引器14

概述14

实现原理14

经验总结16

五、查询器16

概述16

实现原理17

经验总结19

六、系统关键分析20

七、参考文献21

一、搜索引擎概述

搜索引擎的发展历史

在互联网发展初期,网站相对较少,信息查找比较容易。

然而伴随互联网爆炸性的发展,普通网络用户想找到所需的资料简直如同大海捞针,这时为满足大众信息检索需求的专业搜索网站便应运而生了。

  现代意义上的搜索引擎的祖先,是1990年由蒙特利尔大学学生AlanEmtage发明的Archie。

虽然当时WorldWideWeb还未出现,但网络中文件传输还是相当频繁的,而且由于大量的文件散布在各个分散的FTP主机中,查询起来非常不便,因此AlanEmtage想到了开发一个可以以文件名查找文件的系统,于是便有了Archie。

  Archie工作原理与现在的搜索引擎已经很接近,它依靠脚本程序自动搜索网上的文件,然后对有关信息进行索引,供使用者以一定的表达式查询。

由于Archie深受用户欢迎,受其启发,美国内华达SystemComputingServices大学于1993年开发了另一个与之非常相似的搜索工具,不过此时的搜索工具除了索引文件外,已能检索网页。

  当时,“机器人”一词在编程者中十分流行。

电脑“机器人”(ComputerRobot)是指某个能以人类无法达到的速度不间断地执行某项任务的软件程序。

由于专门用于检索信息的“机器人”程序象蜘蛛一样在网络间爬来爬去,因此,搜索引擎的“机器人”程序就被称为“蜘蛛”程序。

  世界上第一个用于监测互联网发展规模的“机器人”程序是MatthewGray开发的WorldwideWebWanderer。

刚开始它只用来统计互联网上的服务器数量,后来则发展为能够检索网站域名。

  与Wanderer相对应,MartinKoster于1993年10月创建了ALIWEB,它是Archie的HTTP版本。

ALIWEB不使用“机器人”程序,而是靠网站主动提交信息来建立自己的链接索引,类似于现在我们熟知的Yahoo。

  随着互联网的迅速发展,使得检索所有新出现的网页变得越来越困难,因此,在MatthewGray的Wanderer基础上,一些编程者将传统的“蜘蛛”程序工作原理作了些改进。

其设想是,既然所有网页都可能有连向其他网站的链接,那么从跟踪一个网站的链接开始,就有可能检索整个互联网。

到1993年底,一些基于此原理的搜索引擎开始纷纷涌现,其中以JumpStation、TheWorldWideWebWorm(Goto的前身,也就是今天Overture),和Repository-BasedSoftwareEngineering(RBSE)spider最负盛名。

  然而JumpStation和WWWWorm只是以搜索工具在数据库中找到匹配信息的先后次序排列搜索结果,因此毫无信息关联度可言。

而RBSE是第一个在搜索结果排列中引入关键字串匹配程度概念的引擎。

  最早现代意义上的搜索引擎出现于1994年7月。

当时MichaelMauldin将JohnLeavitt的蜘蛛程序接入到其索引程序中,创建了大家现在熟知的Lycos。

同年4月,斯坦福(Stanford)大学的两名博士生,DavidFilo和美籍华人杨致远(GerryYang)共同创办了超级目录索引Yahoo,并成功地使搜索引擎的概念深入人心。

从此搜索引擎进入了高速发展时期。

目前,互联网上有名有姓的搜索引擎已达数百家,其检索的信息量也与从前不可同日而语。

比如最近风头正劲的Google,其数据库中存放的网页已达30亿之巨!

还有XX其存放的网页也有6亿多。

  随着互联网规模的急剧膨胀,一家搜索引擎光靠自己单打独斗已无法适应目前的市场状况,因此现在搜索引擎之间开始出现了分工协作,并有了专业的搜索引擎技术和搜索数据库服务提供商。

象国外的Inktomi(已被Yahoo收购),它本身并不是直接面向用户的搜索引擎,但向包括Overture(原GoTo,已被Yahoo收购)、LookSmart、MSN、HotBot等在内的其他搜索引擎提供全文网页搜索服务。

国内的XX也属于这一类,搜狐和新浪用的就是它的技术。

因此从这个意义上说,它们是搜索引擎的搜索引擎。

现在一提到搜索引擎,人们往往想到的是Google、XX、雅虎、搜狐等。

那么究竟什么是搜索引擎呢?

“搜索引擎”实际上是为人们提供在internet网上利用关键词来进行全文检索的一种网页检索工具。

搜索引擎分类

  搜索引擎按其工作方式主要可分为三种,分别是全文搜索引擎(FullTextSearchEngine)、目录索引类搜索引擎(SearchIndex/Directory)和元搜索引擎(MetaSearchEngine)。

全文搜索引擎是最广泛也是用得最多的一种,一般所说的搜索引擎都指的是全文搜索引擎。

 

全文搜索引擎

  全文搜索引擎是名副其实的搜索引擎,国外具代表性的有Google、Fast/AllTheWeb、AltaVista、Inktomi、Teoma、WiseNut等,国内著名的有XX(Baidu)、中国搜索等。

它们都是通过从互联网上提取的各个网站的信息(以网页文字为主)而建立的数据库中,检索与用户查询条件匹配的相关记录,然后按一定的排列顺序将结果返回给用户,因此他们是真正的搜索引擎。

  从搜索结果来源的角度,全文搜索引擎又可细分为两种,一种是拥有自己的检索程序(Indexer),俗称“蜘蛛”(Spider)程序或“机器人”(Robot)程序,并自建网页数据库,搜索结果直接从自身的数据库中调用,如上面提到的7家引擎;另一种则是租用其他引擎的数据库,并按自定的格式排列搜索结果,如Lycos引擎。

 

目录索引

目录索引虽然有搜索功能,但在严格意义上算不上是真正的搜索引擎,仅仅是按目录分类的网站链接列表而已。

用户完全可以不用进行关键词(Keywords)查询,仅靠分类目录也可找到需要的信息。

目录索引中最具代表性的莫过于大名鼎鼎的Yahoo雅虎。

其他著名的还有OpenDirectoryProject(DMOZ)、LookSmart、About等。

国内的搜狐、新浪、网易搜索也都属于这一类。

 

元搜索引擎(METASearchEngine)

 

  元搜索引擎在接受用户查询请求时,同时在其他多个引擎上进行搜索,并将结果返回给用户。

著名的元搜索引擎有InfoSpace、Dogpile、Vivisimo等(元搜索引擎列表),中文元搜索引擎中具代表性的有搜星搜索引擎。

在搜索结果排列方面,有的直接按来源引擎排列搜索结果,如Dogpile,有的则按自定的规则将结果重新排列组合,如Vivisimo。

  除上述三大类引擎外,还有以下几种非主流形式:

  1、集合式搜索引擎:

如HotBot在2002年底推出的引擎。

该引擎类似META搜索引擎,但区别在于不是同时调用多个引擎进行搜索,而是由用户从提供的4个引擎当中选择,因此叫它“集合式”搜索引擎更确切些。

  2、门户搜索引擎:

如AOLSearch、MSNSearch等虽然提供搜索服务,但自身即没有分类目录也没有网页数据库,其搜索结果完全来自其他引擎。

  3、免费链接列表(FreeForAllLinks,简称FFA):

这类网站一般只简单地滚动排列链接条目,少部分有简单的分类目录,不过规模比起Yahoo等目录索引来要小得多。

  

  由于上述网站都为用户提供搜索查询服务,为方便起见,我们通常将其统称为搜索引擎。

搜索引擎组成及工作原理

搜索引擎系统一般由蜘蛛(也叫网页爬行器)、切词器、索引器、查询器几部分组成。

蜘蛛负责网页信息的抓取工作,一般情况下切词器和索引器一起使用,它们负责将抓取的网页内容进行切词处理并自动进行标引,建立索引数据库。

查询器根据用户查询条件检索索引数据库并对检索结果进行排序和集合运算,如并集、交集运算,再提取网页简单摘要信息反馈给查询用户。

Google搜索引擎从功能上同样分为三大部分:

网页爬行、标引入库和用户查询。

网页爬行主要负责网页的抓取,由URL服务器、爬行器、存储器、分析器和URL解析器组成,爬行器是该部分的核心;标引入库主要负责对网页内容进行分析,对文档进行标引并存储到数据库里,由标引器和分类器组成,该模块涉及许多文件和数据,有关于桶的操作是该部分的核心;用户查询主要负责分析用户输入的检索表达式,匹配相关文档,把检索结果返回给用户,由查询器和网页级别评定器组成,其中网页等级的计算是该部分的核心。

其总体系统结构下图所示。

搜索引擎的主要工作流程是:

首先从蜘蛛开始,蜘蛛程序每隔一定的时间(象google一般是28天)自动启动并读取网页URL服务器上的URL列表,按深度优先或广度优先算法,抓取各URL所指定的网站,将抓取的网页分配一个唯一文档ID(DocId),存入文档数据库。

一般在存入文档数据库之前进行一定的压缩处理。

并将当前页上的所的超连接存入到URL服务器中。

在进行抓取的同时,切词器和索引器将已经抓取的网页文档进行切词处理,并按词在网页中出现的位置和频率计算权值,然后将切词结果存入索引数据库。

整个抓取工作和索引工作完成后更新整个索引数据库和文档数据库,这样用户就可以查询最新的网页信息。

查询器首先对用户输入的信息进行切词处理,并检索出所有包含检索词的记录,通过计算网页权重和级别对查询记录进行排序并进行集合运算,最后从文档数据库中提取各网页的摘要信息反馈给查询用户。

二、网络蜘蛛

概述

蜘蛛(即WebSpider),实际上是一个基于HTTP协议的网络应用程序。

网络蜘蛛是通过网页的链接地址来寻找网页,从网站某一个页面(通常是首页)开始,读取网页的内容,并抽取出网页中的其它超链接地址,然后通过这些链接地址寻找下一个网页,这样一直循环下去,直到把这个网站所有的网页都抓取完为止。

在抓取网页的时候,网络蜘蛛一般有两种策略:

广度优先和深度优先。

广度优先是指网络蜘蛛会先抓取起始网页中链接的所有网页,然后再选择其中的一个链接网页,继续抓取在此网页中链接的所有网页。

这是最常用的方式,因为这个方法可以让网络蜘蛛并行处理,提高其抓取速度。

深度优先是指网络蜘蛛会从起始页开始,一个链接一个链接跟踪下去,处理完这条线路之后再转入下一个起始页,继续跟踪链接。

这个方法有个优点是网络蜘蛛在设计的时候比较容易。

主要组成

根据抓取过程蜘蛛主要分为三个功能模块,一个是网页读取模块主要是用来读取远程Web服务器上的网页内容,另一个是超链分析模块,这个模块主要是分析网页中的超链接,将网页上的所有超链接提取出来,放入到待抓取URL列表中,再一个模块就是内容分析模块,这个模块主要是对网页内容进行分析,将网页中所有超标志去掉只留下网页文字内容。

蜘蛛的主要工作流程如下图所示:

首先蜘蛛读取抓取站点的URL列表,取出一个站点URL,将其放入未访问的URL列表(UVURL列表)中,如果UVURL不为空刚从中取出一个URL判断是否已经访问过,若没有访问过则读取此网页,并进行超链分析及内容分析,并将些页存入文档数据库,并将些URL放入已访问URL列表(VURL列表),直到UVRL为空为止,此时再抓取其他站点,依次循环直到所有的站点URL列表都抓取完为止。

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

关键技术

1、 多线程技术:

由于抓取的站点URL相当多,采用单线程蜘蛛抓取时速度不够,也不能满足实际的需要。

因而需要多线程技术来创建多个蜘蛛线程来同时抓取,以提高速度。

2、 网页抓取:

网页抓取是基于HTTP协议之上的,网页上的资源有多种,有网页,有Word文档也有其他类型的文件,这样抓取时需要判断URL所指向资源的类型。

3、 超链分析:

超链分析是一个比较重要的环节,需要对HTML的各种标志(tag)有一个很全面的了解。

需要反复测试,考虑各种情形的发生。

超链分析时从网页里提取出来的是相对于当前页的相对URL,因而需要根据当前页的绝对URL将提取的这个URL转换成绝对URL。

在此过程中需要根据ParentURL(就是当前页的URL)作出各种判断。

各种情况判断如下图所示:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

经验总结

商业化的蜘蛛需要抓取上亿的网页,因而抓取速度是一个关键,另外蜘蛛需要自动运行,尽是减少人工的参与,因而系统的性能也是一个很重要的关键,系统能够在发生异常的时候自动进行处理,防止程序的退出和死机。

本人认为有一些细节需要注意:

1、             系统应该使用多线程,使用多个蜘蛛同时抓取,在可能的情况下,最好是做成分布式的蜘蛛程序,蜘蛛应该分布地网络上多台服务器上协同抓取网页,这样速度会更快,更符合我们的实际应用。

2、             对于同一网站的网页应该采用同一个HttpConnection这样有效地节省创建一个连接的时间,另外对于抓取的URL采用域名缓冲机制(可在网关一级上实现),这样抓取时减少由域名到IP地址的转换时间以及重复的域名转换。

若能做到这一步将会大大减少抓取时间,因为访问一URL时每次都要进行域名到主机IP地址的转换。

3、             最好是能够将读取网页、超链分析及网页内容分析三部分分开来做,让它们并行协同工作,这样效率会更高。

因为在这三个过程中网页读取比起其他两个功能来说是一个长任务,最耗时间。

当抓取完一网页后,在抓取下一网页的时候让去执行超链分析和内容分析。

这样在下一网页抓取完成之前超链分析和内容分析任务就能完成,抓取任务不会延迟,这样节省了一些时间。

三、切词器

概述

1、概述

众所周知,英文是以词为单位的,词和词之间是靠空格隔开,而中文是以字为单位,句子中所有的字连起来才能描述一个意思。

例如,英文句子Iamastudent,用中文则为:

“我是一个学生”。

计算机可以很简单通过空格知道student是一个单词,但是不能很容易明白“学”、“生”两个字合起来才表示一个词。

把中文的汉字序列切分成有意义的词,就是中文分词,有些人也称为切词。

我是一个学生,分词的结果是:

我是一个学生。

2、切词算法

现有的分词算法可分为三大类:

基于字符串匹配的分词方法、基于理解的分词方法和基于统计的分词方法。

  1)、基于字符串匹配的分词方法

  这种方法又叫做机械分词方法,它是按照一定的策略将待分析的汉字串与一个“充分大的”机器词典中的词条进行匹配,若在词典中找到某个字符串,则匹配成功(识别出一个词)。

按照扫描方向的不同,串匹配分词方法可以分为正向匹配和逆向匹配;按照不同长度优先匹配的情况,可以分为最大(最长)匹配和最小(最短)匹配;按照是否与词性标注过程相结合,又可以分为单纯分词方法和分词与标注相结合的一体化方法。

常用的几种机械分词方法如下:

  a)正向最大匹配法(由左到右的方向);

  b)逆向最大匹配法(由右到左的方向);

  c)最少切分(使每一句中切出的词数最小)。

  还可以将上述各种方法相互组合,例如,可以将正向最大匹配方法和逆向最大匹配方法结合起来构成双向匹配法。

由于汉语单字成词的特点,正向最小匹配和逆向最小匹配一般很少使用。

一般说来,逆向匹配的切分精度略高于正向匹配,遇到的歧义现象也较少。

统计结果表明,单纯使用正向最大匹配的错误率为1/169,单纯使用逆向最大匹配的错误率为1/245。

但这种精度还远远不能满足实际的需要。

实际使用的分词系统,都是把机械分词作为一种初分手段,还需通过利用各种其它的语言信息来进一步提高切分的准确率。

  一种方法是改进扫描方式,称为特征扫描或标志切分,优先在待分析字符串中识别和切分出一些带有明显特征的词,以这些词作为断点,可将原字符串分为较小的串再来进行机械分词,从而减少匹配的错误率。

另一种方法是将分词和词类标注结合起来,利用丰富的词类信息对分词决策提供帮助,并且在标注过程中又反过来对分词结果进行检验、调整,从而极大地提高切分的准确率。

  2)、基于理解的分词方法

  这种分词方法是通过让计算机模拟人对句子的理解,达到识别词的效果,但这种方法需要大量的词法、句法、语义知识。

其基本思想就是在分词的同时进行句法、语义分析,利用句法信息和语义信息来处理歧义现象。

它通常包括三个部分:

分词子系统、句法语义子系统、总控部分。

在总控部分的协调下,分词子系统可以获得有关词、句子等的句法和语义信息来对分词歧义进行判断,即它模拟了人对句子的理解过程。

这种分词方法需要使用大量的语言知识和信息。

由于汉语语言知识的笼统、复杂性,难以将各种语言信息组织成机器可直接读取的形式,因此目前基于理解的分词系统还处在试验阶段。

  3)、基于统计的分词方法

  从形式上看,词是稳定的字的组合,因此在上下文中,相邻的字同时出现的次数越多,就越有可能构成一个词。

因此字与字相邻共现的频率或概率能够较好的反映成词的可信度。

可以对语料中相邻共现的各个字的组合的频度进行统计,计算它们的互现信息。

定义两个字的互现信息,计算两个汉字X、Y的相邻共现概率。

互现信息体现了汉字之间结合关系的紧密程度。

当紧密程度高于某一个阈值时,便可认为此字组可能构成了一个词。

这种方法只需对语料中的字组频度进行统计,不需要切分词典,因而又叫做无词典分词法或统计取词方法。

但这种方法也有一定的局限性,会经常抽出一些共现频度高、但并不是词的常用字组,例如“这一”、“之一”、“有的”、“我的”、“许多的”等,并且对常用词的识别精度差,时空开销大。

实际应用的统计分词系统都要使用一部基本的分词词典(常用词词典)进行串匹配分词,同时使用统计方法识别一些新的词,即将串频统计和串匹配结合起来,既发挥匹配分词切分速度快、效率高的特点,又利用了无词典分词结合上下文识别生词、自动消除歧义的优点。

到底哪种分词算法的准确度更高,目前并无定论。

对于任何一个成熟的分词系统来说,不可能单独依靠某一种算法来实现,都需要综合不同的算法。

笔者了解,海量科技的分词算法就采用“复方分词法”,所谓复方,相当于用中药中的复方概念,即用不同的药才综合起来去医治疾病,同样,对于中文词的识别,需要多种算法来处理不同的问题。

3、关键问题

  1)通用词表和切分规范

  汉语的语素和单字词,合成词和短语之间没有清晰的界限。

语言学界虽然对于词在概念上有一个十分清晰的定义,即,“词是最小的能够独立活动的有意义的语言成分。

”但从一些词典的编撰中,我们仍然可看出一些上述界限难以区分的问题。

比如:

“听见”“看见”在很多词典中都有收录,但是有类似结构的“闻见”却没有收录。

在建立分词系统词表时,仍然对于收词的标准难以把握,例如:

“鸡蛋”是词,那么“鸭蛋、鹌鹑蛋”是否也作为词收入词表?

至今为止,分词系统仍然没有一个统一的具有权威性的分词词表作为分词依据。

这不能不说是分词系统所面临的首要问题。

除了分词词表,还有一个概念值得我们注意,即“分词单位”。

从计算机进行分词的过程来看,其输出的词串我们称之为“切分单位”或“分词单位”。

《信息处理用现代汉语分词规范》中对于“分词单位”也有一个定义:

“汉语信息处理使用的、具有确定的语义或语法功能的基本单位。

包括本规范的规则限定的词和词组。

”由此可见,信息处理中分词单位的定义比传统意义上的词更宽泛些。

这也就避开了理论上对于词的界定难以把握的困扰。

分词系统可以面向解决实际问题的需求和真实语料中使用的频繁程度来规定“分词单位”。

分词单位可以是同词表中词完全一致,也可以是包含未登录词识别以及一些词法分析的切分单位,例如,一些人名、地名、机构名、外国人译名,应予以识别和切分。

一些动词和形容词重叠结构,如“高高大大”、“甜甜蜜蜜”等;一些附加词,如后缀,“亲和性”、“热敏性”等;都可以作为分词单位予以识别和切分。

因此,对于一个分词系统而言,制定一个一致性的分词单位切分规范无疑也是一个重要的问题。

2)歧义切分字段

  分词系统要处理的第二个关键问题是文本中歧义切分字段的判别。

汉语中歧义切分字段最基本有以下两种类型:

  交集型歧义字段,据统计,这种歧义字段占全部歧义字段的85%以上。

[4]所以这也是分词系统所要重点解决的问题。

在字段ABC中,这里,A,B,C分别代表有一个或多个汉字组成的字串。

A,AB,BC,C分别都是词表中的词,则称该字段为交集型歧义字段。

如:

“中国/人”,“中/国人”两种切分结果。

组合型歧义在字段ABC中,A,B,AB分别都是词表中的词,则称该字段为交集型歧义字段。

如:

他/具有/非凡/的/才能/。

/只有/他/才/能/举起/这/个/重物/。

/

3)未登录词识别

  我们知道,词表中不能囊括所有的词。

一方面是因为语言在不断的发展和变化,新词会不断的出现。

另一方面是因为词的衍生现象非常普遍,没有必要把所有的衍生词都收入辞典中。

  特别是人名、地名等专有名词,在文本中有非常高的使用频度和比例。

而且由于未录词引入的分词错误往往比单纯的词表切分歧义还要严重。

这就要求分词系统具有一定的未登录词识别能力,从而提高分词的正确性。

除了人名、地名的识别,我们认为,分词系统还需要有一定的词法分析能力,从而解决衍生词和复合词等词汇平面上的问题,为进一步的中文信息处理提供坚实的基础。

切分原理

1、词库组织

本人采用的是基于词表匹配的分词方法,因而词库是分词系统的基础。

整个分词过程实际上就是在词词上的查找匹配过程,因而词库的组织相当重要。

对于词表存放在一个文本文件里,每一个词条由两项组成,一个是词的ID(WordId)、另一个就是词本身。

同时在词表上加上静态索引,本人对词表进行分组管理并在上面添加三级索引。

首先对词条按字数分组,字数相同的词条放在同一组里,并对词表按首汉字的内码从小到大排序。

一级索引是加在各个分组上,一级索引记录了各分组的开始位置,再根据下一分组的起始位置可以确定当前分组的终止位置。

二级索引是加在一级索引内部的,在同一组内部由于有很多的词条,二级索引是按词的首汉字内码建立的,它加在以不同汉字开头的词条组中,这样通过三级索引可以进一步缩小查找范围。

另外在汉字中以有些字开头的词条过多,这样进行匹配的次数过多,不利于提高匹配速度。

因而在二级索引的基础之上添加一个三级索引,它是按照一定的密度间隔添加,我设定了一个默认的合理的值就是每隔50个词条添加一个三级索引,同样三级索引也是根据汉字内码添加的(三级索引和二级索引的定义相同)。

词条及索引的定义如下:

//根据汉字内码建立的索引结点(二级和三级索引)

typedefstructCodeIndexNode{

charKeyValue[17];

intnIndex;

}CodeIndex;

 

//根据词语字数建立的一级索引结点

typedefstructWordsIndexNode{

intnKeyCount;

intnKeyBeginIndex;

intnKeyEndIndex;

int

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 高等教育 > 工学

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1