各类内码详细解析.docx

上传人:b****5 文档编号:7675542 上传时间:2023-01-25 格式:DOCX 页数:12 大小:27.04KB
下载 相关 举报
各类内码详细解析.docx_第1页
第1页 / 共12页
各类内码详细解析.docx_第2页
第2页 / 共12页
各类内码详细解析.docx_第3页
第3页 / 共12页
各类内码详细解析.docx_第4页
第4页 / 共12页
各类内码详细解析.docx_第5页
第5页 / 共12页
点击查看更多>>
下载资源
资源描述

各类内码详细解析.docx

《各类内码详细解析.docx》由会员分享,可在线阅读,更多相关《各类内码详细解析.docx(12页珍藏版)》请在冰豆网上搜索。

各类内码详细解析.docx

各类内码详细解析

转换内码gb2312为utf-8

各类内码详细解析

[日期:

2009-04-29] 来源:

 作者:

sdiel 阅读:

3706次 [字体:

大中小]

GB2312字符集

GB2312又称为GB2312-80字符集,全称为《信息交换用汉字编码字符集·基本集》,由原中国国家标准总局发布,1981年5月1日实施,是中国国家标准的简体中文字符集。

它所收录的汉字已经覆盖99.75%的使用频率,基本满足了汉字的计算机处理需要。

在中国大陆和新加坡获广泛使用。

poweredby

GB2312收录简化汉字及一般符号、序号、数字、拉丁字母、日文假名、希腊字母、俄文字母、汉语拼音符号、汉语注音字母,共7445个图形字符。

其中包括6763个汉字,其中一级汉字3755个,二级汉字3008个;包括拉丁字母、希腊字母、日文平假名及片假名字母、俄语西里尔字母在内的682个全角字符。

GB2312中对所收汉字进行了“分区”处理,每区含有94个汉字/符号。

这种表示方式也称为区位码。

它是用双字节表示的,两个字节中前面的字节为第一字节,后面的字节为第二字节。

习惯上称第一字节为“高字节”,而称第二字节为“低字节”。

“高位字节”使用了0xA1-0xF7(把01-87区的区号加上0xA0),“低位字节”使用了0xA1-0xFE(把01-94加上0xA0)。

以GB2312字符集的第一个汉字“啊”字为例,它的区号16,位号01,则区位码是1601,在大多数计算机程序中,高字节和低字节分别加0xA0得到程序的汉字处理编码0xB0A1。

计算公式是:

0xB0=0xA0+16,0xA1=0xA0+1。

GBK字符集

GBK字符集是GB2312的扩展(K),GBK1.0收录了21886个符号,它分为汉字区和图形符号区,汉字区包括21003个字符。

GBK字符集主要扩展了繁体中文字的支持。

BIG5字符集

BIG5又称大五码或五大码,1984年由台湾财团法人信息工业策进会和五间软件公司宏碁(Acer)、神通(MiTAC)、佳佳、零壹(ZeroOne)、大众(FIC)创立,故称大五码。

Big5码的产生,是因为当时台湾不同厂商各自推出不同的编码,如倚天码、ibmPS55、王安码等,彼此不能兼容;另一方面,台湾政府当时尚未推出官方的汉字编码,而中国大陆的GB2312编码亦未有收录繁体中文字。

Big5字符集共收录13,053个中文字,该字符集在中国台湾使用。

耐人寻味的是该字符集重复地收录了两个相同的字:

“兀”(0xA461及0xC94A)、“嗀”(0xDCD1及0xDDFC)。

Big5码使用了双字节储存方法,以两个字节来编码一个字。

第一个字节称为“高位字节”,第二个字节称为“低位字节”。

高位字节的编码范围0xA1-0xF9,低位字节的编码范围0x40-0x7E及0xA1-0xFE。

尽管Big5码内包含一万多个字符,但是没有考虑社会上流通的人名、地名用字、方言用字、化学及生物科等用字,没有包含日文平假名及片假字母。

例如台湾视“着”为“著”的异体字,故没有收录“着”字。

康熙字典中的一些部首用字(如“亠”、“疒”、“辵”、“癶”等)、常见的人名用字(如“堃”、“煊”、“栢”、“喆”等)也没有收录到Big5之中。

GB18030字符集

GB18030的全称是GB18030-2000《信息交换用汉字编码字符集基本集的扩充》,是我国政府于2000年3月17日发布的新的汉字编码国家标准,2001年8月31日后在中国市场上发布的软件必须符合本标准。

GB18030字符集标准的出台经过广泛参与和论证,来自国内外知名信息技术行业的公司,信息产业部和原国家质量技术监督局联合实施。

GB18030字符集标准解决汉字、日文假名、朝鲜语和中国少数民族文字组成的大字符集计算机编码问题。

该标准的字符总编码空间超过150万个编码位,收录了27484个汉字,覆盖中文、日文、朝鲜语和中国少数民族文字。

满足中国大陆、香港、台湾、日本和韩国等东亚地区信息交换多文种、大字量、多用途、统一编码格式的要求。

并且与Unicode3.0版本兼容,填补Unicode扩展字符字汇“统一汉字扩展A”的内容。

并且与以前的国家字符编码标准(GB2312,GB13000.1)兼容。

编码方法:

GB18030标准采用单字节、双字节和四字节三种方式对字符编码。

单字节部分使用0×00至0×7F码(对应于ASCII码的相应码)。

双字节部分,首字节码从0×81至0×FE,尾字节码位分别是0×40至0×7E和0×80至0×FE。

四字节部分采用GB/T11383未采用的0×30到0×39作为对双字节编码扩充的后缀,这样扩充的四字节编码,其范围为0×81308130到0×FE39FE39。

其中第一、三个字节编码码位均为0×81至0×FE,第二、四个字节编码码位均为0×30至0×39。

按照程序员的称呼,GB2312、GBK到GB18030都属于双字节字符集(DBCS)。

接着是国际通用的unicode字符集

Unicode字符集(简称为UCS)

1.名称的由来

Unicode字符集编码是(UniversalMultiple-OctetCodedCharacterSet)通用多八位编码字符集的简称,支持世界上超过650种语言的国际字符集。

Unicode允许在同一服务器上混合使用不同语言组的不同语言。

它是由一个名为Unicode学术学会(UnicodeConsortium)的机构制订的字符编码系统,支持现今世界各种不同语言的书面文本的交换、处理及显示。

该编码于1990年开始研发,1994年正式公布,最新版本是2005年3月31日的Unicode4.1.0。

Unicode是一种在计算机上使用的字符编码。

它为每种语言中的每个字符设定了统一并且唯一的二进制编码,以满足跨语言、跨平台进行文本转换、处理的要求。

2.编码方法

Unicode标准始终使用十六进制数字,而且在书写时在前面加上前缀“U+”,例如字母“A”的编码为004116。

所以“A”的编码书写为“U+0041”。

3.UTF-8编码

UTF-8是Unicode的其中一个使用方式。

UTF是UnicodeTranslationFormat,即把Unicode转做某种格式的意思。

UTF-8便于不同的计算机之间使用网络传输不同语言和编码的文字,使得双字节的Unicode能够在现存的处理单字节的系统上正确传输。

UTF-8使用可变长度字节来储存Unicode字符,例如ASCII字母继续使用1字节储存,重音文字、希腊字母或西里尔字母等使用2字节来储存,而常用的汉字就要使用3字节。

辅助平面字符则使用4字节。

4.UTF-16和UTF-32编码

UTF-32、UTF-16和UTF-8是Unicode标准的编码字符集的字符编码方案,UTF-16使用一个或两个未分配的16位代码单元的序列对Unicode代码点进行编码;UTF-32即将每一个Unicode代码点表示为相同值的32位整数

通过一个问题了解unicode编码

问题:

使用Windows记事本的“另存为”,可以在ANSI、GBK、Unicode、Unicodebigendian和UTF-8这几种编码方式间相互转换。

同样是txt文件,Windows怎样识别编码方式的呢?

我很早前就发现Unicode、Unicodebigendian和UTF-8编码的txt文件的开头会多出几个字节,分别是FF、FE(Unicode),FE、FF(Unicodebigendian),EF、BB、BF(UTF-8)。

但这些标记是基于什么标准呢?

答案:

ANSI字符集定义:

ASCII字符集,以及由此派生并兼容的字符集,如:

GB2312,正式的名称为MBCS(Multi-ByteChactacterSystem,多字节字符系统),通常也称为ANSI字符集。

UNICODE与UTF8、UTF16

由于每种语言都制定了自己的字符集,导致最后存在的各种字符集实在太多,在国际交流中要经常转换字符集非常不便。

因此,产生了Unicode字符集,它固定使用16bits(两个字节)来表示一个字符,共可以表示65536个字符

标准的Unicode称为UTF-16(UTF:

UCSTransformationFormat)。

后来为了双字节的Unicode能够在现存的处理单字节的系统上正确传输,出现了UTF-8,使用类似MBCS的方式对Unicode进行编码。

(Unicode字符集有多种编码形式)

例如"连通"两个字的Unicode标准编码UTF-16(bigendian)为:

DE8F1A90

而其UTF-8编码为:

E8BF9EE9809A

当一个软件打开一个文本时,它要做的第一件事是决定这个文本究竟是使用哪种字符集的哪种编码保存的。

软件一般采用三种方式来决定文本的字符集和编码:

检测文件头标识,提示用户选择,根据一定的规则猜测

最标准的途径是检测文本最开头的几个字节,开头字节Charset/encoding,如下表:

EFBBBFUTF-8

FEFFUTF-16/UCS-2,littleendian

FFFEUTF-16/UCS-2,bigendian

FFFE0000UTF-32/UCS-4,littleendian.

0000FEFFUTF-32/UCS-4,big-endian.

1、bigendian和littleendian

bigendian和littleendian是CPU处理多字节数的不同方式。

例如“汉”字的Unicode编码是6C49。

那么写到文件里时,究竟是将6C写在前面,还是将49写在前面?

如果将6C写在前面,就是bigendian。

还是将49写在前面,就是littleendian。

“endian”这个词出自《格列佛游记》。

小人国的内战就源于吃鸡蛋时是究竟从大头(Big-Endian)敲开还是从小头(Little-Endian)敲开,由此曾发生过六次叛乱,其中一个皇帝送了命,另一个丢了王位。

我们一般将endian翻译成“字节序”,将bigendian和littleendian称作“大尾”和“小尾”。

2、字符编码、内码,顺带介绍汉字编码

字符必须编码后才能被计算机处理。

计算机使用的缺省编码方式就是计算机的内码。

早期的计算机使用7位的ASCII编码,为了处理汉字,程序员设计了用于简体中文的GB2312和用于繁体中文的big5。

GB2312(1980年)一共收录了7445个字符,包括6763个汉字和682个其它符号。

汉字区的内码范围高字节从B0-F7,低字节从A1-FE,占用的码位是72*94=6768。

其中有5个空位是D7FA-D7FE。

GB2312支持的汉字太少。

1995年的汉字扩展规范GBK1.0收录了21886个符号,它分为汉字区和图形符号区。

汉字区包括21003个字符。

2000年的GB18030是取代GBK1.0的正式国家标准。

该标准收录了27484个汉字,同时还收录了藏文、蒙文、维吾尔文等主要的少数民族文字。

现在的PC平台必须支持GB18030,对嵌入式产品暂不作要求。

所以手机、MP3一般只支持GB2312。

从ASCII、GB2312、GBK到GB18030,这些编码方法是向下兼容的,即同一个字符在这些方案中总是有相同的编码,后面的标准支持更多的字符。

在这些编码中,英文和中文可以统一地处理。

区分中文编码的方法是高字节的最高位不为0。

按照程序员的称呼,GB2312、GBK到GB18030都属于双字节字符集(DBCS)。

有的中文Windows的缺省内码还是GBK,可以通过GB18030升级包升级到GB18030。

不过GB18030相对GBK增加的字符,普通人是很难用到的,通常我们还是用GBK指代中文Windows内码。

这里还有一些细节:

GB2312的原文还是区位码,从区位码到内码,需要在高字节和低字节上分别加上A0。

在DBCS中,GB内码的存储格式始终是bigendian,即高位在前。

GB2312的两个字节的最高位都是1。

但符合这个条件的码位只有128*128=16384个。

所以GBK和GB18030的低字节最高位都可能不是1。

不过这不影响DBCS字符流的解析:

在读取DBCS字符流时,只要遇到高位为1的字节,就可以将下两个字节作为一个双字节编码,而不用管低字节的高位是什么。

3、Unicode、UCS和UTF(UCSTransformationFormat)

前面提到从ASCII、GB2312、GBK到GB18030的编码方法是向下兼容的。

而Unicode只与ASCII兼容(更准确地说,是与ISO-8859-1兼容),与GB码不兼容。

例如“汉”字的Unicode编码是6C49,而GB码是BABA。

UCS规定了怎么用多个字节表示各种文字。

而怎样传输这些编码,是由UTF(UCSTransformationFormat)规范规定的!

常见的UTF规范包括UTF-8、UTF-7、UTF-16。

4、UTF的字节序和BOM

UTF-8以字节为编码单元,没有字节序的问题。

UTF-16以两个字节为编码单元,在解释一个UTF-16文本前,首先要弄清楚每个编码单元的字节序。

例如收到一个“奎”的Unicode编码是594E,“乙”的Unicode编码是4E59。

如果我们收到UTF-16字节流“594E”,那么这是“奎”还是“乙”?

Unicode规范中推荐的标记字节顺序的方法是BOM。

BOM不是“BillOfMaterial”的BOM表,而是ByteOrderMark。

BOM是一个有点小聪明的想法:

在UCS编码中有一个叫做"ZEROWIDTHNO-BREAKSPACE"的字符,它的编码是FEFF。

而FFFE在UCS中是不存在的字符,所以不应该出现在实际传输中。

UCS规范建议我们在传输字节流前,先传输字符"ZEROWIDTHNO-BREAKSPACE"。

这样如果接收者收到FEFF,就表明这个字节流是Big-Endian的;如果收到FFFE,就表明这个字节流是Little-Endian的。

因此字符"ZEROWIDTHNO-BREAKSPACE"又被称作BOM。

UTF-8不需要BOM来表明字节顺序,但可以用BOM来表明编码方式。

字符"ZEROWIDTHNO-BREAKSPACE"的UTF-8编码是EFBBBF(读者可以用我们前面介绍的编码方法验证一下)。

所以如果接收者收到以EFBBBF开头的字节流,就知道这是UTF-8编码了。

Windows就是使用BOM来标记文本文件的编码方式的。

写到这里对编码有了大致的了解了,就可以理解网上一些文章的话了,比如有一篇很流行的文章《URL编码与SQL注射》里面有一段是这么说的:

其实url编码就是一个字符ascii码的十六进制。

不过稍微有些变动,需要在前面加上“%”。

比如“\”,它的ascii码是92,92的十六进制是5c,所以“\”的url编码就是%5c。

那么汉字的url编码呢?

很简单,看例子:

“胡”的ascii码是-17670,十六进制是BAFA,url编码是“%BA%FA”。

呵呵,知道怎么转换的了吧。

这得从ASCII说起,扩展的ASCII字符集采用8bit255个字符显然不够用,于是各个国家纷纷制定了自己的文字编码规范,其中中文的文字编码规范叫做“GB2312-80”(就是GB2312),它是和ASCII兼容的一种编码规范,其实就是用扩展ASCII没有真正标准化这一点,把一个中文字符用两个扩展ASCII字符来表示。

文中说的的中文ASCII码实际上就是简体中文的编码2312GB!

它把ASCII又扩充了一个字节,由于高位的第一位是0,所以会出现负数的形式,url编码就是将汉字的这个GB2312编码转化成UTF-8的编码并且每8位即一个字节前面加上%符号表示。

那为何UTF-8是进行网络的规范传输编码呢?

在Unicode里,所有的字符被一视同仁。

汉字不再使用“两个扩展ASCII”,而是使用“1个Unicode”,注意,现在的汉字是“一个字符”了,于是,拆字、统计字数这些问题也就自然而然的解决了。

但是,这个世界不是理想的,不可能在一夜之间所有的系统都使用Unicode来处理字符,所以Unicode在诞生之日,就必须考虑一个严峻的问题:

和ASCII字符集之间的不兼容问题。

我们知道,ASCII字符是单个字节的,比如“A”的ASCII是65。

而Unicode是双字节的,比如“A”的Unicode是0065,这就造成了一个非常大的问题:

以前处理ASCII的那套机制不能被用来处理Unicode了

另一个更加严重的问题是,C语言使用'\0'作为字符串结尾,而Unicode里恰恰有很多字符都有一个字节为0,这样一来,C语言的字符串函数将无法正常处理Unicode,除非把世界上所有用C写的程序以及他们所用的函数库全部换掉

于是,比Unicode更伟大的东东诞生了,之所以说它更伟大是因为它让Unicode不再存在于纸上,而是真实的存在于我们大家的电脑中。

那就是:

UTF

UTF=UCSTransformationFormatUCS转换格式,它是将Unicode编码规则和计算机的实际编码对应起来的一个规则。

现在流行的UTF有2种:

UTF-8和UTF-16

其中UTF-16和上面提到的Unicode本身的编码规范是一致的,这里不多说了。

而UTF-8不同,它定义了一种“区间规则”,这种规则可以和ASCII编码保持最大程度的兼容,这样做的好处是压缩了字符在西欧一些国家的内存消耗,减少了不必要的资源浪费,这在实际应用中是非常有必要的。

UTF-8有点类似于Haffman编码,它将Unicode编码为:

00000000-0000007F的字符,用单个字节来表示;

00000080-000007FF的字符用两个字节表示(中文的编码范围)

00000800-0000FFFF的字符用3字节表示

因为目前为止Unicode-16规范没有指定FFFF以上的字符,所以UTF-8最多是使用3个字节来表示一个字符。

但理论上来说,UTF-8最多需要用6字节表示一个字符。

在UTF-8里,英文字符仍然跟ASCII编码一样,因此原先的函数库可以继续使用。

而中文的编码范围是在0080-07FF之间,因此是2个字节表示(但这两个字节和GB编码的两个字节是不同的)。

看看编码之多:

ANSI,AscII,GB2312,GBK,BIG5,GB18030,Unicode,UCS(就是unicode)Utf-8,utf-16,utf-32整整10种编码~,算是够复杂了

可是这还仅仅是个开始,应用方面变化无穷,不过现在看到这些东西起码再不会头大了!

呼呼~

哦,漏了一个加密的base64编码。

什么是Base64?

按照RFC2045的定义,Base64被定义为:

Base64内容传送编码被设计用来把任意序列的8位字节描述为一种不易被人直接识别的形式。

(TheBase64Content-Transfer-Encodingisdesignedtorepresentarbitrarysequencesofoctetsinaformthatneednotbehumanlyreadable.)

为什么要使用Base64?

在设计这个编码的时候,我想设计人员最主要考虑了3个问题:

1.是否加密?

2.加密算法复杂程度和效率

3.如何处理传输?

加密是肯定的,但是加密的目的不是让用户发送非常安全的Email。

这种加密方式主要就是“防君子不防小人”。

即达到一眼望去完全看不出内容即可。

基于这个目的加密算法的复杂程度和效率也就不能太大和太低。

和上一个理由类似,MIME协议等用于发送Email的协议解决的是如何收发Email,而并不是如何安全的收发Email。

因此算法的复杂程度要小,效率要高,否则因为发送Email而大量占用资源,路就有点走歪了。

但是,如果是基于以上两点,那么我们使用最简单的恺撒法即可,为什么Base64看起来要比恺撒法复杂呢?

这是因为在Email的传送过程中,由于历史原因,Email只被允许传送ASCII字符,即一个8位字节的低7位。

因此,如果您发送了一封带有非ASCII字符(即字节的最高位是1)的Email通过有“历史问题”的网关时就可能会出现问题。

网关可能会把最高位置为0!

很明显,问题就这样产生了!

因此,为了能够正常的传送Email,这个问题就必须考虑!

所以,单单靠改变字母的位置的恺撒之类的方案也就不行了。

关于这一点可以参考RFC2046。

基于以上的一些主要原因产生了Base64编码。

鉴于算法比较让人头大,想看的人自然会有看到的办法拉,俺是头大得很,就不放上来了。

转换内码gb2312为utf-8

asp批量转换文件编码(只把汉字转换成utf8)

''文件名称:

gb2312转utf-8

''编写目的:

批量转换asp文件编码,只转换汉字,wap开发用;

''特别提示:

请建立新的网站放在根目录下使用,切勿在虚拟目录中使用;server支持fsopoweredby

''使用前说明:

把代码复制保存为gb-utf.asp,放在web文件夹根目录下面,在web根目录下面新建utf8文件夹(存放转换后的web文件);一切完成后访问运行gb-uft.asp即可;如我本机是http:

//127.0.0.1/gb-utf.asp;

下载该文件:

gb-utf.asp文件内内容为:

timeStart=now()''页面开始执行时间

setfileSysObj=CreateObject("Scripting.FileSystemObject")''建立fso对象

setf=fileSysObj.GetFolder(server.MapPath("/"))

''检查是否存在输出的根目录

ifnotfileSysObj.folderexists(server.MapPath("/"))then

 fileSysObj.CreateFolder(server.MapPath("/utf8"))

endif

''遍历根目录下面的文件,除了gb-utf.asp文件

response.Write"=====================转换文件清单如下======================="

setffl=f.files

foreachfilinffl

iffil.name<>"gb-utf.asp"then

 ifright(fil.name,3)

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 医药卫生 > 基础医学

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1