字符和编码.docx

上传人:b****3 文档编号:5453212 上传时间:2022-12-16 格式:DOCX 页数:19 大小:30.36KB
下载 相关 举报
字符和编码.docx_第1页
第1页 / 共19页
字符和编码.docx_第2页
第2页 / 共19页
字符和编码.docx_第3页
第3页 / 共19页
字符和编码.docx_第4页
第4页 / 共19页
字符和编码.docx_第5页
第5页 / 共19页
点击查看更多>>
下载资源
资源描述

字符和编码.docx

《字符和编码.docx》由会员分享,可在线阅读,更多相关《字符和编码.docx(19页珍藏版)》请在冰豆网上搜索。

字符和编码.docx

字符和编码

字符集charcterset字符的集合

字符编码Encoding如何将二进制数据识别为字符的编码

Unicode使一种字符集

UTF-8UTF-16是两种编码,他们能够表示Unicode字符集的所有字符。

1.编码问题的由来,相关概念的理解

1.1字符与编码的发展

从计算机对多国语言的支持角度看,大致可以分为三个阶段:

 

系统内码

说明

系统

阶段一

ASCII

计算机刚开始只支持英语,其它语言不能够在计算机上存储和显示。

英文DOS

阶段二

ANSI编码

(本地化)

为使计算机支持更多语言,通常使用0x80~0xFF范围的2个字节来表示1个字符。

比如:

汉字'中'在中文操作系统中,使用[0xD6,0xD0]这两个字节存储。

不同的国家和地区制定了不同的标准,由此产生了GB2312,BIG5,JIS等各自的编码标准。

这些使用2个字节来代表一个字符的各种汉字延伸编码方式,称为ANSI编码。

在简体中文系统下,ANSI编码代表GB2312编码,在日文操作系统下,ANSI编码代表JIS编码。

不同ANSI编码之间互不兼容,当信息在国际间交流时,无法将属于两种语言的文字,存储在同一段ANSI编码的文本中。

中文DOS,中文Windows95/98,日文Windows95/98

阶段三

UNICODE

(国际化)

为了使国际间信息交流更加方便,国际组织制定了UNICODE字符集,为各种语言中的每一个字符设定了统一并且唯一的数字编号,以满足跨语言、跨平台进行文本转换、处理的要求。

WindowsNT/2000/XP,Linux,Java

 

字符串在内存中的存放方法:

在ASCII阶段,单字节字符串使用一个字节存放一个字符(SBCS)。

比如,"Bob123"在内存中为:

42

6F

62

31

32

33

00

B

o

b

1

2

3

\0

在使用ANSI编码支持多种语言阶段,每个字符使用一个字节或多个字节来表示(MBCS),因此,这种方式存放的字符也被称作多字节字符。

比如,"中文123"在中文Windows95内存中为7个字节,每个汉字占2个字节,每个英文和数字字符占1个字节:

D6

D0

CE

C4

31

32

33

00

1

2

3

\0

在UNICODE被采用之后,计算机存放字符串时,改为存放每个字符在UNICODE字符集中的序号。

目前计算机一般使用2个字节(16位)来存放一个序号(DBCS),因此,这种方式存放的字符也被称作宽字节字符。

比如,字符串"中文123"在Windows2000下,内存中实际存放的是5个序号:

2D

4E

87

65

31

00

32

00

33

00

00

00

    ←在x86CPU中,低字节在前

1

2

3

\0

 

一共占10个字节。

1.2字符,字节,字符串

理解编码的关键,是要把字符的概念和字节的概念理解准确。

这两个概念容易混淆,我们在此做一下区分:

 

概念描述

举例

字符

人们使用的记号,抽象意义上的一个符号。

'1','中','a','$','¥',……

字节

计算机中存储数据的单元,一个8位的二进制数,是一个很具体的存储空间。

0x01,0x45,0xFA,……

ANSI

字符串

在内存中,如果“字符”是以ANSI编码形式存在的,一个字符可能使用一个字节或多个字节来表示,那么我们称这种字符串为ANSI字符串或者多字节字符串。

"中文123"

(占7字节)

UNICODE

字符串

在内存中,如果“字符”是以在UNICODE中的序号存在的,那么我们称这种字符串为UNICODE字符串或者宽字节字符串。

L"中文123"

(占10字节)

由于不同ANSI编码所规定的标准是不相同的,因此,对于一个给定的多字节字符串,我们必须知道它采用的是哪一种编码规则,才能够知道它包含了哪些“字符”。

而对于UNICODE字符串来说,不管在什么环境下,它所代表的“字符”内容总是不变的。

1.3字符集与编码

各个国家和地区所制定的不同ANSI编码标准中,都只规定了各自语言所需的“字符”。

比如:

汉字标准(GB2312)中没有规定韩国语字符怎样存储。

这些ANSI编码标准所规定的内容包含两层含义:

1.使用哪些字符。

也就是说哪些汉字,字母和符号会被收入标准中。

所包含“字符”的集合就叫做“字符集”。

2.规定每个“字符”分别用一个字节还是多个字节存储,用哪些字节来存储,这个规定就叫做“编码”。

各个国家和地区在制定编码标准的时候,“字符的集合”和“编码”一般都是同时制定的。

因此,平常我们所说的“字符集”,比如:

GB2312,GBK,JIS等,除了有“字符的集合”这层含义外,同时也包含了“编码”的含义。

“UNICODE字符集”包含了各种语言中使用到的所有“字符”。

用来给UNICODE字符集编码的标准有很多种,比如:

UTF-8,UTF-7,UTF-16,UnicodeLittle,UnicodeBig等。

1.4常用的编码简介

简单介绍一下常用的编码规则,为后边的章节做一个准备。

在这里,我们根据编码规则的特点,把所有的编码分成三类:

分类

编码标准

说明

单字节字符编码

ISO-8859-1

最简单的编码规则,每一个字节直接作为一个UNICODE字符。

比如,[0xD6,0xD0]这两个字节,通过iso-8859-1转化为字符串时,将直接得到[0x00D6,0x00D0]两个UNICODE字符,即"ÖÐ"。

反之,将UNICODE字符串通过iso-8859-1转化为字节串时,只能正常转化0~255范围的字符。

ANSI编码

GB2312,

BIG5,

Shift_JIS,

ISO-8859-2……

把UNICODE字符串通过ANSI编码转化为“字节串”时,根据各自编码的规定,一个UNICODE字符可能转化成一个字节或多个字节。

反之,将字节串转化成字符串时,也可能多个字节转化成一个字符。

比如,[0xD6,0xD0]这两个字节,通过GB2312转化为字符串时,将得到[0x4E2D]一个字符,即'中'字。

“ANSI编码”的特点:

1.这些“ANSI编码标准”都只能处理各自语言范围之内的UNICODE字符。

2.“UNICODE字符”与“转换出来的字节”之间的关系是人为规定的。

UNICODE编码

UTF-8,

UTF-16,UnicodeBig……

与“ANSI编码”类似的,把字符串通过UNICODE编码转化成“字节串”时,一个UNICODE字符可能转化成一个字节或多个字节。

与“ANSI编码”不同的是:

1.这些“UNICODE编码”能够处理所有的UNICODE字符。

2.“UNICODE字符”与“转换出来的字节”之间是可以通过计算得到的。

我们实际上没有必要去深究每一种编码具体把某一个字符编码成了哪几个字节,我们只需要知道“编码”的概念就是把“字符”转化成“字节”就可以了。

对于“UNICODE编码”,由于它们是可以通过计算得到的,因此,在特殊的场合,我们可以去了解某一种“UNICODE编码”是怎样的规则。

2.字符与编码在程序中的实现

2.1程序中的字符与字节

在C++和Java中,用来代表“字符”和“字节”的数据类型,以及进行编码的方法:

类型或操作

C++

Java

字符

wchar_t

char

字节

char

byte

ANSI字符串

char[]

byte[]

UNICODE字符串

wchar_t[]

String

字节串→字符串

mbstowcs(),MultiByteToWideChar()

string=newString(bytes,"encoding")

字符串→字节串

wcstombs(),WideCharToMultiByte()

bytes=string.getBytes("encoding")

以上需要注意几点:

1.Java中的char代表一个“UNICODE字符(宽字节字符)”,而C++中的char代表一个字节。

2.MultiByteToWideChar()和WideCharToMultiByte()是WindowsAPI函数。

回页首

2.2C++中相关实现方法

声明一段字符串常量:

//ANSI字符串,内容长度7字节

char    sz[20]="中文123";

//UNICODE字符串,内容长度5个wchar_t(10字节)

wchar_twsz[20]=L"\x4E2D\x6587\x0031\x0032\x0033";

UNICODE字符串的I/O操作,字符与字节的转换操作:

//运行时设定当前ANSI编码,VC格式

setlocale(LC_ALL,".936");

//GCC中格式

setlocale(LC_ALL,"zh_CN.GBK");

//VisualC++中使用小写%s,按照setlocale指定编码输出到文件

//GCC中使用大写%S

fwprintf(fp,L"%s\n",wsz);

//把UNICODE字符串按照setlocale指定的编码转换成字节

wcstombs(sz,wsz,20);

//把字节串按照setlocale指定的编码转换成UNICODE字符串

mbstowcs(wsz,sz,20);

在VisualC++中,UNICODE字符串常量有更简单的表示方法。

如果源程序的编码与当前默认ANSI编码不符,则需要使用#pragmasetlocale,告诉编译器源程序使用的编码:

//如果源程序的编码与当前默认ANSI编码不一致,

//则需要此行,编译时用来指明当前源程序使用的编码

#pragmasetlocale(".936")

//UNICODE字符串常量,内容长度10字节

wchar_twsz[20]=L"中文123";

以上需要注意#pragmasetlocale与setlocale(LC_ALL,"")的作用是不同的,#pragmasetlocale在编译时起作用,setlocale()在运行时起作用。

回页首

2.3Java中相关实现方法

字符串类String中的内容是UNICODE字符串:

//Java代码,直接写中文

Stringstring="中文123";

//得到长度为5,因为是5个字符

System.out.println(string.length());

字符串I/O操作,字符与字节转换操作。

在Java包java.io.*中,以“Stream”结尾的类一般是用来操作“字节串”的类,以“Reader”,“Writer”结尾的类一般是用来操作“字符串”的类。

//字符串与字节串间相互转化

//按照GB2312得到字节(得到多字节字符串)

byte[]bytes=string.getBytes("GB2312");

//从字节按照GB2312得到UNICODE字符串

string=newString(bytes,"GB2312");

//要将String按照某种编码写入文本文件,有两种方法:

//第一种办法:

用Stream类写入已经按照指定编码转化好的字节串

OutputStreamos=newFileOutputStream("1.txt");

os.write(bytes);

os.close();

//第二种办法:

构造指定编码的Writer来写入字符串

Writerow=newOutputStreamWriter(newFileOutputStream("2.txt"),"GB2312");

ow.write(string);

ow.close();

/*最后得到的1.txt和2.txt都是7个字节*/

如果java的源程序编码与当前默认ANSI编码不符,则在编译的时候,需要指明一下源程序的编码。

比如:

E:

\>javac-encodingBIG5Hello.java

以上需要注意区分源程序的编码与I/O操作的编码,前者是在编译时起作用,后者是在运行时起作用。

回页首

3.几种误解,以及乱码产生的原因和解决办法

3.1容易产生的误解

 

对编码的误解

误解一

在将“字节串”转化成“UNICODE字符串”时,比如在读取文本文件时,或者通过网络传输文本时,容易将“字节串”简单地作为单字节字符串,采用每“一个字节”就是“一个字符”的方法进行转化。

而实际上,在非英文的环境中,应该将“字节串”作为ANSI字符串,采用适当的编码来得到UNICODE字符串,有可能“多个字节”才能得到“一个字符”。

通常,一直在英文环境下做开发的程序员们,容易有这种误解。

误解二

在DOS,Windows98等非UNICODE环境下,字符串都是以ANSI编码的字节形式存在的。

这种以字节形式存在的字符串,必须知道是哪种编码才能被正确地使用。

这使我们形成了一个惯性思维:

“字符串的编码”。

当UNICODE被支持后,Java中的String是以字符的“序号”来存储的,不是以“某种编码的字节”来存储的,因此已经不存在“字符串的编码”这个概念了。

只有在“字符串”与“字节串”转化时,或者,将一个“字节串”当成一个ANSI字符串时,才有编码的概念。

不少的人都有这个误解。

第一种误解,往往是导致乱码产生的原因。

第二种误解,往往导致本来容易纠正的乱码问题变得更复杂。

在这里,我们可以看到,其中所讲的“误解一”,即采用每“一个字节”就是“一个字符”的转化方法,实际上也就等同于采用iso-8859-1进行转化。

因此,我们常常使用bytes=string.getBytes("iso-8859-1")来进行逆向操作,得到原始的“字节串”。

然后再使用正确的ANSI编码,比如string=newString(bytes,"GB2312"),来得到正确的“UNICODE字符串”。

回页首

3.2非UNICODE程序在不同语言环境间移植时的乱码

非UNICODE程序中的字符串,都是以某种ANSI编码形式存在的。

如果程序运行时的语言环境与开发时的语言环境不同,将会导致ANSI字符串的显示失败。

比如,在日文环境下开发的非UNICODE的日文程序界面,拿到中文环境下运行时,界面上将显示乱码。

如果这个日文程序界面改为采用UNICODE来记录字符串,那么当在中文环境下运行时,界面上将可以显示正常的日文。

由于客观原因,有时候我们必须在中文操作系统下运行非UNICODE的日文软件,这时我们可以采用一些工具,比如,南极星,AppLocale等,暂时的模拟不同的语言环境。

回页首

3.3网页提交字符串

当页面中的表单提交字符串时,首先把字符串按照当前页面的编码,转化成字节串。

然后再将每个字节转化成"%XX"的格式提交到Web服务器。

比如,一个编码为GB2312的页面,提交"中"这个字符串时,提交给服务器的内容为"%D6%D0"。

在服务器端,Web服务器把收到的"%D6%D0"转化成[0xD6,0xD0]两个字节,然后再根据GB2312编码规则得到"中"字。

在Tomcat服务器中,request.getParameter()得到乱码时,常常是因为前面提到的“误解一”造成的。

默认情况下,当提交"%D6%D0"给Tomcat服务器时,request.getParameter()将返回[0x00D6,0x00D0]两个UNICODE字符,而不是返回一个"中"字符。

因此,我们需要使用bytes=string.getBytes("iso-8859-1")得到原始的字节串,再用string=newString(bytes,"GB2312")重新得到正确的字符串"中"。

回页首

3.4从数据库读取字符串

通过数据库客户端(比如ODBC或JDBC)从数据库服务器中读取字符串时,客户端需要从服务器获知所使用的ANSI编码。

当数据库服务器发送字节流给客户端时,客户端负责将字节流按照正确的编码转化成UNICODE字符串。

如果从数据库读取字符串时得到乱码,而数据库中存放的数据又是正确的,那么往往还是因为前面提到的“误解一”造成的。

解决的办法还是通过string=newString(string.getBytes("iso-8859-1"),"GB2312")的方法,重新得到原始的字节串,再重新使用正确的编码转化成字符串。

回页首

3.5电子邮件中的字符串

当一段Text或者HTML通过电子邮件传送时,发送的内容首先通过一种指定的字符编码转化成“字节串”,然后再把“字节串”通过一种指定的传输编码(Content-Transfer-Encoding)进行转化得到另一串“字节串”。

比如,打开一封电子邮件源代码,可以看到类似的内容:

Content-Type:

text/plain;

       charset="gb2312"

Content-Transfer-Encoding:

base64

sbG+qcrQuqO17cf4yee74bGjz9W7+b3wudzA7dbQ0MQNCg0KvPKzxqO6uqO17cnnsaPW0NDEDQoNCg==

最常用的Content-Transfer-Encoding有Base64和Quoted-Printable两种。

在对二进制文件或者中文文本进行转化时,Base64得到的“字节串”比Quoted-Printable更短。

在对英文文本进行转化时,Quoted-Printable得到的“字节串”比Base64更短。

邮件的标题,用了一种更简短的格式来标注“字符编码”和“传输编码”。

比如,标题内容为"中",则在邮件源代码中表示为:

//正确的标题格式

Subject:

=?

GB2312?

B?

1tA=?

=

其中,

∙第一个“=?

”与“?

”中间的部分指定了字符编码,在这个例子中指定的是GB2312。

∙“?

”与“?

”中间的“B”代表Base64。

如果是“Q”则代表Quoted-Printable。

∙最后“?

”与“?

=”之间的部分,就是经过GB2312转化成字节串,再经过Base64转化后的标题内容。

如果“传输编码”改为Quoted-Printable,同样,如果标题内容为"中":

//正确的标题格式

Subject:

=?

GB2312?

Q?

=D6=D0?

=

如果阅读邮件时出现乱码,一般是因为“字符编码”或“传输编码”指定有误,或者是没有指定。

比如,有的发邮件组件在发送邮件时,标题"中":

//错误的标题格式

Subject:

=?

ISO-8859-1?

Q?

=D6=D0?

=

这样的表示,实际上是明确指明了标题为[0x00D6,0x00D0],即"ÖÐ",而不是"中"。

回页首

4.几种错误理解的纠正

误解:

“ISO-8859-1是国际编码?

非也。

iso-8859-1只是单字节字符集中最简单的一种,也就是“字节编号”与“UNICODE字符编号”一致的那种编码规则。

当我们要把一个“字节串”转化成“字符串”,而又不知道它是哪一种ANSI编码时,先暂时地把“每一个字节”作为“一个字符”进行转化,不会造成信息丢失。

然后再使用bytes=string.getBytes("iso-8859-1")的方法可恢复到原始的字节串。

误解:

“Java中,怎样知道某个字符串的内码?

Java中,字符串类java.lang.String处理的是UNICODE字符串,不是ANSI字符串。

我们只需要把字符串作为“抽象的符号的串”来看待。

因此不存在字符串的内码的问题。

 

中国文字的历史是5千年,根据我们现在在文献记载可以看见的大约是20万个各种各样的字

.1949年,为了扫除文盲和普及文化,在50年代-60年代根据最常用的字进行了两个重要的规

范,一个是对文字的读音进行拼音化标准,原来是四角号码和注音.另一个就是对1千多个常

用字进行简化,加上常用的不能简化的字,推出了国家一级字库,大约是几千个字.这两项改

革使得中国大部分人走上了脱盲的道路.在70年代上,计算机要使用汉字,标准和规范都是外

国和台湾的,实际上主要是外国的.80年代开始,个人计算机大量在中国使用,国家规定了G

B2312的标准,在CCDOS上开始使用.GB2312在字形上是采用的中国国家颁布的汉字字形,全部

是有拼音的,但是在编码上,为了保证计算机上的使用,采用的是ISO2022的编码法则.对于当

时,不同的国家,只有标准字符集和标准符号集在ISO2022中,不同国家的编码区域是完全一

样的,但是在各自的文字区域是复用的,即,如果安装了GB2312就无法兼容安装日本的标准编

码.在80年代末期和90年代初期,海峡两岸的交流越来越多,却出现了在计算机上文字互补兼

容的问题,在90年代初期,制定了一个GBK的规范,就是在大陆的6763字后面,增加BIG5里面的

15000汉字的部分.这个部分是字型与台湾的字型是一样的,但是编码仍然是ISO2022.同时8

0年代末期,国际上已经开始重视文化在计算机上的交流,提出了国际统一码的概念,就是在

一个编码体系里面容下全世界的文字.针对这个倡议,世界各国组织了Unicode委员会,同时

也制定了一个新的编码标准,就是ISO10646编码.由于90年代初期,认识的局限性,中国没有

积极的参与这个活动,日本,韩国在第一个标准里面占据了大量的码位,后来成立了Super

C.J.K小组进行协调,在这个标准里面,把大陆,台湾的字型都放在里面的话由中国人占据的

码位是20902个,含了所有的GB2312,GBK

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 医药卫生 > 基础医学

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1