全国计算机等级考试一级教程——计算机基础及MS Office应用全书课件.pptx

上传人:b****9 文档编号:10162369 上传时间:2023-02-08 格式:PPTX 页数:1026 大小:6.76MB
下载 相关 举报
全国计算机等级考试一级教程——计算机基础及MS Office应用全书课件.pptx_第1页
第1页 / 共1026页
全国计算机等级考试一级教程——计算机基础及MS Office应用全书课件.pptx_第2页
第2页 / 共1026页
全国计算机等级考试一级教程——计算机基础及MS Office应用全书课件.pptx_第3页
第3页 / 共1026页
全国计算机等级考试一级教程——计算机基础及MS Office应用全书课件.pptx_第4页
第4页 / 共1026页
全国计算机等级考试一级教程——计算机基础及MS Office应用全书课件.pptx_第5页
第5页 / 共1026页
点击查看更多>>
下载资源
资源描述

全国计算机等级考试一级教程——计算机基础及MS Office应用全书课件.pptx

《全国计算机等级考试一级教程——计算机基础及MS Office应用全书课件.pptx》由会员分享,可在线阅读,更多相关《全国计算机等级考试一级教程——计算机基础及MS Office应用全书课件.pptx(1026页珍藏版)》请在冰豆网上搜索。

全国计算机等级考试一级教程——计算机基础及MS Office应用全书课件.pptx

全国计算机等级考试一级教程计算机基础及MSOffice应用第1章计算机基础知识电子数字计算机是20世纪重大科技发明之一。

在人类科学发展的历史上,还没有哪门学科像计算机科学这样发展得如此迅速,并对人类的生活、学习和工作产生如此巨大的影响。

人们把21世纪称为信息化时代,其标志就是计算机的广泛应用。

计算机是一门科学,但也成为信息社会中必不可少的工具。

因此,越来越多的人认识到,掌握计算机尤其是微型计算机的使用,是有效学习和成功工作的基本技能。

本章从计算机的基础知识讲起,为进一步学习与使用计算机打下必要的基础。

通过本章学习,应掌握以下几点:

1.计算机的发展简史、特点、分类及其应用领域。

2.数制的基本概念,二进制和十进制整数之间的转换。

3.计算机中数据的表示、存储与处理。

4.计算机中数据、字符和汉字的编码。

5.多媒体技术的概念与应用。

6.计算机的性能和技术指标。

7.计算机病毒的概念和防治。

1.1计算机的发展在人类文明发展的历程中,曾发明和使用过许多辅助计算工具。

如远古时期的“绳”,战国时的“算筹”,我们祖先发明的算盘,欧洲人的计算尺、计算器、手摇或机械计算机。

计算工具的发明和利用,极大地扩展和提高了人脑的功能。

随着基础理论的研究与先进思想的出现,也推动了计算机的发展。

1.1.1计算机的发展1946年,由宾夕法尼亚大学的物理教授莫克利和工程师埃克特领导的科研小组开发了世界上第一台多用途计算机ENIAC。

这台机器共用了18000个电子管,占地170平方米,功率150千瓦,重达30吨。

每秒可运行约5000次加减运算,它虽然庞大笨重,却标志着计算机时代的到来。

1946年,匈牙利出生的美籍数学家冯诺依曼提出了在数学计算机内部的存储器中存放程序的概念,即“存储程序”的思想,该设计思想对后来计算机的发展产生了深远影响。

后人称采用该结构的计算机为“冯诺依曼计算机”。

目前,绝大多数电子计算机都是“冯诺依曼计算机”。

因此,冯诺依曼被誉为“现代计算机之父”。

关于冯诺依曼提出的存储程序的概念,有以下特点:

1采用二进制代码表示指令和数据。

2采用存储程序方式,将事先编制好的程序存入存储器中,计算机在程序运行时就能自动地、连续地从存储器中依次取出指令并且运行。

冯诺依曼计算机具有数据存储、操作判断与控制、数据处理、数据输入与输出5大功能对应5个功能部件,即存储器、控制单元、算术逻辑运算单元、输入单元和输出单元,各部件的操作及其相互之间的联系由控制单元集中控制。

计算机自从诞生之日起,就以惊人的速度发展。

到目前为止,电子计算机已经经历了4个发展阶段。

表1-1所示为计算机发展的四个阶段。

我国计算机的发展概况如下:

1958年研制成功第一台电子管计算机。

1964年研制成功第二代晶体管计算机。

1971年研制成功以集成电路为主要器件的DJS系列机。

1983年研制成功亿次巨型计算机“银河”。

1995年研制成功第一套大规模并行机系统“曙光”。

2008年研制成功百万亿次超级计算机“曙光5000”。

2009年研制成功中国第一台千万亿次超级计算机“天河一号”。

1.1.2计算机的特点、用途和分类1计算机的特点计算机是能高速、精确、自动进行科学计算及信息处理的现代化设备。

与其他工具相比,计算机具有以下特点:

(1)运算速度快、精度高计算机的运算速度是指在单位时间内执行指令平均条数。

目前,计算机的运算速度已经达到数万亿次/秒。

计算精度主要取决于字长。

目前最新的微处理器的字长为64位。

2存储容量大计算机具有强大的存储数据的能力。

目前常用来存储信息的硬盘,单盘容量已达到200GB。

3具有逻辑判断能力计算机的工作原理是基于逻辑的,所以它还是具有逻辑判断能力,从而能完成许多复杂问题的分析。

4具有自动运行能力计算机能按照存储在其中的程序自动运行。

一旦计算机启动,控制单元就顺序地访问存储器、读出指令,逐条解释执行指令,不需人直接干预。

计算机还具有一些其他的特性,如通用性强、适用范围广、具有网络与通信功能等。

2计算机的用途随着计算机的不断发展,20世纪末计算机的应用已渗透到社会各行各业,改变着传统的工作、学习和生活方式。

当前,计算机的应用可分为科学计算、数据处理、过程控制、计算机辅助、多媒体应用、网络与通信、人工智能等多个方面。

(1)科学计算科学计算是指用计算机来完成科学研究和工程技术中所需要的数学计算,这是计算机最早的,也是最重要的应用领域。

由于计算机具有计算速度快、精度高、储存容量大以及能够连续运算的特点,所以它不仅提高了工作效率,还解决了一些人工无法解决的复杂计算问题。

2数据处理数据处理也称非数值计算,是指对大量的数据进行加工处理,如收集、存储、归纳、分类、整理、检索、统计、分析等。

3过程控制过程控制也称实时控制,是指用计算机及时采集、检测工业生产过程中的状态参数,按照相应的标准或最优化的目标,迅速对控制对象进行自动调节或控制。

4计算机辅助计算机辅助设计(CAD)就是用计算机帮助设计人员进行设计。

计算机辅助制造(CAM)就是用计算机进行设备的管理、控制和操作的过程。

计算机辅助还包括:

计算机辅助教学(CAI)、计算机辅助工程(CAE)、计算机辅助技术(CAT)。

5多媒体应用多媒体是一种以交互方式,将文本、图形、图像、音频、视频等多种媒体信息,经过计算机设备的获取、操作、编辑、存储等综合处理后,将这些媒体信息以单独或合成的形态表现出来的技术和方法。

6网络与通信将一个建筑物内的计算机和世界各地的计算机通过电话交换网等方式连接起来,就可以构成一个巨大的计算机网络系统,做到资源共享,相互交流。

计算机网络的应用所涉及的主要技术是网络互联技术、路由技术、数据通信技术,以及信息浏览技术和网络安全技术等。

计算机通信几乎就是现代通信的代名词,如目前发展势头已经超过传统固定电话的移动通信就是基于计算机技术的通信方式。

7人工智能人工智能(AI)是用计算机模拟人类的智能活动,如判断、理解、学习、图像识别、问题求解等。

它是在计算机科学控制论、仿生学和心理学等学科基础上发展起来的一门交叉学科。

人工智能始终是计算机科学领域中一个重要的研究方向。

3计算机的类型计算机发展到今天,已是琳琅满目,种类繁多。

分类方法各不相同,分类标准也不是固定不变的,只能针对某一个时期而言。

1按处理数据的类型分类按处理数据的类型分可分为数字计算机、模拟计算机及数字和模拟计算机。

2按用途分类按用途分可分为通用计算机和专用计算机。

(3)按性能规模分类按性能规模分可分为巨型机、大型机、小型机、微型机和工作站。

巨型机巨型机的特点是运算速度快、存储容量大。

目前世界上只有少数国家能生产巨型机。

我国目前自主研发的“银河”就属于巨型机。

主要用于核武器、空间站技术、大范围天气预报、石油勘探等领域。

大型机大型机的特点是通用性强,具有很强的综合处理能力,性能覆盖面广,主要应用于公司、银行、政府部门。

通常人们称大型机为企业计算机。

小型机小型机规模小、结构简单、设计周期短,便于及时采用先进工艺。

其特点是可靠性高,对运行环境要求低,易于操作且便于维护。

微型机微型计算机又称个人计算机,它是日常生活中使用最多、最普遍的计算机。

具有价格低、性能强、体积小、功耗低的特点。

工作站工作站是一种高档的微型计算机。

它具有较高的运算速度,具有大型机、小型机的多任务、多用户功能,具有微型机的操作便利和良好的人机界面。

它可以连接到多种输入/输出设备。

具有易于联网、处理功能强的特点。

其应用领域也从最初的计算机辅助扩展到商业、金融、办公领域,并充当网络服务器的角色。

计算机技术的发展日新月异。

计算机的应用已渗透到科学技术的各个领域,并扩展到工业、农业、军事、商业以及家庭生活中。

从现在的技术角度来说,21世纪初将得到快速发展并具有重要影响的新技术有:

人工智能、网络计算、中间件技术和云计算等。

1.人工智能人工智能是研究开发能与人类智能相似的方式作出反应的智能机器。

人工智能能让计算机更接近人类的思维,实现人机交互。

1.1.3计算机的新技术2.网络计算网络计算是一种分布式计算,它研究如何把一个需要非常巨大的计算能力才能解决的问题分成许多小的部分,然后把这些部分分配给许多计算机进行处理,最后把这些计算结果综合起来得到最终结果。

网络计算的特点如下:

1能够提供资源共享,实现应用程序的互相连接。

2协同工作,共同处理一个项目。

3基于国际的开发技术标准。

4可以提供动态服务,适应变化。

3.中间件技术为解决分布异构问题,人们提出了中间件的概念。

中间件是位于操作系统和应用软件之间的通用服务。

也许很难给中间件一个严格的定义,但中间件应具有如下的特点:

1满足大量应用的需要。

2运行于多种硬件和操作系统平台。

3支持分布计算,提供跨网络硬件和操作系统平台的透明性的应用或服务交换。

4支持标准协议。

5支持标准的接口。

4.云计算云计算是分布式计算、并行计算、效用计算、网络存储、虚拟化、负载均衡等传统计算机和网络技术发展融合的产物。

美国国家标准与技术研究院定义:

云计算是一种按使用量付费的模式,这种模式提供可用的、便捷的、按需的网络访问。

进入可配置的计算资源共享池(资源包括网络、服务器、存储、应用软件、服务)。

这些资源能够被快速提供,只需投入很少的管理工作或与服务供应商进行很少的交互。

云计算的特点是:

超大规模、虚拟化、高可靠性、通用性、高可扩展性、按需服务、价廉。

1.1.4未来计算机的发展趋势1计算机的发展趋势随着新技术、新发明的不断出现和科学技术水平的提高,计算机技术也将高速发展。

以目前计算机科学的现状和趋势上看,它将向巨型化、微型化、网络化和智能化四个方向发展。

1巨型化巨型化是指计算机具有极高的运算速度,大容量的存储空间,更加强大和完善的功能,主要应用于航空航天、军事、尖端科技等领域。

2微型化大规模及超大规模集成电路的出现使计算机芯片集成度越来越高,所完成的功能越来越强,使计算机迅速向微型化发展。

3网络化计算机网络是计算机技术和通信技术紧密结合的产物。

计算机网络将不同地理位置上具有独立功能的不同计算机通过通信设备和传输介质互连起来。

在通信软件的支持下,实现网络中的计算机之间共享资源、交换信息、协同工作。

4智能化智能化指计算机能够模拟人类的智力活动,如学习、感知、理解、判断、推理等能力。

具备理解自然语言、声音、文字和图像的能力。

2未来新一代的计算机随着计算机技术的发展,计算机性能的大幅度提高不容置疑。

目前,一些新的计算机正在加紧研究。

这些计算机是模糊计算机、生物计算机、光子计算机、超导计算机、量子计算机。

(1)模糊计算机在日常生活中,人们使用大量的模糊概念,如“休息一会”、“有何打算”、“再来一点儿”都是模糊不清的说法。

由模糊陈述或判断所表示的概念属于模糊概念。

要解决这种模糊问题只能通过模糊推理才能得到结果。

现有的计算机都没有这种功能,只有模糊计算机才有。

1964年英国人查理创立了模糊信息理论。

依照模糊理论,判断问题不是以是、非两种绝对值,而是取许多值。

用这种模糊的不确切的判断进行工程处理的计算机就是模糊计算机。

1985年第一个模糊逻辑片设计制造成功,它1秒内能进行8万次模糊逻辑推理。

(2)生物计算机生物计算机又称仿生计算机,是以生物芯片取代在半导体硅片上集成数以万计的晶体管制成的计算机。

它的主要原材料是生物工程技术产生的蛋白质分子。

从生物计算机中提取信息困难是目前生物计算机没有普及的主要原因。

(3)光子计算机光子计算机是一种由光信号进行数字运算、逻辑操作、信息存储和处理的新型计算机。

它由激光器、光学反射镜、透镜滤波器等光学元件和设备构成,靠激光束进入反射镜组成阵列进行信息处理,以光子代替电子,光运算代替电运算。

1990年初美国贝尔实验室研制成世界上第一台光子计算机。

由于光子计算机具有运算速度快、信息存储容量大、能量消耗小的优点。

目前许多国家都投入巨资进行光子计算机的研究。

4超导计算机1911年,荷兰物理学家昂内斯发现,一些材料在接近零下273.15摄氏度时,会失去电阻,流入它们中的电流会畅通无阻,可进行无损耗的流动。

超导计算机运算速度快且电能消耗极低,但超导计算机的组件必须在超低温的条件下工作。

5量子计算机量子计算机是一类遵循量子力学规律进行高速数学和逻辑运算、存储及处理量子信息的物理装置。

量子计算机的概念源于对可逆计算机的研究。

研究可逆计算机的目的则是为了解决计算机中的能耗问题。

1.1.5信息技术简介1信息技术人们对信息技术的定义,因其使用的目的、范围、层次不同而有各种不同的表述。

联合国教科文组织对信息技术的定义是:

应用在信息加工和处理中的科学、技术与工程的训练方法和管理技巧;上述方面的技巧和应用;计算机及其与人、机的相互作用;与之相应的社会、经济和文化等诸种事物。

信息技术不仅包括现代信息技术,还包括在现代文明之前的原始时代和古代社会中与那个时代相对应的信息技术。

不能把信息技术等同为现代信息技术。

2现代信息技术的内容一般来说,信息技术(IT)包括信息基础技术、信息系统技术和信息应用技术。

1信息基础技术信息基础技术是信息技术的基础,包括新材料、新能源、新器件的开发和制造技术。

2信息系统技术信息系统技术是指有关信息的获取、传输、处理、控制的设备和系统的技术。

感测技术、通信技术、计算机与智能技术和控制技术是它的核心和支撑技术。

(3)信息应用技术信息应用技术是针对种种实用目的,如由信息管理、信息控制、信息决策而发展起来的具体的技术群类,如工厂的自动化、办公自动化、家庭自动化、人工智能和互联通信技术等。

它们是信息技术开发的根本目的所在。

3现代信息技术的发展趋势信息技术在社会各个领域得到广泛的应用,显示出强大的生命力。

展望未来,现代信息技术将面向数字化、多媒体化、高速化、网络化、宽频化、智能化等方向发展。

1.2信息的表示与存储人类用文字、图表、数字表达记录着世界上各种各样的信息,便于人们用来处理和交流它。

现在的这些信息输入到计算机中,由计算机进行保存和处理,在计算机内不管是什么样的数据都是采用由0和1组成的二进制编码表示。

数据处理后的结果为信息,信息具有针对性和时效性。

1.2.1计算机中数据的概念数据是指能够输入计算机并被计算机处理的数字、字母和符号的集合。

计算机中数据经常用到以下几个概念。

1.位(bit)计算机中所有数据以二进制来表示,一个二进制代码称一位,记为bit,简写为b。

位是计算机存储数据的最小单位。

2.字节(byte)字节是计算机数据处理的最基本单位。

字节简写为B,规定一个字节由8个二进制位组成,即1B=8bit。

一般情况下,一个ASCII码占用一个字节,一个汉字国标码占用两个字节。

3.字一个字通常由一个或若干个字节组成。

4.字长字长是计算机一次所能处理信息的实际位数,它决定了计算机数据数据处理的速度,是衡量计算机性能的一个重要指标。

字长越长,性能越强。

5.数值的换算1Byte=8bit1KB=1024B=210B1MB=1024KB=220B1GB=1024MB=230B1TB=1024GB=240B1.2.2进位计数制及其转换1.数的进制数制即表示数值的方法,有非进位数制和进位数制两种表示数值的数码。

与它在数中的位置无关的数制成为非进位数制。

按进位原则进行计数的数制称为进位数制,简称“进制”。

(1)数制中的几个概念数码:

一个数制中表示基本数值大小的不同数字符号。

如十进制有10个数码即0,1,2,3,4,5,6,7,8,9。

基数:

一个数值所使用的数码的个数。

如八进制的基数为8,十进制的基数为10。

位权:

一个数值中某一位上的1所表示数值的大小。

如十进制的123,1的位权是102,2的位权是101,3的位权是100。

再如八进制的214,2的位权是82,1的位权是81,4的位权是80。

表1-2给出了计算机中常用的几种进位计数制。

表1-2中十六进制的数字符号除了十进制中的10个数字符号以外,还使用了6个英文字母:

A,B,C,D,E,F,它们分别等于十进制的10,11,12,13,14,15。

(2)进位数制的基本特点数制的基数确定了所采用的进位计数制。

如十进制数制的基数为10;二进制数制的基数为2。

对于N进制数制有N个数字符号。

表1-2给出了计算机常用的几种进位数制。

可以用数据后加一个特定字母表示它所采用的进制。

也可用加括号和下标的形式。

如56D、(56)10、101B、(101)2、24O、34BH、(24)8、(34B)16。

逢N进1。

如十进制逢10进1,八进制逢8进1,十六进制逢16进1。

表1-3是十进制数015等值的二进制、八进制、十六进制的对照表。

采用位权表示法。

表1-3不同进制中的数按位权展开。

(3)不同进制之间的转换R进制转换为十进制基数为R的数字,只要将R进制数按位权展开,求和即可实现R进制转换为十进制。

例:

(216)16=2162+1161+6160=(534)10(216)8=282+181+680=(142)10(11001)2=124+123+120=(25)10表1-4给出了部分二进制的权值。

十进制转换成为R进制将十进制数转换为R进制数时,可将此数分成整数与小数两部分分别转换,然后再拼接起来即可。

将一个十进制整数转换成R进制数采用“除R取余”法,即将十进制整数连续地除以R取余数,直到商为0,余数从右到左排列,首次取得的余数排在最右边。

小数部分转换成R进制数采用“乘R取整”法,即将十进制小数不断乘以R取整数,直到小数部分为0或达到要求的精度为止(小数部分可能永远不会得到0);所得的整数从小数点自左往右排列,取有效精度,首次取得的整数排在最左边。

例:

将十进制数225.8125转换成二进制数。

转换结果为:

(225.8125)D=(11100001.1101)B例:

将十进制数225.15转换成八进制数,要求结果精确到小数点后5位。

转换结果为:

(225.15)D(341.11463)O二进制、八进制、十六进制数之间的相互转换由于二进制、八进制和十六进制之间存在特殊关系:

81=23、161=24,即1位八进制数相当于3位二进制数,1位十六进制数相当于4位二进制数,因此转换方法就比较容易,表1-5所示为八进制数与二进制数、十六进制数之间的关系。

根据这种对应关系,二进制数转换成八进制数时,以小数点为中心向左右两边分组,每3位为一组,两头不足3位补0即可。

同样二进制数转换成十六进制数只要4位为一组进行分组。

例:

将二进制(110111.11011)2转换成八进制数。

(110111.110110)2=(67.66)8(低位补0)67.66例:

将二进制数(110111.11011)2转换成十六进制数。

(00110111.11011000)2=(37.D8)16(两头不足,补0)37.D8例:

将八进制数(64.54)8转换成二进制数。

(64.54)8=(110100.101100)264.54例:

将十六进制数(64.54)16转换成二进制数。

(64.54)16=(01100100.01010100)264.54注意:

整数前的高位0和小数后的低位0可取消。

1.2.3字符的编码1西文字符的编码计算机中用的最多的符号数据是字符。

用户使用计算机的输入设备输入键盘上的字符键向计算机输入命令和数据。

计算机把处理后的结果以字符的形式输出到屏幕或打印机等输出设备上。

对于字符的编码方案有很多种。

使用最广泛的英文字符编码为ASCII(AmerianStandardCodeforInformationInterchange,美国信息交换标准)码。

ASCII码由09十个数符,52个大小写英文字母,32个符号及34个计算机通用控制符组成,共128个元素。

因为ASCII码总共为128个元素,故用二进制编码表示需用7位,其排列次序为d6d5d4d3d2d1d0,d6为高位,d0为低位。

如表1-6所示。

ASCII码的查表方式是:

先查列(高三位),后查行(低四位),然后按从从左到右的书写顺序完成。

如B的ASCII码为1000010。

在ASCII码进行存放时,由于它的编码是7位,因1个字节(8位)是计算机中常用单位,故仍以1字节来存放1个ASCII字符,每个字节多余的最高位取0。

在ASCII码字符中,从“0”“9”,从“A”“Z”,从“a”“z”都是顺序排列的,且小写比大写字母码值大32,即位值d5为0或1,这有利于大、小写字母之间的编码转换。

有些特殊的字符编码应该记住,例如:

“a”字母字符的编码为1100001,对应的十进制数是97,十六进制数是61H。

“A”字母字符的编码为1000001,对应的十进制数是65,十六进制数是41H。

“0”字母字符的编码为0110000,对应的十进制数是48,十六进制数是30H。

“”空字符的编码为0100000,对应的十进制数是32,十六进制数是20H。

“CR”回车的编码为0001101,对应的十进制数是13,十六进制数是0DH。

计算机的内部用一个字节(8二进制位)存放一个7位ASCII码,最高位置为0。

2汉字的编码英语文字是由26个字母拼组而成。

为了使计算机能够处理汉字,就要对汉字进行编码。

我国于1980年颁布了信息交换用汉字编码字符集基本集(代号为GB2312-80)。

国标GB2312-80规定:

所有的国标汉字和符号组成一个9494的矩阵。

在该矩阵中,每一行称为一个“区”,每一列称为一个“位”,这样就形成了94个区号(0194)和94个位号(0194)的汉字字符集。

国标码中有6763个汉字和682个其他基本图形字符,共计7445个字符。

其中规定一级汉字3755个(1055区),二级汉字3008个(5658区)。

一个汉字所在区号与位号简单地组合在一起就构成了该汉字的“区位码”。

在汉字区位码中,高位为区号,低位为位号。

因此,区位码与汉字或图形符号之间是一一对应的。

一个汉字由两个字节代码表示。

区位码是一个4位十进制数,国标码是一个4位十六进制数。

为了与ASCII码兼容,汉字输入区位码与国标码之间有一个简单的转换关系。

具体方法是:

将一个汉字的十进制区号和十进制位号分别转换成十六进制;然后再分别加上20H(十进制就是32)就称为汉字的国标码。

3汉字的处理过程计算机对汉字信息的处理过程实际上是各种汉字编码间的转换过程。

这些编码主要包括:

汉字输入码、汉字国际码、汉字机内码、汉字地址码、汉字字形码等。

这一系列的汉字编码及转换、汉字信息处理中的各编码及流程如图1-1所示。

从图1-1中可以看到:

通过键盘对每个汉字输入规定的代码,即汉字的输入码。

不论哪一种汉字输入方法,计算机都将每个汉字的汉字输入码转换为相应的国标码,然后再转换为机内码,就可以在计算机内存储和处理了。

输出汉字时,先将汉字的机内码通过简单的对应关系转换为相应的汉字地址码,然后通过汉字地址码对汉字库进行访问,从字库中提取汉字的字型码,最后根据字型数据显示和打印出汉字。

(1)汉字的输入码汉字的输入码也叫外码,是为了通过键盘字符把汉字输入到计算机的一种编码。

对于同一汉字而言,输入法不同,其外码也是不同的。

(2)汉字机内码汉字机内码又称内码。

该编码的作用是统一各种不同的汉字输入码在计算机内的表示。

汉字机内码是计算机内部存储、处理的代码。

英文字符的机内码是最高位为0的8位ASCII码。

为了区分把国标码每个字节的最高位由0改为1,其余位不变的编码作为字符的机内码。

一个汉字用两个字节的内码表示,计算机显示一个汉字的过程首先是根据其内码找到该汉字字库中的地址,然后将该汉字的点阵字形在屏幕上输出。

汉字的输入码是多种多样的。

同一个汉字如果采用的编码方案不同,则输入码有可能不一样,但汉字的机内码是一样的。

有专用的计算机内部存储汉字使用的汉字内码,用以将输入时使用的多种输入码统一转换成汉字机内码进行存储,以方便机内的汉字处理。

汉字的国标码与其内码的关系为:

(汉字的机内码)H=(汉字的国标码)H+8080H3汉字地址码汉字地址码是指汉字字库中存储的汉字字形信息的逻辑地址码。

当需要输出设备输出汉字时,必须通过汉字地址码。

4汉字字形码汉字在显示和打印输出时,是以点阵的方式形成汉字图形的。

汉字字形码是指确定一个汉字字形点阵的代码。

汉字字形码通常有两种表示方式:

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 人文社科 > 法律资料

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1