计算机硬件参数详解Word格式文档下载.docx

上传人:b****5 文档编号:19772384 上传时间:2023-01-10 格式:DOCX 页数:14 大小:33.86KB
下载 相关 举报
计算机硬件参数详解Word格式文档下载.docx_第1页
第1页 / 共14页
计算机硬件参数详解Word格式文档下载.docx_第2页
第2页 / 共14页
计算机硬件参数详解Word格式文档下载.docx_第3页
第3页 / 共14页
计算机硬件参数详解Word格式文档下载.docx_第4页
第4页 / 共14页
计算机硬件参数详解Word格式文档下载.docx_第5页
第5页 / 共14页
点击查看更多>>
下载资源
资源描述

计算机硬件参数详解Word格式文档下载.docx

《计算机硬件参数详解Word格式文档下载.docx》由会员分享,可在线阅读,更多相关《计算机硬件参数详解Word格式文档下载.docx(14页珍藏版)》请在冰豆网上搜索。

计算机硬件参数详解Word格式文档下载.docx

主频=外频×

倍频。

在486之前,CPU的主频还处于一个较低的阶段,CPU的主频一般都等于外频。

而在486出现以后,由于CPU工作频率不断提高,而PC机的一些其他设备(如插卡、硬盘等)却受到工艺的限制,不能承受更高的频率,因此限制了CPU频率的进一步提高。

因此出现了倍频技术,该技术能够使CPU内部工作频率变为外部频率的倍数,从而通过提升倍频而达到提升主频的目的。

倍频技术就是使外部设备可以工作在一个较低外频上,而CPU主频是外频的倍数。

在Pentium时代,CPU的外频一般是60/66MHz,从PentiumⅡ350开始,CPU外频提高到100MHz,目前CPU外频已经达到了200MHz。

由于正常情况下外频和内存总线频率相同,所以当CPU外频提高后,与内存之间的交换速度也相应得到了提高,对提高电脑整体运行速度影响较大。

外频与前端总线(FSB)频率很容易被混为一谈。

前端总线的速度指的是CPU和北桥芯片间总线的速度,更实质性的表示了CPU和外界数据传输的速度。

而外频的概念是建立在数字脉冲信号震荡速度基础之上的,也就是说,100MHz外频特指数字脉冲信号在每秒钟震荡一万万次,它更多的影响了PCI及其他总线的频率。

之所以前端总线与外频这两个概念容易混淆,主要的原因是在以前的很长一段时间里(主要是在Pentium4出现之前和刚出现Pentium4时),前端总线频率与外频是相同的,因此往往直接称前端总线为外频,最终造成这样的误会。

随着计算机技术的发展,人们发现前端总线频率需要高于外频,因此采用了QDR(QuadDateRate)技术,或者其他类似的技术实现这个目的。

这些技术的原理类似于AGP的2X或者4X,它们使得前端总线的频率成为外频的2倍、4倍甚至更高,从此之后前端总线和外频的区别才开始被人们重视起来。

一个CPU默认的外频只有一个,主板必须能支持这个外频。

因此在选购主板和CPU时必须注意这点,如果两者不匹配,系统就无法工作。

此外,现在CPU的倍频很多已经被锁定,所以超频时经常需要超外频。

外频改变后系统很多其他频率也会改变,除了CPU主频外,前端总线频率、PCI等各种接口频率,包括硬盘接口的频率都会改变,都可能造成系统无法正常运行。

当然有些主板可以提供锁定各种接口频率的功能,对成功超频有很大帮助。

超频有风险,甚至会损坏计算机硬件。

倍频:

CPU的倍频,全称是倍频系数。

CPU的核心工作频率与外频之间存在着一个比值关系,这个比值就是倍频系数,简称倍频。

理论上倍频是从1.5一直到无限的,但需要注意的是,倍频是以0.5为一个间隔单位。

外频与倍频相乘就是主频,所以其中任何一项提高都可以使CPU的主频上升。

原先并没有倍频概念,CPU的主频和系统总线的速度是一样的,但CPU的速度越来越快,倍频技术也就应允而生。

它可使系统总线工作在相对较低的频率上,而CPU速度可以通过倍频来无限提升。

那么CPU主频的计算方式变为:

主频=外频x倍频。

也就是倍频是指CPU和系统总线之间相差的倍数,当外频不变时,提高倍频,CPU主频也就越高。

一个CPU默认的倍频只有一个,主板必须能支持这个倍频。

此外,现在CPU的倍频很多已经被锁定,无法修改。

缓存:

高速缓存分为一级缓存(即L1Cache)和二级缓存(即L2Cache)。

CPU在运行时首先从一级缓存读取数据,然后从二级缓存读取数据,然后从内存和虚拟内存读取数据,因此高速缓存的容量和速度直接影响到CPU的工作性能。

一级缓存都内置在CPU内部并与CPU同速运行,可以有效的提高CPU的运行效率。

一级缓存越大,CPU的运行效率越高,但受到CPU内部结构的限制,一级缓存的容量都很小。

二级缓存对CPU运行效率的影响也很大,现在的二级缓存一般都集成在中,但有分为芯片内部和外部两种,集成在芯片内部的二级缓存与CPU同频率二级缓存(即全速二级缓存),而集成在芯片外部的二级缓存的运行频率是CPU的运行频率的一半(即半速二级缓存),因此运行效率较低。

但是一级缓存和二级缓存的大,它究竟有多少好处呢?

你得告诉我们经销商,实际上你得用最普通的话跟他讲。

所以我们给他们打个比方,说这个就好比你开汽车的时候,后备箱是整个的一级缓存,假如说扶手里面有一个小箱子,那是你的二级缓存。

二级缓存大好在哪里呢?

就是你随时开车的时候,随时在里面都可以取东西了。

假如你二级缓存小的话,你还得把车停下来,到后备箱里取东西

前端总线:

这个名称是由AMD在推出K7CPU时提出的概念,但是一直以来都被大家误认为这个名词不过是外频的另一个名称。

我们所说的外频指的是CPU与主板连接的速度,这个概念是建立在数字脉冲信号震荡速度基础之上的,而前端总线的速度指的是数据传输的速度,由于数据传输最大带宽取决于所有同时传输的数据的宽度和传输频率,即数据带宽=(总线频率×

数据位宽)÷

8。

目前PC机上所能达到的前端总线频率有266MHz、333MHz、400MHz、533MHz、800MHz、1066MHz、1333MHz几种,前端总线频率越大,代表着CPU与内存之间的数据传输量越大,更能充分发挥出CPU的功能。

现在的CPU技术发展很快,运算速度提高很快,而足够大的前端总线可以保障有足够的数据供给给CPU。

较低的前端总线将无法供给足够的数据给CPU,这样就限制了CPU性能得发挥,成为系统瓶颈。

前端总线的英文名字是FrontSideBus,通常用FSB表示,是将CPU连接到北桥芯片的总线。

选购主板和CPU时,要注意两者搭配问题,一般来说,如果CPU不超频,那么前端总线是由CPU决定的,如果主板不支持CPU所需要的前端总线,系统就无法工作。

也就是说,需要主板和CPU都支持某个前端总线,系统才能工作,只不过一个CPU默认的前端总线是唯一的,因此看一个系统的前端总线主要看CPU就可以。

北桥芯片负责联系内存、显卡等数据吞吐量最大的部件,并和南桥芯片连接。

CPU就是通过前端总线(FSB)连接到北桥芯片,进而通过北桥芯片和内存、显卡交换数据。

前端总线是CPU和外界交换数据的最主要通道,因此前端总线的数据传输能力对计算机整体性能作用很大,如果没足够快的前端总线,再强的CPU也不能明显提高计算机整体速度。

数据传输最大带宽取决于所有同时传输的数据的宽度和传输频率,即数据带宽=(总线频率×

目前PC机上所能达到的前端总线频率有266MHz、333MHz、400MHz、533MHz、800MHz几种,前端总线频率越大,代表着CPU与北桥芯片之间的数据传输能力越大,更能充分发挥出CPU的功能。

现在的CPU技术发展很快,运算速度提高很快,而足够大的前端总线可以保障有足够的数据供给给CPU,较低的前端总线将无法供给足够的数据给CPU,这样就限制了CPU性能得发挥,成为系统瓶颈。

显然同等条件下,前端总线越快,系统性能越好。

主板

芯片组:

芯片组(Chipset)是主板的核心组成部分,按照在主板上的排列位置的不同,通常分为北桥芯片和南桥芯片。

北桥芯片提供对CPU的类型和主频、内存的类型和最大容量、ISA/PCI/AGP插槽、ECC纠错等支持。

南桥芯片则提供对KBC(键盘控制器)、RTC(实时时钟控制器)、USB(通用串行总线)、UltraDMA/33(66)EIDE数据传输方式和ACPI(高级能源管理)等的支持。

其中北桥芯片起着主导性的作用,也称为主桥(HostBridge)。

要根据CPU选相对有良好兼容性的芯片组.

显卡

 

一:

显存频率

二:

显存位宽

三:

什么是渲染管线

四:

什么是DirectX

五:

核心频率

六:

显存容量

七:

什么是顶点着色单元

显卡参数补充说明

一:

显存频率是指默认情况下,该显存在显卡上工作时的频率,以MHz(兆赫兹)为单位。

显存频率一定程度上反应着该显存的速度。

显存频率随着显存的类型、性能的不同而不同,SDRAM显存一般都工作在较低的频率上,一般就是133MHz和166MHz,此种频率早已无法满足现在显卡的需求。

DDRSDRAM显存则能提供较高的显存频率,主要在中低端显卡上使用,DDR2显存由于成本高并且性能一般,因此使用量不大。

DDR3显存是目前高端显卡采用最为广泛的显存类型。

不同显存能提供的显存频率也差异很大,主要有400MHz、500MHz、600MHz、650MHz等,高端产品中还有800MHz、1200MHz、1600MHz,甚至更高。

  显存频率与显存时钟周期是相关的,二者成倒数关系,也就是显存频率=1/显存时钟周期。

如果是SDRAM显存,其时钟周期为6ns,那么它的显存频率就为1/6ns=166MHz。

而对于DDRSDRAM或者DDR2、DDR3,其时钟周期为6ns,那么它的显存频率就为1/6ns=166MHz,但要了解的是这是DDRSDRAM的实际频率,而不是我们平时所说的DDR显存频率。

因为DDR在时钟上升期和下降期都进行数据传输,其一个周期传输两次数据,相当于SDRAM频率的二倍。

习惯上称呼的DDR频率是其等效频率,是在其实际工作频率上乘以2,就得到了等效频率。

因此6ns的DDR显存,其显存频率为1/6ns*2=333MHz。

具体情况可以看下边关于各种显存的介绍。

  但要明白的是显卡制造时,厂商设定了显存实际工作频率,而实际工作频率不一定等于显存最大频率。

此类情况现在较为常见,如显存最大能工作在650MHz,而制造时显卡工作频率被设定为550MHz,此时显存就存在一定的超频空间。

这也就是目前厂商惯用的方法,显卡以超频为卖点。

此外,用于显卡的显存,虽然和主板用的内存同样叫DDR、DDR2甚至DDR3,但是由于规范参数差异较大,不能通用,因此也可以称显存为GDDR、GDDR2、GDDR3。

二:

显存位宽是显存在一个时钟周期内所能传送数据的位数,位数越大则瞬间所能传输的数据量越大,这是显存的重要参数之一。

目前市场上的显存位宽有64位、128位和256位三种,人们习惯上叫的64位显卡、128位显卡和256位显卡就是指其相应的显存位宽。

显存位宽越高,性能越好价格也就越高,因此256位宽的显存更多应用于高端显卡,而主流显卡基本都采用128位显存。

  大家知道显存带宽=显存频率X显存位宽/8,那么在显存频率相当的情况下,显存位宽将决定显存带宽的大小。

比如说同样显存频率为500MHz的128位和256位显存,那么它俩的显存带宽将分别为:

128位=500MHz*128∕8=8GB/s,而256位=500MHz*256∕8=16GB/s,是128位的2倍,可见显存位宽在显存数据中的重要性。

  显卡的显存是由一块块的显存芯片构成的,显存总位宽同样也是由显存颗粒的位宽组成,。

显存位宽=显存颗粒位宽×

显存颗粒数。

显存颗粒上都带有相关厂家的内存编号,可以去网上查找其编号,就能了解其位宽,再乘以显存颗粒数,就能得到显卡的位宽。

这是最为准确的方法,但施行起来较为麻烦。

三:

渲染管线也称为渲染流水线,是显示芯片内部处理图形信号相互独立的的并行处理单元。

在某种程度上可以把渲染管线比喻为工厂里面常见的各种生产流水线,工厂里的生产流水线是为了提高产品的生产能力和效率,而渲染管线则是提高显卡的工作能力和效率。

渲染管线的数量一般是以像素渲染流水线的数量×

每管线的纹理单元数量来表示。

例如,GeForce6800Ultra的渲染管线是16×

1,就表示其具有16条像素渲染流水线,每管线具有1个纹理单元;

GeForce4MX440的渲染管线是2×

2,就表示其具有2条像素渲染流水线,每管线具有2个纹理单元等等,其余表示方式以此类推。

渲染管线的数量是决定显示芯片性能和档次的最重要的参数之一,在相同的显卡核心频率下,更多的渲染管线也就意味着更大的像素填充率和纹理填充率,从显卡的渲染管线数量上可以大致判断出显卡的性能高低档次。

但显卡性能并不仅仅只是取决于渲染管线的数量,同时还取决于显示核心架构、渲染管线的的执行效率、顶点着色单元的数量以及显卡的核心频率和显存频率等等方面。

一般来说在相同的显示核心架构下,渲染管线越多也就意味着性能越高,例如16×

1架构的GeForce6800GT其性能要强于12×

1架构的GeForce6800,就象工厂里的采用相同技术的2条生产流水线的生产能力和效率要强于1条生产流水线那样;

而在不同的显示核心架构下,渲染管线的数量多就并不意味着性能更好,例如4×

2架构的GeForce2GTS其性能就不如2×

2架构的GeForce4MX440,就象工厂里的采用了先进技术的1条流水线的生产能力和效率反而还要强于只采用了老技术的2条生产流水线那样。

四:

DirectX并不是一个单纯的图形API,它是由微软公司开发的用途广泛的API,它包含有DirectGraphics(Direct3D+DirectDraw)、DirectInput、DirectPlay、DirectSound、DirectShow、DirectSetup、DirectMediaObjects等多个组件,它提供了一整套的多媒体接口方案。

只是其在3D图形方面的优秀表现,让它的其它方面显得暗淡无光。

DirectX开发之初是为了弥补Windows3.1系统对图形、声音处理能力的不足,而今已发展成为对整个多媒体系统的各个方面都有决定性影响的接口。

DirectX5.0

微软公司并没有推出DirectX4.0,而是直接推出了DirectX5.0。

此版本对Direct3D做出了很大的改动,加入了雾化效果、Alpha混合等3D特效,使3D游戏中的空间感和真实感得以增强,还加入了S3的纹理压缩技术。

同时,DirectX5.0在其它各组件方面也有加强,在声卡、游戏控制器方面均做了改进,支持了更多的设备。

因此,DirectX发展到DirectX5.0才真正走向了成熟。

此时的DirectX性能完全不逊色于其它3DAPI,而且大有后来居上之势。

DirectX6.0

DirectX6.0推出时,其最大的竞争对手之一Glide,已逐步走向了没落,而DirectX则得到了大多数厂商的认可。

DirectX6.0中加入了双线性过滤、三线性过滤等优化3D图像质量的技术,游戏中的3D技术逐渐走入成熟阶段。

DirectX7.0

DirectX7.0最大的特色就是支持T&

L,中文名称是“坐标转换和光源”。

3D游戏中的任何一个物体都有一个坐标,当此物体运动时,它的坐标发生变化,这指的就是坐标转换;

3D游戏中除了场景+物体还需要灯光,没有灯光就没有3D物体的表现,无论是实时3D游戏还是3D影像渲染,加上灯光的3D渲染是最消耗资源的。

虽然OpenGL中已有相关技术,但此前从未在民用级硬件中出现。

在T&

L问世之前,位置转换和灯光都需要CPU来计算,CPU速度越快,游戏表现越流畅。

使用了T&

L功能后,这两种效果的计算用显示卡的GPU来计算,这样就可以把CPU从繁忙的劳动中解脱出来。

换句话说,拥有T&

L显示卡,使用DirectX7.0,即使没有高速的CPU,同样能流畅的跑3D游戏。

DirectX8.0

DirectX8.0的推出引发了一场显卡革命,它首次引入了“像素渲染”概念,同时具备像素渲染引擎(PixelShader)与顶点渲染引擎(VertexShader),反映在特效上就是动态光影效果。

同硬件T&

L仅仅实现的固定光影转换相比,VS和PS单元的灵活性更大,它使GPU真正成为了可编程的处理器。

这意味着程序员可通过它们实现3D场景构建的难度大大降低。

通过VS和PS的渲染,可以很容易的宁造出真实的水面动态波纹光影效果。

此时DirectX的权威地位终于建成。

DirectX9.0

2002年底,微软发布DirectX9.0。

DirectX9中PS单元的渲染精度已达到浮点精度,传统的硬件T&

L单元也被取消。

全新的VertexShader(顶点着色引擎)编程将比以前复杂得多,新的VertexShader标准增加了流程控制,更多的常量,每个程序的着色指令增加到了1024条。

PS2.0具备完全可编程的架构,能对纹理效果即时演算、动态纹理贴图,还不占用显存,理论上对材质贴图的分辨率的精度提高无限多;

另外PS1.4只能支持28个硬件指令,同时操作6个材质,而PS2.0却可以支持160个硬件指令,同时操作16个材质数量,新的高精度浮点数据规格可以使用多重纹理贴图,可操作的指令数可以任意长,电影级别的显示效果轻而易举的实现。

VS2.0通过增加Vertex程序的灵活性,显著的提高了老版本(DirectX8)的VS性能,新的控制指令,可以用通用的程序代替以前专用的单独着色程序,效率提高许多倍;

增加循环操作指令,减少工作时间,提高处理效率;

扩展着色指令个数,从128个提升到256个。

增加对浮点数据的处理功能,以前只能对整数进行处理,这样提高渲染精度,使最终处理的色彩格式达到电影级别。

突破了以前限制PC图形图象质量在数学上的精度障碍,它的每条渲染流水线都升级为128位浮点颜色,让游戏程序设计师们更容易更轻松的创造出更漂亮的效果,让程序员编程更容易。

DirectX9.0c

与过去的DirectX9.0b和ShaderModel2.0相比较,DirectX9.0c最大的改进,便是引入了对ShaderModel3.0(包括PixelShader3.0和VertexShader3.0两个着色语言规范)的全面支持。

举例来说,DirectX9.0b的ShaderModel2.0所支持的VertexShader最大指令数仅为256个,PixelShader最大指令数更是只有96个。

而在最新的ShaderModel3.0中,VertexShader和PixelShader的最大指令数都大幅上升至65535个,全新的动态程序流控制、位移贴图、多渲染目标(MRT)、次表面散射Subsurfacescattering、柔和阴影Softshadows、环境和地面阴影Environmentalandgroundshadows、全局照明(Globalillumination)等新技术特性,使得GeForce6、GeForce7系列以及RadeonX1000系列立刻为新一代游戏以及具备无比真实感、幻想般的复杂的数字世界和逼真的角色在影视品质的环境中活动提供强大动力。

因此DirectX9.0c和ShaderModel3.0标准的推出,可以说是DirectX发展历程中的重要转折点。

在DirectX9.0c中,ShaderModel3.0除了取消指令数限制和加入位移贴图等新特性之外,更多的特性都是在解决游戏的执行效率和品质上下功夫,ShaderModel3.0诞生之后,人们对待游戏的态度也开始从过去单纯地追求速度,转变到游戏画质和运行速度两者兼顾。

因此ShaderModel3.0对游戏产业的影响可谓深远。

五:

显卡的核心频率是指显示核心的工作频率,其工作频率在一定程度上可以反映出显示核心的性能,但显卡的性能是由核心频率、显存、像素管线、像素填充率等等多方面的情况所决定的,因此在显示核心不同的情况下,核心频率高并不代表此显卡性能强劲。

比如9600PRO的核心频率达到了400MHz,要比9800PRO的380MHz高,但在性能上9800PRO绝对要强于9600PRO。

在同样级别的芯片中,核心频率高的则性能要强一些,提高核心频率就是显卡超频的方法之一。

显示芯片主流的只有ATI和NVIDIA两家,两家都提供显示核心给第三方的厂商,在同样的显示核心下,部分厂商会适当提高其产品的显示核心频率,使其工作在高于显示核心固定的频率上以达到更高的性能

六:

显存容量是显卡上本地显存的容量数,这是选择显卡的关键参数之一。

显存容量的大小决定着显存临时存储数据的能力,在一定程度上也会影响显卡的性能。

显存容量也是随着显卡的发展而逐步增大的,并且有越来越增大的趋势。

显存容量从早期的512KB、1MB、2MB等极小容量,发展到8MB、12MB、16MB、32MB、64MB,一直到目前主流的128MB、256MB和高档显卡的512MB,某些专业显卡甚至已经具有1GB的显存了。

值得注意的是,显存容量越大并不一定意味着显卡的性能就越高,因为决定显卡性能的三要素首先是其所采用的显示芯片,其次是显存带宽(这取决于显存位宽和显存频率),最后才是显存容量。

一款显卡究竟应该配备多大的显存容量才合适是由其所采用的显示芯片所决定的,也就是说显存容量应该与显示核心的性能相匹配才合理,显示芯片性能越高由于其处理能力越高所配备的显存容量相应也应该越大,而低性能的显示芯片配备大容量显存对其性能是没有任何帮助的。

七:

顶点着色单元是显示芯片内部用来处理顶点(Vertex)信息并完成着色工作的并行处理单元。

顶点着色单元决定了显卡的三角形处理和生成能力,所以也是衡量显示芯片性能特别是3D性能的重要参数。

顶点(Vertex)是图形学中的最基本元素,在三维空间中,每个顶点都拥有自己的坐标和颜色值等参数,三个顶点可以构成成一个三角形,而显卡所最终生成的立体画面则是由数量繁多的三角形构成的,而三角形数量的多少就决定了画面质量的高低,画面越真实越精美,就越需要数量更多的三角形来构成。

顶点着色单元就是处理着些信息然后再送给像素渲染单元完成最后的贴图工作,最后再输出到显示器就成为我们所看到的3D画面。

而显卡的顶点处理能力不足,就会导致要么降低画质,要么降低速度。

在相同的显示核心下,顶点着色单元的数量就决定了显卡的性能高低,数量越多也就意味着性能越

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 教学研究 > 教学计划

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1