三级网络教材没有的内容.docx

上传人:b****2 文档编号:2261268 上传时间:2022-10-28 格式:DOCX 页数:10 大小:26.51KB
下载 相关 举报
三级网络教材没有的内容.docx_第1页
第1页 / 共10页
三级网络教材没有的内容.docx_第2页
第2页 / 共10页
三级网络教材没有的内容.docx_第3页
第3页 / 共10页
三级网络教材没有的内容.docx_第4页
第4页 / 共10页
三级网络教材没有的内容.docx_第5页
第5页 / 共10页
点击查看更多>>
下载资源
资源描述

三级网络教材没有的内容.docx

《三级网络教材没有的内容.docx》由会员分享,可在线阅读,更多相关《三级网络教材没有的内容.docx(10页珍藏版)》请在冰豆网上搜索。

三级网络教材没有的内容.docx

三级网络教材没有的内容

通信子网和资源子网(课本中没有的)

计算机网络首先是一个通信网络,各计算机之间通过通信媒体、通信设备进行数字通信,在此基础上各计算机可以通过网络软件共享其它计算机上的硬件资源、软件资源和数据资源。

从计算机网络各组成部件的功能来看,各部件主要完成两种功能,即网络通信和资源共享。

把计算机网络中实现网络通信功能的设备及其软件的集合称为网络的通信子网,而把网络中实现资源共享功能的设备及其软件的集合称为资源子网。

就局域网而言,通信子网由网卡、线缆、集线器、中继器、网桥、路由器、交换机等设备和相关软件组成。

资源子网由连网的服务器、工作站、共享的打印机和其它设备及相关软件所组成。

在广域网中,通信子网由一些专用的通信处理机(即节点交换机)及其运行的软件、集中器等设备和连接这些节点的通信链路组成。

资源子网由上网的所有主机及其外部设备组成.

超文本的概念

超文本是一种文本,它和书本上的文本是一样的。

但与传统的文本文件相比,它们之间的主要差别是,传统文本是以线性方式组织的,而超文本是以非线性方式组织的。

这里的"非线性"是指文本中遇到的一些相关内容通过链接组织在一起,用户可以很方便地浏览这些相关内容。

这种文本的组织方式与人们的思维方式和工作方式比较接近。

超链接(hyperlink)是指文本中的词、短语、符号、图像、声音剪辑或影视剪辑之间的链接,或者与其他的文件、超文本文件之间的链接,也称为"热链接(hotlink)",或者称为"超文本链接(hypertextlink)"。

词、短语、符号、图像、声音剪辑、影视剪辑和其他文件通常被称为对象或者称为文档元素(element),因此超链接是对象之间或者文档元素之间的链接。

建立互相链接的这些对象不受空间位置的限制,它们可以在同一个文件内也可以在不同的文件之间,也可以通过网络与世界上的任何一台连网计算机上的文件建立链接关系。

超媒体的概念

在20世纪70年代,用户语言接口方面的先驱者AndriesVanDam创造了一个新词"电子图书"(ElectronicBook),现在翻译成。

电子图书中自然包含有许多静态图片和图形,它的含义是你可以在计算机上去创作作品和联想式地阅读文件,它保存了用纸做存储媒体的最好的特性,而同时又加入了丰富的非线性链接,这就促使在80年代产生了超媒体(hypermedia)技术。

超媒体不仅可以包含文字而且还可以包含图形、图像,动画、声音和电视片断,这些媒体之间也是用超级链接组织的,而且它们之间的链接也是错综复杂的。

超媒体与超文本之间的不同之处是,超文本主要是以文字的形式表示信息,建立的链接关系主要是文句之间的链接关系。

超媒体除了使用文本外,还使用图形、图像、声音、动画或影视片断等多种媒体来表示信息,建立的链接关系是文本、图形、图像、声音、动画和影视片断等媒体之间的链接关系。

浏览器的工作原理

WWW的工作基于客户机/服务器计算模型,由Web浏览器(客户机)和Web服务器(服务器)构成,两者之间采用超文本传送协议(HTTP)进行通信,HTTP协议的作用原理包括四个步骤:

连接,请求,应答。

根据上述HTTP协议的作用原理,本文实现了GET请求的Web服务器程序的方法,通过创建TcpListener类对象,监听端口8080;等待、接受客户机连接到端口8080;创建与socket字相关联的输入流和输出流;然后,读取客户机的请求信息,若请求类型是GET,则从请求信息中获取所访问的HTML文件名,如果HTML文件存在,则打开HTML文件,把HTTP头信息和HTML文件内容通过socket传回给Web浏览器,然后关闭文件。

否则发送错误信息给Web浏览器。

最后,关闭与相应Web浏览器连接的socket字。

一、HTTP协议的作用原理

WWW是以Internet作为传输媒介的一个应用系统,WWW网上最基本的传输单位是Web网页。

WWW的工作基于客户机/服务器计算模型,由Web浏览器(客户机)和Web服务器(服务器)构成,两者之间采用超文本传送协议(HTTP)进行通信。

HTTP协议是基于TCP/IP协议之上的协议,是Web浏览器和Web服务器之间的应用层协议,是通用的、无状态的、面向对象的协议。

HTTP协议的作用原理包括四个步骤:

连接:

Web浏览器与Web服务器建立连接,打开一个称为socket(套接字)的虚拟文

件,此文件的建立标志着连接建立成功。

请求:

Web浏览器通过socket向Web服务器提交请求。

HTTP的请求一般是GET或POST命令(POST用于FORM参数的传递)。

GET命令的格式为:

GET路径/文件名HTTP/1.0

文件名指出所访问的文件,HTTP/1.0指出Web浏览器使用的HTTP版本。

应答:

Web浏览器提交请求后,通过HTTP协议传送给Web服务器。

Web服务器接到后,进行事务处理,处理结果又通过HTTP传回给Web浏览器,从而在Web浏览器上显示出所请求的页面。

例:

假设客户机与:

8080/mydir/index.html建立了连接,就会发送GET命令:

GET/mydir/index.htmlHTTP/1.0。

主机名为的Web服务器从它的文档空间中搜索子目录mydir的文件index.html。

如果找到该文件,Web服务器把该文件内容传送给相应的Web浏览器。

为了告知Web浏览器传送内容的类型,Web服务器首先传送一些HTTP头信息,然后传送具体内容(即HTTP体信息),HTTP头信息和HTTP体信息之间用一个空行分开。

常用的HTTP头信息有:

1HTTP1.0200OK

这是Web服务器应答的第一行,列出服务器正在运行的HTTP版本号和应答代码。

代码“200OK”表示请求完成。

②MIME_Version:

1.0

它指示MIME类型的版本。

③content_type:

类型

这个头信息非常重要,它指示HTTP体信息的MIME类型。

如:

content_type:

text/html指示传送的数据是HTML文档。

④content_length:

长度值

它指示HTTP体信息的长度(字节)。

关闭连接:

当应答结束后,Web浏览器与Web服务器必须断开,以保证其它Web浏览器能够与Web服务器建立连接。

搜索引擎原理

搜索引擎并不真正搜索互联网,它搜索的实际上是预先整理好的网页索引数据库。

  真正意义上的搜索引擎,通常指的是收集了因特网上几千万到几十亿个网页并对网页中的每一个词(即关键词)进行索引,建立索引数据库的全文搜索引擎。

当用户查找某个关键词的时候,所有在页面内容中包含了该关键词的网页都将作为搜索结果被搜出来。

在经过复杂的算法进行排序后,这些结果将按照与搜索关键词的相关度高低,依次排列。

  现在的搜索引擎已普遍使用超链分析技术,除了分析索引网页本身的内容,还分析索引所有指向该网页的链接的URL、AnchorText、甚至链接周围的文字。

所以,有时候,即使某个网页A中并没有某个词比如“恶魔撒旦”,但如果有别的网页B用链接“恶魔撒旦”指向这个网页A,那么用户搜索“恶魔撒旦”时也能找到网页A。

而且,如果有越多网页(C、D、E、F……)用名为“恶魔撒旦”的链接指向这个网页A,或者给出这个链接的源网页(B、C、D、E、F……)越优秀,那么网页A在用户搜索“恶魔撒旦”时也会被认为更相关,排序也会越靠前。

  搜索引擎的原理,可以看做三步:

从互联网上抓取网页→建立索引数据库→在索引数据库中搜索排序。

  

1.从互联网上抓取网页

利用能够从互联网上自动收集网页的Spider系统程序,自动访问互联网,并沿着任何网页中的所有URL爬到其它网页,重复这过程,并把爬过的所有网页收集回来。

2.建立索引数据库

由分析索引系统程序对收集回来的网页进行分析,提取相关网页信息(包括网页所在URL、编码类型、页面内容包含的关键词、关键词位置、生成时间、大小、与其它网页的链接关系等),根据一定的相关度算法进行大量复杂计算,得到每一个网页针对页面内容中及超链中每一个关键词的相关度(或重要性),然后用这些相关信息建立网页索引数据库。

3.在索引数据库中搜索排序

当用户输入关键词搜索后,由搜索系统程序从网页索引数据库中找到符合该关键词的所有相关网页。

因为所有相关网页针对该关键词的相关度早已算好,所以只需按照现成的相关度数值排序,相关度越高,排名越靠前。

最后,由页面生成系统将搜索结果的链接地址和页面内容摘要等内容组织起来返回给用户。

  搜索引擎的Spider一般要定期重新访问所有网页(各搜索引擎的周期不同,可能是几天、几周或几月,也可能对不同重要性的网页有不同的更新频率),更新网页索引数据库,以反映出网页内容的更新情况,增加新的网页信息,去除死链接,并根据网页内容和链接关系的变化重新排序。

这样,网页的具体内容和变化情况就会反映到用户查询的结果中。

  互联网虽然只有一个,但各搜索引擎的能力和偏好不同,所以抓取的网页各不相同,排序算法也各不相同。

大型搜索引擎的数据库储存了互联网上几亿至几十亿的网页索引,数据量达到几千G甚至几万G。

但即使最大的搜索引擎建立超过二十亿网页的索引数据库,也只能占到互联网上普通网页的不到30%,不同搜索引擎之间的网页数据重叠率一般在70%以下。

我们使用不同搜索引擎的重要原因,就是因为它们能分别搜索到不同的内容。

而互联网上有更大量的内容,是搜索引擎无法抓取索引的,也是我们无法用搜索引擎搜索到的。

  你心里应该有这个概念:

搜索引擎只能搜到它网页索引数据库里储存的内容。

你也应该有这个概念:

如果搜索引擎的网页索引数据库里应该有而你没有搜出来,那是你的能力问题,学习搜索技巧可以大幅度提高你的搜索能力。

Internet2概述

什么是Internet2

  Internet2(I2)是由美国120多所大学、协会、公司和政府机构共同努力建设的网络,它的目的是满足高等教育与科研的需要,开发下一代互联网高级网络应用项目。

它并不是要取代现有的互联网,也不是为普通用户新建另一个网络。

  Internet2计划要求在1998年秋季进行实际运作试验。

Internet2的应用将贯穿高等院校的各个方面,有些是项目协作,有些是数字化图书馆,有些将促进研究,有些能用于远程学习。

  Internet2也为各种不同服务政策提供了试验场所,比如怎样对预留带宽进行收费等。

同时也是衡量各种技术对GigaPOP效能的场所,比如本地超高速缓存和复制服务器,以及卫星上行和下行链路对提高网络性能的作用。

  除上述试验外,合作环境还将用于实时音频、视频、文本和白板讨论。

还有支持新的协作方式的3D虚拟共享环境。

远程医疗,包括远程诊断和监视也是Internet2努力实现的目标。

大量的交互式图形/多媒体应用也将是NGI的主要候选项目,其中包括科学研究可视化、合作型虚拟现实(VR)和3D虚拟环境等应用。

官方网址:

http:

//www.internet2.edu/

 国际INTERNET2研究     

从1996年起,美国开始了下一代互联网研究与建设。

美国国家科学基金会设立了'下一代Internet'研究计划NGI,支持大学和科研单位建立了高速网络试验床vBNS(VeryHighSpeedBackboneNetworkService),进行高速计算机网络及其应用的研究。

1998年美国100多所大学联合成立UCAID(UniversityCorporationforAdvancedInternetDevelopment),从事Internet2研究计划。

UCAID建设了另一个独立的高速网络试验床Abilene,并于1999年1月开始提供服务。

  美国政府的'下一代Internet'研究计划NGI和美国UCAID从事的I

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 人文社科 > 法律资料

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1