什么是第二代互联网Word文档下载推荐.docx

上传人:b****6 文档编号:19160796 上传时间:2023-01-04 格式:DOCX 页数:18 大小:150.89KB
下载 相关 举报
什么是第二代互联网Word文档下载推荐.docx_第1页
第1页 / 共18页
什么是第二代互联网Word文档下载推荐.docx_第2页
第2页 / 共18页
什么是第二代互联网Word文档下载推荐.docx_第3页
第3页 / 共18页
什么是第二代互联网Word文档下载推荐.docx_第4页
第4页 / 共18页
什么是第二代互联网Word文档下载推荐.docx_第5页
第5页 / 共18页
点击查看更多>>
下载资源
资源描述

什么是第二代互联网Word文档下载推荐.docx

《什么是第二代互联网Word文档下载推荐.docx》由会员分享,可在线阅读,更多相关《什么是第二代互联网Word文档下载推荐.docx(18页珍藏版)》请在冰豆网上搜索。

什么是第二代互联网Word文档下载推荐.docx

Napster

BritannicaOnline

Wikipedia

personalwebsites

blogging

evite

upcoming.organdEVDB

domainnamespeculation

searchengineoptimization

pageviews

costperclick

screenscraping

webservices

publishing

participation

contentmanagementsystems

wikis

directories(taxonomy)

tagging("

folksonomy"

stickiness

syndication

这个表还可以继续列下去。

但是我们是根据什么标准区分一个应用程序或方法是属于“Web1.0”还是“Web2.0”呢?

(这个问题亟待解决,因为Web2.0这个词已经广为传播,甚至有些公司在对它不甚了了的情况下已经将它用作公司的市场宣传语。

但是这个问题又特别难解,因为许多先前标榜为Web2.0创业公司却名不符实,而一些被我们认为是Web2.0的应用程序,如Napster和BitTorrent,甚至不是真正适当的网络程序!

)。

我们开始尝试从Web1.0的成功案例和最吸引人的新应用中寻找出判别准则。

1.网络作为平台

正如许多重要概念一样,Web2.0没有一个明确的边界,而只是一个引力核心。

不妨将Web2.0视作一组原则和实践,由此来把距离核心或远或近的网站组成为一个类似太阳系的网络系统,这些网站或多或少地体现着Web2.0的原则。

图1是Web2.0的一个“模拟图”,它是在O’ReillyMedia所举办的名为“O’Reilly的朋友”的会议的一个研讨会上通过头脑风暴的方式所形成的。

这个图还需要不断完善,但是它已经描绘出了从Web2.0核心理念中衍生出的许多概念。

例如,在2004年10月第一届Web2.0研讨会上,约翰·

巴特利(JohnBattelle)和我在我们各自的开场白中列出了一系列初步原则。

这些原则中的第一条就是“把网络作为平台”。

这也曾是Web1.0的宠儿网景公司(Netscape)的战斗口号,而网景在同微软的大战中陨落了。

此外,我们早先的两个Web1.0的例子DoubleClick和Akamai也都倡导将网络作为平台。

尽管人们并不把广告服务当作“网络服务”,但事实上,广告服务却是第一个被广泛应用的网络服务,也是第一个被广泛使用的“混合处理”(mashup,一个最近出现的流行词)。

每一个条幅广告(bannerad)都无缝连接了两个网站,向位于另外一台计算机上的读者传递一个整合好的页面。

Akamai也将网络作为平台,并在更深的层次上建立了透明缓冲和内容传递网络,以减少带宽拥塞。

尽管如此,这些先驱们还是提供了有用的对比,因为后来者不仅可以使用他们的方案解决同样的问题,还能够在更深的层次上理解新平台的本质。

虽然DoubleClick和Akamai都是Web2.0先驱,但是我们仍然可以看到通过应用Web2.0设计模式(见附录2),我们可以实现更多的可能性。

现在,让我们深入地研究一下以下所列出的三个例子,从中寻找出Web1.0和Web2.0之间的一些本质差别。

Netscape与Google

如果说Netscape是Web1.0的典型代表,那么Google则可视为是Web2.0的样板,只要看看他们的首次公开上市(IPO)是如何地揭示了各自的时代就清楚了。

所以我们就从这两个公司和其定位的差别入手。

Netscape以传统的软件模板来勾勒其所谓“互联网作为平台”:

他们的旗舰产品是网络浏览器,其本质是一个桌面应用程序。

而他们的策略则是利用它们在浏览器市场的优势地位来为其昂贵的服务器产品建立市场。

从理论上讲,控制了浏览器中的显示内容及应用标准就可以赋予Netscape类似微软(Microsoft)在个人电脑市场(PC)市场中的市场支配力。

就象我们可以把汽车叫作“自动马车”,Netscape提倡用“网络桌面”(webtop)替代传统的桌面(desktop),并且计划借助信息更新,以及用向购买了Netscape服务器的信息提供者推送的各种小程序,来开发推广这种网络桌面。

结果,浏览器和网络服务器都变成了日用品,而价值链条也向上移动到了在网络平台上传递的服务。

与之相反,Google从一开始就把网络应用作为其生涯的起点,从不销售或打包其程序,仅将其作为一种服务来传递,并由用户直接或间接地为使用这种服务而付费。

在Google身上,看不到传统软件产业的任何特征:

没有定期的软件发布,只是持续改进;

没有授权或销售,只是使用;

没有了为了让用户在其设备上运行软件而不得不进行的平台迁移,只需要搭建宏大的、由众多个人电脑组成的、可扩展的网络,其上运行开源操作系统,及其自行研制的应用程序和工具,而公司之外的任何人则永远无法接触到这些东西。

实际上,Google需要一种Netscape从未需要过的能力:

数据库管理。

Google不仅仅是一个软件工具的集合,它是一个专业化的数据库。

没有数据,这些工具一钱不值;

而没有软件,数据也难以被管理。

软件许可证制度和对应用程序接口(API)的控制——上个时代软件控制的法宝——变得毫无意义,因为Google的软件只需要执行而从不需要分发,也因为这些软件如果没有数据管理能力,则就无用武之地了。

事实上,软件的价值与其管理数据的规模及能力成正比。

尽管Google依赖海量互联网服务器来传递服务,但是它并不是一个服务器;

虽然用户通过浏览器来体验Google的服务,但是它也不是浏览器。

虽然Google的主打搜索服务可以使用户搜索到所需资源,但是它本身并不拥有这些资源。

这与拨打电话非常类似,不仅仅需要两端的电话机,还需要连接电话机之间的电话网络。

Google的作用体现在位于浏览器和搜索引擎以及目的内容服务器之间,作为用户和他们在线体验的中介。

虽然Netscape和Google都可以被称为软件公司,但是显而易见Netscape和Lotus、Microsoft、Oracle、SAP等始于20世纪80年代软件革命的公司同属于一种类型,而Google及其同伴们,如eBay、Amazon、Napster、DoubleClick和Akamai却代表了另一类互联网应用。

DoubleClick与Overture及AdSense

和Google一样,DoubleClick也是真正的互联网时代的孩子。

它把软件作为一种服务,以数据管理作为核心竞争力,并且在网络服务这个名词出现以前,就已经是提倡网络服务的先驱者了。

然而,DoubleClick最终却受到其商业模式的制约。

它沿袭了20世纪90年代的观念,即网络就是发布信息,而不是顾客参与;

网络就是广告客户,而不是消费者;

网络就是规模效应,即认为互联网会被如MediaMetrix等网络广告评测公司尺度下的所谓顶级网站所统治。

其结果是,DoubleClick自豪地在其网站上宣称它的软件拥有“超过2000个成功引用”。

相比之下,Yahoo!

公司的搜索营销(其前身是Overture)与Google的AdSense产品,已经在为几十万的个体广告客户服务。

Overture与Google的成功源自对克里斯·

安德森(ChrisAnderson)所提到的“长尾巴”的理解,即众多小网站集合起来提供了互联网的大部分内容。

DoubleClick的产品需要正规的销售合同,从而将其市场仅局限于数千个大型网站。

Overture和Google则找出了如何将广告配置在几乎任意的网络页面上。

而且,他们回避了发行商和广告代理们所喜爱的广告形式,例如条幅广告和弹出式广告,而采用了干扰最小的、上下文敏感的、对用户友好的文字广告形式。

Web2.0的经验:

有效利用用户的自助服务和系统的数据管理,以便能够将触角延伸至整个互联网,延伸至各个边缘而不仅仅是中心,延伸至“长尾”而不仅仅是头部。

不用惊奇,其它的Web2.0成功案例展示了同样的行为。

eBay作为自动化的中介支持个人之间偶然的小额交易。

Napster(尽管已经因为法律的原因而关闭)不是通过创建中央歌曲数据库,而是通过构建一个使得每个下载者同时也是一个乐曲提供者的系统扩展其网络。

Akamai与BitTorrent

和DoubleClick类似,Akamai的业务重点面向网络的头部,而不是尾部;

面向中心,而不是边缘。

虽然它也服务于网络边缘的个体,使得这些人间接访问那些高点击率的站点,但是其利润却来自于中心站点。

BitTorrent像其它点对点先驱一样釆取激进的方式追求互联网的“去中心化”。

每一个客户端也是一个服务器;

文件被分割成多个碎片以便可以从多个位置获取,从而为下载者提供了与其它用户共享带宽的能力。

实际上,越是流行的文件,下载的速度就越快,因为有更多的用户为这个完整文件提供带宽和各个片断。

BitTorrent由此揭示了一个Web2.0的关键原则:

使用的人越多,服务质量就会自动地变得越好。

一边是Akamai必须增加服务器数量来改善服务,另一边是BitTorrent用户将各自的资源贡献给大家。

可以说,有一种新的隐性“参与架构”(见附录3)内置在合作准则中。

在这种架构下,服务作为一种智能中介,将网络上的各个边缘连接起来,同时充分利用了用户自身的力量。

2.利用集体智慧

诞生于Web1.0时代并且存活下来,而且还要在Web2.0时代处于领先地位的巨人们的成功故事的背后有一个核心原则:

利用网络的力量来凝聚集体智慧:

✧超链接是网络的基础。

当用户添加新的内容和新的网站的时候,将被限定在一种特定的网络结构中,这种网络结构是由其他用户发现内容并建立链接的。

如同大脑中的神经突触,随着彼此的联系通过复制和强化变得越来越强,而作为网络用户的所有活动的直接结果就是网络将有机地成长。

✧Yahoo!

,第一个伟大的互联网奇迹,诞生之初就是一个分类或者链接目录,它汇聚了数以千计,乃至上百万计的网络使用者的最精彩的作品。

虽然Yahoo!

已经进入创造多类型内容的商业模式,作为汇集网络用户作品的门户网站依然是其价值的核心。

✧Google在搜索方面的突破在于页面评级(PageRank)技术,该技术令其迅速成为搜索市场上毫无争议的领导者。

页面评级是一种使用网络链接结构而不是文档特性来提供更好搜索结果的方法。

✧eBay的产品是其所有用户积极互动的结果;

就像网络自身,eBay通过有机地响应用户的活动而成长,公司的角色在于给用户创造一个合适的活动环境。

而且eBay的竞争优势几乎全部来自于买家和卖家的关键性数量,这使得提供类似业务的竞争者吸引力逊色不少。

✧Amazon与它的竞争对手如B销售同样的产品,它们都从供应商那里接受相同的产品描述、封面图片以及编辑内容。

但是Amazon已经缔造出了一门关于激发用户参与的科学,Amazon拥有比其竞争者高出一个数量级以上的用户评价,以及更多的邀请来让用户以五花八门的方式,在几乎所有的页面上进行参与。

更为重要的是,他们还能够根据用户的活动来产生更好的搜索结果。

而B的搜索结果则通常是自己或者赞助商的产品,而Amazon则始终以所谓“最流行的”打头,这是一种实时计算,不仅基于销售,而且基于其他一些被Amazon内部人士称为围绕着产品“流动”(flow)的因素。

由于拥有高出对手一个数量级的用户参与,Amazon销售额超出竞争对手也就不足为奇了。

现在,具有创新性的公司已经认识到了凝聚集体智慧的重要性,它们将其进一步扩展,在网络上开拓着市场:

✧维基百科全书(Wikipedia)是一个在线百科全书,其实现基于一种看似不可能的观念。

该观念认为一个条目可以被任何互联网用户所添加,同时可以被其他任何人编辑。

无疑,这是对信任的一种极端的实验,将埃里克·

雷蒙德(EricRaymond)的格言(源自开放源码软件的背景之下)“当吸引的眼球足够多时,所有的错误都无处遁形”(withenougheyeballs,allbugsareshallow)运用到了内容的创建之中。

维基百科全书已经进入世界百强网站之列,并且很有希望进入前十名。

这在内容动态创建方面是一种深远的变革!

✧还有些站点,比如del.icio.us和Flickr最近也倍受关注,他们提出一个被某些人称为“大众分类(与传统分类相对比)的概念。

这是一种使用用户自由选择的关键词对网站进行协作分类的方式,而这些关键词一般称为标签(tags)。

标签化运用了像大脑本身所使用的那种多重的、重叠的关联,而不是死板的分类。

举例来说,在Flickr网站上,一幅小狗照片可能被加上“小狗”和“可爱”这样的标签,从而允许系统依照用户行为所产生的自然的方式来进行检索。

✧协作式垃圾信息过滤产品,例如Cloudmark,聚集了电子邮件用户们对于“一封邮件是不是垃圾邮件”的众多相互独立的决策,从而胜过了依赖于分析邮件本身的那些系统。

✧那些卓越的互联网成功企业是不需要广告来宣传他们的产品的。

他们采用了一种“病毒式营销”(ViralMarketing)的方式,通过直接的一对一的传播方式来推荐产品。

如果一个站点或产品依赖于广告推广,你基本上可以确定它不属于Web2.0。

✧甚至许多网络基础设施——包括在许多网络服务器中所使用的Linux、Apache、MySQL,以及Perl、PHP或Python代码——也都依靠开放源码的对等生产(peer-production)的方式,而他们本身就是一个基于网络的群体智慧的实例。

在SourceF列有超过10万个开放源码软件项目。

任何人都能够增加一个项目,任何人都可以下载使用这些代码,当用户对某一项目贡献越多时,该项目就会从网络边缘向网络中央迁移,这几乎完全是基于传染营销的一种软件进化方式。

经验:

在Web2.0时代来自用户贡献的网络效应是赢得市场优势的关键。

博客与大众智慧

Web2.0时代最受追捧的特性就是博客(blogging)的兴起。

个人主页在互联网早期就已经存在了,而个人日记和记事专栏的历史甚至更久,博客的出现有什么值得大惊小怪的呢?

归根到底,博客仅仅是以日记形式出现的个人主页。

但正如里奇·

斯格仁塔(RichSkrenta)指出的:

博客以时间排序组织的方式“看似差别不大,但它却推动着一个迥然不同的分发、广告和价值链。

另一个区别因素是一项被称为RSS[4]的技术。

自从黑客认识到CGI(公共网关接口)可以用来创造基于数据库支持的网站以来,RSS是在基础架构领域所出现的最有意义的技术进步。

RSS允许人们不仅仅是链接到一个网页,而且是通过订阅的方式,在每次页面更新时接到通知。

斯格仁塔(Skrenta)称之为“增长的网络”(theincrementalweb),也有人称之为“实时网络”(liveweb)。

当然,现在的“动态网站”(例如:

基于数据库支持的,能够动态更新内容的站点)已经取代了十年前的静态网站。

而实时网络不仅指网页是动态的,而且链接也是动态的。

一个指向网络博客(weblog)的链接实际上是指向一个不断更新的网页,包括指向其中任何一篇文章的“固定链接”(permalinks),以及每一次更新的通知。

因此,一个RSS是比书签或者指向一个单独网页的链接要强大得多。

RSS也意味着网络浏览器不是阅读网页的唯一方式。

尽管某些RSS聚合器(RSSaggregators)如Bloglines是基于网络的,但是其他的则是桌面程序,此外还有一些则可以用在便携设备上来接受定期更新的内容。

RSS现在不仅用于发送新博客条目的通知,也适用于所有类型的数据更新,包括股票报价,气象信息以及图片等。

这种使用方式实际上是对RSS本源的一种回归:

RSS诞生于1997年,是如下两种技术的汇合:

一种是戴夫·

温纳(DaveWiner)的“真正简单的聚合”(ReallySimpleSyndication)技术,用于通知博客的更新情况;

另一种是Netscape公司提供的“丰富站点摘要”(RichSiteSummary)技术,该技术允许用户用定期更新的数据流来定制Netscape主页。

后来Netscape对这项技术不再感兴趣,这种技术便由温纳的一个博客先驱公司Userland承接下来。

不过,在现在的应用程序实现中,我可以看出两者共同的作用。

但是RSS只是网络博克区别于传统网页的部分原因。

汤姆·

科特斯(TomCoates)还讨论了永久链接的重要性:

现在它可能看上去像是一项普普通通的功能,但它却有效地将博客从一个易于发布(ease-of-publishing)的现象转换为一个交互会话式的社区。

有史以来第一次能够相对简单得对其他人站点上的特定的帖子表态并参与讨论。

讨论出现了、聊天出现了,从而友谊也出现了或者增强了。

永久链接是第一个——也是最成功地一个——在博客之间搭建桥梁的尝试。

RSS和永久链接的结合给HTTP(互联网协议)增加了许多NNTP(Usenet所用的网络新闻协议)的特性。

“博客圈”(blogosphere)可以被看作是一种新的类似互联网早期Usenet和电子公告牌等网络通话方式的等价物。

人们不仅可以订阅彼此的网站、方便地链接网页上的个人评论,而且还可以通过“链接跟踪”(trackbacks)的机制看到什么人链接了自己的网页,并通过“友情链接”(reciprocallinks)或者增加评论的方式给予反馈。

有趣的是,这种双向链接(two-waylinks)曾是早期像Xanadu之类的超文本系统所追求的目标。

超文本追随者盛赞“链接跟踪”(trackbacks)技术是迈向双向链接的重要一步。

但值得注意的是,这不是真正意义上的双向方式,它们实际上是由对称的单向链接所形成的双向链接效果。

其差别看似微小,实际上确实非常巨大的。

类似Friendster、Orkut、和LinkedIn等社交网络系统,它们需要接受方的确认才能建立连接,缺少象网络一样的可扩展性。

Flickr图片共享服务的创始人之一卡特里纳·

费克(CaterinaFake)指出注意力仅在碰巧时才礼尚往来。

(Flickr因此允许用户设置观察列表——任何用户可以通过RSS订阅其它用户的图片流。

注意的对象将会被通知,但却不必需要批准。

如果Web2.0的精华在于利用集体智慧,能够把网络变成一个全球的大脑,那么“博客”则是大脑中喋喋不休的呓语,是我们的大脑能够听到的全部声音。

这可能并不不能反映出大脑的往往无意识的深层结构,但却是一种有意识的思考的等价物。

作为有意识的思想和注意力的反映,“博客”已经开始显示强大的影响力。

首先,搜索引擎使用链接结构帮助预测有用的网页。

作为丰富而及时的链接者,博客们在整理搜索结果时承担着重要角色。

其次,由于博客社区如此高度自相引用,关注其他博客的博客们开阔了他们的视野和能力。

批评家所谴责的“回音室”(echochamber)同时也是一个放大器。

如果仅仅是一个放大器,博客或许不会那么有趣。

但就象维基百科全书一样,博客将群体智慧汇集为一种过滤器。

此时被詹姆士·

苏瑞奥维奇(JamesSuriowecki)称为“大众智慧”(thewisdomofcrowds)的规律起了作用,正如页面评级(PageRank)能够得到比分析任何单个文档都更好的结果,博克的群体关注会筛选出有价值的东西。

虽然主流媒体可能将个别博客作为竞争者,但使它们真正感到紧张的是博客作为一个整体与之竞争。

这不仅仅是网站之间的竞争而且是商业模式的竞争。

Web2.0的世界也是丹·

吉尔默(DanGillmor)所说的“我们,就是媒体”(We,themedia)的世界,在这个世界中是所谓“原本的听众”(theformeraudience),而不是密室里的少数几个人,决定着什么是重要的。

3.数据是下一个IntelInside

到目前为止,每个重要的互联网应用背后都有一个专门的数据库支持:

Google的网络爬行、Yahoo!

的目录(以及网络爬行)、Amazon的产品数据库、eBay的产品及卖家数据库、MapQuest的地图数据库、Napster的分布式歌曲数据库。

正如哈尔·

瓦里安(HalVarian)在去年的一次私人谈话中谈到的:

“SQL是新的HTML”。

数据库管理是Web2.0公司的核心能力,它是如此重要以至于我们某些时候将这些应用称为“信息件”(infoware)而不仅是软件。

这实际上引出了一个关键问题:

谁拥有这些数据?

在互联网时代,人们已经能够看到许多通过控制数据库来控制市场并获得巨大资金回报的案例。

初期被政府所许可的域名注册垄断者NetworkSolutions公司(后来被Verisign公司所收购)就是第一个互联网成功的淘金者。

虽然我们曾经讨论过通过控制软件API来形成商业优势在互联网时代困难重重,然而对于关键数据源的控制则有所不同,特别是如果这些数据源需要耗费巨资创建或者服从通过网络效应增长的话更是如此。

看看由MapQuest、、或者所提供的每一张地图底端的版权声明吧,你将看到“地图版权NavTeq,TeleAtlas”的字样,对于新的卫星图像服务则是“图像版权DigitalGlobe”字样。

这些公司投巨资建立了他们的数据库(据报告仅NavTeq一家,就投资7.5亿美元用于创建其街道地址和路线数据库,DigitalGlobe花费5亿美元发射其自有卫星以改进政府提供的图像)。

NavTeq已经开始模仿Intel的耳熟能详的“IntelInside”标识:

拥有其导航系统的汽车将被标上“NavTeqOnboard”。

数据事实上是这些应用程序的“IntelInside”,是一些系统的唯一的信息源组件,

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 自然科学

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1