网络安全与管理论文内容安全监管现状比较与分析各国互联网Word格式文档下载.docx
《网络安全与管理论文内容安全监管现状比较与分析各国互联网Word格式文档下载.docx》由会员分享,可在线阅读,更多相关《网络安全与管理论文内容安全监管现状比较与分析各国互联网Word格式文档下载.docx(5页珍藏版)》请在冰豆网上搜索。
内容安全是信息安全的落脚点。
为此,各国政府通过制定法律、采取具体行动,以及各种技术手段对互联网内容安全进行监管,取得了一定的效果。
但是,网络的跨国界特点以及各国文化背景、法律环境、社会风气及政治制度等方面的差异,使网络内容安全监管难度加大。
目前,各国互联网内容的监管方式主要包括两类:
一是通过立法、完善法律体系加强互管制;
二是通过互联网行业自律能力和技术手段,来加强内容监管力度。
1美国信息内容安全监管现状美国是互联网最发达,管理最宽松的国家。
但是对网络内容的监管依旧十分严格和严厉,以保护青少年免受色情内容的影响。
1.1完善立法美国政府针对本国国情,从联邦和州两个层次进行机构设置和立法管理,互联网管理体系已较为成熟。
1996年2月1日美国通过了《传播净化法案》(TheCommunicationsDecencyActof1996,简称CDA)[1]。
该法案是《电讯传播法案》一部分,是美国国会对管制互联网色情内容做出的第一次尝试,以限制、阻止网上黄色内容对青少年的影响和毒害。
由于此法引起了言论自由与内容管理方面的争论。
美国最高法院于1997年6月裁定,该法因违背美国宪法所保护的公民言论自由权而无效。
1998年10月美国国会通过《儿童在线保护法》(ChildOnlineProtectionAct,简称COPA),旨在对有害儿童身心健康的网络色情内容加以管理。
法案规定商业性的色情网站不得提供17岁以下的未成年人浏览“缺乏严肃文学、艺术、政治、科学价值的裸体与性行为影像及文字”有害身心的网站内容,对未满18岁的青少年进行必要的限制进入措施,以防止其浏览成人网站。
由于与言论自由矛盾,1999年2月,法官裁定COPA违宪。
2000年4月20日,美国国会发布《儿童网络隐私规则》。
2000年12月美国国会通过了《儿童互联网保护法》(Children'
sInternetProtectionAct,简称CIPA),旨在保护未成年人免遭互联网色情业的侵害。
该法要求商业网站的运营者在允许互联网用户浏览对未成年人有害的内容之前,先使用电子年龄验证系统对互联网用户的年龄进行鉴别,并要求各学校和公共图书馆都要在联网计算机上安装过滤软件。
CIPA标志着美国网络管制进入了“过滤时代”。
2003年6月23日,美国要求全国的公共图书馆为联网计算机安装色情过滤系统。
同时,美国微软公司还开发了儿童色情追踪系统(ChildExploitationTrackingSystem,CETS),免费向各国政府提供使用。
2007年10月,美国国会通过了《删除在线掠食者法案》(DeletingOnlinePredatorsAct),要求学校和图书馆封锁社交网站的接入,严禁未成年人访问社交网站,如MySpace等。
同时,美国还积极参与国际合作,美国与欧盟等国共同草拟了世界上第一个针对网络犯罪的国际公约《网络犯罪公约草案》,以解决日益猖獗的网络犯罪问题。
1.2加强行政和技术监管在加强立法的同时,美国政府还充分利用互联网协会ISO(CInternetSociety)的影响力进行网络监管。
ISOC是互联网的最高国际组织,是一个促进互联网的有序使用及发展的非政府性的国际会员制组织。
为提高管理效率,美国政府设立专门机构对网络内容进行评估,按等级划分,以判定哪些内容可以在网络上传播,并帮助家长过滤对儿童不利的内容。
如美国的娱乐软件业实行分级制度,通过分级保证特定等级的游戏产品只能卖给特定年龄的消费者。
同时,美国政府还发布指导手册,还提供相关网址、开设网上专页和电话专线,发布有关网上儿童色情活动75的最新信息,敦促家长关注孩子的上网安全问题并给予指导。
美国政府还开办了域名为KIDS.US的网站。
该网站所有网页内容均受到有关部门核查,不含任何色情内容。
很多中小学都对学校的电脑实行联网管理,屏蔽影响儿童身心发育的网站。
为加强技术监管的效果,美国当局还与各大运营商合作,在一些服务商内部设立信息监控功能。
并通过分级和过滤两种手段对互联网传播的各种非法信息、不良信息、有害信息进行管理。
其中分级以3WC推动的网络分级制度设立标准为基础,目前已研制出多种分级体系,并得到推广。
过滤系统是通过一些过滤软件来实现,常用的有Cybersitter,Safesurf等。
2德国内容安全监管现状德国对互联网内容监管很严格,德国政府直接介入互联网内容安全管理,并投入大量人力物力,对互联网内容管制制定相关的法律制度,并严格执行。
1997年德国提出世界上第一个互联网法案《多媒体法》,又称《信息与通信服务法(》InformationandCommunicationServicesAct),于1997年8月1日开始实施,以解决互联网传输的违法内容,包括猥亵、色情、恶意言论、谣言、反犹太人等宣扬种族主义的言论,严格规范了有关纳粹的言论思想与图片等相关信息[1]。
为防止未成年人受到侵害,德国政府建立了“危害青少年媒体检查处”,专门负责识别和检查互联网信息内容,监测不良信息网站的发展状况,并运用技术手段确保未成年人无法接触和翻阅不良内容,保证媒体传播信息的安全性[2]。
德国教育机构和青少年保护机构,推出大量健康游戏软件和学习软件,为家长提供指导青少年上网的专家建议。
发起健康上网的行动,帮助青少年正确使用互联网。
德国内政部是负责互联网信息安全的最高国家机构,主要职责是对有害信息的传播进行防范。
内政部下属的信息技术安全局负责应对和解决网络安全问题,下属的联邦警局负责网上可疑信息的实时跟踪,设立的网络警察负责监控有害信息的传播。
并加强与美国联邦调查局、欧洲刑警组织等机构的国际合作,加强打击网络犯罪力度,共同监管互联网信息传播。
3英国信息内容安全监管现状英国没有制定专门的内容管理法规,对网络内容的规范主要引用现有的法规,重点强调行业自律。
从1996年开始,英国对互联网内容的管理采取“监督而非监控”的思想,主要由网络观察基金会(InternetWatchFoundation,简称IWF)来执行[3]。
成立基金会的主要目的是为了解决互联网上日益增多的违法犯罪活动问题,如色情、性虐待、种族歧视等,尤其致力于儿童色情问题的解决。
为鼓励从业者自律,IWF与由五十家网络提供商组成的ISPA、伦敦网络协会(LINX)以及英国城市警察署、国内事务部的代表共同签署了一份“安全网络:
分级、检举、责任”(R3Safety-Net)的文件(又称《R3安全网络协议》)。
并以此为依据确定从业人员行为守则(ISPA,CodeofPractice)。
其主要精神包括鼓励新科技使用、帮助家长与教师认识新科技、网络提供者有责任确保内容的合法性等。
IWF还制定了互联网内容管理具体管理措施,强调设立内容分级和过滤系统,让用户能阻拦或预先警戒令人厌恶的内容,鼓励用户自行选择需要的网络内容。
IWF主张通过内容分类标注技术,让用户自行决定是否要浏览成人色情、种族主义言论等内容。
IWF于1997年召开国际会议,开始大力推广PICS标准和内容过滤软件。
2001年,英国内政部设立儿童网络保护特别工作组,专门为保护儿童网上安全出谋划策[3,4]。
4日本信息内容安全监管现状日本以现行法律,尤其是刑法作为管理网络内容的主要规范,并通过业者自律与技术开发双管齐下,以保护互联网内容安全[4]。
2005年6月14日,日本内阁府为首的多个政府相关部门成立了专门研究治理网络不良信息的局长级会议,又称作“IT安心会议”。
“IT安心会议”成立后迅速提出了普及网络分级软件、支持网络运营商加强自主管理、充实国民的道德教育以抵制网络违法和有害的信息、充实信息提供以及心理咨询的窗口以减少网络自杀等多项基本对策。
2005年6月底,日本政府针对未成年人大力推广网络分级软件。
通过普及网络分级软件,降低未成年人浏览不良网站的可能性,从而减少青少年犯罪。
并抽查各政府机关以及学校的利用情况,以加速该软件的普及;
政府还与学校合作,呼吁有小孩的家庭使用该软件;
此外,针对手机上网情况,政府还推动能够在手机等终端上使用的网络分级软件。
5我国信息内容安全监管现状
5.1加快安全立法工作我国高度重视网络和信息安全工作,成立了国家网络与信息安全协调办公室,并将互联网内容作为专项整治内容之一。
我国没有制定专门的互联网信息内容安全管理法律规范,而是将涉及互联网信息内容安全管理的立法内容渗透、融入相关的法律、行政法规和部门规章中[4-6]。
1997年12月16日,国务院批准《计算机信息网络国际联网安全保护管理办法》,首次正式规定严格禁止利用国际联网危害国家安全、传播不良信息和进行计算机网络系统攻击等行为,并且对违反规定者明确了处罚措施。
2000年9月25日,国务院公布《互联网信息服务管理办法》,对传播内容提出一些限制性规定。
2000年12月28日,发布《全国人民代表大会常务委员会外视点2010.01关于维护互联网安全的决定》,强调司法机关和有关政府机关、主管部门要依法履行职责,网络公司要依法经营,要动员全社会的力量.对互联网进行综合管理。
2002年8月1日,新闻出版总署和工信部(原信产部)联合颁布《互联网出版管理暂行规定》。
《规定》要求互联网出版内容不得含有违反社会公德和违法犯罪行为的内容度。
2003年7月1日,文化部发布《互联网文化管理暂行规定》,把网络游戏、音像制品在线销售、网上点播、网上艺术品拍卖等新兴的文化生活方式纳入规范管理范畴。
2004年7月6日,广电总局发布《互联网等信息网络传播视听节目管理办法》。
2005年9月25日,国务院新闻办、工信部(原信产部)联合发布《互联网新闻信息服务管理规定》,对互联网新闻信息服务单位从事互联网新闻信息服务的相关行为进行了规范。
为净化移动信息,2005年9月26日,工信部(原信产部)发布“关于进一步加强移动通信网络不良信息传播治理的通知”。
2005年12月13日,公安部发布了《互联网安全保护技术措施规定》,对互联网服务提供者、联网使用单位落实相应的安全保护技术措施作出了具体规定。
2006年5月18日,国务院颁布《信息网络传播权保护条例》,该条例规范了信息网络引发的著作权法律问题。
《2006-2020年国家信息化发展战略》指出“建设积极健康的网络文化。
倡导网络文明,强化网络道德约束,建立和完善网络行为规范,积极引导广大群众的网络文化创作实践,自觉抵御不良内容的侵蚀,摈弃网络滥用行为和低俗之风,全面建设积极健康的网络文化。
”从以上规定我们可以看出,我国互联网信息内容安全管理主要采取的是分行业纵向监管模式,各有关部门在各自领域内承担互联网信息内容安全管理的职责。
5.2开展各种整治活动在上个世纪90年代,由于网民少,国家没有出台专门的内容监管政策。
1998年8月,公安部正式成立公共信息网络安全监察局。
2004年后,互联网内容监管跨入新阶段,政府运用各项管理技能,调动各种组织和社会资源,以立法、技术和行政手段三重推进的方式,形成立体监管体系。
2001年,中国互联网协会成立。
2004年6月,该协会出台了《中国互联网行业自律公约》。
同年6月10日,中国互联网“违法和不良信息举报中心”成立。
2006年2月,工信部(原信产部)启动了“阳光绿色网络工程”,倡导网络文明,通过构建和谐的网络环境推进和谐社会的建设。
2007年8月,中国互联网协会发布《博客服务自律公约》,旨在通过行业自律形式,推动博客用户和博客服务提供商以协议规范双方责权。
同时,国家开展了多次专项行动,严厉打击网络淫秽色情2009年1月5日,国务院新闻办等九部委联合在全国开展整治互联网低俗之风专项行动。
为了配合整治行动,国家对“淫秽”、“色情”、“低俗”的内涵进行了界定。
2009年8月至10月,公安部等九部委在全国范围内组织开展打击整治网络淫秽色情专项行动,深入整治与网络淫秽色情利益链有关的网络接入服务商、网络广告商和第三方支付企业。
2009年11月17日,全国“扫黄打非”工作小组办公室下发了《关于严厉打击手机网站制作、传播淫秽色情信息活动的紧急通知》,对手机网站制作传播有害信息进行专项治理,以保护青少年身心健康[8]。
从总体上看,我国互联网信息内容安全监管是由国务院统筹协调,结合各部门的权限与职能特点,设立专门机构进行监管。
各互联网信息内容安全管理部门根据本部门业务的特点和网络安全的实际情况与发展的需要制定相关规定。
另外,我国现有的法律法规中,虽然没有将行业协会纳入互联网信息内容安全管理主体的范围,但是实践中我国的行业协会在互联网信息内容安全管理中也发挥着越来越重要的作用。
6结语
随着互联网的进一步广泛应用,互联网信息内容安全管理的范围正在从网络与信息安全向知识产权保护、消费者权益保护、个人隐私和商业秘密保护、传统文化与道德冲突等方面扩展。
为此,需要重视互联网新技术及应用引发的内容安全新问题,如利用网络游戏进行赌博,政府管制与自我审查并重,惩罚与奖励并重,有针对性地制定完善监管政策和法律、法规和制度,建立起互联网内容安全应急管理机制,完善内容安全立法。
进一步推进行业协会的建设与发展,推行行业自律和自我审查,加强内容监控软件的研制和安装,加快内容分级标准的制定和推广,以形成有效的监管机制。
参考文献:
[1]刘兵.关于中国互联网内容管制理论研究[D].北京邮电大学博士论文,2007.
[2]马乱,张彬.海外互联网内容监管经验系列报道之一--从海外内容控制软件看我国网络监管[J].通信世界,2008(12):
30-31.
[3]国外互联网管理经验分析[EB/OL].http:
//www.tong-
[4]王洪波.各国互联网不适宜内容政府管制比较研究[D].中国社会科学院研究生院硕士论文,2005.
[5]李永刚.中国互联网内容监管的变迁轨迹——基于政策学习理论的简单考察[J].南京工业大学学报(社会科学版),2007,6
(2):
44-48.
[6]李永刚.中国互联网内容监管的预期与效果——事实及评价[J].江苏行政学院学报,2008,38
(2):
90-95.
[7]宁家骏.信息内容安全[M].贵州:
贵州出版社,2004.
[8]严打手机网站制作传播淫秽色情信息[EB/OL].