白宫扩大使用搜索拦截程序 探奥巴马IT政策立场

888次浏览 百度收录
网址:http://www.bjgtp.com
网站:九州彩票

  

白宫扩大使用搜索拦截程序 探奥巴马IT政策立场

  至于检视奥巴马总统对信息公开透明的承诺可知,他已经违反先前的承诺。他曾保证,会在所有非紧急法案签署前五日,先把法案全文张贴在白宫网站(Whitehouse.gov)上。但日前签署的2009年Lilly Ledbetter Fair Pay Act,却显然未先贴上白宫网站五天之久。 “这件事有点蠢,旧的robots.txt排除内部搜索结果页和HTML网页里重复的文字版。这正是robots.txt的功用。Google的网管人员指南里就指出,使用robots.txt可避免爬梳到不能为使用者增添搜索价值的搜索结果页,或其他自动产生的网页。” 简单说,建立、管理robots.txt文档的是工程师,不是律师或政府决策人士,所以凭这个文档来评断美国总统的IT政策立场,是不适宜的。 但一周后,白宫网站悄悄开始扩大使用robots.txt的搜索引擎拦截机制。截至上周五早晨,该文档内容已扩充到包含下列几行: 一群IT专家与博客立刻撰文赞扬,指出这显示奥巴马对信息公开、透明的承诺。 要评断奥巴马,是要检视这类具体细节,而不是凭robots.txt文档就遽下断语。(Chris Soghoian) CNET科技资讯网2月3日国际报道 美国白宫已悄悄把禁止Google等搜索引擎访问的网页数目提高到原来的三倍,圣奥古斯丁(佛罗里达州),这么做就信息公开透明而言是坏消息,还是风马牛不相干? 相反地,要评断总统的IT政策方向,应看他对实际问题的作法而定,例如他任命多少前任RIAA和MPAA律师,出任联邦贸易委员会(FTC)和联邦通讯委员会(FCC)的职位?又任命谁担任新的网络安全官员? 可以这么说:白宫在一天之内,把禁止搜索引擎爬梳的网站数目提高到原先的三倍。不过,同样重要的是,这么做没什么大不了的,事实上,这根本无关紧要。 “可想而知,一个8年旧网站的robots.txt,绝对比才面世一日的网站的robots.txt来得长。而且,它又不是内含限制访问最高机密( /secrets/top)或限制访问卡特里娜飓风反应( /katrina/response/)这样的字眼。”