重复或转载网页的消除
2009-12-27 14:57
183 查看
与生俱来的数字化和网络化给网页的复制以及转载和修改再发表带来了便利,因此我们看到Web上的信息存在大量的重复现象。天网在2003年的一次大规模统计分析表明,网页的重复率平均大约为4。也就是说,当你通过一个URL在网上看到一篇网页的时候,平均还有另外3个不同的URL也给出相同或者基本相似的内容。这种现象对于广大的网民来说是有正面意义的,因为有了更多的信息访问机会。但对于搜索引擎来说,则主要是负面的;它不仅在搜集网页时要消耗机器时间和网络带宽资源,而且如果在查询结果中出现,无意义地消耗了计算机显示屏资源,也会引来用户的抱怨,“这么多重复的,给我一个就够了”
相关文章推荐
- 转载:asp.net网页防刷新重复提交、防后退解决办法集!
- 网页去重:搜索引擎重复网页的算法(转载)
- 网页去重:搜索引擎重复网页发现技术分析(转载)
- 网页去重:搜索引擎重复网页发现技术分析(转载)
- 网页去重:搜索引擎重复网页的算法(转载)
- 在手机网页端实现分享朋友圈【转载】
- MS Sql Server 消除重复行 保留信息完整的一条 2011-11-26 13:19(QQ空间)
- 【C#】.NET中设置代理服务器浏览网页的实现--转载
- MySQL 消除重复行的一些方法
- 转载--网页性能管理详解
- SQL重复记录查询(转载)
- 网页重复,地址不一致,行吗
- 2017网易春招 消除重复元素(set)
- 网页重复解决思路
- 利用Python抓取和解析网页(转载)
- 将 Silverlight 与网页集成【转载】
- [转载]如何转载网页(来自谭师哥)
- [转载] 网页调色板大全
- (转载)Asp.Net防止刷新重复提交数据小记
- 转载 .net面试题大全(有答案) & asp.net面试集合 [可能有部分重复]