整合网站重复内容- 致力于医药学专业网站搜索引擎优化(SEO)/搜索引擎 ...
整合网站重复内容 [转贴 2010-01-07 16:16:41]   
 

处理网站上的重复内容是一项非常困难的工作。随着网站的发展,必须不断增加、改变或删除各种功能;与此同时,不同的网站内容来了又去。一段时间后,许多网站都会有以多个URL网址形式存在的系统化垃圾代码,这些URL都返回同样的内容。在一般情况下,除了会增加搜索引擎的抓取和索引内容的难度以外,你的网站上存在重复内容并不构成问题。此外,通过导入链接而得到的PageRank以及类似信息可能会在我们尚未确定为重复内容的网页间扩散,导致你的{sx}网页在谷歌中的排名降低。

处理你的网站内部重复内容的步骤


识别网站上的重复内容。
识别你网站上的重复内容是处理重复内容的{dy}步,也是最重要的一步。使用一种简单的方法可以实现这个目的,即从网页中选取一段独特的文本代码,然后搜索这段文本,并使用谷歌的将搜索结果限制为自己网站上的网页。如此以来,搜索出的含有同样内容的多个结果就是你需要处理的重复内容。

在必要和可能的情况下使用301{yj}重定向。
可能的话,可以使用301代码将重复网址重新定向为你选择的网址。此举能够帮助用户和搜索引擎在访问重复URL网址时找到你的{sx}URL网址。如果你的网站有数个域名,可选择一个域名,使用将其他域名301重定向到这个域名,同时还要确保其转向正确的特定网页,而不仅是域根目录。如果网站同时支持www和非www主机名,可选择其中一种,使用Google网站站长工具中的{sx}域设置,再进行适当的重定向。

可能的情况下,在Google网站站长工具中使用URL参数处理工具
如果部分或全部网站重复内容来自带有查询参数的URL网址,则此工具将帮助你将URL内的重要参数和不相关参数通知我们。有关此工具的详细信息可参见google的


怎样处理robots.txt文件?

使用robots.txt文件来禁止对重复内容进行抓取不在google推荐的方法之内,建议你不要使用robots.txt文件或其他方式来禁止对你网站上的重复内容的访问。你可以使用rel="canonical" 链接标签、URL参数处理工具301重定向。如果xx阻止了对重复内容的访问,搜索引擎必须将这些URL作为独立的不同网页处理,因为它们无法分辨出这些URL其实只是指向相同内容的不同网址。更好的解决方法是允许对其进行抓取,同时用google推荐的方法将这些URL网址明确标记为重复内容。如果你允许google访问这些URL网址,Google抓取机器人将学会通过查看URL确定其是否为重复内容,在各种情况下都能很好地避免不必要的重复爬行抓取。为了防止重复内容仍然引导google过多地爬行搜索你的网站,你还可以调整Google网站站长工具里的抓取速度

郑重声明:资讯 【整合网站重复内容- 致力于医药学专业网站搜索引擎优化(SEO)/搜索引擎 ...】由 发布,版权归原作者及其所在单位,其原创性以及文中陈述文字和内容未经(企业库qiyeku.com)证实,请读者仅作参考,并请自行核实相关内容。若本文有侵犯到您的版权, 请你提供相关证明及申请并与我们联系(qiyeku # qq.com)或【在线投诉】,我们审核后将会尽快处理。
—— 相关资讯 ——