外贸网站建设:如何解决网站URL地址发生改变的问题?

我们建议搜索营销人员和网站维护人员最好永远不要改变网站页面的URL,但是出于某种原因,我们可能会发现有必要改变一个网页的URL。有时是需要在不同的服务器上放置某个页面,导致URL会有变化;而有时是因为页面的内容改变了所以旧的URL不再有 意义,所以需要用新的URL取代旧的URL;还有一种最常见的情况是网站改版,企业对网站进行新的规划,这时网站的栏目结构均发生了变化,导致URL除主 页外全部改变。我们如何妥善解决网站URL地址发生改变的问题呢?

 

 

解决这个问题的最佳方法是对网站URL地址进行重定向(redirect)。重定向允许旧的URL被重新指向到目前的URL上,因此你的访客使用旧的URL时,不会得到一个“网页没有被找到”的消息(通常大家知道的HTTP404错误)。

有很多情况下访问者会使用到旧的URL,比如:

  • 书签(Bookmarks )。如果一个访客给你的旧URL加了书签,他们的书签会在你改URL之后,在第一次使用时产生404错误。也就是说点击原收藏地址找不到你的网页。
  • 链接。互联网上的其他网页(在你的站点和其他站点上)链接到旧的URL上。所有这些链接在你改变URL又没有进行重定向时变成断掉的链接。
  • 搜索结果。你可以想象得到,搜索蜘蛛发现你的网页时使用的是旧的URL并且将旧的URL加入索引库。当搜索者发现你的网页时,他们点击的是旧的存在索引库中的URL,因此他们在没有重定向的时候也会得到“404”的报错。

基于以上例举的重要原因,我们需要使用重定向使访客可以继续发现这些页面。

如何操作好重定向工作呢?

既 然重定向可以使访客可以继续发现这些改变了URL的页面,那么搜索引擎的蜘蛛程序和重定向的关系又是怎样的呢? 蜘蛛程序对网站管理员怎样执行网页的重定向特别挑剔。当一个网页永久地被从一个URL转移到另一个时,唯一使用的一种重定向被称为服务器端重定向一一你可 能听说过其被称为”301″重定向,从HTTP状态代码返回到蜘蛛程序。301状态代码告诉蜘蛛程序网页己经被永久地改变到新的URL上,并会使得蜘蛛程 序做两件极其重要的事情:

  • 爬过新的URL网页。蜘蛛程序会按照你的意愿,使用301重定向所提供的新的URL来找到并爬过新的页面。它会索引页面上的所有内容,并会把新的URL收录到索引库中,因此所有带出那个网页的搜索会引导搜索者到新的URL上,而不是旧的。
  • 将旧网页上的所有链接价值进行传递。你已经知道了链接到你的网站有多么重 要一一当其他网页(特别是重要的网页)链接到你的网页时,搜索引擎会给你的网页排名升高。当蜘蛛程序看到一个301重新链接,它也会更新索引库中所有的链接信息,因此在旧的URL下你网页的所有的链接价值被转移到新的URL下。

但是有些网站管理员并不使用服务器端的重新链接。下面两种重新链接网页的方法对搜索营销工作尤为有害:

  • JavaScript重定向。一种执行重新链接的方法是在新的URL中嵌入JavaScript代码。 开发者将网页的实际URL转移到新的URL上并为旧的URL编码一个简单的网页,这个旧的URL包含一个JavaScript代码,将浏览器发送到新的URL上。
  • Meta更新定向(Meta refresh redirects)。HTML在<head>部分的meta标签也可以重新链接一个网页一一通常被称作“meta更新”重定向。

搜索蜘蛛通常不能跟随JavaScript,所有这些技术还随时随地被搜索的作弊者使用,因此他们可以让搜索蜘蛛索引旧的页面而让搜索者到新的URL网页 (有很多根本不同的内容)。这些种类的重定向不会让蜘蛛程序爬到你的新URL,并且他们不会使你的新URL被收录,而这是你所期望的。要确定你的网站管理 员使用301重定向来给所有的网页进行重定向,并确认你的网站开发人员没有使用JavaScript和“meta refresh”重定向。

确保网站服务器的响应

当 蜘蛛程序来拜访的时候,你的网站服务器必须是在运行状态。如果你的服务器宕机了,蜘蛛程序从你的站点收不到反应。好的结果是,蜘蛛程序沿着新的服务器移动 并将你的网页放到索引库中(当然,不会看到网页的任何变动)。最差的结果是蜘蛛程序可能以为(在很多次爬行中遇到几次问题以后)你的网站已经不存在了,并 且从搜索索引中删除所有没再找到的网页。

不要让这种事情发生。我们显然是希望网站总能够服务于访客,但是有时候硬件问题和其他的故障造成长时间或者频繁岩机,可能就导致你的网页从一个或者多个搜索索引库中被删除。

还有一个不那么严重,但有些关系的问题是:网页显示比较慢。当你的网站在技术启动的时候,网站可能会显示得很慢,导致蜘蛛程序很快就放弃网站。很少有蜘蛛程序会等一个网页到10秒钟以上,所以加快你的站点速度是很重要的。