|
推广知识 |
网站建设过程中,如何建立404页面?404页面的作用是什么? |
如何建立404页面?SEO操作的核心是站内优化,站内优化的主要内容就是做好种种细节。——做好这些细节对网站排名可以起到意想不到的效果。 今天SEO基础操作的细节是404页面的建立。 我们可以发现,好的网站,都会精心制作404页面的。而不会把404页面留给下图。

连这个细节都没有做好的网站,一定不值得信任。不管有心无心,对于没有404页面的网站,用户都会质疑的,搜索引擎更是如此。 如果你要让搜索引擎信任你,404页面是最起码的要求。
如何制作404页面呢? 404页面的页面内容,可以随便确定。你可以找任何一个比较有名的网站,把它的404页面另存为下来,然后修改上面的文字。 比如:www.jsfengchao.com/404.html 你另存为下来,修改上面的文字后,上传到你的网站根目录。 注意点:404页面,不要直接跳转到首页,而是引导用户点击回到首页。后果是,可能导致首页被K。
如何让错误的链接直接跳转到404页面? 对于几乎所有的虚拟主机,都提供404页面跳转功能。 (如果不提供,则目前没有办法做。除非网站程序本身自带有404功能)
第一步:请登录虚拟主机后台,假设你是和万网买的虚拟主机,那么你要登陆www.net.cn,输入你在这个网站上用户名和密码。 同理,你和某某买的主机,就登陆它的网站。
第二步:找到你要设置的网站的主机,在设置404页面的地方正确填写404页面所在的地址。(请仔细找下,如果实在没找到,得问下空间商是否没提供404功能)
如下图:

对于独立服务器,请在.htaccess 文件中加入代码: ErrorDocument 404 /404.html 注意点是:/404.html 前面不要带主域名,否者返回的状态码是302或200状态码。其他情况,请百度搜索下其他方式。
做完404页面之后,访问一个错误的链接会自动跳转到404页面,然后,请用以下工具检查那个错误链接,看是否返回404代码。
在网站改版或内容删除之后,网站可能存在大量错误链接,那么404页面是必要的。我们同学也发现,做了类似404页面这样的细节之后,对网站整体流量和排名都有所提高。(但不是一定)
与404页面相关的问题: 1、如果是IIS的主机呢? 一样的,在主机空间后台可以设置404页面。
2、网站是否也有404页面的功能? 是的,一些开源的程序,比如wordpress、dedecms等,都有默认的404功能。
3、如果虚拟主机不支持,也不能上传.htaccess文件,怎么办? 具体情况,请你找下师兄或同学一起探讨下。同学里不乏程序或服务器方面的高手。
4、404页面要命名为什么呢? 可以设置为404.html,也可以设置为其他的。注意观察下,虚拟主机后台是否有相关的提示。如果碰到困难,可以请主机技术人员获得帮助。
5、我可以在404页面上放统计代码吗? 可以的。这样还可以统计多少人访问了404页面。
6、404页面上的锚文本是否有用? 没用。因为404页面搜索引擎不收录。一般情况下,我们也建议,采用robots.txt文件把404页面屏蔽。robots.txt文件是什么呢?请从这里去了解这个概念:这里再详细介绍下: 搜索引擎用来爬取网页内容的工具我们称之为搜索引擎机器人。 搜索引擎机器人每次来到要抓取的网站,都会先访问这个网站根目录下的一个文件(robots.txt),如果不存在该文件,则搜索引擎机器人默认这个网站允许其全部抓取。
robots.txt是一个简单的纯文本文件(记事本文件),搜索引擎机器人通过robots.txt里的“说明”,理解该网站是否可以全部抓取或部分抓取。
如果你希望搜索引擎收录你网站的全部网页,则你可以不设置robots.txt或上传一个命名为robots.txt的空记事本到根本目录。 上传你的robots.txt后,通过 你的域名/robots.txt 可以正常访问。 注意,robots.txt的命名,都应该是小写。 访问如:www.jsfengchao.com/
robots.txt文件的内容主要就是一个代码:Disallow:
注意,robots.txt文件中一般要包含至少一个Disallow: 如果都允许收录,你可以写一行Disallow:/search.html 这个文件(search.html)本来就不存在也没事。
格式如: User-agent: * Disallow: /search.html Disallow: /index.php? Disallow: /tempweb/
说明: User-agent: * 星号说明,允许所有的搜索引擎来收录,包括百度、google、yahoo等。 Disallow: /search.html 说明不允许收录 /search.html 这个文件。 Disallow: /index.php? 说明不允许收录以index.php?为前缀的链接如:index.php?122.html、index.php?=12、index.php?/baidu等等 Disallow: /tempweb/ 说明不允许收录/tempweb/里的所有文件。但可以收录如:/tempwebtaim.html 的链接。 这里介绍的是常用的几个代码。 如果需要了解更多关于Disallow:的用法,请了解百度官方的介绍:http://www.baidu.com/search/robots.html
但为什么SEOWHY的robots.txt那么复杂? 作为未来的SEO精英,你需要深入了解并充分利用robots.txt。 1、当你的网页已被收录,但想用robots.txt删除掉,一般需要1-2个月。 2、结合Google网站管理员工具,你可以马上删除被Google收录的网页。
相关问题:
1、我发现有一个网站被K了,但它加了我的网站链接,我可以把它屏蔽吗? 被K的网站加你网站的链接,对你网站是没有太大影响的。通过robots.txt也没有办法屏蔽外部链接。
2、我的首页是index.html,我可以把index.php屏蔽吗? 理论上是没大问题,但为了安全起见,请不要屏蔽。不屏蔽是一定没事,但屏蔽了,可能存在隐患。
3、我不喜欢我网站的后台登陆地址被搜索引擎收录,同时也不希望放在robots.txt里被其他人知道。我怎么来屏蔽呢? 你可以在后台登陆地址的首页里,添加noindex标签。 4、如果我只是具体某一个页面不希望被收录,怎么办? 可以用robots.txt屏蔽这个页面,也可以用noindex标签在该页面里屏蔽这个页面。 5、有什么注意的经验? 1、我们看到一些同学,在robots.txt里屏蔽了首页文件。比如:index.html、index.php、Default.php,原因是,他的首页可能是index.asp,但通过以上这几个也能访问首页,于是,他就想屏蔽了他们。这样的做法是不对的。首页,尽量都不要屏蔽。 2、如果网站上存在一些比较大的文件、比如:打包文件、大图片文件、音乐文件、或电影文件、日志文件夹等等,可以屏蔽掉,因为这些文件可能让你的流量过大,占用过多宽带。~ 这里再详细介绍下: 搜索引擎用来爬取网页内容的工具我们称之为搜索引擎机器人。 搜索引擎机器人每次来到要抓取的网站,都会先访问这个网站根目录下的一个文件(robots.txt),如果不存在该文件,则搜索引擎机器人默认这个网站允许其全部抓取。
robots.txt是一个简单的纯文本文件(记事本文件),搜索引擎机器人通过robots.txt里的“说明”,理解该网站是否可以全部抓取或部分抓取。
如果你希望搜索引擎收录你网站的全部网页,则你可以不设置robots.txt或上传一个命名为robots.txt的空记事本到根本目录。 上传你的robots.txt后,通过 你的域名/robots.txt 可以正常访问。 注意,robots.txt的命名,都应该是小写 访问如:www.jsfengchao.com/robots.txt
robots.txt文件的内容主要就是一个代码:Disallow:
注意,robots.txt文件中一般要包含至少一个Disallow: 如果都允许收录,你可以写一行Disallow:/search.html 这个文件(search.html)本来就不存在也没事。
格式如: User-agent: * Disallow: /search.html Disallow: /index.php? Disallow: /tempweb/
说明: User-agent: * 星号说明,允许所有的搜索引擎来收录,包括百度、google、yahoo等。 Disallow: /search.html 说明不允许收录 /search.html 这个文件。 Disallow: /index.php? 说明不允许收录以index.php?为前缀的链接如:index.php?122.html、index.php?=12、index.php?/baidu等等 Disallow: /tempweb/ 说明不允许收录/tempweb/里的所有文件。但可以收录如:/tempwebtaim.html 的链接。 这里介绍的是常用的几个代码。 如果需要了解更多关于Disallow:的用法,请了解百度官方的介绍:http://www.baidu.com/search/robots.html
但为什么SEOWHY的robots.txt那么复杂? 作为未来的SEO精英,你需要深入了解并充分利用robots.txt。
1、当你的网页已被收录,但想用robots.txt删除掉,一般需要1-2个月。 2、结合Google网站管理员工具,你可以马上删除被Google收录的网页。
相关问题:
1、我发现有一个网站被K了,但它加了我的网站链接,我可以把它屏蔽吗? 被K的网站加你网站的链接,对你网站是没有太大影响的。通过robots.txt也没有办法屏蔽外部链接。
2、我的首页是index.html,我可以把index.php屏蔽吗? 理论上是没大问题,但为了安全起见,请不要屏蔽。不屏蔽是一定没事,但屏蔽了,可能存在隐患。
3、我不喜欢我网站的后台登陆地址被搜索引擎收录,同时也不希望放在robots.txt里被其他人知道。我怎么来屏蔽呢? 你可以在后台登陆地址的首页里,添加noindex标签。
4、如果我只是具体某一个页面不希望被收录,怎么办? 可以用robots.txt屏蔽这个页面,也可以用noindex标签在该页面里屏蔽这个页面。确实有这方面需求的同学
5、有什么注意的经验? 1、我们看到一些同学,在robots.txt里屏蔽了首页文件。比如:index.html、index.php、Default.php,原因是,他的首页可能是index.asp,但通过以上这几个也能访问首页,于是,他就想屏蔽了他们。这样的做法是不对的。首页,尽量都不要屏蔽。 2、如果网站上存在一些比较大的文件、比如:打包文件、大图片文件、音乐文件、或电影文件、日志文件夹等等,可以屏蔽掉,因为这些文件可能让你的流量过大,占用过多宽带。 7、如果是独立的服务器,或你想处理404页面出现的问题。
404错误返回302和200代码原因及解决办法404返回302和200 1. 自定义404错误页面是提供用户体验的很好的做法,但在应用过程中往往并未注意到对搜索引擎的影响,譬如:错误的服务器端配置导致返回“200”状态码或自定义404错误页面使用Meta Refresh导致返回“302”状态码。正确设置的自定义404错误页面,不仅应当能够正确地显示,同时,应该返回“404”错误代码,而不是“200”或“302”。虽然对访问的用户而言,HTTP状态码究竟是“404”还是“200”来说并没有什么区别,但对搜索引擎而言,这则是相当重要的。 当搜索引擎蜘蛛在请求某个URL地址得到“404”状态回应时,即知道该URL地址已经失效,便不再索引该网页,并向数据中心反馈将该URL地址表示的网页从索引数据库中删除,当然,删除过程有可能需要很长时间;而当搜索引擎得到“200”状态回应时,则会认为该url地址是有效的,便会去索引,并会将其收录到索引数据库,这样的结果便是这两个不同的url地址具有完全相同的内容:自定义404错误页面的内容,这会导致出现复制网页问题。对搜索引擎而言,特别是Google,不但很难获得信任指数TrustRank,也会大大降低Google对网站质量的评定。 常常看到许多网站的自定义404错误页面采取类似这样的形式:首先显示一段错误信息,然后,通过Meta Refresh将页面跳转到网站首页、网页地图或其他类似页。根据具体实现方式不同,这类404页面可能返回“200”状态码,也可能返回“302”,但不论哪种,从SEO技术角度看,均不是一种合适的选择。 对“200”状态的情况我们上面已经谈过,那么,当404页面返回“302”时,搜索引擎会怎么对待呢?从理论上说,对“302”错误,搜索引擎认为该网页是存在的,只不过临时改变了地址,仍然会索引收录该页,这样,同样会出现类似于“200”状态码时的重复文本问题;其次,以谷歌为代表的主流搜索引擎对302重定向的适用范围要求越来越严格,这类不当使用302重定向的情况存在很大的风险。
Apache下设置404错误页面
为Apache Server设置 404错误页面的方法很简单,只需在.htaccess 文件中加入如下内容即可: ErrorDocument 404 /notfound.php
IIS/ASP.net下设置404错误页面
首先,修改应用程序根目录的设置,打开 “web.config” 文件编辑,在其中加入如下内容:
<configuration> <system.web> <customErrors mode=”On” defaultRedirect=”error.asp”> <error statusCode=”404″ redirect=”notfound.asp” /> </customErrors> </system.web> </configuration>
注:上文例中“error.asp”为系统默认的404页面,“notfound.asp”为自定义的404页面,使用时请修改相应文件名。
然后,在自定义的404页面“notfound.asp”中加入:
<% Response.Status = “404 Not Found” %>
这样,便可以保证IIS能够正确地返回“404”状态码
工具:
1.检测404错误页面返回状态:http://www.opoints.cn/server-header-inspection-tool.html 2..htaccess生成器:http://www.htaccesseditor.com/sc.shtml |
发布时间:2024-05-07 18:40:09 |
点击率:2971 |
「返回上一页」 |
|
|
|