网站的robots是什么? robotx.txt怎么写?

网站的robots是什么? robotx.txt怎么写?
资源外星人导读:本站为大家带来网站的robots是什么? robotx.txt怎么写?文章,更多建站技术,请继续关注资源外星人!

一. 什么是robots.txt?

1. robots.txt是一个小文本,存放在网站的根目录。

2. robots.txt是与搜索引擎spider沟通的重要渠道,申明网站中的哪些内容可以被搜索引擎蜘蛛收录,哪些内容不可以被搜索引擎蜘蛛收录。指示搜索引擎不收录的内容将从搜索中屏蔽掉,允许搜索引擎收录的内容则可以正常展示在搜索结果中。

3. 当搜索引擎蜘蛛访问一个站点时,会首先检查该站点是否有robots.txt。如果存在,搜索引擎蜘蛛就会按照robots.txt文件上的申明来确定访问的范围;如果robots.txt不存在,搜索引擎蜘蛛就可以访问该站点上所有的内容。

百度官方建议:仅当站点中包含不希望被搜索引擎收录的内容时,才使用robots.txt;站点上所有内容都允许搜索引擎收录,则不需要使用robots.txt。

二. robots.txt的正确写法?

1. User-agent:用来描述搜索引擎robots的名字:

百度:Baiduspider

谷歌:Googlebot

360蜘蛛: 360Spider

搜狗蜘蛛:Sogou Spider

必应蜘蛛:bingbot

……

2. Disallow:用来描述不希望被访问的一组URL

描述不希望被访问的一组URL,可以是一个完整的URL路径,也可以是路径的非空前缀。

举例a:Disallow:/support

禁止robots访问/support.html、/supportaaa.html、/support/index.html等。

举例b:Disallow:/support/

允许robots访问/support.html、/supportaaa.html等;不允许robots访问/support/index.html、/support/abc.html等。

3. Allow:用来描述希望被访问的一组URL

用来描述希望被访问的一组URL,可以是一个完整的URL路径,也可以是路径的非空前缀。Allow通常与Disallow搭配使用,实现允许访问一部分网页的同时禁止访问其他URL的功能。

4. 注意:

“*”匹配任意字符, 如:User-agent: * 表示所有搜索引擎蜘蛛。

“$”匹配行结束字符,如:Disallow: /*.jpg$  表示禁止抓取所有.jpg结尾的图片。

百度官方申明:百度会严格遵守robots的相关协议,请注意区分您不想被抓取或收录的目录的大小写,百度会对robots中所写的文件和您不想被抓取和收录的目录做精确匹配,否则robots协议无法生效。

三. robots.txt如何查看?

在网站域名URL后加上/robots.txt,则可以访问该站点的robots.txt文件,如:https://ziyuanet.com/robots.txt

四. robots.txt限制如何解除?

很多站长在SEO优化过程中,错误地将robots.txt禁封。如何解除呢?

1. 修改robots禁封为允许,在百度站长后台检测并更新;

2. 在百度站长后台抓取检测,如遇到抓取失败,可多提交几次;

3. 更新sitemap站点地图,并重新提交给百度;

4. 使用链接提交工具,向搜索引擎推送数据(主动推送或实时推送);

5. 到百度反馈中心说明是误操作导致了robots禁封;

6. 申请抓取频次调整。

本次的SEO优化中的robots.txt章节就分享到这里,希望能为大家抛砖引玉,有什么问题,欢迎大家在下方留言交流。

以上就是资源外星人整理的网站的robots是什么? robotx.txt怎么写?全部内容,希望对大家有所帮助!