robotstxt,roobts.txt该怎么写?

2022-02-05 00:43:41 百科大全 投稿:一盘搜百科
摘要robots.txt文件时seo优化中非常重要的一个文件robotstxt,也是我们seo培训的重点之一。规范合适的抒写robots.txt文件,可以有效的提升蜘蛛抓取的效率,避免造成搜索引擎蜘蛛封禁

robots.txt文件时seo优化中非常重要的一个文件robotstxt,也是我们seo培训的重点之一。规范合适的抒写robots.txt文件,可以有效的提升蜘蛛抓取的效率,避免造成搜索引擎蜘蛛封禁的情况。下面郑州seo杨超就来解释一下robots协议怎么写。

robotstxt,roobts.txt该怎么写?插图

什么是robots.txtRobots协议:网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。 协议写在robots.txt文件里面。

robotstxt,roobts.txt该怎么写?插图1

要不要使用robots.txt1、如果你的网站有部分内容不希望搜索引擎抓取,那么请设置robots.txt

2、如果你的网站全部内容都需要被搜索引擎抓取,可以不设置。

3、一般来说,一些后台文件(如css、js)、用户隐私的文件不用被搜索引擎抓取。

4、如果有些文件频繁被蜘蛛抓取,但是这些文件又是不重要的,那么可以用robots.txt进行屏蔽。

robots.txt的用法User-agent: * 这里的*代表的所有的搜索引擎种类,*是一个通配符

Disallow: /文件夹名称/ 这里定义是禁止爬取这个文件夹下面的目录

Disallow: /cgi-bin/*.htm 禁止访问/cgi-bin/目录下的所有以”.htm”为后缀的URL(包含子目录)。

Disallow: /*?* 禁止访问网站中所有包含问号 (?) 的网址

Disallow: /.jpg$ 禁止抓取网页所有的.jpg格式的图片

Disallow:/ab/adc.html 禁止爬取ab文件夹下面的adc.html文件。

Allow: /cgi-bin/  这里定义是允许爬寻cgi-bin目录下面的目录

Allow: /tmp 这里定义是允许爬寻tmp的整个目录

Allow: .htm$ 仅允许访问以”.htm”为后缀的URL。

Allow: .gif$ 允许抓取网页和gif格式图片

Sitemap: 网站地图的URL 告诉爬虫这个页面是网站地图

robots.txt示例# robots.txt for 阅读青春readu.net

User-agent: *

Allow: /

Disallow: /wp-admin/

Disallow: /wp-includes/

Disallow: /wp-content/plugins/

Disallow: /?r=*

robots标签的用法(mate标签是写在网页head里面的代码)<meta name=”robots” content=”nofollow”> 所有搜索引擎都不允许爬行

<meta name=”baiduspider” content=”nofollow”> 百度搜索引擎不允许爬行

<meta name=”robots” content=”noarchive”> 所有搜索引擎都不允许收录

<meta name=”baiduspider” content=”noarchive”> 百度搜索引擎都不允许收录

robots.txt具体用途1、一个页面对应多个URL时,应屏蔽多余的URL。

2、如果网站有页面是没有实质性内容的,应该屏蔽掉。

3、如果网站改版删除了大量的页面(404),应该屏蔽掉。

4、如果是UGC网站,用户产生了大量的不良内容,应该屏蔽掉。

5、不希望被搜索引擎索引的内容(后台界面、用户隐私),应该屏蔽掉。

robots.txt的写法

robots.txt的写法是做seo的人员必须知道的(什么是robots.txt),但该如何写,禁止哪些、允许哪些,这就要我们自己设定了。

百度蜘蛛是一机器,它只认识数字、字母和汉字,而其中robots.txt就是最重要也是最开始和百度“对话”的内容。

当我们的网站在没有建好的时候,我们不希望百度来抓取我们的网站,往往有人会禁止百度来抓取。但是,这种做法是非常不好的,这样会让百度蜘蛛很难再来到你的网站了。所以,我们必须现在本地搭建网站,等一切都搞好以后,再去买域名、空间,要不,一个网站的反复修改,会对你的网站有一定的不利影响。

我们的网站起初的robots.txt写法如下:

User-agent: *

Disallow: /wp-admin/

Disallow: /wp-includes/

User-agent: * 的意思是,允许所以引擎抓取。

而Disallow: /wp-admin/和Disallow: /wp-includes/,则是禁止百度抓取我们的隐私,包括用户密码、数据库等。这样的写法既保护了我们的隐私,也让百度蜘蛛的抓取最大化。

如果,你想禁止百度蜘蛛抓取某一个页面,比如123.html,那就加一句代码“Disallow: /123.html/”即可。

robots.txt写好后,只需要上传到网站的根目录下即可。

TAGS: 文件  中非  蜘蛛  robotstxt  封禁  robots  抒写  txt  
声明:一盘搜百科所有作品(图文、音视频)均由用户自行上传分享,仅供网友学习交流。若您的权利被侵害,请联系 88888@qq.com