robotstxt,roobts.txt该怎么写?
robots.txt文件时seo优化中非常重要的一个文件robotstxt,也是我们seo培训的重点之一。规范合适的抒写robots.txt文件,可以有效的提升蜘蛛抓取的效率,避免造成搜索引擎蜘蛛封禁的情况。下面郑州seo杨超就来解释一下robots协议怎么写。
什么是robots.txtRobots协议:网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。 协议写在robots.txt文件里面。
要不要使用robots.txt1、如果你的网站有部分内容不希望搜索引擎抓取,那么请设置robots.txt
2、如果你的网站全部内容都需要被搜索引擎抓取,可以不设置。
3、一般来说,一些后台文件(如css、js)、用户隐私的文件不用被搜索引擎抓取。
4、如果有些文件频繁被蜘蛛抓取,但是这些文件又是不重要的,那么可以用robots.txt进行屏蔽。
robots.txt的用法User-agent: * 这里的*代表的所有的搜索引擎种类,*是一个通配符
Disallow: /文件夹名称/ 这里定义是禁止爬取这个文件夹下面的目录
Disallow: /cgi-bin/*.htm 禁止访问/cgi-bin/目录下的所有以”.htm”为后缀的URL(包含子目录)。
Disallow: /*?* 禁止访问网站中所有包含问号 (?) 的网址
Disallow: /.jpg$ 禁止抓取网页所有的.jpg格式的图片
Disallow:/ab/adc.html 禁止爬取ab文件夹下面的adc.html文件。
Allow: /cgi-bin/ 这里定义是允许爬寻cgi-bin目录下面的目录
Allow: /tmp 这里定义是允许爬寻tmp的整个目录
Allow: .htm$ 仅允许访问以”.htm”为后缀的URL。
Allow: .gif$ 允许抓取网页和gif格式图片
Sitemap: 网站地图的URL 告诉爬虫这个页面是网站地图
robots.txt示例# robots.txt for 阅读青春readu.net
User-agent: *
Allow: /
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /wp-content/plugins/
Disallow: /?r=*
robots标签的用法(mate标签是写在网页head里面的代码)<meta name=”robots” content=”nofollow”> 所有搜索引擎都不允许爬行
<meta name=”baiduspider” content=”nofollow”> 百度搜索引擎不允许爬行
<meta name=”robots” content=”noarchive”> 所有搜索引擎都不允许收录
<meta name=”baiduspider” content=”noarchive”> 百度搜索引擎都不允许收录
robots.txt具体用途1、一个页面对应多个URL时,应屏蔽多余的URL。
2、如果网站有页面是没有实质性内容的,应该屏蔽掉。
3、如果网站改版删除了大量的页面(404),应该屏蔽掉。
4、如果是UGC网站,用户产生了大量的不良内容,应该屏蔽掉。
5、不希望被搜索引擎索引的内容(后台界面、用户隐私),应该屏蔽掉。
robots.txt的写法
robots.txt的写法是做seo的人员必须知道的(什么是robots.txt),但该如何写,禁止哪些、允许哪些,这就要我们自己设定了。
百度蜘蛛是一机器,它只认识数字、字母和汉字,而其中robots.txt就是最重要也是最开始和百度“对话”的内容。
当我们的网站在没有建好的时候,我们不希望百度来抓取我们的网站,往往有人会禁止百度来抓取。但是,这种做法是非常不好的,这样会让百度蜘蛛很难再来到你的网站了。所以,我们必须现在本地搭建网站,等一切都搞好以后,再去买域名、空间,要不,一个网站的反复修改,会对你的网站有一定的不利影响。
我们的网站起初的robots.txt写法如下:
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
User-agent: * 的意思是,允许所以引擎抓取。
而Disallow: /wp-admin/和Disallow: /wp-includes/,则是禁止百度抓取我们的隐私,包括用户密码、数据库等。这样的写法既保护了我们的隐私,也让百度蜘蛛的抓取最大化。
如果,你想禁止百度蜘蛛抓取某一个页面,比如123.html,那就加一句代码“Disallow: /123.html/”即可。
robots.txt写好后,只需要上传到网站的根目录下即可。