当前位置:首页 > SEO培训 > 正文内容

Robots.txt是什么意思,有什么作用

admin4年前 (2022-07-20)SEO培训681

搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。

spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做robots.txt的纯文本文件。

您可以在您的网站中创建一个纯文本文件robots.txt,在文件中声明该网站中不想被robot访问的部分或者指定搜索引擎蜘蛛只收录特定的部分。

这里提醒一下,请注意:当你网站不希望搜索引擎全部收录时才用到robots.txt文件(比如你网站后台页面)如果你希望搜索引擎全部收录你的网站,请建立一个空的robots.txt文件。

1.首先告诉大家robots.txt文件要放在你网站的根目录里面。当你修改了你的robots.txt一般会在48小时内生效(对于搜索引擎来说)。

2.如果你要禁止搜索引擎在搜索你网站时显示快照,而只对你的网站索引,什么办呢? 百度支持通过设置网页的meta,防止搜索引擎显示网站的快照。方法如下:

要防止所有搜索引擎显示您网站的快照,请将此元标记置入网页的 <HEAD> 部分:
<meta name=”robots” content=”noarchive”>
要允许其他搜索引擎显示快照,但仅防止百度显示,请使用以下标记:
<meta name=”baiduspider” content=”noarchive”>

注:此标记只是禁止百度显示该网页的快照,百度会继续为网页建索引,并在搜索结果中显示网页摘要。

3.我们来看一下如何写robots.txt,他的格式是什么样的。

该文本是以 User-agent: 作为文本记录开头的。这个值有什么样呢?它是来描述搜索引擎robots的名字。
比如说你要专指百度搜索引擎你就可以写为 User-agent: baiduspider
同样的谷歌就是 User-agent:googlespider  比如你要描述SOSO图片蜘蛛你可以写 User-agent:Sosoimagespider 这样都可以 如果你要针对所有搜索引擎呢 User-agent: *就是所有搜索引擎全部概括了。
robots.txt 除了第一项 User-agent: 还有其他两项 Disallow:   Allow: 但是User-agent: 是唯一项 他后面可以加若干Disallow和Allow行 也就是这种格式
User-agent: *
Disallow:
Disallow:
Disallow:
Allow:
Allow:
Allow:

后面加多少个Disallow和Allow行都可以 是根据你需要来加的。好了我接着说Disallow,该项就是告诉搜索引擎我不希望我网站的那些网页收录的。你就可以用Disallow的描述来限制搜索引擎 我们来举个例子,比如我要限制所有搜索引擎不收录我的后台目录admin那么我们什么做呢?来看一下
User-agent: *
Disallow:/admin/

如果是要显示百度不要收录我的这个目录其实搜索引擎可以什么做呢 前面我们说到了
User-agent: baiduspider
Disallow:/admin/

你问如果是要禁止所有搜索引擎访问全站应该什么办呢?我们来看一下
User-agent: *
Disallow:/

如果要禁止访问多个文件夹呢 比如我要禁止访问 Admin  image  data 3个文件夹
User-agent: *
Disallow:/Admin/
Disallow:/image/
Disallow:/data/

我们来解释一下Allow行是做什么的?其实这个Allow和Disallow是相反的。Allow他的意思就是希望搜索引擎访问我网站的一下路径,Allow通常与Disallow搭配使用。下面我们举个例子:
我要允许访问特定目录中的部分url 比如我不要他访问我Admin目录 但是我希望他访问我Admin目录里面的hdd.html 什么办呢?这时候我们就可以用到Allow了 来看例子
User-agent: *
Allow:/admin/hdd
Disallow:/Admin/

顺便所一下 在robots.txt里面可以使用”*”和”$”:baiduspider支持使用通配符”*”和”$”来模糊匹配url。
“$” 匹配行结束符。
“*” 匹配0或多个任意字符。

举个例子: 使用”*”限制访问url     。禁止访问/iea/目录下的所有以”.htm”为后缀的
URL(包含子目录)。
User-agent: *
Disallow:/iea/*.htm

再来举个例子 关于使用”$”限制访问url , 仅允许访问以”.htm”为后缀的URL。
User-agent: *
Allow: .htm$
Disallow: /

扫描二维码推送至手机访问。

版权声明:本文由老苏SEO转载并发布,如侵权可联系删除。

本文链接:https://www.laosuseo.com/?id=1125

标签: robots.txt
分享给朋友:

“Robots.txt是什么意思,有什么作用” 的相关文章

SEO学习思路:看完小白少走弯路

SEO学习思路:看完小白少走弯路

作者:岑辉宇 岑辉宇见过很多想学SEO的人,要么是在企业做互联网推广的工作,想要实现质的飞跃,也有的是刚毕业的大学生,刚出社会不知道如何去寻找一份可靠的工作,想要通过提升自己的实力,寻求一份稳定的工作,也有一些热血的年轻人,想要学习SEO去做互联网创业,岑辉宇之前也有这样的想法,不...

 Google谷歌企鹅算法

Google谷歌企鹅算法

什麽是「企鹅算法」?Google企鹅初始发佈日期:2012年4月24日紧随「熊猫演算法」之后,Google的「企鹅演算法」是一项新的努力,主要是在奖励高质量的网站,并减少搜寻引擎结果页面(SERP)涉及操纵连结和关键字填充存在的网站。「企鹅演算法」首次推出影响了3.1%的英搜寻引擎查询结果,在201...

用“打造极致单品”的思维,把SEO做到极致

用“打造极致单品”的思维,把SEO做到极致

什么是极致单品?就是那种经过反复打磨,具有独特、超值、艺术、经典的个性化单个产品。 一款真正的极致单品,在一套良好的推广系统的推动下,不但能在短期内创造出超出预期的销量,并能产生持久不断的后续销量。 对于创业者来说,专注,聚焦,把所有的精力集中于打造一款单品上,并把单品做到...

站长必须要知道的网站首页Title写作技巧

站长必须要知道的网站首页Title写作技巧

大家都知道对于一个网站来说,设计合适的首页title标题是一项非常重要的工作。网站首页标题通俗一点说就是一个网站的名字,是对一个网站主题内容的概括。对于一个站长来讲,网站Title的写作十分重要,网站Title写作的成功与否直接关系到网站的流量多与少。今天笔者就跟大家分享一下站长必须要知道的网站首页...

持续性被动收入,SEO赚钱术可以做到

持续性被动收入,SEO赚钱术可以做到

知乎上看到一个问题,我在杭州,月入3万,为什么还是焦虑?突然一看,月入3万还焦虑,让那些搬砖月入几千的群众怎么活?但是仔细想一想,生处一线城市,房贷,车贷,再加上小孩,生活成本极高,尤其是人到中年,就更焦虑了?深入思考后我发现,你焦虑的原因是因为月入3万的姿势不对,如果你月入3万的组成大部分是被动收...

SEO搜索引擎排名优化方案

SEO搜索引擎排名优化方案

做个人博客大多数是有情怀缘故,该博客是第三版 是PHP语言捣扯的-情怀不能当饭吃,做着做着感觉自己看那没意思了,我要让更多人能看到我的分享。于是就搞SEO优化到不可收拾的地步—-入了这个行业。 回老家工作那两年一直在兼顾着做网站推广优化,也帮忙给朋友的公司做全网营销计划方案。今天选分享一下...