禁止搜索引擎蜘蛛爬行 Disallow: /comment*.html 这样设置robots.txt 对吗?
我想禁止搜索引擎蜘蛛爬行类似/comment_383.html这样的页面,这样设置robotx.txt对吗?User-agent:*Disallow:/comment*....
我想禁止搜索引擎蜘蛛爬行类似/comment_383.html 这样的页面,这样设置robotx.txt对吗?
User-agent: *
Disallow: /comment*.html
还是要设置成这样?
User-agent: *
Disallow: /comment_*.html
哪个对?还是两个都对?还是两个都不对?应该怎样设置? 展开
User-agent: *
Disallow: /comment*.html
还是要设置成这样?
User-agent: *
Disallow: /comment_*.html
哪个对?还是两个都对?还是两个都不对?应该怎样设置? 展开
2个回答
展开全部
$通配符:匹配URL结尾的字符。例如,下面的代码将允许蜘蛛抓取以 .html 为后缀的URL
User-agent: *
Allow: .html$
下面的代码将禁止蜘蛛抓取以 .html 为后缀的URL
User-agent: *
Disallow: .html$
*通配符:告诉蜘蛛匹配任意一段字符,是任意一段字符,我想像你那两种设置应该都可以。例如,下面一段代码将禁止蜘蛛抓取所有html文件:
User-agent: *
Disallow: /*.html
Allow和Disallow可以配合使用的,如果你只想禁止抓取/comment_383.html所在文件内的所有这种URL,如:/comment_383.html所在的文件夹为/abc,可以写如下代码:
User-agent: *
Disallow: /abc/.html$
这样就可以禁止抓取/abc文件夹下的以 .html 为后缀的文件了。
如果还有什么不明白的地方,可以提问!
User-agent: *
Allow: .html$
下面的代码将禁止蜘蛛抓取以 .html 为后缀的URL
User-agent: *
Disallow: .html$
*通配符:告诉蜘蛛匹配任意一段字符,是任意一段字符,我想像你那两种设置应该都可以。例如,下面一段代码将禁止蜘蛛抓取所有html文件:
User-agent: *
Disallow: /*.html
Allow和Disallow可以配合使用的,如果你只想禁止抓取/comment_383.html所在文件内的所有这种URL,如:/comment_383.html所在的文件夹为/abc,可以写如下代码:
User-agent: *
Disallow: /abc/.html$
这样就可以禁止抓取/abc文件夹下的以 .html 为后缀的文件了。
如果还有什么不明白的地方,可以提问!
云里物里
2024-12-12 广告
2024-12-12 广告
基于蓝牙定位的系统里,经常有两个名词概念经常被提起,那就是信标(Beacon)和标签(Tag);标签和信标都是定位系统中使用的蓝牙设备的常用术语。在一些情况它们的功能相似,都可以用于定位和追踪位置信息。但是既然会有两个不同的称呼,那么也会一...
点击进入详情页
本回答由云里物里提供
推荐律师服务:
若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询