使用特定参数忽略robot.txt中的URL?
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了使用特定参数忽略robot.txt中的URL?相关的知识,希望对你有一定的参考价值。
我想谷歌忽略这样的网址:
http://www.mydomain.com/new-printers?dir=asc&order=price&p=3
所有具有参数dir,order和price的url都应该被忽略但我没有使用Robots.txt的经验。
任何的想法?
如果您想禁止查询字符串,这是一个解决方案:
Disallow: /*?*
或者如果您想更精确地查询字符串:
Disallow: /*?dir=*&order=*&p=*
您还可以添加robots.txt以允许哪个网址
Allow: /new-printer$
$
将确保只允许/new-printer
。
更多信息:
http://code.google.com/web/controlcrawlindex/docs/robots_txt.html
http://sanzon.wordpress.com/2008/04/29/advanced-usage-of-robotstxt-w-querystrings/
您可以使用以下行阻止这些特定的查询字符串参数
Disallow: /*?*dir=
Disallow: /*?*order=
Disallow: /*?*p=
因此,如果任何URL在查询字符串中的任何位置包含dir=
,order=
或p=
,它将被阻止。
使用Google WebMaster Tools注册您的网站。在那里,您可以告诉Google如何处理您的参数。
站点配置 - > URL参数
您应该让包含这些参数的页面表明它们应该通过robots元标记从索引中排除。例如
以上是关于使用特定参数忽略robot.txt中的URL?的主要内容,如果未能解决你的问题,请参考以下文章
忽略 Spring Boot 中特定 Url 的承载令牌验证
是否可以使用 Visual Studio Code 的 linter 忽略特定警告?