Nginx:备用域的不同 robots.txt
Posted
技术标签:
【中文标题】Nginx:备用域的不同 robots.txt【英文标题】:Nginx: different robots.txt for alternate domain 【发布时间】:2014-12-06 04:13:01 【问题描述】:总结
我有一个带有内部和外部域指向它的 Web 应用程序,我想要一个 robots.txt 来阻止对内部域的所有访问,但允许对外部域的所有访问。
问题详情
我有一个简单的 nginx 服务器块,用于代理到 Django 应用程序(见下文)。如您所见,此服务器块响应任何域(由于缺少 server_name 参数)。但是,我想知道如何标记特定域,例如 Nginx 将为它们提供自定义 robots.txt 文件。
更具体地说,例如域 example.com 和 www.example.com 将提供来自 htdocs 目录的默认 robots.txt 文件。 (由于设置了“root /sites/mysite/htdocs”并且 robots.txt 文件位于 /sites/mysite/htdocs/robots.txt)
但是,我还希望域“example.internal.com”(指的是与 example.com 相同的服务器)提供自定义 robots.txt 文件;我想创建一个自定义 robots.txt,以便谷歌不会索引该内部域。
我考虑过复制服务器块并在其中一个服务器块中指定以下内容。然后以某种方式覆盖该服务器块中的 robots.txt 查找。
"server_name internal.example.com;"
但是仅仅为了这个目的而复制整个服务器块似乎不是很干。
我还考虑过使用 if 语句来检查主机头是否包含内部域。然后以这种方式提供自定义 robots.txt 文件。但是 Nginx 说的是If Is Evil。
为内部域提供自定义 robots.txt 文件的好方法是什么?
感谢您的帮助。
这是我正在使用的服务器块的代码示例。
upstream app_server
server unix:/sites/mysite/var/run/wsgi.socket fail_timeout=0;
server
listen 80;
root /sites/mysite/htdocs;
location /
try_files $uri @proxy_to_app;
location @proxy_to_app
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Forwarded-Protocol $scheme;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Scheme $scheme;
proxy_set_header Host $http_host;
proxy_redirect off;
proxy_pass http://app_server;
【问题讨论】:
【参考方案1】:您可以使用map
来定义条件变量。将此外部添加到您的服务器指令:
map $host $robots_file
default robots.txt;
internal.example.com internal-robots.txt;
然后变量可以像这样与try_files
一起使用:
server_name internal.example.com;
location = /robots.txt
try_files /$robots_file =404;
现在您的根目录中可以有两个 robots.txt 文件:
robots.txt
internal-robots.txt
【讨论】:
非常感谢您采用这种方法,putnamhill。这看起来正是我想要做的。以上是关于Nginx:备用域的不同 robots.txt的主要内容,如果未能解决你的问题,请参考以下文章
2.3W字,这可能是把Nginx讲得最全面的一篇文章了,建议收藏备用