Parece que no puedo configurar correctamente nginx para devolver el contenido de robots.txt. Idealmente, no necesito el archivo y sólo quiero servir el contenido de texto configurado directamente en nginx. Esta es mi configuración:
server {
listen 80 default_server;
listen [::]:80 default_server ipv6only=on;
root /usr/share/nginx/html;
index index.html index.htm;
server_name localhost;
location = /robots.txt {
#return 200 "User-agent: *\nDisallow: /";
#alias /media/ws/crx-apps/eap/welcome-content/robots.txt;
alias /usr/share/nginx/html/dir/robots.txt ;
}
location / {
try_files $uri $uri/ =404;
}
}
Ninguna de las cosas en = /robots.txt
ubicación funciona y no entiendo por qué. Accediendo a http://localhost/robots.txt
da un 404. Sin embargo, http://localhost/index.html
se sirve correctamente.
Tenga en cuenta que no he cambiado ninguna configuración por defecto de nginx obtenida de apt-get install nginx
aparte de añadir una nueva ubicación (para pruebas).