Trusted WordPress tutorials, when you need them most.
Beginner’s Guide to WordPress
Copa WPB
25 Million+
Websites using our plugins
16+
Years of WordPress experience
3000+
WordPress tutorials
by experts

Cómo optimizar su WordPress Robots.txt para SEO

Aquí en WPBeginner, hemos guiado a millones de usuarios sobre cómo optimizar sus sitios web para la búsqueda y aumentar su tráfico orgánico. Hemos encontrado que un aspecto de SEO que los principiantes a menudo pasan por alto es el archivo robots.txt que ayuda a los motores de búsqueda a descubrir, rastrear e indexar su sitio web.

Este sencillo archivo de texto actúa como un conjunto de instrucciones que orienta a los robots de los motores de búsqueda sobre las partes de su sitio a las que deben acceder y las que no.

Al optimizar su archivo robots.txt, puede asegurarse de que los motores de búsqueda se centran en rastrear e indexar su contenido más importante, evitando al mismo tiempo que malgasten recursos en áreas menos importantes de su sitio web.

Este artículo le mostrará algunos consejos sobre cómo crear un archivo robots.txt perfectamente optimizado para su sitio web WordPress, maximizando su potencial SEO.

Optimizing robots.txt file for better SEO

¿Qué es un archivo Robots.txt?

Robots.txt es un archivo de texto que los propietarios de sitios web pueden crear para indicar a los robots de los motores de búsqueda cómo rastrear e indexar las páginas de sus sitios.

Normalmente se almacena en el directorio raíz (también conocido como la carpeta principal) de su sitio web. El formato básico de un archivo robots.txt es el siguiente:

User-agent: [user-agent name]
Disallow: [URL string not to be crawled]
 
User-agent: [user-agent name]
Allow: [URL string to be crawled]
 
Sitemap: [URL of your XML Sitemap]

Puede tener varias líneas de instrucciones para permitir o desautorizar URL específicas y añadir varios mapas del sitio. Si no desautoriza una URL, los robots de los motores de búsqueda supondrán que tienen permiso para rastrearla.

Este es el aspecto que puede tener un archivo robots.txt de ejemplo:

User-Agent: *
Allow: /wp-content/uploads/
Disallow: /wp-content/plugins/
Disallow: /wp-admin/

Sitemap: https://example.com/sitemap_index.xml

En el ejemplo anterior de robots.txt, hemos permitido a los motores de búsqueda rastrear e indexar archivos en nuestra carpeta de subidas de WordPress.

A continuación, impedimos que los robots de búsqueda rastreen e indexen los plugins y las carpetas de administrador de WordPress.

Por último, hemos proporcionado la URL de nuestro mapa del sitio XML.

¿Necesita un archivo Robots.txt para su sitio WordPress?

Si no tiene un archivo robots.txt, los motores de búsqueda rastrearán e indexarán su sitio web. Sin embargo, no podrá indicarles qué páginas o carpetas no deben rastrear.

Esto no tendrá mucho impacto cuando empieces un blog y no tengas mucho contenido.

Sin embargo, a medida que su sitio web crezca y añada más contenido, es probable que desee controlar mejor cómo se rastrea e indexa su sitio web.

He aquí por qué.

Los robots de búsqueda tienen una cuota de rastreo para cada sitio web.

Esto significa que rastrean un determinado número de páginas durante una sesión de rastreo. Si agotan su presupuesto de rastreo antes de terminar de rastrear todas las páginas de su sitio, volverán y reanudarán el rastreo en la siguiente sesión.

Esto puede ralentizar la tasa / tarifa de indexación de su sitio web.

Puede corregirlo impidiendo que los robots de búsqueda rastreen páginas innecesarias, como las páginas de administrador de WordPress, los archivos de plugins y la carpeta de temas.

Al no permitir páginas innecesarias, usted guarda su cuota de rastreo. Esto ayuda a los motores de búsqueda a rastrear aún más páginas de su sitio e indexarlas lo más rápidamente posible.

Otra buena razón para utilizar un archivo robots.txt es impedir que los motores de búsqueda indexen una entrada o página de su sitio web.

Esta no es la forma más segura de ocultar contenido al público en general, pero le ayudará a evitar que el contenido aparezca en los resultados de búsqueda.

¿Cómo es un archivo Robots.txt ideal?

Muchos blogs populares utilizan un archivo robots.txt muy sencillo. Su contenido puede variar en función de las necesidades del sitio específico:

User-agent: *
Disallow:

Sitemap: https://www.example.com/post-sitemap.xml
Sitemap: https://www.example.com/page-sitemap.xml

Este archivo robots.txt permite a todos los robots indexar todo el contenido y les enlaza con los mapas del sitio web en formato XML.

Para sitios WordPress, recomendamos las siguientes reglas en el archivo robots.txt:

User-Agent: *
Allow: /wp-content/uploads/
Disallow: /wp-admin/
Disallow: /readme.html
Disallow: /refer/

Sitemap: https://www.example.com/post-sitemap.xml
Sitemap: https://www.example.com/page-sitemap.xml

Indica a los robots de búsqueda que indexen todas las imágenes y archivos de WordPress. Impide que los robots de búsqueda indexen el área de administrador de WordPress, el archivo readme y los enlaces de afiliados ocultos.

Si añade mapas del sitio al archivo robots.txt, facilitará a los robots de Google la búsqueda de todas las páginas de su sitio.

Ahora que ya sabe cómo es un archivo robots.txt ideal, veamos cómo crear un archivo robots.txt en WordPress.

Cómo crear un archivo Robots.txt en WordPress

Existen dos formas de crear un archivo robots.txt en WordPress. Puede elegir el método que más le convenga.

Método 1: Editar el archivo Robots.txt con All in One SEO

All in One SEO, también conocido como AIOSEO, es el mejor plugin SEO para WordPress del mercado, utilizado por más de 3 millones de sitios web. Es fácil de usar y viene con un generador de archivos robots.txt.

Para obtener más información, consulte nuestra reseña detallada de AIOSEO.

Si aún no tiene instalado el plugin AIOSEO, puede consultar nuestra guía paso a paso sobre cómo instalar un plugin de WordPress.

Nota: También existe una versión gratuita de AIOSEO que incorpora esta característica.

Una vez instalado y activado el plugin, puede utilizarlo para crear y editar su archivo robots.txt directamente desde su área de administrador de WordPress.

Simplemente vaya a All in One SEO ” Herramientas para editar su archivo robots.txt.

Robots.txt file editor in All in One SEO

En primer lugar, deberá activar la opción de edición haciendo clic en el conmutador “Activar Robots.txt personalizados” en azul.

Con este conmutador activado, puede crear un archivo robots.txt personalizado en WordPress.

Enable custom robots.txt file

All in One SEO mostrará su archivo robots.txt existente en la sección “Vista previa de Robots.txt” en la parte inferior de su pantalla.

Esta versión mostrará las reglas por defecto que fueron añadidas por WordPress.

Robots.txt file preview in All in One SEO

Estas reglas por defecto indican a los motores de búsqueda que no rastreen los archivos del núcleo de WordPress, permiten a los robots indexar todo el contenido y les proporcionan un enlace a los mapas del sitio XML de su sitio.

Ahora, puede añadir sus propias reglas personalizadas para mejorar su robots.txt para SEO.

Para añadir una regla, introduzca un agente de usuario en el campo “Agente de usuario”. Si utiliza *, la regla se aplicará a todos los agentes de usuario.

A continuación, seleccione si desea “Permitir” o “No permitir” que los motores de búsqueda rastreen.

A continuación, introduzca el nombre del archivo o la ruta del directorio en el campo “Ruta del directorio”.

Add robots file rules

La regla se aplicará automáticamente a su robots.txt. Para añadir otra regla, basta con hacer clic en el botón “Añadir regla”.

Recomendamos añadir reglas hasta crear el formato ideal de robots.txt que compartimos anteriormente.

Sus reglas personalizadas tendrán este aspecto.

Custom robots txt file preview

Cuando hayas terminado, no olvides hacer clic en el botón “Guardar cambios” para guardar los cambios.

Método 2: Editar el archivo Robots.txt usando WPCode

WPCode es un potente plugin de fragmentos de código que te permite añadir código personalizado a tu sitio web de forma fácil y segura.

También incluye una práctica característica que le permite editar rápidamente el archivo robots.txt.

Nota: También existe un plugin gratuito de WPCode, pero no incluye la característica de editor de archivos.

Lo primero que tienes que hacer es instalar el plugin WPCode. Para obtener instrucciones paso a paso, consulte nuestra guía para principiantes sobre cómo instalar un plugin de WordPress.

Una vez activado, tienes que ir a la página WPCode ” Editor de archivos. Una vez allí, simplemente haga clic en la pestaña ‘robots.txt’ para editar el archivo.

WPCode robots.txt Editor

Ahora, puede pegar o escribir el contenido del archivo robots.txt.

Una vez que haya terminado, asegúrese de hacer clic en el botón “Guardar cambios” situado en la parte inferior de la página para establecer los ajustes.

Método 3: Edición manual del archivo Robots.txt mediante FTP

Para este método, necesitará utilizar un cliente FTP para editar el archivo robots.txt. También puede utilizar el gestor de archivos de su alojamiento de WordPress.

Simplemente conéctese a los archivos de su sitio web WordPress utilizando un cliente FTP.

Una vez dentro, podrá ver el archivo robots.txt en la carpeta raíz de su sitio web.

Edit robots file via FTP

Si no ve ninguno, es probable que no tenga un archivo robots.txt.

En ese caso, puedes seguir adelante y crear uno.

Create new robots file

Robots.txt es un archivo de texto plano, lo que significa que puede descargarlo a su ordenador y editarlo con cualquier editor de texto plano como Notepad o TextEdit.

Tras guardar los cambios, puede volver a subir el archivo robots.txt a la carpeta raíz de su sitio web.

Cómo probar su archivo Robots.txt

Una vez que haya creado su archivo robots.txt, siempre es una buena idea probarlo utilizando una herramienta de comprobación de robots.txt.

Existen muchas herramientas de comprobación de robots.txt, pero te recomendamos que utilices la que se encuentra en Google Search Console.

En primer lugar, tendrás que enlazar tu sitio web con Google Search Console. Si aún no lo ha hecho, consulte nuestra guía sobre cómo añadir su sitio de WordPress a Google Search Console.

A continuación, puede utilizar la herramienta de comprobación de robots de Google Search Console.

Choose property

Sólo tiene que seleccionar su propiedad en la lista desplegable.

La herramienta buscará automáticamente el archivo robots.txt de su sitio web y resaltará los errores y advertencias si encuentra alguno.

Robots Tester Tool

Reflexiones finales

El objetivo de optimizar su archivo robots.txt es evitar que los motores de búsqueda rastreen páginas que no están disponibles públicamente. Por ejemplo, páginas en su carpeta wp-plugins o páginas en su carpeta de administrador de WordPress.

Un mito común entre los expertos en SEO es que el bloqueo de categorías, etiquetas y páginas de archivo de WordPress mejorará la tasa de rastreo y dará lugar a una indexación más rápida y mejores clasificaciones.

Esto no es cierto. También va en contra de las directrices para webmasters de Google.

Le recomendamos que siga el formato robots.txt anterior para crear un archivo robots.txt para su sitio web.

Guías de expertos sobre el uso de Robots.txt en WordPress

Ahora que ya sabe cómo optimizar su archivo robots.txt, puede que le interese ver otros artículos relacionados con el uso de robots.txt en WordPress.

Esperamos que este artículo le haya ayudado a aprender a optimizar su archivo robots.txt de WordPress para SEO. Puede que también quieras ver nuestra guía definitiva de SEO para WordPress y nuestra selección de las mejores herramientas SEO para WordPress para hacer crecer tu sitio web.

If you liked this article, then please subscribe to our YouTube Channel for WordPress video tutorials. You can also find us on Twitter and Facebook.

Descargo: Nuestro contenido está apoyado por los lectores. Esto significa que si hace clic en algunos de nuestros enlaces, podemos ganar una comisión. Vea cómo se financia WPBeginner , por qué es importante, y cómo puede apoyarnos. Aquí está nuestro proceso editorial .

Avatar

Editorial Staff at WPBeginner is a team of WordPress experts led by Syed Balkhi with over 16 years of experience in WordPress, Web Hosting, eCommerce, SEO, and Marketing. Started in 2009, WPBeginner is now the largest free WordPress resource site in the industry and is often referred to as the Wikipedia for WordPress.

El último kit de herramientas de WordPress

Obtenga acceso GRATUITO a nuestro kit de herramientas - una colección de productos y recursos relacionados con WordPress que todo profesional debería tener!

Reader Interactions

128 comentariosDeja una respuesta

  1. Steve

    Thanks for this – how does it work on a WP Multisite thou?

    • WPBeginner Support

      For a multisite, you would need to have a robots.txt file in the root folder of each site.

      Administrador

  2. Pacifique Ndanyuzwe

    My wordpress site is new and my robot.txt by default is
    user-agent: *
    Disallow: /wp-admin/
    Allow: /wp-admin/admin-ajax.php

    I want google to crawl and index my content. Is that robot.txt okay?

    • WPBeginner Support

      You can certainly use that if you wanted

      Administrador

  3. Ritesh Seth

    Great Airticle…

    I was confused from so many days about Robots.txt file and Disallow links. Have copied the tags for robots file. Hope this will solve the issue of my Site

    • WPBeginner Support

      We hope our article will help as well :)

      Administrador

  4. Kurt

    The files in the screenshots of your home folder are actually located under the public_html folder under my home folder.

    I did not have a /refer folder under my public_html folder.

    I did not have post or page xml files anywhere on my WP account.

    I did include an entry in the robots.txt file I created to disallow crawling my sandbox site. I’m not sure that’s necessary since I’ve already selected the option in WP telling crawlers not to crawl my sandbox site, but I don’t think it will hurt to have the entry.

    • WPBeginner Support

      Some hosts do rename public_html to home which is why you see it there. You would want to ensure Yoast is active for the XML files to be available. The method in this article is an additional precaution to help with preventing crawling your site :)

      Administrador

    • WPBeginner Support

      Thank you :)

      Administrador

  5. ASHOK KUMAR JADON

    Hello, such a nice article you solve my problem. So Thank You so much

    • WPBeginner Support

      Glad our article could help :)

      Administrador

  6. Elyn Ashton

    User-agent: *
    Disallow: /wp-admin/
    Allow: /wp-admin/admin-ajax.php <– This is my robot.txt code but im confuse why my /wp-admin is index? How to no index it?

    • WPBeginner Support

      If it was indexed previously you may need to give time for the search engine’s cache to clear

      Administrador

  7. Ashish kumar

    This website really inspire me to start a blog .Thank you lost of tema.this website each and every article have rich of information and explanation.when i have some problem at first i visit this blog . Thank You

    • WPBeginner Support

      Glad our articles can be helpful :)

      Administrador

  8. Anna

    I am trying to optimise robots for my website using Yoast. However Tools in Yoast does not have the option for ‘File Editor’.
    There are just two options
    (i) Import and Export
    (ii) Bulk editor
    May you please advise how this can be addressed. Could it be that I am on a free edition of Yoast?

    • WPBeginner Support

      The free version of Yoast still has the option, your installation may be disallowing file editing in which case you would likely need to use the FTP method.

      Administrador

  9. Emmanuel Husseni

    I really find this article helpful because I really don’t know much on how robot.txt works but now I do.

    pls what I don’t understand is how do I find the best format of robot.txt to use on my site (I mean one that works generally)?

    I noticed lots of big blogs I check ranking high on search engine uses different robot.txt format..

    I’ll be clad to see a reply from you or just anyone that can help

    • Editorial Staff

      Having a sitemap and allowing the areas that need to be allowed is the most important part. The disallow part will vary based on each site. We shared a sample in our blog post, and that should be good for most WordPress sites.

      Administrador

    • WPBeginner Support

      Hey Emmanuel,

      Please see the section regarding the ideal robots.txt file. It depends on your own requirements. Most bloggers exclude WordPress admin and plugin folders from the crawl.

      Administrador

      • Emmanuel Husseni

        Thank you so much.

        now I understand. I guess I’ll start with the general format for now.

  10. jack

    Well written article, I recommend the users to do sitemap before creating and enabling their ROBOTS text it will help your site to crawl faster and indexed easily.

    Jack

  11. Connie S Owens

    I would like to stop the search engines from indexing my archives during their crawl.

  12. Emmanuel Nonye

    Thanks alot this article it was really helpful

  13. Cherisa

    I keep getting the error message below on google webmaster. I am basically stuck. A few things that were not clear to me on this tutorial is where do I find my site’s root files, how do you determine if you already have a “robots.txt” and how do you edit it?

    • WPBeginner Support

      Hi Cherisa,

      Your site’s root folder is the one that contains folders like wp-admin, wp-includes, wp-content, etc. It also contains files like wp-config.php, wp-cron.php, wp-blogheader.php, etc.

      If you cannot see a robots.txt file in this folder, then you don’t have one. You can go a head and create a new one.

      Administrador

      • Cherisa

        Thank you for your response. I have looked everywhere and can’t seem to locate these root files as you describe. Is there a path directory I can take that leads to this folder. Like it is under Settings, etc?

  14. Devender

    I had a decent web traffic to my website. Suddenly dropped to zero in the month of May. Till now I have been facing the issue. Please help me to recover my website.

  15. Haris Aslam

    Hello There Thank you For This Information, But I Have A Question
    That I Just Create The Sitemap.xml and Robots.txt File, & Its Crawling well. But How Can I Create “Product-Sitemap.xml”
    There is all list of product in sitemap.xml file. Do I Have To Create Product-sitemap.xml separately?

    and submit to google or bing again ?
    Can You please Help me out…
    Thank You

  16. Mahadi Hassan

    I have a problem on robots.txt file setting. Only one robots.txt is showing for all websites. Please help me to show separate robots.txt file of all websites. I have all separate robots.txt file of all individual website. But only one robots.txt file is showing in browser for all websites.

  17. Debu Majumdar

    Please explain why did you include
    Disallow: /refer/
    in the beginner Robots.txt example? I do not understand the implications of this line. Is this important for the beginner? You have explained the other two Disallowed ones.

    Thanks.

  18. Evaristo

    How can I put all tags/mydomain.Com in nofollow? In robots.txt to concentrate the link Juice? Thanks.

  19. harsh kumar

    hey,,i am getting error in yoast seo regarding site map..once i click on fix it ,,,it’s coming again..my site html is not loading properly

  20. Tom

    I’ve just been reviewing my Google Webmaster Tools account and using the Search Console, I’ve found the following:
    Page partially loaded
    Not all page resources could be loaded. This can affect how Google sees and understands your page. Fix availability problems for any resources that can affect how Google understands your page.

    This is because all CSS stylesheets associated with Plugins are disallowed by the default robots.txt.

    I understand good reasons why I shouldn’t just make this allowable, but what would be an alternative as I would suspect the Google algorithms are marking down the site for not seeing these.

  21. Suren

    Hi,

    Whenever, I search my site on the google this text appears below the link: “A description for this result is not available because of this site’s robots.txt”

    How, can i solve this issue?

    Regards

    • WPBeginner Support

      Hi Suren,

      Seems like someone accidentally changed your site’s privacy settings. Go to Settings » Reading page and scroll down to ‘Search engine visibility’ section. Make sure that the box next to is unchecked.

      Administrador

  22. Divyesh

    Hello

    As i seen in webmaster tool, i got robot.txt file like below :

    User-agent: *
    Disallow: /wp-admin/
    Allow: /wp-admin/admin-ajax.php

    let me know is that okey ? or should i use any other ?

  23. John Cester

    I want to know, does it a good idea to block (disallow) “/wp-content/plugins/” in robots.tx? Every time i remove a plugin it shows 404 error in some pages of that plugin.

  24. Himanshu singh

    I loved this explanation. As a beginner I was very confused about robot.txt file and its uses. But now I know what is its purpose.

  25. rahul

    in some robot.txt file index.php has been disallowed. Can you explain why ? is it a good practice.

  26. Waleed Barakat

    Thanks for passing by this precious info.

  27. Awais Ahmed

    Can you please tell me why this happening on webmaster tool:

    Network unreachable: robots.txt unreachableWe were unable to crawl your Sitemap because we found a robots.txt file at the root of your site but were unable to download it. Please ensure that it is accessible or remove it completely.

    robots.txt file exist but still

  28. Dozza

    Interesting update from the Yoast team on this at

    Quote: “The old best practices of having a robots.txt that blocks access to your wp-includes directory and your plugins directory are no longer valid.”

  29. natveimaging

    Allow: /wp-content/uploads/

    Shouldn’t this be?
    Disallow: /wp-content/uploads/

    Because you are aware that google will index all your uploads pages as public URLs right? And then you will get slapped with errors for the page itself. Is there something I am missing here?

    • nativeimaging

      Overall, its the actual pages that google crawls to generate image maps, NOT the uploads folders. Then you would have a problem of all the smaller image sizes, and other images that are for UI will also get indexed.

      This seems to be the best option:
      Disallow: /wp-content/uploads/

      If i’m incorrect, please explain this to me so I can understand your angle here.

  30. Jason

    My blog url not indexing do i need to change my robots.txt?
    Im using this robots.txt

  31. iyan

    how to create robot txt which is ONLY allow index for page and Post.. thanks

  32. Simaran Singh

    I am not sure what’s the problem but my robots.txt has two versions.
    One at http://www.example.com/robots.txt and second at example.com/robots.txt

    Anybody, please help! Let me know what can be the possible cause and how to correct it?

    • WPBeginner Support

      Most likely, your web host allows your site to be accessed with both www and non-www urls. Try changing robots.txt using an FTP client. Then examine it from both URLs if you can see your changes on both URLs then this means its the same file.

      Administrador

      • Simaran Singh

        Thanks for the quick reply. I have already done that, but I am not able to see any change. Is there any other way to resolve it?

  33. Martin conde

    Yoasts blogpost about this topic was right above yours in my search so of course I checked them both. They are contradicting each other a little bit.. For example yoast said that disallowing plugin directories and others, might hinder the Google crawlers when fetching your site since plugins may output css or js. Also mentioned (and from my own experience), yoast doesn’t add anything sitemap related to the robots.txt, rather generates it so that you can add it to your search console. Here is the link to his post, maybe you can re-check because it is very hard to choose whose word to take for it ;)

  34. MM Nauman

    As I’m Not Good in Creating this Robotstxt file So Can I use your Robots.txt file by changing the parameters like url and sitemap of my site is it good? or should I create a different one

  35. Mohit Chauhan

    Hi,
    Today i got this mail from Google “Googlebot cannot access CSS and JS files”…what can be the solution?

    Thanks

    • Parmod

      Let me guess… You are using CDN services to import CSS and JS files.
      or
      It may be possible that you have written wrong syntax in these file.

  36. Rahul

    I have a question about adding Sitemaps. How can I add Yahoo and Bing Sitemap to Robots file and Wordpress Directory?

  37. Gerbrand Petersen

    Thanks for the elaborate outline of using the robots file. Does anyone know if Yahoo is using this robots.txt too, and does it obey the rules mentioned in the file? I ask this since I have a “Disallow” for a certain page in my file, but I do receive traffic coming from Yahoo on that page. Nothing from Google, as it should be. Thanks in advance.

  38. Erwin

    correction…

    “If you are using Yoast’s WordPress SEO plugin or some other plugin to generate your XML sitemap, then your plugin will try to automatically add your sitemap related lines into robots.txt file.”

    Not true. WordPress SEO doesn’t add the sitemap to the robots.txt

    “I’ve always felt linking to your XML sitemap from your robots.txt is a bit nonsense. You should be adding them manually to your Google and Bing Webmaster Tools and make sure you look at their feedback about your XML sitemap. This is the reason our WordPress SEO plugin doesn’t add it to your robots.txt.”

    https://yoast.com/wordpress-robots-txt-example/

    Also more recommended is not to disallow the wp-plugins directory (reasons see Yoast’s post)

    And personally I like to simply remover the readme.txt file…

    ;-)

  39. hyma

    I understood it robots.txt file and use of robots file. What is the site map how do I create sitemap for my site.

  40. Rick R. Duncan

    After reading Google’s documentation I’m under the impression that the directive to use in the robots.txt file is disallow which only tells the bots what they can and cannot crawl. It does not tell them what can and cannot be indexed. You need to use the noindex robots meta tag to have a page noindexed.

  41. Nitin

    really good article for seo optimized robots.txt file. But I need you to give a tutorial on how to upload robots.txt file to server. As, being a beginner it seems to be a drastic problem to upload that file.
    By the way thanks to share such beneficial information.
    -Nitin

    • Parmod

      Upload it to your server/public_hmtl/(Your-site-name) … in this folder

  42. Jenny

    What is the best way to add code to HTTacess to block multiple spam bot refers for their url and Ip address if no URL is given

    I know if you get wrong syntax when doing httacess it can take your site off line I am a newbie and need to block these annoying multiple urls from Russia, China, Ukraine etc.

    Many thanks

  43. Hazel Andrews

    Thanks for those tips….robot txt files now amended! yay!

  44. Rahat

    why have to add Allow: !!!
    if I mention only which have to Disallow that enough. Don’t have to write code for Allow because Googlebot or Bingbot will crawl all other thing automatically.
    So why should I use Allow again?

  45. Connor Rickett

    Since lacking the Robots.txt file doesn’t stop the site from being crawled, I find myself curious: Is there any sort of hard data on exactly how much having the file will improve SEO performance?

    I did a quick Google search, and didn’t see any sort of quantitative data on it. It’s about half a million articles saying, “Hey, this makes SEO better!” but I’d really like to know what we’re talking about here, even generally.

    Is this a 5% boost? 50? 500?

    • WPBeginner Support

      Search engines don’t share such data. While not having a robots.txt file does not stop search engines from crawling or indexing a website. However, it is a recommended best practice.

      Administrador

      • Connor Rickett

        Thanks for taking the time to get back to me, I appreciate it!

  46. JD Myers

    Good timing on this. I was trying to find this information just yesterday.

    The reason I was searching for it is that Google Webmaster tools was telling me that they could not properly crawl my site because I was blocking various resources needed for the proper rendering of the page.

    These resources included those found in /wp-content/plugins/

    After I allowed this folder, the warning disappeared.

    Any thoughts on this?

    • WPBeginner Support

      You can safely ignore those warnings. It is only a warning if you actually had content there that you would want to get indexed. Sometimes users have restricted search bots and have forgotten about it. These warnings come in handy in those situations.

      Administrador

  47. Chetan jadhav

    I have a question that many people out there use static sitemap, and you know what they have wordpress site. Should we us static or sitemap genrated by worpress.

  48. Wilton Calderon

    NIce, i like the way Wpbeginner have, and with that rank in alexa, look to me is one of the best way to sue robots.txt..

  49. Brigitte Burke

    what does my robots.txt file mean if it looks like this?

    User-agent: *
    Disallow: /wp-admin/
    Disallow: /wp-includes/
    Disallow: /xmlrpc.php

    • Editorial Staff

      It’s just saying that search engines should not index your wp-admin folder, wp-includes folder, and the xml-rpc file. Sometimes disallowing /wp-includes/ can block certain scripts for search engines specially if your site is using those scripts. This can hurt your SEO.

      The best thing to do is go to Google Webmaster Tools and fetch your website as a bot there. If everything loads fine, then you have nothing to worry about. If it says that scripts are blocked, then you may want to take out the wp-includes line.

      Administrador

      • hercules

        I see no logic in your idea about having a script within the includes directory that can be used by a crawn / robot .. and another, if there is an isolated case, it is better after specify the default wordpress allow this file you imagine that search engines use his scripts! after all, wordpress has certainly not by default an robots.txt anti serch engines!!!!

Deja tu comentario

Gracias por elegir dejar un comentario. Tenga en cuenta que todos los comentarios son moderados de acuerdo con nuestros política de comentarios, y su dirección de correo electrónico NO será publicada. Por favor, NO utilice palabras clave en el campo de nombre. Tengamos una conversación personal y significativa.