Skip to main content
Descobreix com utilitzar l

Guia d'Ús de l'Arxiu robots.txt

L'arxiu robots.txt és un dels arxius més importants per als webmasters i desenvolupadors de llocs web. Aquest arxiu permet controlar l'accés dels crawlers dels motors de cerca al teu lloc web. En aquest article, explorarem què és l'arxiu robots.txt, per què és important, i com crear-lo i utilitzar-lo de manera efectiva.

Introducció a l'Arxiu robots.txt

El fitxer robots.txt és un element fonamental en l'administració de qualsevol lloc web o aplicació en línia. Serveix com a guia per als robots de motors de cerca, indicant quines pàgines del teu lloc poden ser rastrejades i indexades. Aquest control pot ser útil per a diverses raons, incloent la protecció de la privacitat, l'optimització del consum de recursos i l'orientació de l'indexació del teu lloc. En aquesta secció, ens endinsarem en les funcionalitats bàsiques de l'arxiu robots.txt i en com es pot utilitzar per millorar la visibilitat i la funcionalitat del teu lloc web.

Què és l'arxiu robots.txt?

L'arxiu robots.txt és un arxiu de text que els webmasters creen per instruir els robots dels motors de cerca sobre com explorar les pàgines del seu lloc web. Aquest arxiu és col·locat a la directori principal del lloc web i indica als crawlers quines pàgines o arxius poden o no poden ser sol·licitats pel seu bot.

Per què és important?

Els motors de cerca utilitzen bots per indexar el contingut del web. Si el teu lloc web té pàgines que no vols que siguin indexades, o si vols limitar la freqüència amb què els bots visiten el teu lloc, és necessari utilitzar l'arxiu robots.txt.

Creació de l'Arxiu robots.txt

L'estructura bàsica de l'arxiu robots.txt és molt senzilla. Consisteix en una sèrie de línies, cadascuna de les quals especifica una regla per a un bot o un grup de bots. Cada regla està composta per dos camps: User-agent i Disallow.

  • User-agent: Especifica el nom del bot al qual s'aplica la regla. Per exemple, "Googlebot" és el bot de Google.
  • Disallow: Especifica l'URL o el camí que el bot no pot accedir.

Aquí hi ha un exemple d'un arxiu robots.txt senzill:

    User-agent: *
    Disallow: /admin/
    

En aquest exemple, tots els bots (identificats pel `*`) estan bloquejats per accedir a la carpeta /admin/.

Comandes a l'Arxiu robots.txt

A més de User-agent i Disallow, també hi ha altres comandes que es poden utilitzar a l'arxiu robots.txt.

  • Allow: Especifica un URL o un camí que el bot pot accedir, tot i que ha estat bloquejat per una regla Disallow anterior.
  • Crawl-delay: Especifica el nombre de segons que un crawler ha d'esperar abans de carregar una altra pàgina del lloc web. Això pot ser útil per evitar que el teu servidor sigui sobrecarregat per sol·licituds de bots.
  • Sitemap: Especifica l'URL del mapa del lloc, que ajuda els motors de cerca a trobar i indexar les pàgines del teu lloc.

Aquí hi ha un exemple d'un arxiu robots.txt que utilitza aquestes comandes:

    User-agent: *
    Crawl-delay: 10
    Sitemap: https://www.exemple.com/sitemap.xml

    Disallow: /admin/
    Allow: /admin/public/
    

En aquest exemple, tots els bots han d'esperar 10 segons entre les sol·licituds, i poden accedir a la carpeta /admin/public/ tot i que l'accés a la carpeta /admin/ està bloquejat.

Millors Pràctiques

Aquí hi ha algunes de les millors pràctiques per a l'ús de l'arxiu robots.txt:

  • Bloquejar l'Accés a Carpetes Sensibles: Utilitza el comandament `Disallow` per a bloquejar l'accés a les carpetes sensibles del teu lloc web, com ara l'àrea d'administració o les pàgines que contenen informació privada.
  • Utilitzar Crawl-delay amb Cautela: Tot i que el comandament `Crawl-delay` pot ser útil per a evitar que el teu servidor sigui sobrecarregat, també pot fer que els motors de cerca triguen més a indexar el teu lloc web. Utilitza aquest comandament amb prudència i prova diferents valors per a veure quin funciona millor per al teu lloc.
  • Especificar la Ubicació del Mapa del Lloc: Utilitza el comandament `Sitemap` per a especificar l'ubicació del teu mapa del lloc. Això ajudarà els motors de cerca a trobar i indexar les pàgines del teu lloc més ràpidament.
  • No Bloquejar Totes les Pàgines: No utilitzis el comandament `Disallow` per a bloquejar l'accés a totes les pàgines del teu lloc web. Això farà que els motors de cerca no puguin indexar cap pàgina del teu lloc, la qual cosa afectarà negativament la teva posició en els resultats de cerca.