Cum se configurează pentru wordpress

robots.txt este un fișier text folosit pentru a împiedica roboții (în special motoarele de căutare) să indexeze și să "ocolească" anumite părți ale site-ului dvs. Fără acest fișier, bot-urile vor putea să meargă liber în jurul site-ului dvs., lucru care nu este foarte bun.

Implicit, WordPress nu creează un fișier robots.txt, deci trebuie să-l creați singur și să-l configurați singur.

Sensul general de interzicere a accesului la anumite părți ale site-ului dvs. este de a concentra atenția roboților asupra conținutului important.

Ce se întâmplă dacă nu aveți un fișier robots.txt?

Pe scurt, totul va fi indexat.

Pentru WordPress, aceasta înseamnă următoarele:

  • / wp-include
  • / wp-content / themes
  • / wp-conținut / plugin-uri /












  • Așa cum probabil ați ghicit deja, niciuna dintre cele de mai sus nu este un conținut relevant pentru SEO și poate chiar să vă dăuneze site-ului. Google permite doar o anumită cantitate de "gunoi de referință", deci este logic să se concentreze eforturile asupra conținutului și paginilor.

    Cum pot controla indexarea site-ului meu?

    Soluția este foarte simplă.

    Copiați și lipiți următoarele:

    Salvați fișierul. Dacă l-ați creat în afara serverului, pur și simplu încărcați-l în directorul rădăcină al site-ului. Acesta este același director ca și folderele wp-admin, wp-inclusive și wp-content.

    Asta e tot. Acum veți observa că unele dintre legăturile site-ului vor cădea din căutare în câteva zile sau chiar săptămâni.

    Dacă doriți să adăugați alte fișiere, trebuie doar să adăugați o regulă de genul:

    Rețineți că depășim domeniul site-ului și adăugăm calea spre dosar începând cu slash-ul direct (/).







    Articole similare

    Trimiteți-le prietenilor: