Cum să preveniți indexarea tuturor paginilor, cu excepția forumului principal pentru SEO

2 luni în urmă Madame sa adresat cu o încărcare mare (foarte mare) pe site și mai multe încuietori de gazde
motorul opencart și prețurile de filtrare, nu-mi amintesc ce se numește






Ei bine, atât de googo-otravă roboții provoca toate problam sale, robots.txt și noindex nu a ajutat)
.Htacess nu a dat nici un efect, chiar dacă nu a blocat mult timp. ei (bots) și-au schimbat în mod constant IP-ul și numele și performanțele, sincer nu am văzut o astfel de groază

așa cum am trimis-o de pădure, nu este cea mai bună opțiune, dar cu siguranță va funcționa








cod miozhno și se taie, dar este totul pentru nakidal maximă claritate, l-am aruncat în codul PHP și toți roboții de pădure, dar apoi din nou, ar trebui să aveți toate paginile se referă la indicele php

Cu toate acestea, în standard nu este


Standardul de bază este tratat ca un "protocol de excepție", în care sunt definite numai numai User-agent și Disallow. Doi ani mai târziu, a apărut un standard extins, în care există atât un Permis cât și mult mai mult. Timp de 20 de ani, oricine ar putea învăța cum să analizeze roboții.

De aceea, dezvoltatorii de boturi de căutare au dreptul moral deplin să o ignore


Dezvoltatorii de PS au dreptul să ignore roboții înșiși, ceea ce fac ei. Cu siguranta am observat modul in care robotii scamper pentru paginile care sunt interzise de indexare.







Articole similare

Trimiteți-le prietenilor: