Lăsați numai pagina principală a site-ului în căutare

De obicei, toată lumea dorește indexarea completă și calitativă. Cu toate acestea, în stadiul inițial de proiectare a unui site, este adesea nevoie să lăsați motoarele de căutare să știe că site-ul este deja scris și sugera că va fi în curând timp să-l indexeze. Pentru a face acest lucru, trebuie să permiteți procesarea paginii principale și să vă interzicem să mergeți mai adânc.







Atenție vă rog! Starea de lungă durată în căutarea unei singure pagini a site-ului cu o mare probabilitate va duce la impunerea unui filtru de la Yandex AGS. După aplicarea filtrului, este nevoie de mult efort pentru a elimina AGS din filtru și pentru a returna resursele în TIC. Vă recomandăm limita maximă de timp numai pentru indicele principal 1 (o) lună.

Argumente pro și contra de indexare a paginii principale

Trebuie reamintit faptul că noile site-uri au un început redus la începutul indexării și frecvența de sosire a roboților. Motoarele de căutare se uită atent la site-uri noi. Pentru unii, este bine, dar pentru alții nu este.

Principalul dezavantaj este că o pagină goală face destul de repede întrebări roboților cu privire la utilitatea site-ului și necesitatea disponibilității sale în emitere.







Opinia mea personală este că este mai bine să faceți structura site-ului și să deschideți imediat motoarele de căutare. Și treptat începe să le umple cu conținut. Dar dacă sarcina este încă stabilită, citim soluția.

Interzicem indexarea tuturor paginilor, cu excepția celei principale

Accesați fișierul robots.txt (dacă nu există astfel, creați apoi root-ul site-ului) și scrieți:

După ce ați vizitat botul, va fi procesată numai pagina principală. Atenție, vă rog. Pentru motoarele și site-urile individuale, este posibil ca metoda să nu funcționeze. Prin urmare, după utilizarea sa, verificați corectitudinea prelucrării paginilor de la webmasterul Yandex și Google în secțiunile corespunzătoare ale serviciilor.

Bonus - închidem întregul site de indexare. Din nou, fișierul robots.txt și în acesta scriem:

Ca de obicei, și aici sunt capcanele lor. Dacă Yandex va urma instrucțiunile în mod clar și practic nu privește mai departe, pentru Google, fișierul de roboți este doar consultativ. Prin urmare, rețineți că Google va trece prin citirea întregului site și va trimite cu sinceritate numai prima pagină. Dar pentru a ști că el va fi întregul site și ce versiune a paginilor va fi chiar după deschiderea indexării - o întrebare.

Rețineți că pentru indexarea corectă a site-ului, fișierul robots.txt trebuie să fie corect. Instrucțiunile bine scrise ar trebui să închidă informațiile inutile de la motoarele de căutare și să se asigure că paginile duplicate sunt întrerupte.







Articole similare

Trimiteți-le prietenilor: