Cum se configurează pentru joomla

Puține site-uri se pot lăuda cu independența față de motoarele de căutare. Majoritatea resurselor web trăiesc doar prin trafic organic - și asta este bine!







Dacă doriți să creați un flux normal de persoane din motoarele dvs. de căutare de pe site-ul dvs., trebuie să îndepliniți toate cerințele pentru motoarele de căutare pentru indexarea corectă.

Dacă ignorați cerințele motoarelor de căutare, în special Yandex și Google, site-ul dvs. nu va primi niciodată poziții normale în această problemă, ceea ce înseamnă că nu puteți câștiga pe site.

Ce reprezintă un fișier robots.txt?

Pentru a înțelege cum trebuie să configurați acest fișier special pentru site-ul dvs., trebuie să învețe cum să folosească comenzile sale și a descifra fișierul robots.txt altor persoane. În general, acest fișier constă dintr-un set de operatori și valorile acestora.

Când scrieți roborts.txt, va trebui să consultați anumite motoare de căutare în care vă promovați resursa. Puteți face acest lucru utilizând operatorul agent-utilizator. Dacă nu modificați fișierul standard robots.txt, lângă operatorul utilizator-agent apare un asterisc. Acesta reprezintă accesul public pentru toate motoarele de căutare cunoscute. Dar puteți elimina acest asterisc și denumi numele anumitor roboți de căutare:

Nu vă speriați de numărul de roboți existenți. Nu este necesar să prescrieți o instrucțiune pentru fiecare păianjen existent. Acest lucru trebuie făcut numai în cazuri speciale, dacă aveți un proiect unic, unde, de exemplu, trebuie doar să indexați imagini. În general, roboții sunt foarte bine percepuți de echipe comune, astfel că nu va fi necesară o abordare individuală a motoarelor de căutare. Numai pentru Yandex, care are propria percepție a operatorilor fișierului robots.txt.







Poate că aveți o întrebare: de ce am nevoie de un operator, dacă există o interdicție? Problema este că, uneori, este necesar să se permită indexarea pentru părți ale unei resurse care sunt în secțiuni, acces la care este închis pentru roboți de căutare. Acesta este motivul pentru care operatorul permite.

Datorită operatorului gazdă, puteți specifica oglinda primară. Dar este mai bine să nu facă acest lucru folosind un fișier robots.txt, și specificați calea către site-ul principal în setările de SEO, prin panoul de administrare Joomla. La urma urmei, URL-ul duplicat pentru o pagină în ansamblu îi afectează indexarea. Dacă ați folosit și redirecționa URL-ul de la setările Joomla, și gazdă specificat în robots.txt - bine, astfel încât, chiar mai bine.

Operatorul sitemap-ului va arata robotilor cum sa ajunga pe harta site-ului. Dacă încă nu aveți una, atunci asigurați-vă că ați creat-o. Acesta este un alt factor important de clasificare care poate îmbunătăți considerabil performanța resursei dvs. Pentru a înțelege importanța acestui lucru, merită menționat faptul că fișierul sitemap are aceeași valoare ca robots.txt.

Operatorul Clean-param este responsabil pentru interzicerea indexării legăturilor dinamice. Un exemplu de astfel de link-uri poate fi o căutare în cadrul site-ului, când sufixe diferite ale interogării de căutare sunt atașate la adresa URL obișnuită. Pentru a specifica acest operator în rândul fișierului robots.txt este o soluție bună.

Cum se configurează robots.txt pentru un anumit site Joomla

Pentru a vă asigura că roboții indexează paginile cât mai eficient posibil, trebuie să scrieți fișierul robot corect. Este mai bine pentru a activa imediat link-uri chelovekoponyatnye ca CNC configurare robots.txt este ușor diferită. Activați legăturile CNC sau SEF în panoul de administrare Joomla. După activarea acestui mod, va trebui să fișier pentru roboți să se înregistreze doi operatori interziceți, care ar interzice indexarea index.php * și index2.php *. Dar dacă nu includeți linkuri asemănătoare oamenilor, nu introduceți astfel de comenzi.

Cum se configurează pentru joomla
Joomla yandex harta







Articole similare

Trimiteți-le prietenilor: