Googlebot nu poate accesa fișierele css și js pe site - w1c primul consultant web

Astfel, Google specifică:

Pentru a nu pierde poziția de emisiune, aveți nevoie de:

1. Deschideți în Robot.txt accesul la toate fișierele CSS și JS și verificați fișierul robots.txt







3. Împiedicați scanarea site-ului folosind meta tag-uri sau antetul HTTP al etichetei X-robots.

Meta tag-ul robot vă permite să definiți setările de indexare și afișare în rezultatele căutării pentru fiecare pagină separat. Ar trebui adăugată la secțiune. exemplu:

Eticheta meta din exemplul de mai sus interzice tuturor motoarelor de căutare să afișeze această pagină în rezultatele căutării. Valoarea specificată pentru atributul name (roboți) indică faptul că directiva se aplică tuturor roboților. Dacă doriți să restricționați accesul la unul dintre ele, specificați în locul robotului o altă valoare pentru atributul name, și anume numele robotului dorit. Roboții de căutare individuali sunt, de asemenea, numiți agenți utilizator (crawlerul utilizează agentul utilizator pentru a solicita pagina). Motorul principal de căutare se numește Googlebot. Pentru a împiedica scanarea unei pagini numai de către el, schimbați eticheta după cum se arată mai jos:







Acum, eticheta îi spune Googlebot (dar nu altor motoare de căutare) că această pagină nu ar trebui afișată în rezultatele căutării. Atributele de nume și conținut sunt insuficiente pentru majuscule.

Motoarele de căutare pot utiliza roboți multiple pentru diferite resurse sau obiective. O listă completă a roboților Google este disponibilă aici. De exemplu, pentru a afișa o pagină în rezultatele Căutării pe Web Google, dar nu în Știri Google, utilizați următoarea metaetichetă:

Dacă trebuie să specificați directivele pentru mai multe roboți de căutare, puteți utiliza mai multe metaetichete robot:

Dacă există directive contradictorii, roboții Google vor efectua cele mai stricte dintre ele.







Articole similare

Trimiteți-le prietenilor: