Este necesar ca o pagină statică să participe la căutare. Ați încercat să descărcați informații secrete de pe serverul meu
+ când încărcați fișiere prin FTP
- la crearea de noi postări pe forum
- la returnarea activității la elementele dezactivate anterior
- când încărcați pagini statice prin interfața sistemului
- la importul elementelor infoblock
+ la importul cursurilor de formare
Ai nevoie să găzduiești o conferință sau un eveniment similar? Închirierea sălilor de conferințe din Kiev este ceea ce aveți nevoie. Prețuri accesibile și cea mai bună calitate garantat!
2. Actualizare index de căutare necesar:
După importul datelor prin fișier CSV
- după activarea elementelor inactive anterior
+ schimbarea parametrilor căutării morfologice
- după adăugarea elementelor de infoblocuri
+ după adăugarea de fișiere prin FTP
+ după schimbare, adăugarea regulilor de sortare
+ crearea unei liste de cuvinte „stop”
3. Reindexare manuală:
Niciodată necesar
+ necesar la schimbarea adreselor forumurilor, blogurilor
+ necesar la adăugarea de informații nu prin interfața sistemului
+ necesar pentru modul Rețea socială dacă site-ul a fost reindexat
- necesar doar la cererea sistemului
+ necesar la schimbarea informațiilor fără schimbarea datei
- necesar la schimbarea adreselor în setările componentelor atunci când se utilizează blocuri inf
+ necesar în cazul modificărilor cursurilor de formare
4. Restricția zonei de căutare poate fi setată utilizând setările componentei:
- „Formular de căutare”
+ „Căutare pagină”
5. Pentru ca o pagină dinamică să participe la căutare după proprietățile sale, este necesar:
Includeți blocul de informații în lista celor indexate în setările modulului „Căutare”
+ setați opțiunile corespunzătoare în setările proprietăților infobloc.
- includeți blocul de informații în lista indexată în setările modulului „Blocuri de informații”
6. Indicele include:
+ blocuri de informații pentru care este specificată permisiunea corespunzătoare în setările proprietăților
+ pagini statice pentru care este setat titlul $ APPLICATION -> SetTITLE<>
- pagini statice, în setările de proprietăți ale cărora este permisă participarea la căutare
- orice pagini statice
- blocuri de informații pentru care sunt specificate adresele de pagină corecte în setările de proprietăți
7. Rezultatul căutării este afișat în conformitate cu
+ drepturi utilizator
+ restricții specificate pentru zona de căutare
- limitările modulelor și componentelor sistemului
8. Se pot impune restricții privind zona de căutare din setările modulului „Căutare”:
+ pe tip de fișier prin mască
- tipul de informații (statice sau dinamice)
+ după dimensiunea fișierului
+ către foldere și fișiere specifice
- după numărul de documente indexate
9. Utilizarea Google Sitemap vă permite să:
+ intrați mai repede în rezultate rezultatele cautarii
+ reduceți sarcina pe site
- obțineți avantaje atunci când clasați
+ indexați site-ul mai complet
10. Pentru muncă corectă căutare, este necesar ca adresele URL ale paginilor specificate în setările infoblocării
+ către pagini reale cu componente sau cod de program care procesează parametrii trecuți către acesta
- la pagini reale
- la pagini reale cu componente în care sunt conectate aceste blocuri de informații
11. Pentru a defini documente care nu sunt implicate în căutare, în pagina de setări a modulului „Căutare”, utilizați câmpul:
Activați masca
- Caracterele prin care documentul nu este împărțit în cuvinte
+ Mască de excepție
12. Expresia de căutare: „Mașină germană” nu (opel sau opel) (1938 sau 1939) - pentru modulul „Căutare” înseamnă a găsi
Mașinile germane fabricate înainte de 1938 sau mai târziu de 1939 nu sunt Opel.
+ Mașini germane produse de toate companiile, cu excepția Opel, 1938 sau 1939 cu expresia exactă din textul „mașină germană”.
- Mașini germane produse de toate companiile, cu excepția Opel, 1938 sau 1939.
- Mașinile germane fabricate în 1938 sau 1939 nu sunt Opel.
13. Greutatea este:
Un instrument care vă permite să acordați preferință documentelor unui anumit subiect atunci când afișați rezultatele căutării
- o valoare care determină relevanța documentului pentru cerere
+ parametru al regulii de sortare în rezultatele căutării
14. Utilizarea căutării rapide
+ mărește viteza de livrare a rezultatelor
- limitează numărul de documente găsite
+ agravează clasamentul
15. Regulile de sortare sunt utilizate pentru:
Excluderea documentelor specifice din căutare
- reducerea încărcării pe server la reindexarea site-ului
+ controlați ordinea de afișare a informațiilor în lista cu rezultatele căutării
16. Restricțiile privind zona de căutare a informațiilor statice și dinamice pot fi setate:
În setările proprietăților infobloc
- în setările proprietăților paginii
- în setările modulului Căutare
+ în pagina de căutare a setărilor componentelor
17. În pagina „Reindexare site” (Setări> Căutare> Reindexare) puteți reindexa
+ bloguri
+ forumuri
- rețea socială
+ infoblocuri
+ pagini statice
+ cursuri de instruire
18. Pentru ca o pagină statică să participe la căutare, trebuie să:
+ creează titlul paginii
- salvați pagina numită index.php
- setați cuvintele cheie ale paginii
Robotul de indexare Yandex accesează cu regularitate paginile site-ului și le încarcă în baza de date de căutare. În același timp, este posibil ca robotul să nu încarce toate paginile de care aveți nevoie din cauza inaccesibilității lor.
Yandex.Webmaster vă permite să aflați care paginile site-ului dvs. sunt ocolite de un robotși identifică Adrese URL ale paginilor pe care robotul nu le-a putut încărca din cauza inaccesibilității serverului pe care se află site-ul sau din cauza erorilor din conținutul paginilor.
Datele paginii sunt disponibile în Yandex.Webmaster pe pagină Indexare → Statistici de accesare cu crawlere... Informațiile sunt actualizate zilnic în decurs de șase ore din momentul în care robotul vizitează paginile.
În mod implicit, serviciul oferă date pentru site-ul în ansamblu. Pentru a vizualiza informații despre o anumită secțiune, selectați-o din lista din câmpul cu adresa site-ului. Secțiunile disponibile corespund structura site-ului cunoscută de Yandex(cu excepția secțiunilor adăugate manual).
Dacă lista nu include toate paginile care ar trebui incluse în căutare, raportați-le folosind instrumentul Trecerea paginii.
Informațiile despre pagini pot fi descărcate în format XLS sau CSV, luând în considerare filtre aplicate.
Dinamica stării paginii
Informațiile paginii sunt prezentate după cum urmează:
Nou și schimbat- numărul de pagini pe care robotul le-a accesat cu crawlere pentru prima dată și paginile a căror stare s-a schimbat după următorul acces la robot de către acestea.
Istoricul accesării cu crawlere - numărul de pagini pe care robotul le-a accesat, ținând cont de codul de răspuns al serverului.
Modificări ale paginilor din baza de căutare
Pentru a vizualiza modificările, setați comutatorul la Ultimele modificări ... Aceasta va afișa până la 50.000 de modificări.
Webmasterul afișează următoarele informații despre pagini:
codul de răspuns al serverului primit de robot când vizitează pagina.
Pe baza acestor informații, este posibil să aflăm cât de des robotul accesează cu crawlere paginile site-ului, precum și să înțelegem ce pagini tocmai au apărut în baza robotului și pe care robotul le accesează din nou.
Aspectul paginii în baza de căutare
Pentru pagina pe care robotul a accesat-o cu crawlere pentru prima dată, starea N / a este afișată în coloana A fost, iar răspunsul serverului în coloana Bec (de exemplu, 200 OK).
După încărcarea cu succes în baza de căutare, pagina poate apărea în rezultatele căutării cu cele mai apropiate actualizări ale bazei de căutare. Informațiile despre acesta devin disponibile în secțiune Pagini în căutare.
Re-accesarea paginii de către robot
Dacă robotul a accesat cu crawlere anterior pagina, atunci când este accesată din nou, starea se poate schimba: răspunsul serverului primit în timpul vizitei anterioare la robot este afișat în coloana Was și răspunsul serverului primit în timpul ultimului acces în Bec coloană.
De exemplu, pagina care participă la căutare a devenit inaccesibilă robotului. În acest caz, este exclus din căutare. La ceva timp după aceea, ea poate fi văzută în exclusÎn capitol Pagini în căutare.
Pagina eliminată din căutare poate rămâne în continuare în baza de căutare pentru a verifica disponibilitatea acesteia. De regulă, robotul continuă să acceseze o astfel de pagină, atâta timp cât legăturile duc la aceasta sau nu este închis într-un fișier. robots.txt.
Lista paginilor vizitate de robot
Pentru a vedea lista de pagini, setați butonul radio la Toate paginile. Lista poate conține până la 50.000 de pagini de site.
Puteți vizualiza lista paginilor site-ului pe care robotul le-a accesat cu crawlere și următoarele informații despre acestea:
data ultimei vizite a paginii de către robot (data accesării cu crawlere);
adresa paginii în raport cu directorul rădăcină al site-ului;
codul de răspuns al serverului la ultima încărcare a paginii de către robot.
Sfat. Dacă lista afișează pagini care au fost deja eliminate de pe site sau nu există, este probabil ca robotul să găsească legături către acestea atunci când vizitează alte resurse. Pentru a împiedica robotul să acceseze pagini inutile, dezactivați indexarea acestora folosind directiva Nu permitețiîn fișierul dvs. robots.txt.
Filtrarea datelor
Informațiile despre pagini și modificările din baza de căutare a robotului pot fi filtrate de toți parametrii prezentați (data de accesare cu crawlere, adresa URL a paginii, codul de răspuns al serverului) utilizând pictograma. Câteva exemple sunt descrise mai jos:
Răspunsul serverului
Puteți face o listă a paginilor pe care robotul le-a vizitat, dar care nu au putut fi încărcate din cauza unui răspuns al serverului 404 Nu a fost găsit.
În acest caz, este posibil să identificați pagini noi care sunt inaccesibile robotului prin setarea comutatorului în poziție Ultimele modificări:
Și, de asemenea, - obțineți o listă generală de pagini inaccesibile robotului setând comutatorul în poziția Toate paginile:
Prin URL se specifică un fragment specific al adresei
Puteți face o listă de pagini, a căror adresă conține un anumit fragment. Pentru aceasta, selectați valoarea Conține din listă și specificați valoarea necesară în câmp.
Prin URL cu caractere speciale
Caracterele speciale vă permit să specificați nu o potrivire strictă a unui șir, ci începutul acestuia, un șir și multe altele condiții dificile folosind expresii regulate. Pentru a le utiliza, selectați valoarea Condiții din listă și introduceți condiția în sine în câmp. Se pot adăuga mai multe condiții - fiecare dintre ele trebuie să înceapă cu linie nouă.
Sunt disponibile reguli pentru condiții:
să îndeplinească oricare dintre condiții (corespunde operatorului „SAU”);
îndeplinesc toate condițiile (corespunde operatorului „ȘI”).
Simbol | Descriere | Exemplu |
---|---|---|
* | Folosind simbolul * |
|
@ | ||
~ | expresie uzuala | |
! | Negarea unei afecțiuni |
Simbol | Descriere | Exemplu |
---|---|---|
* | Se potrivește cu orice număr de caractere | Afișați date pentru toate paginile care încep cu https://example.com/tariff/, inclusiv pagina specificată: / tariff / * Folosind simbolul * Caracterul * poate fi util atunci când căutați adrese URL care conțin două sau mai multe elemente specifice. De exemplu, puteți găsi știri sau anunțuri pentru un anumit an: / news / * / 2017 /. |
@ | Datele selectate conțin șirul specificat (dar nu se potrivesc neapărat strict) | Afișați date pentru toate paginile a căror adresă URL conține șirul specificat: @tariff |
~ | Condiția este o expresie regulată | Afișați date pentru paginile a căror adresă URL se potrivește expresie uzuala... De exemplu, puteți selecta toate paginile cu una sau mai multe mențiuni în adresa URL: ~ masă | canapea | pat |
! | Negarea unei afecțiuni | Excludeți datele pentru paginile a căror adresă URL începe cu linia https://example.com/tariff/ :! / Tariff / * |
Când sunt folosite caractere, nu este sensibil la majuscule și minuscule. Adăugați site-ul la Yandex.Webmaster și confirmă drepturile pe el. De asemenea, verificați dacă există erori de server. Dacă serverul aruncă o eroare, robotul oprește indexarea și face următoarea încercare într-o ordine generală de accesare cu crawlere.
Angajații Yandex nu pot accelera adăugarea de pagini în baza de căutare.
Cât durează site-ul să intre în Yandex?
Nu prezicem calendarul site-urilor de indexare și nu oferim garanții că acest site va fi indexat. De regulă, din momentul în care un robot află despre un site până când paginile sale apar în rezultatele căutării, durează de la câteva zile la două săptămâni.
Ați încercat să descărcați informații secrete de pe serverul meu. Ce sa fac?
Robotul preia linkuri din alte pagini, ceea ce înseamnă că unele pagini conțin linkuri către secțiuni secrete ale site-ului dvs. Puteți fie să le închideți cu o parolă, fie să specificați o interdicție pentru robotul Yandex în fișierul robots.txt. În ambele cazuri, robotul nu va descărca informații clasificate.