Prilagodite robote za WordPress | Workion. ru

Nekateri začetniki, ki ustvarijo spletna mesta WordPress, so prepričani, da lahko po namestitvi motorja začnete polniti spletno mesto. V bistvu obstaja veliko razlik, o katerih morate razmišljati, preden iskalni roboti začnejo indeksirati spletno mesto.

Datoteka robotov. txt vsebuje podatke, ki pomagajo omejiti iskalnik od nepotrebnih informacij na spletnem mestu, njegova prisotnost in konfiguracija sta nujna.

Datoteka robotov. WordPress txt je privzeto nameščen, zato ga morate le nastaviti.

19 '' v robotih. Txt, ki je privzeto nameščen, že vsebuje nekaj podatkov, na primer niz User-agent. Ta vrstica vam omogoča, da določite, za kateri iskalni robot nastavljate. Simbol * označuje, da so nastavitve skupne za vse robote iskalnikov.

Po potrebi lahko v vrstico User-agent vnesete ime enega od robotov iskalnika in s tem nastavite posamezne parametre. Tu so imena iskalnih robotov:

Prilagodite robote za WordPress | Workion. ru

V vsakem iskalniku so tudi posamezni roboti, ki so odgovorni za določeno vsebino. V omrežju lahko najdete imena vsakega od njih, vendar se uporabljajo zelo redko. Na primer, zamislite si več Yandexovih robotov:

Prilagodite robote za WordPress | Workion. ru

Naslednji pomembni deli robotske datoteke. txt je direktiva Disallow, Host in Satemap.

Disallow - zahvaljujoč tej vrednosti lahko nekaj podatkov o mestu skrijete iz iskalnih robotov. Privzeto v vaših robotih. txt bi moral biti že zaprt za indeksiranje naslednjih imenikov:

Disallow: / wp-admin /
Disallow: / wp-includes /
Disallow: / wp-trackback
Disallow: / wp-feed
Disallow: / wp-comments
Disallow: / wp-content / plugins
Disallow: / wp-content / themes
Disallow: / wp-login. php
Disallow: / wp-register. php

To ni celoten seznam zaprtih imenikov, ki vsebujejo različne strani vtičnikov, predpomnilnika, upravne plošče in drugih imenikov.

Kaj je bolje zapreti od robotov za iskanje?

To morda ni edinstvena vsebina ali podvojene strani. Kot kaže praksa, imajo pri uporabi CMS mnogi ljudje težave z dvojniki, ki jih je najlažje skriti.

Host - naslednja funkcija vam omogoča, da določite glavni naslov strani. Tudi če ima vaše spletno mesto eno domeno, ima dve vrednosti, na primer www. delo. ru in samo delo. ru. Pri nakupu povezav morate uporabiti eno od vrst URL-jev vašega spletnega mesta in v datoteki robotov. txt, določite, kateri je glavni.

Satemap - ta vrstica je namenjena označevanju poti do zemljevida mesta. Ustvarjanje kazala na WordPress ni težko, za to obstajajo posebni vtičniki. Iskalniki morajo hitro najti nove materiale za indeksiranje.

Vprašanja o konfiguriranju robotov. txt

Moji redni bralci dobesedno zaspijo z različnimi vprašanji, povezanimi s to datoteko. Da ne bi večkrat napisal iste stvari, sem se odločil sestaviti seznam priljubljenih vprašanj in odgovoriti na njih:

  1. Kako preprečiti indeksiranje strani?
Za prepoved indeksiranja ene strani uporabite Disallow funkcija, tukaj je primer:

Disallow: http: // www. domene ru / shop / 22

  1. Kako prepovedati indeksiranje spletnega mesta?

Uporabno je tudi za Disallow, povezavo do korena mesta (lahko se namesti za nekatere iskalnike, ki uporabljajo Uporabniški agent):

Disallow: /

  1. Kako določiti zemljevid spletnega mesta?

Če iskalniki pravilno najdejo zemljevid spletnega mesta uporabite funkcijo zemljevida spletnega mesta:

zemljevid spletnega mesta: http: // sait / sitemap. xml

  1. Kako onemogočiti prekinjene povezave?

Ko delujejo različni vtičniki, se lahko pojavijo prekinjene povezave. Da ne boste v celoti prepovedali komponent, jih definirajte in nato v kodo dodajte Roboti:

Disallow: / index. php? option = com_jreviews. Itemid = 91

  1. Kako onemogočiti indeksiranje poddomene?

Če želite zapreti poddomeno, morate ustvariti robote v korenu sekundarnega mesta. txt in tam predpiše isto kodo kot v drugem vprašanju (popolna prepoved indeksiranja mesta).

Tukaj je nekaj preprostih rešitev za kompleksna vprašanja. Newbies se pogosto zanima za to, zato bi morale biti informacije koristne.

Pravilni roboti za WordPress, kako konfigurirati?

Za vsako stran morate ustvariti posamezno datoteko robotov. txt za delovni blog.ru izgleda tako:

Uporabniški agent: *
Disallow: / wp-admin
Disallow: / wp-includes
Disallow: / wp -content / plugins
Disallow: / wp-content / cache
Disallow: / wp-content / themes
Disallow: / trackback
Disallow: * / trackback
Disallow: * / * / trackback
Disallow: * / * / feed / * /
Disallow: * / feed
Disallow: : / *? *
Disallow: / tag

Uporabniški agent: Yandex
Disallow: / wp-admin
Disallow: / wp-includes
Disallow: / wp-content / plugins
Disallow: / wp-content / cache
Disallow: / wp-content / themes
Disallow: / trackback
Disallow: * / trackback
Disallow: * / * / trackback
Disallow: * / * / feed / * /
Disallow: * / feed
Disallow: / *? *
Disallow: / tag
Host: your_site. ru

Zemljevid spletnega mesta: http: // your_site. ru / sitemap. xml. gz
zemljevid spletnega mesta: http: // your_site. ru / sitemap. xml

Če ste že ustvarili spletno mesto na CMS WordPressu in niste nikoli posvečali pozornosti datoteki robotov. txt, toplo vam priporočamo, da to storite. Torej, tudi pri začetnikih nimajo težav pri nastavljanju te pomembne datoteke, poglejmo, kaj vse te vrstice pišejo:

Uporabniški agent: - označuje, da bodo vsa navedena pravila upoštevana pri vseh iskalniki. Če je potrebno določiti pravila za določen iskalnik, je določena oblika Uporabniški agent: Yandex.

Dovoli je inverzna funkcija Disallow, omogoča indeksiranje (lahko se odločite, da ne boste uporabljali WordPress).

Asterisk * - označuje poljuben nabor znakov.

Ostale funkcije so že opisane v tem članku. Načeloma razumeti, da to ni potrebno, saj lahko končano različico vzamete malo višje.

Uradna spletna stran Yandex ima podroben opis vseh pomembnih točk za postavitev robotov. txt (

).

Po nastavitvi različnih parametrov in namestitvi nad določeno kodo so se pojavile težave. Izkazalo se je, da stran ni konfigurirana CNC (kaj je URL in CNC). Če v vašem viru ni človeku berljivih naslovov, uporabite naslednjo kodo v Robotih. txt:

Uporabniški agent: *
Disallow: / cgi-bin
Disallow: / wp-admin
Disallow: / wp-includes
Disallow: / wp-content / plugins
Disallow: / wp-content / cache
Disallow: / wp-content / themes
Disallow: /
Disallow: * / trackback
Disallow: * / * / trackback
Disallow: * / * / feed / * /
Disallow: * / feed
Disallow: / tag
Uporabniški agent: Yandex
Disallow: / cgi-bin
Disallow: / wp-admin
Disallow: / wp-includes
Disallow: / wp-content / plugins
Disallow: / wp-content / cache
Disallow: / wp-content / teme
Disallow: / trackback
Disallow: * / trackback
Disallow: * / * / trackback
Disallow: * / * / feed / * /
Disallow: * / feed
Disallow: / tag
Host: your_site. ru
Zemljevid spletnega mesta: http: // your_site / sitemap. xml. gz
Zemljevid spletnega mesta: http: // your_site / sitemap. xml

Po vsaki spremembi v tej datoteki preverite. Za to imajo iskalniki posebna orodja ().

Če te datoteke ne želite ročno konfigurirati, lahko z vtičnikom konfigurirate robote. txt Vse v enem SEO Pack.

Iskanje botov ne more samostojno določiti, v katere imenike vaše spletne strani gredo in kaj natančno indeksirati.

Pri tem potrebujejo pomoč in nastavitev robotov. txt res pomaga pri tem . Naredite tako, da je ta datoteka idealna za vaš vir, to je ena od pomembnih točk optimizacije.

Zanimalo vas bo tudi:
- Kako do naravnih povezav?
- Brezplačen izdelovalec spletnih strani
- Negativen vpliv izvajanja imenika

Iskanje

povezani članki