Internet, Blogid
Kuidas eemaldada saidi või selle fragmente Google indeks
Vastavalt indekseerimise mõiste vastu võetud Google, moodustasid täielikkust, info objektiivsus ja selle vastavust otsingu päringu väljastamise tulemusi. Kui indeks langeb veebilehel ebaseadusliku sisuga või ressurss rämpsposti, lehekülgi saidilt ei märgita ühises andmebaasis otsingumootori. Meile on oluline, et õppida , kuidas eemaldada saidi alates väljastamise otsingutulemused server.
Variandid null indekseerimise Google
Kui otsing robot - programm koguda teavet uute ressursside - skannib saidi lehekülje kaupa, siis kui alla Google'i poliitika nõuete sõelumisel, see indekseeritakse. Aga me ka teile näidata, kuidas eemaldada saidi või fragmente otsingumootorid läbi robots.txt - indeksi ja otsida samal ajal peatus.
Et jätta väljastamise ressursi tervikuna, root kausta server, mille tegevuskoht asub, loob teatud ala - ütles robots.txt. See tsoon on ravitud otsingumootorid ja tegutseda vastavalt juhistele lugeda.
Pidage meeles, et Google otsingumootori indeksid lehel, isegi kui kasutaja on juurdepääs vaatamiseks keelatud. Kui brauser reageerib 401 või 403 "Access on kehtetu", see kehtib vaid külastajatele, mitte programme, mis kogunevad selle otsingumootori.
Et mõista , kuidas eemaldada saidi otsingumootori indekseerimine, teksti kursori tuleb sisestada järgmised read:
User-agent: Googlebot
Keela: /
See näitab, et reserveerida indekseerimise keelata kogu saidi sisu. Siin on , kuidas eemaldada saidi Google, et viimane ei vahemällu ressursi nimekirja tuvastatud.
Kehastused skaneerimine erinevate protokollide
Kui teil on vaja loetleda üksikute side standardid, millele soovite rakendada erieeskirju indekseerimise Google, näiteks eraldi hüperteksti protokollid HTTP / HTTPS samuti on vaja eelnevalt registreeruda robots.txt järgmisel viisil (näiteks).
(Http://yourserver.com/robots.txt) - domeeninime saidile (mis tahes)
User-agent: * - iga otsingumootori
Luba: / - võimaldab täielik indekseerimine
Kuidas saidi eemaldamiseks küsimus täielikult https protokolli
(Https://yourserver.com/robots.txt):
User-agent: *
Keela: / täielik keeld indekseerimine
Kiirendatud eemaldamine URL-ressurss aadresse Google SERPs
Kui te ei taha oodata uuesti indekseerimine, ja sait, mida soovite peita nagu salli teenust kasutada http://services.google.com/urlconsole/controller niipea kui võimalik. Pre robots.txt tuleb paigutada juurkataloogi saidi server. Tuleb ette asjakohased juhised.
Kui osuti mingil põhjusel ei saa muuta juurkataloogi, looge see piisavalt kausta eesmärke, mille soovite peita otsingumootorid. Kui sa seda ja vaadake teenuse automaatselt eemaldamist hüperteksti aadressid, Google ei kontrolli kaustu, milles selgitati viga robots.txt.
Ajavahemik käesoleva nähtamatus on seatud 3 kuud. Pärast seda perioodi kataloog taganenud küsimus, taas töödelda Google server.
H ow eemaldada saidi skaneerida osaliselt
Kui otsing bot loeb sisu robots.txt, et teatud otsused tehakse alusel selle sisu. Oletame, mida soovite välistada näitamist kogu kataloog nimega anatom. Piisab ette sellist määrused:
User-agent: Googlebot
Keela: / anatom
Või näiteks, mida soovite ei indeks kõik pilditüübid .gif. Selleks lisage järgmise loeteluga:
User-agent: Googlebot
Keela: /*.gif$
Siin on veel üks näide. Las nad välja sõelumise teavet dünaamiliselt loodud lehtede, lisades samas, et registri kanne tüüp:
User-agent: Googlebot
Keela: / *?
See on umbes, ja tuuakse välja eeskirjad otsingumootorid. Teine asi on see, et see on palju mugavam lihtsalt kasutada seda META tag. Ja Webmasters kasutavad sageli just selline standard tegevust reguleerivate otsingumootorid. Aga me arutada seda tulevikus artikleid.
Similar articles
Trending Now