InternetBlogid

Kuidas eemaldada saidi või selle fragmente Google indeks

Vastavalt indekseerimise mõiste vastu võetud Google, moodustasid täielikkust, info objektiivsus ja selle vastavust otsingu päringu väljastamise tulemusi. Kui indeks langeb veebilehel ebaseadusliku sisuga või ressurss rämpsposti, lehekülgi saidilt ei märgita ühises andmebaasis otsingumootori. Meile on oluline, et õppida , kuidas eemaldada saidi alates väljastamise otsingutulemused server.

Variandid null indekseerimise Google

Kui otsing robot - programm koguda teavet uute ressursside - skannib saidi lehekülje kaupa, siis kui alla Google'i poliitika nõuete sõelumisel, see indekseeritakse. Aga me ka teile näidata, kuidas eemaldada saidi või fragmente otsingumootorid läbi robots.txt - indeksi ja otsida samal ajal peatus.

Et jätta väljastamise ressursi tervikuna, root kausta server, mille tegevuskoht asub, loob teatud ala - ütles robots.txt. See tsoon on ravitud otsingumootorid ja tegutseda vastavalt juhistele lugeda.

Pidage meeles, et Google otsingumootori indeksid lehel, isegi kui kasutaja on juurdepääs vaatamiseks keelatud. Kui brauser reageerib 401 või 403 "Access on kehtetu", see kehtib vaid külastajatele, mitte programme, mis kogunevad selle otsingumootori.

Et mõista , kuidas eemaldada saidi otsingumootori indekseerimine, teksti kursori tuleb sisestada järgmised read:

User-agent: Googlebot

Keela: /

See näitab, et reserveerida indekseerimise keelata kogu saidi sisu. Siin on , kuidas eemaldada saidi Google, et viimane ei vahemällu ressursi nimekirja tuvastatud.

Kehastused skaneerimine erinevate protokollide

Kui teil on vaja loetleda üksikute side standardid, millele soovite rakendada erieeskirju indekseerimise Google, näiteks eraldi hüperteksti protokollid HTTP / HTTPS samuti on vaja eelnevalt registreeruda robots.txt järgmisel viisil (näiteks).

(Http://yourserver.com/robots.txt) - domeeninime saidile (mis tahes)

User-agent: * - iga otsingumootori

Luba: / - võimaldab täielik indekseerimine

Kuidas saidi eemaldamiseks küsimus täielikult https protokolli

(Https://yourserver.com/robots.txt):

User-agent: *

Keela: / täielik keeld indekseerimine

Kiirendatud eemaldamine URL-ressurss aadresse Google SERPs

Kui te ei taha oodata uuesti indekseerimine, ja sait, mida soovite peita nagu salli teenust kasutada http://services.google.com/urlconsole/controller niipea kui võimalik. Pre robots.txt tuleb paigutada juurkataloogi saidi server. Tuleb ette asjakohased juhised.

Kui osuti mingil põhjusel ei saa muuta juurkataloogi, looge see piisavalt kausta eesmärke, mille soovite peita otsingumootorid. Kui sa seda ja vaadake teenuse automaatselt eemaldamist hüperteksti aadressid, Google ei kontrolli kaustu, milles selgitati viga robots.txt.

Ajavahemik käesoleva nähtamatus on seatud 3 kuud. Pärast seda perioodi kataloog taganenud küsimus, taas töödelda Google server.

H ow eemaldada saidi skaneerida osaliselt

Kui otsing bot loeb sisu robots.txt, et teatud otsused tehakse alusel selle sisu. Oletame, mida soovite välistada näitamist kogu kataloog nimega anatom. Piisab ette sellist määrused:

User-agent: Googlebot

Keela: / anatom

Või näiteks, mida soovite ei indeks kõik pilditüübid .gif. Selleks lisage järgmise loeteluga:

User-agent: Googlebot

Keela: /*.gif$

Siin on veel üks näide. Las nad välja sõelumise teavet dünaamiliselt loodud lehtede, lisades samas, et registri kanne tüüp:

User-agent: Googlebot

Keela: / *?

See on umbes, ja tuuakse välja eeskirjad otsingumootorid. Teine asi on see, et see on palju mugavam lihtsalt kasutada seda META tag. Ja Webmasters kasutavad sageli just selline standard tegevust reguleerivate otsingumootorid. Aga me arutada seda tulevikus artikleid.

Similar articles

 

 

 

 

Trending Now

 

 

 

 

Newest

Copyright © 2018 et.atomiyme.com. Theme powered by WordPress.