Vyhledávačů, aniž by ztratili vedení - po tomto znamení!
Soubor robots.txt je vyloučení úroveň požadovanou všechny webové roboti / roboty jim říct, jaké soubory a adresáře, které chcete, aby se vyhýbali na vašich stránkách. Ne všichni roboti / roboty následovat vyloučení standardní a bude pokračovat v procházení vašich stránek stejně. Rád je nazývají "Bad boti" nebo nepovolaných osob. Máme je zablokovat vyloučením IP, který je jiný příběh entirely.This je velmi jednoduchý přehled o robots.txt základy webmasters. Pro kompletní a důkladnou lekci najdete http://www.robotstxt.org/To viz správném formátu na poněkud standardní soubor robots.txt podívat přímo pod. Soubor, který by měl být v kořenovém adresáři domény, protože že je-li roboti, že to bude, není v některých sekundárních directory.Below je na správném formátu souboru robots.txt -----> User-agent: * Disallow: / cgi-bin / Disallow: / images / Disallow: / group / User-agent: MSNBot crawl-delay: 10User-agent: Teoma crawl-delay: 10User-agent: Slurp crawl-delay: 10User-agent: aipbot Disallow: / User-agent: BecomeBot Disallow: / User-agent: PsBot Disallow: / --- -----> Konec robots.txt fileThis malý textový soubor je uložen jako holý text dokumentu a vždy s názvem "robots.txt" v kořenovém adresáři domain.A rychlý přehled jsou uvedeny informace z výše uvedeného vyplývá souboru robots.txt. "User Agent: Explorer "je z MSN, Yahoo Slurp je z Teoma a je z AskJeeves. Uvedeny ostatní jsou" špatné "roboty, že procházet velmi rychle a nikdo využívat, ale své vlastní, takže žádáme, aby zůstali úplně mimo. * Hvězdička divoká karta, která znamená "vše" roboti / pavouci / roboti by měly zůstat mimo tuto skupinu souborů a adresářů listed.The roboty daný pokyn "Disallow: /" znamená, že by měla zůstat zcela mimo a ty se "Crawl-delay: 10", jsou ty, které lezli naše stránky příliš rychle, a způsobilo, že zapadnout a nadužívání zdrojů serveru. Google prochází pomaleji než ostatní, a nevyžaduje, aby výuka, takže není výslovně uvedeny ve výše souboru robots.txt. Crawl-zpoždění Výuka je potřebný pouze na velkých plochách s stovky či tisíce stran. Zástupný hvězdičkou se vztahuje na všechny prohledávače, boty a pavouky, včetně Googlebot.Those jsme za předpokladu, že "Crawl-delay: 10" pokyn byly žádosti až 7 stran každý druhý, a tak jsme požádali je, aby zpomalili. Číslo, které je vidět vteřin a můžete si jej změnit tak, aby vyhovovaly kapacitu serveru, na základě jejich procházení sazby. Deset sekund mezi stránka žádostí je mnohem poklidu a zastaví jim s žádostí o více stránek, než váš server může servírovat. (Můžete zjistit, jak rychle a roboty pavouci jsou plazení se podíváme na váš surový protokoly serveru - stránky, které ukazují, požaduje přesný čas s přesností na setinu sekundy - k dispozici na webové hostitele nebo se zeptejte svého webu nebo IT osobu. Vaše protokoly serveru mohou se nachází v kořenovém adresáři, pokud máte přístup k serveru, můžete se ve většině stáhnout komprimovaných souborů protokolu serveru pravým kalendářní den z vašeho serveru. Budete potřebovat nástroj, který může rozšířit komprimované soubory otevřít a holý text číst tyto suroviny soubory protokolu serveru.) Chcete-li zobrazit obsah libovolné souboru robots.txt robots.txt, stačí napsat po každé doménové jméno. Pokud mají tento soubor nahoru, uvidíte jej zobrazí jako textový soubor ve vašem prohlížeče. Klikněte na odkaz níže a uvidíte, že soubor pro Amazon.comhttp: / / www.Amazon.com / robots.txtYou vidíte obsah libovolné webové stránky souboru robots.txt, který způsobem.VR robots.txt je uvedeno výše, je to, co jsme v současné době používají v Publish101 Web Content Distributor, právě zahájen v květnu 2005. Udělali jsme rozsáhlou případovou studii a publikoval řadu článků o pásovém chování a indexování zpoždění známý jako Google Sandbox. Že Google Pískoviště Případová studie je velmi poučné na mnoha úrovních pro webmastery všude kolem význam tohoto často ignorována málo textu file.One věc, kterou jsme nečekali, aby sbírala z výzkumu podílejí na indexování zpoždění (známý jako Google Sandbox), bylo důležité soubory robots.txt k rychlé a účinné prohledávání pavouky z velkých vyhledávačů a počet těžkých leze z roboty, že bude dělat nepotřebný dobré, aby vlastník webu ještě procházet nejvíce míst intenzivně a silně, cezení servery k prasknutí s požadavky na stránky přichází tak rychle, jak 7 stran za second.We objevil v naší spuštění nových stránek , že Google a Yahoo budou procházet stránky, zda budete pomocí souboru robots.txt, MSN, ale zdá se to potřebují, než se začnou plazit vůbec. Všechny roboti vyhledávačů Zdá se, že žádost o souboru pravidelně ověřovat, že není changed.Then když měníte to, přestanou plazit po velmi krátkou dobu a opakovaně žádat, aby soubor robots.txt v té době bez jakéhokoli procházení dalších stránek. (Možná, že seznam stránek, na návštěvu, že součástí adresáře nebo soubory, které jste jim pokyn, aby se vyhýbali a nyní musí přizpůsobit svůj rozvrh plazit k odstranění těchto souborů z jejich seznamu.) Most webmasteři pokyn roboty zůstat mimo "obraz" adresářů a "cgi-bin" adresáře, jakož i všechny adresáře, které obsahují soukromé nebo chráněné soubory určené pouze pro uživatele intranetu nebo heslo chráněné části webu. Samozřejmě, že by si přímo botů k pobytu z jakéhokoli soukromého oblastí, které nechcete indexovat podle důležitosti hledání engines.The v robots.txt je zřídka diskutovaný průměrné webmastery a já jsem měl dokonce někteří z mých klientů podnikání 'webmasteři se mě, co to je a jak to provést, když řeknu jim, jak důležité je i místo zabezpečení a efektivní prohledávání vyhledávačů. To by mělo být standardní znalosti webmasteři podstatná, firmy, ale ukazuje, jak malá pozornost je věnována využívání robots.txt.The vyhledávačů opravdu chci své vedení, a to malého textu soubor je nejlepší způsob, jak zajistit prohledávače a roboty jasný ukazatel varovat z nepovolaných osob a ochraně soukromého majetku - a srdečně přivítat pozvané hosty, jako jsou tři velké vyhledávače a zároveň požádal je, pěkně zůstat mimo soukromých areas.Copyright ÃÆ'à ¢ â, ¬ Å ¡ÃƒÂ € SA, © 17.srpna 2005 Mike Banks ValentineGoogle Sandbox Případová studie http://publish101.com/Sandbox2 Mike Banks Valentine provozuje http://Publish101.com Free Web Content Distribuce pro článek Obchodníci a poskytuje obsah sčítání, tisková zpráva optimalizace a vlastní webový obsah pro vyhledávače polohy
Článek Zdroj: Messaggiamo.Com
Related:
» Credit Secrets Bible
» Cash Making Power Sites
» Home Cash Course
» Automated Cash Formula
Webmaster si html kód
Přidejte tento článek do svých webových stránek se!
Webmaster Zašlete svůj článek
Ne nutná registrace! Vyplňte formulář a váš článek je v Messaggiamo.Com Adresář!