English version
German version
Spanish version
French version
Italian version
Portuguese / Brazilian version
Dutch version
Greek version
Russian version
Japanese version
Korean version
Simplified Chinese version
Traditional Chinese version
Hindi version
Czech version
Slovak version
Bulgarian version
 

Come evitare contenuti duplicati con un uso efficace del file robots.txt e meta tag robots

Seo RSS Feed





Contenuti duplicati è uno dei problemi che ci vengono regolarmente in quanto parte del motore di ricerca l'ottimizzazione dei servizi che offriamo. Se i motori di ricerca determinano il tuo sito contiene contenuti simili, questo può tradursi in sanzioni e anche l'esclusione da motori di ricerca. Fortunatamente si tratta di un problema che è facilmente rectified.Your principale arma di scelta nei confronti di contenuti duplicati possono essere trovati all'interno di "L'esclusione robot Protocollo ", che è stata adottata da tutti i principali engines.There ricerca sono due modi per controllare come il spider dei motori di ricerca indicizzare il tuo site.1. L'esclusione robot o file" robots.txt "e 2. Il Robot <Meta> TagThe Robot Esclusione file (robots.txt) Questo è un semplice file di testo che può essere creato in Blocco note. Una volta creato devi caricare il file nella directory root del vostro sito, ad esempio, www.yourwebsite.com / robots.txt. Prima di un motore di ricerca indicizza il tuo sito web spider cercano questo file che dice esattamente come indice del tuo sito content.The utilizzo del file robots.txt è più adatto alla html statico siti o per escludere alcuni file in siti dinamici. Se la maggior parte del tuo sito è creata dinamicamente quindi prendere in considerazione l'uso del robot Tag.Creating il file robots.txt fileExample Scenario 1 Se si voleva rendere il file. txt applicabile a tutti gli spider dei motori di ricerca e rendere disponibile l'intero sito per l'indicizzazione. Il file robots.txt potrebbe assomigliare a questo: User-agent: * Disallow: Spiegazione L'uso del simbolo con il "User-agent" significa che questo file "robots.txt" si applica a tutti gli spider dei motori di ricerca. Lasciando il criterio "Disattiva" in bianco tutte le parti del sito sono adatti per indexing.Example Scenario 2 Se si voleva fare il file. txt applicabile a tutti gli spider dei motori di ricerca e di fermare gli spider di indicizzare le FAQ, cgi-bin directory le immagini e una pagina specifica chiamata faqs.html contenute all'interno della directory root, la file robots.txt potrebbe assomigliare a questo: User-agent: * Disallow: / faq / Disallow: / cgi-bin / Disallow: / images / Disallow: / faqs.htmlExplanation L'uso del simbolo con la "User-agent" significa questo robots.txt si applica a tutti i file di spider dei motori di ricerca. Impedire l'accesso alla directory, si ottiene indicando il loro nome, e la pagina specifica di riferimento è direttamente. Il nome di file e directory attualmente non è indicizzato da qualsiasi motore di ricerca spiders.Example Scenario 3 Se si voleva fare il file. txt applicabile a Google spider, googlebot e fermarlo indicizzazione le FAQ, cgi-bin, le immagini e le directory una specifica pagina html chiamata faqs.html contenute all'interno della directory principale, il file robots.txt potrebbe assomigliare a questo: User-agent: Googlebot Disallow: / faq / Disallow: / cgi-bin / Disallow: / images / Disallow: / faqs.htmlExplanationBy la denominazione particolare nella ricerca ragno "User-agent" è evitare che l'indicizzazione del contenuto specificato. Impedire l'accesso alla directory, si ottiene semplicemente indicando il loro nome, e la pagina specifica di riferimento è direttamente. Il nome di file e directory non saranno indicizzati da Google.That 's tutto ciò che devi fare! Come già detto in precedenza il file robots.txt può essere difficile da attuare nel caso di siti dinamici e in questo caso è probabilmente necessario utilizzare una combinazione di file robots.txt e il robot tag.The Robots tag Questo modo alternativo di raccontare ciò che i motori di ricerca a che fare con il contenuto del sito viene visualizzato nella sezione di una pagina web. Un semplice esempio potrebbe essere come segue: In questo esempio stiamo dicendo tutti i motori di ricerca di non indicizzare la pagina o per seguire uno dei link contenuti all'interno di questo secondo il page.In esempio non voglio che la cache di Google per la pagina, perché ora il sito contiene informazioni sensibili. Questo obiettivo può essere raggiunto semplicemente con l'aggiunta del "noarchive" directive.What potrebbe essere più semplice! Anche se ci sono altri modi di evitare contenuti duplicati da che figurano nei motori di ricerca questo è il modo più semplice per l'attuazione e tutti i siti web dovrebbero funzionare sia un file robots.txt e robot o un tag combination.Should si richiedono ulteriori informazioni e il nostro motore di ricerca commercializzazione o l'ottimizzazione dei servizi a noi ti invitiamo a visitare http://www.e-prominence.co.uk? La ricerca di marketing aziendale

Fonte dell'articolo: Messaggiamo.Com

Translation by Google Translator





Related:

» Credit Secrets Bible
» Cash Making Power Sites
» Home Cash Course
» Automated Cash Formula


Webmaster prendi il Codice Html
Aggiungi questo articolo al tuo sito ora!

Webmaster invia i tuoi Articoli
Nessuna registrazione richiesta. Compila il form e i tuoi articoli sono nella Directory di Messaggiamo.Com

Add to Google RSS Feed See our mobile site See our desktop site Follow us on Twitter!

Invia i tuoi articoli alla Directory di Messaggiamo.Com

Categorie


Copyright 2006-2011 Messaggiamo.Com - Mappa del Sito - Privacy - Webmaster invia i tuoi articoli alla Directory di Messaggiamo.Com [0.01]
Hosting by webhosting24.com
Dedicated servers sponsored by server24.eu