Come evitare contenuti duplicati con un uso efficace del file robots.txt e meta tag robots
Contenuti duplicati è uno dei problemi che ci vengono regolarmente in quanto parte del motore di ricerca l'ottimizzazione dei servizi che offriamo. Se i motori di ricerca determinano il tuo sito contiene contenuti simili, questo può tradursi in sanzioni e anche l'esclusione da motori di ricerca. Fortunatamente si tratta di un problema che è facilmente rectified.Your principale arma di scelta nei confronti di contenuti duplicati possono essere trovati all'interno di "L'esclusione robot Protocollo ", che è stata adottata da tutti i principali engines.There ricerca sono due modi per controllare come il spider dei motori di ricerca indicizzare il tuo site.1. L'esclusione robot o file" robots.txt "e 2. Il Robot <Meta> TagThe Robot Esclusione file (robots.txt) Questo è un semplice file di testo che può essere creato in Blocco note. Una volta creato devi caricare il file nella directory root del vostro sito, ad esempio, www.yourwebsite.com / robots.txt. Prima di un motore di ricerca indicizza il tuo sito web spider cercano questo file che dice esattamente come indice del tuo sito content.The utilizzo del file robots.txt è più adatto alla html statico siti o per escludere alcuni file in siti dinamici. Se la maggior parte del tuo sito è creata dinamicamente quindi prendere in considerazione l'uso del robot Tag.Creating il file robots.txt fileExample Scenario 1 Se si voleva rendere il file. txt applicabile a tutti gli spider dei motori di ricerca e rendere disponibile l'intero sito per l'indicizzazione. Il file robots.txt potrebbe assomigliare a questo: User-agent: * Disallow: Spiegazione L'uso del simbolo con il "User-agent" significa che questo file "robots.txt" si applica a tutti gli spider dei motori di ricerca. Lasciando il criterio "Disattiva" in bianco tutte le parti del sito sono adatti per indexing.Example Scenario 2 Se si voleva fare il file. txt applicabile a tutti gli spider dei motori di ricerca e di fermare gli spider di indicizzare le FAQ, cgi-bin directory le immagini e una pagina specifica chiamata faqs.html contenute all'interno della directory root, la file robots.txt potrebbe assomigliare a questo: User-agent: * Disallow: / faq / Disallow: / cgi-bin / Disallow: / images / Disallow: / faqs.htmlExplanation L'uso del simbolo con la "User-agent" significa questo robots.txt si applica a tutti i file di spider dei motori di ricerca. Impedire l'accesso alla directory, si ottiene indicando il loro nome, e la pagina specifica di riferimento è direttamente. Il nome di file e directory attualmente non è indicizzato da qualsiasi motore di ricerca spiders.Example Scenario 3 Se si voleva fare il file. txt applicabile a Google spider, googlebot e fermarlo indicizzazione le FAQ, cgi-bin, le immagini e le directory una specifica pagina html chiamata faqs.html contenute all'interno della directory principale, il file robots.txt potrebbe assomigliare a questo: User-agent: Googlebot Disallow: / faq / Disallow: / cgi-bin / Disallow: / images / Disallow: / faqs.htmlExplanationBy la denominazione particolare nella ricerca ragno "User-agent" è evitare che l'indicizzazione del contenuto specificato. Impedire l'accesso alla directory, si ottiene semplicemente indicando il loro nome, e la pagina specifica di riferimento è direttamente. Il nome di file e directory non saranno indicizzati da Google.That 's tutto ciò che devi fare! Come già detto in precedenza il file robots.txt può essere difficile da attuare nel caso di siti dinamici e in questo caso è probabilmente necessario utilizzare una combinazione di file robots.txt e il robot tag.The Robots tag Questo modo alternativo di raccontare ciò che i motori di ricerca a che fare con il contenuto del sito viene visualizzato nella sezione di una pagina web. Un semplice esempio potrebbe essere come segue: In questo esempio stiamo dicendo tutti i motori di ricerca di non indicizzare la pagina o per seguire uno dei link contenuti all'interno di questo secondo il page.In esempio non voglio che la cache di Google per la pagina, perché ora il sito contiene informazioni sensibili. Questo obiettivo può essere raggiunto semplicemente con l'aggiunta del "noarchive" directive.What potrebbe essere più semplice! Anche se ci sono altri modi di evitare contenuti duplicati da che figurano nei motori di ricerca questo è il modo più semplice per l'attuazione e tutti i siti web dovrebbero funzionare sia un file robots.txt e robot o un tag combination.Should si richiedono ulteriori informazioni e il nostro motore di ricerca commercializzazione o l'ottimizzazione dei servizi a noi ti invitiamo a visitare http://www.e-prominence.co.uk? La ricerca di marketing aziendale
Fonte dell'articolo: Messaggiamo.Com
Related:
» Credit Secrets Bible
» Cash Making Power Sites
» Home Cash Course
» Automated Cash Formula
Webmaster prendi il Codice Html
Aggiungi questo articolo al tuo sito ora!
Webmaster invia i tuoi Articoli
Nessuna registrazione richiesta. Compila il form e i tuoi articoli sono nella Directory di Messaggiamo.Com