optimisation
Le bon et le mauvais de SEO ? De la Bouche De
Googles !
J'ai récemment eu l'occasion de poser des questions de quelques
rédacteurs de Google. Il y avait quelques questions que j'ai
senti I requis pour obtenir la vérification dessus, ainsi quand j'ai
eu l'occasion par l'intermédiaire d'une conférence téléphonique je
l'a prise.
En cet article j'accentue certaines des remarques faites pendant
l'appel ainsi vous savez quel Google pense.
Vous savez son mauvais quand vous prenez du temps de vos
vacances d'hériter le travail pour assister à une conférence
téléphonique. Mais est ce ce que j'ai fait il y a quelques
semaines. Vous voyez que j'ai dû parce que j'allais avoir
l'occasion de poser à quelques employés de Google des questions
spécifiques sur des choses que je été assez sûr environ, mais ai
voulu l'entendre droite de la bouche de chevaux.
L'appel a duré moins qu'une heure, mais du fait temps j'ai
constaté qu'il y avait beaucoup de choses que j'ai figurées étais
en effet vrai. Laisse ainsi le début avec le plus évident :
PageRank est-il encore important ?
La réponse courte est oui ? PageRank a toujours été
important pour Google. Naturellement ils ne pourraient pas
entrer dans des détails mais il est comme j'ai suspecté.
Google emploie toujours l'algorithme pour aider à déterminer
des rangs. Là où il tombe dans le mélange d'algo, bien que,
soit vers le haut pour la spéculation. Mon sentiment cependant
est qu'ils se sont simplement déplacés où la valeur de PageRank est
appliquée dans l'arrangement grand des choses. Si vous voulez
savoir ce que je pense, soit sûr de lire cet article.
URLs dynamique sont-ils mauvais ?
Google indique qu'un URL dynamique avec le ?should de 2
paramètres ? obtenez classé. Quand nous avons serré un
peu sur la question nous avons également constaté qu'uRLs eux-mêmes
ne contribuent pas trop aux algorithmes globaux de rang. En
d'autres termes, une page appelée volonté de Page1.asp exécutent
probablement comme Keyword.asp.
La chose variable de totalité ne devrait pas venir comme
surprise. Il est vrai que Google classera en effet URLs
dynamique et j'ai vu des emplacements avec l'autant de pendant que 4
variables obtiennent classées. La différence cependant est
celle dans presque tous les cas que j'ai vu l'URLs statique
remplacer l'URLs dynamique particulièrement dans les espaces
fortement concurrentiels ou même modérément concurrentiels de
mot-clé.
Le URL récrivant est-il CORRECT dans les yeux de Google ?
Encore, la réponse est oui, si l'URLs ne sont pas trop long.
Tandis que la longueur du URL n'est pas nécessairement une
issue, s'ils deviennent extrêmement longs ils peuvent poser des
problèmes.
Dans mon expérience, désirent ardemment URLs récrit
exécutent l'amende juste. La chose importante est le contenu à
la page.
C'était un thème commun dans tout l'appel ? le contenu
est roi. Les étiquettes optimisées sûres de méta, le
Javascript de liaison et extériorisant efficace toute l'aide, mais
à la fin si le contenu n'est pas là l'emplacement ne feront pas
bien.
Devez-vous utiliser l'outil de Google Sitemap ?
Si votre emplacement obtient déjà rampé efficacement par
Google vous n'avez pas besoin d'utiliser l'outil de soumission de
sitemap de Google.
L'outil de soumission de sitemap a été créé par Google pour
fournir une manière pour les emplacements qui normalement
n'obtiennent pas rampés efficacement pour devenir maintenant classés
par Google.
Mon sentiment ici est que si vous DEVEZ employer le sitemap de
Google pour obtenir votre emplacement vous a classé alors ont
quelques issues architecturales sérieuses à résoudre.
En d'autres termes, juste parce que vos pages obtiennent
classées par l'intermédiaire du sitemap ne signifie pas qu'elles se
rangeront. En fait je vous parierais qu'elles ne se rangeront
pas en raison de ces issues techniques que j'ai mentionnées
ci-dessus.
Je recommanderais d'obtenir un outil libre comme Xenu et
araignée votre emplacement vous-même. Si Xenu a des problèmes
puis vous pouvez presque être assuré des problèmes de rampement de
Googlebot. La chose gentille avec Xenu est qu'elle peut vous
aider à trouver ces problèmes, tels que des liens cassés, de sorte
que vous puissiez les fixer.
Une fois que votre emplacement devient entièrement crawlable
par Xenu I peut presque vous garantir qu'il sera crawlable et
indexable par les araignées principales de Search Engine.
Le code propre fait-il cela beaucoup d'une différence ?
Encore, la réponse est oui. En extériorisant
n'importe quel code vous pouvez et en nettoyant des choses comme les
tables vous peuvent considérablement améliorer votre emplacement.
D'abord, en extériorisant le Javascript et les aides de CSS
réduisez le code enflent qui rend le texte évident plus important.
Votre densité de mot-clé monte ce qui rend la page plus bien
fondée.
De même, en réduisant au minimum l'utilisation des aides de
tables également ramenez le HTML au rapport des textes, faisant le
texte qui beaucoup plus important.
En outre, comme bout, votre texte évident devrait paraître
comme près du dessus de votre code de HTML comme possible.
Parfois c'est difficile, cependant, car les éléments comme la
navigation supérieure et gauche apparaissent d'abord dans le HTML.
Si c'est le cas, considérez employer le CSS pour replacer le
texte et ces éléments convenablement.
Est-ce que les mots-clés dans le Domain Name vous nuisent ou
aident ?
La réponse courte n'est ni l'un ni l'autre. Cependant
trop de mots-clés dans un domaine peuvent placer outre des drapeaux
pour la revue. En d'autres termes blue-widgets.com ne blessera
pas vous mais les drapeaux probables d'augmenter de volonté de
discount-and-cheap-blue-and-red-widgets.com et ne déclenchera pas une
revue.
L'appellation de page suit les règles semblables ? tandis
que vous pouvez employer des mots-clés comme noms de page, elle
n'aide pas nécessairement (comme j'ai mentionné ci-dessus) plus
loin, de longs noms peut causer les revues qui retarderont
l'indexation.
Combien de liens devriez-vous avoir sur votre sitemap ?
Google recommande 100 liens par la page.
Tandis que j'ai vu des pages avec plus de liens obtenir
classées, il s'avère que cela prend beaucoup plus longtemps.
En d'autres termes, les 100 premiers liens obtiendront classés
tout de suite, toutefois il peut falloir à quelques uns plus de mois
pour que Google identifie et pour suit tous les liens 100 plus grands
que.
Si votre emplacement est plus grand que 100 pages (autant de
soyez aujourd'hui) considèrent fractionner votre sitemap dans les
pages multiples qui lient avec l'un l'autre, ou créent une structure
d'annuaire dans votre sitemap. De cette façon vous pouvez avoir
des sitemaps multiples qui sont logiquement organisés et tiendront
compte de l'indexation complète de votre emplacement.
Le bidon Googlebot suivent des liens dans le flash ou le
Javascript
Tandis que Googlebot peut identifier des liens dans le
Javascript, il ne peut pas suivre ces liens. Ni peut il suivre
des liens dans le flash.
Par conséquent je recommande d'avoir vos liens ailleurs à la
page. Il est CORRECT d'avoir des liens dans le flash ou le
Javascript mais vous devez expliquer les chenilles ne les trouvant
pas. Par conséquent l'utilisation d'un sitemap peut aider à
obtenir ces liens trouvés et rampés.
Comme solutions de rechange que je sais il y a des menus qui
emploient le Javascript et le CSS pour produire un système de
navigation regardant très semblable à ce que vous voyez
généralement avec la navigation de Javascript pourtant emploie les
hyperliens statiques que les chenilles peuvent suivre. Faites
par conséquent une peu de recherche et vous devriez pouvoir trouver
une alternative spiderable à quelque type de navigation votre
emplacement ait actuellement.
De façon générale, alors que je n'apprenais rien la terre se
brisant, était-il bon d'obtenir à ?from de validation la bouche de
chevaux ? parler ainsi.
Je devine qu'il va juste vous prouver qu'il y a assez
d'information dehors là sur les forum et les blogs. La question
devient déterminent laquelle de cette information est valide et ce
qui n'est pas. Mais cela, j'ai peur, viens habituellement avec
du temps et l'expérience.
Au sujet de l'auteur :
Au sujet de l'auteur :
Rob Sullivan - spécialiste en SEO et consultant du marketing
d'Internet. N'importe quelle reproduction de cet article doit
avoir un lien de HTML se diriger
à
http://www.textlinkbrokers.com
Source D'Article: Messaggiamo.Com
Related:
» Credit Secrets Bible
» Cash Making Power Sites
» Home Cash Course
» Automated Cash Formula
Webmaster obtenir le code html
Ajouter cet article sur votre site Web dès maintenant!
Webmaster envoyer vos articles
Aucune inscription requise! Remplissez le formulaire et votre article est dans le Messaggiamo.Com répertoire!