optimalisering
De Goeden en Slecht van SEO? Van Mond Googles!
Ik had onlangs de kans om kwesties van sommige stafmedewerkers
te stellen Google. Er waren sommige vragen die ik ik controle
moest worden heb gevonden, zodat toen ik de kans via een
conferentievraag had nam ik het.
In dit artikel benadruk ik enkele punten die tijdens de vraag
worden gemaakt zodat weet u welke Google denkt.
U kent zijn slecht wanneer u tijd van uw vakantie vergt om in
het werk te komen om een conferentievraag bij te wonen. Maar dat
wat ik een paar weken geleden deed. U ziet ik moest omdat ik de
kans ging hebben om sommige werknemers Google specifieke vragen te
stellen over dingen dat I'd vrij zeker ongeveer, maar juist het van de
paardenmond wilde horen.
De vraag duurde dan minder een uur, maar in die tijd vond ik dat
er vele dingen waren die ik was inderdaad waar heb voorgesteld.
Laat zo begin met het duidelijkst:
Is PageRank nog belangrijk?
Het korte antwoord is ja? PageRank is altijd belangrijk
voor Google geweest. Natuurlijk konden zij niet in details gaan
maar het is zoals ik verdacht. Google gebruikt nog het algoritme
helpen het rangschikken bepalen. Waar het in de algomengeling,
niettemin, is omhoog voor speculatie valt. Mijn gevoel nochtans
is dat zij eenvoudig hebben bewogen waar de waarde PageRank in de
grote regeling van dingen wordt toegepast. Als u wilt weten is
wat ik denk, zeker om dit artikel te lezen.
Zijn dynamische URLs slecht?
Google zegt dat een dynamische URL met 2 parameters?should?
word geïndexeerd. Toen wij een beetje op de kwestie
drukten vonden wij ook dat URLs zelf niet teveel tot de algemene het
rangschikken algoritmen bijdragen. Met andere woorden, zal een
pagina genoemd Page1.asp waarschijnlijk evenals Keyword.asp presteren.
Het gehele veranderlijke ding zou niet als verrassing moeten
komen. Het is waar dat Google inderdaad dynamische URLs zal
indexeren en ik plaatsen met wel heb gezien 4 variabelen geïndexeerd
worden. Het verschil nochtans is dat in bijna alle gevallen ik
statische URLs dynamische URLs vooral in hoogst concurrerende of zelfs
matig concurrerende sleutelwoordruimten heb zien overtreffen.
Is het herschrijven URL o.k. in de ogen van Google?
Opnieuw, ja is het antwoord, op voorwaarde dat URLs aren't te
lang. Terwijl de lengte van URL noodzakelijk geen kwestie is,
als zij uiterst lang worden kunnen zij problemen veroorzaken.
In mijn ervaring, voeren lange herschreven URLs enkel boete uit.
Het belangrijke ding is de inhoud op de pagina.
Dat was een gemeenschappelijk thema door de vraag? de
inhoud is koning. De zekere geoptimaliseerde metamarkeringen,
efficiënt het onderling verbinden van en het externalizing van
JavaScript allen helpen, maar uiteindelijk als de inhoud niet daar is
zal de plaats niet goed doen.
Moet u het hulpmiddel van Google Sitemap gebruiken?
Als uw plaats reeds kroop effectief door Google wordt u niet te
hoeven om het Google sitemap voorleggingshulpmiddel te gebruiken.
Het hulpmiddel van de sitemapvoorlegging werd gecreeerd door
Google om een manier voor plaatsen te verstrekken die normaal niet
effectief gekropen om nu worden geïndexeerd te worden door Google.
Mijn gevoel is hier dat als u Google MOET gebruiken sitemap om
uw plaats dan geïndexeerd te krijgen u sommige ernstige
architecturale op te lossen kwesties hebt.
Met andere woorden, enkel omdat uw pagina's die via sitemap niet
geïndexeerd om worden worden te betekenen zij zullen rangschikken.
In feite wedde I'd u dat zij niet wegens die technische kwesties
zullen rangschikken die ik hierboven heb vermeld.
Hier adviseert I'd krijgend een vrij hulpmiddel zoals Xenu en
spin uw plaats zelf. Als Xenu problemen toen heeft kunt u bijna
van kruipende problemen worden verzekerd Googlebot. Het aardige
ding met Xenu is dat het u kan helpen die problemen, zoals gebroken
verbindingen vinden, zodat u hen kunt bevestigen.
Zodra uw plaats door Xenu I kan u volledig crawlable wordt bijna
waarborgen dat het door de belangrijkste spinnen van de
onderzoeksmotor crawlable en indexable zal zijn.
Maakt de schone code dat veel van een verschil?
Opnieuw, ja is het antwoord. Door om het even welke code
externalizing kunt u en dingen zoals lijsten schoon te maken u uw
plaats kunt zeer verbeteren.
Eerst, verminderen het externalizing JavaScript en CSS de hulp
code bloat die de zichtbare tekst belangrijker maakt. Uw
sleutelwoorddichtheid gaat uit wat de pagina gebiedender maakt.
Op dezelfde manier helpt het minimaliseren van het gebruik van
lijsten ook HTML tot tekstverhouding verminderen, die de tekst maakt
die veel belangrijker.
Ook, als uiteinde, zou uw zichtbare tekst zoals dicht bij de
bovenkant van uw code van HTML moeten verschijnen mogelijk. Soms
is dit moeilijk, echter, aangezien de elementen zoals hoogste en
linkernavigatie eerste in HTML lijken. Als dit het geval is,
denk gebruikend CSS na om de tekst en die elementen geschikt van
plaats te veranderen.
Berokkenen helpen de Sleutelwoorden in de domeinnaam of u?
Het korte antwoord is geen van beiden. Nochtans kunnen
teveel sleutelwoorden in een domein vlaggen voor overzicht
veroorzaken. Met andere woorden zal blauw-widgets.com u niet
kwetsen maar korting-en-goedkoop-blauw-en-rood-widgets.com zal
waarschijnlijk vlaggen opheffen en zal een overzicht teweegbrengen.
Het noemen van de pagina volgt gelijkaardige regels?
terwijl u sleutelwoorden kunt gebruiken aangezien de
paginanamen, het niet noodzakelijk helpt (zoals ik hierboven)
vermeldde verder, kunnen de lange namen overzichten veroorzaken die
het indexeren zullen vertragen.
Hoeveel verbindingen zou u op uw sitemap moeten hebben?
Google adviseert 100 verbindingen per pagina.
Terwijl ik pagina's met meer verbindingen geïndexeerd heb zien
worden, blijkt het dat het veel langer duurt. Met andere
woorden, zullen de eerste 100 verbindingen rechtsweg geïndexeerd
worden, nochtans kan het een paar meer maanden voor Google vergen om
om het even welke verbindingen te identificeren en te volgen groter
dan 100.
Als uw plaats groter is dan beschouwen 100 pagina's (aangezien
velen vandaag) zijn als opsplitsing uw sitemap in veelvoudige pagina's
die met elkaar onderling verbinden, of leiden tot een folderstructuur
binnen uw sitemap. Deze manier u kan veelvoudige sitemaps hebben
die logisch gezien worden georganiseerd en voor het volledige
indexeren van uw plaats zullen toestaan.
Kan Googlebot verbindingen in Flits of JavaScript volgen
Terwijl Googlebot verbindingen in JavaScript kan identificeren,
kan het die verbindingen volgen niet. Noch kan het verbindingen
in Flits volgen.
Daarom adviseer ik hebbend uw verbindingen elders op de pagina.
Het is O.K. om verbindingen in flits of JavaScript te hebben
maar u moet van de kruippakjes rekenschap geven vindend hen niet.
Daarom kan het gebruik van een sitemap helpen die verbindingen
gevonden krijgen en kroop.
Als alternatieven die ik er zijn menu's heb geweten die
gebruiken JavaScript en CSS aan output een zeer gelijkaardig het
kijken navigatiesysteem aan wat u algemeen ziet met JavaScript-
navigatie maar toch gebruiks statische hyperlinks die de kruippakjes
kunnen volgen. Doe daarom wat onderzoek en u zou een spiderable
alternatief aan momenteel het type van navigatie moeten kunnen vinden
uw plaats heeft.
Globaal, terwijl ik om het even wat niet aarde het verbrijzelen
leerde, was het goed om bevestiging?from de paardenmond te krijgen?
zo te zeggen.
Ik veronderstel het enkel u gaat aantonen dat er genoeg
informatie daar over de forums en blogs is. De vraag wordt
bepaalt welke van die informatie geldig is en welke niet is.
Maar dat, ben ik bang, komt gewoonlijk met tijd en ervaring.
Ongeveer de auteur:
Ongeveer de auteur:
Rob Sullivan - Specialist SEO en de Handelsconsulent van
Internet. Om het even welke reproductie van dit artikel moet een
HTMLVERBINDING hebben die aan
http://www.textlinkbrokers.com richt
Artikel Bron: Messaggiamo.Com
Related:
» Credit Secrets Bible
» Cash Making Power Sites
» Home Cash Course
» Automated Cash Formula
Webmaster krijgen html code
Voeg dit artikel aan uw website!
Webmaster verzenden van artikelen
Geen registratie vereist! Vul het formulier in en uw artikel is in de Messaggiamo.Com Directory!