Wordt gedumpt door google? leer hoe te vermijden wordend rond een slachtoffer volgende tijd!
Na recentste update Google bijgenaamd „Florida“, ontdekten vele webmasters dat hun verkeer sterk daalde.
Wat gebeurde?
Wat nog belangrijker is wat kunt u over het doen?
En wat Google daarna zal doen?
Wat gebeurde was dat Google een algoritmeverandering aanbracht op hoe zij Web-pagina's schatten.
Telkens als u een onderzoek maakt, probeert Google om de meest relevante Web-pagina's te tonen die uw onderzoekstermijn aanpassen. Door de meest relevante resultaten voor vragen te kunnen geven, zijn zij de meest gebruikte onderzoeksmotor in de wereld geworden.
om concurrenten weg te houden moeten zij constant aanpassen en verbeteren hoe zij Web-pagina's beoordelen.
Omdat dit oordeel automatisch gebruikend software wordt gedaan, heeft vele webmaster hun plaatsen gewijzigd om hun positie in de onderzoeksresultaten te verbeteren. Om dit te doen hebben zij verschillende kortere weg en uitvluchten die mogelijk door tekortkomingen in het softwarealgoritme geëxploiteerd worden gemaakt.
Periodiek brengt Google veranderingen aan om sommige webmasters tegen te houden om oneerlijke voordelen te krijgen door één of twee van de uitvluchten te stoppen.
Dit is wat tijdens de update van Florida gebeurde.
Met deze update introduceerde Google nieuwe algoritmen die bedoelden excessief gebruik van sommige de optimaliseringstechnieken van de onderzoeksmotor tegen te houden.
Specifieker schijnen zij om onderzoekstermijnen gericht te hebben die in geroepen het ankerteksten van tekstverbindingen ook worden gevonden. Web-pagina's met goede posities in het onderzoeksresultaat, dat een onevenredig aantal binnenkomende verbindingen aan hen van andere Web-pagina's met de nauwkeurige zelfde onderzoekstermijn in de ankertekst had gehad de pagina waarvoor plotseling werd geoptimaliseerd, verdwenen van de lijsten.
De pagina's verdwenen niet totaal. Enkel voor de onderzoekstermijn de pagina waarvoor werd geoptimaliseerd.
Voor Google, wijzen de hoge aandelen ankerteksten met de zelfde tekst erop dat de teksten daar voor één doel, slechts werden gezet om het rangschikken op te voeren.
Één suggestie voor u moet de ankertekst met een mengeling van verschillende teksten uit uitspreiden om uw pagina in de onderzoeksresultaten te houden. Wij weten niet of zullen uw pagina's na wat tijd terugkomen als u dit doet, maar het is waarschijnlijk.
Blijkbaar is het onderzoeksresultaat dat na de recentste update wordt geproduceerd van van geringere kwaliteit dan voordien geweest.
Wat schijnt hebben te gebeuren is dat een groot percentage websites verbindingen met elkaar heeft uitgewisseld. Deze verbindingshandel is gedaan met de zelfde onderzoekstermijn in de ankertekst dat zij hun pagina's voor hebben geoptimaliseerd.
De slachtoffers zijn vaker wel dan niet commerciële websites geweest die zich aan zwaar op de optimaliseringstechniek van de onderzoeksmotor baseerden.
De onderzoeksresultaten zijn over door websites genomen die uit folder en verbindingslandbouwbedrijven worden samengesteld de van geringe kwaliteit.
Nu, wat Google daarna zal doen?
Ik weet niet het, maar PROBEER om als Google TE DENKEN! Dit is wat ik zou doen als ik in Google voor dit verantwoordelijk was.
Eerst denk ik dat zij het nieuwe algoritme en aanpassen zullen zullen wijzigen dat zij tijdens de recentste update hebben geïntroduceerdd. Veranderend de drempel of laat niet „over geoptimaliseerde pagina's“ uit het zo gemakkelijke onderzoeksresultaat dalen, maar straf eerder hen en zet hen onder het drempelpunt.
Ik denk, heeft Google een probleem! U ziet, zijn velen „over geoptimaliseerde“ plaatsen van betere kwaliteit die die die niet zijn. Hen uit eenvoudig om te laten vallen en zeggen dat er genoeg pagina's voor de zelfde onderzoekstermijn zijn is niet altijd waar.
Er is een dunne lijn tussen optimalisering en het spamming en waar deze grens zou moeten zijn.
Na dit, wat Google daarna zal doen? Het is duidelijk aan me dat de vele folderplaatsen van geringe kwaliteit die in Google onderzoeksresultaten een nuance aan Google en aan de gemiddelde Webgebruiker is worden gevonden.
Het is op dit gebied dat, denk ik, zij de volgende wijzigingen zullen maken.
Het tariefvan Google Web-pagina's volgens relevantie. Het niveau van relevantie is rechter die op de Web-pagina inhoud wordt gebaseerd en/of hoe populair de Web-pagina volgens Google is.
Om een pagina populair te krijgen moet u verbindingen van andere pagina's hebben. Dit kan uit pagina's op uw eigen plaats of uit andere plaatsen komen.
Ideaal gezien zouden deze verbindingen moeten zijn velen, gekomen uit pagina's die gelijkaardig of identiek onderwerp behandelen of gekomen uit pagina's die zelf populair zijn. Het beste moet vele verbindingen van pagina's hebben het zelfde onderwerp behandelen die zelf die populair zijn.
Dit had geleid tot een intense verbindingsuitwisseling actief onder webmasters. En de primaire reden is geweest betere classificaties te bereiken. Het primaire doel is niet geweest de waarde van de bezoekerservaring te verhogen.
Dit gaat tegen de principes van Google.
Om webmaster richtlijnen te citeren Google:
Maak pagina's voor gebruikers, niet voor onderzoeksmotoren.
Vermijd trucs om onderzoeksmotor het rangschikken te verbeteren.
Neem niet aan verbindingsregelingen die worden ontworpen deel om het rangschikken van uw plaats of de Rang van de Pagina te verhogen.
Om zich tegen dit te verzetten denk ik Google verscheidene populariteits stijgende regelingen als zal richten:
- De lage plaatsen van de waardefolder die automatisch door robots zijn gecre
Artikel Bron: Messaggiamo.Com
Related:
» Credit Secrets Bible
» Cash Making Power Sites
» Home Cash Course
» Automated Cash Formula
Webmaster krijgen html code
Voeg dit artikel aan uw website!
Webmaster verzenden van artikelen
Geen registratie vereist! Vul het formulier in en uw artikel is in de Messaggiamo.Com Directory!