robots.txtのはどのように、ロボットのメタタグの効果的な使用には重複するコンテンツを防ぐために
重複するコンテンツを1つの問題の間は、我々は定期的に来ている我々が提供する検索エンジン最適化サービスの一環として。検索エンジンでサイトを決定する場合は、同様のコンテンツが含まれ、これにつながる可能性があります 罰則とは、検索エンジンからも排除。ロボットの除外"を見つけることができる幸運にも、そう簡単に重複するコンテンツに対して選択されている問題の主な武器rectified.Your 議定書"は、現在すべての主要な検索によってengines.Thereを制御する2つの方法が採用されていますどのように検索エンジンのスパイダーのインデックスをsite.1のロボットから除外するファイルまたは" robots.txt "というand2 。 ロボット<メタ> TagTheロボットの除外ファイル( robots.txt )にこれは、メモ帳で作成することができる単純なテキストファイルです。一度など、お客様のウェブサイトのルートディレクトリにファイルをアップロードする必要があります作成 www.yourwebsite.com / robots.txtの。お客様には、 robots.txtファイルを正確にどのようにインデックスを使用して、サイトの指示content.The 、このファイルを探すサイトは、検索エンジンのインデックスに登録する前にほとんどのクモに適している 静的なHTMLのサイトや動的サイトの特定のファイルを除く。もししたい場合は、サイトの大部分を動的にして、 robots.txt fileExample 1シナリオは、ロボットの使用を検討Tag.Creatingが作成されます の情報をテキストファイルに適用するすべての検索エンジンのスパイダーとは、サイト全体をインデックスに登録するために利用できるようにする。このrobots.txtファイル:ユーザーエージェント: *禁止:説明のようになるとのアスタリスクを使用する "ユーザエージェント"このrobots.txtファイルを意味するすべての検索エンジンのスパイダーに適用されます。希望する場合は、 "許可しない"と、このサイトのすべての部分を空白にしておくことでindexing.Example 2シナリオに適しています の情報をテキストに適用されるすべての検索エンジンのスパイダーやファイルは、インデックス作成のcgi - binには、よくある質問の画像のディレクトリとは、特定のページからクモ停止するには、ルートディレクトリ内に含まfaqs.htmlと呼ばれる このrobots.txtファイル:ユーザーエージェント: *のDisallow : /よくある質問/のDisallow : /のcgi - bin /のDisallow : /画像/のDisallow : / faqs.htmlExplanationの"ユーザーとのアスタリスクを使用するエージェント"という意味のようになります。このrobots.txt ファイルのすべての検索エンジンのスパイダーに適用されます。それらの名前のディレクトリへのアクセスを防止し、達成されている特定のページを直接参照されている。今ではどんな名前のファイルとディレクトリのインデックスに登録されません 検索エンジンspiders.Example 3シナリオの場合は、テキストは、 Googleのスパイダーは、 Googleに適用されるファイルと、インデックス作成のcgi - binにはよくあるご質問からそれを停止する場合、画像のディレクトリとは、特定のHTMLページと呼ばれる faqs.htmlのルートディレクトリには、このrobots.txtファイル:ユーザーエージェント: Googlebotの禁止: /よくある質問/のDisallow : /のcgi - bin /のDisallow : /画像/拒否:含まれるようになります。 faqs.htmlExplanationByの命名/ "ユーザーに特定の検索クモエージェント"は、指定したコンテンツをインデックスに登録されない。ディレクトリへのアクセスを防止するだけで、特定のページに命名することによって達成され参照されている 直接。その名前のファイルとディレクトリGoogle.That 'で設定は完了です秒でインデックスされません!以前述べたように、 robots.txtファイルを動的サイトの場合はそれを実装し、この場合には困難になることができます おそらく、 robots.txtの組み合わせを使用するように、必要なロボットのロボットがサイトのコンテンツを行うには、検索エンジンのこの別の方法が指示tag.TheタグをWebページのセクションに表示されます。単純な 例は以下のとおりである。私たちはインデックスを作成するか、ページのすべての検索エンジンを指示されているすべてのリンクは、 Googleがページをキャッシュするように私はpage.Inしたくないこの2番目の例に含まれるのに従って、この例では、 これは、サイトの機密情報を含んでいます。これは、単にシンプルdirective.Whatができる、 " noarchive "を追加することによって達成することができます!ものの、そこから重複するコンテンツを防止する他の方法があります。 マーケティングや最適化サービスhttp://www.e-prominence.co.ukで私たちを参照してください?検索マーケティング会社
記事のソース: Messaggiamo.Com
Related:
» Credit Secrets Bible
» Cash Making Power Sites
» Home Cash Course
» Automated Cash Formula
ウェブマスター向けのHTMLコードを取得
この記事を追加してお客様のウェブサイトを今しなさい!
ウェブマスター向けの記事を送信してください
登録の必要なし!フォームに記入してください Messaggiamo.Com 記事は、ディレクトリ!