SEO Blog
2013.02.08

パンダ対策! 簡単裏ワザでスカルプチュアリング

Bookmark and Share

goodroom

2011年2月24日に導入されたパンダ・アップデートから約2年。


今なお月一回の定期的な更新によって、順位が大きく変動するサイトも多く、

厄介なのは一度パンダの爪に引っかかって順位が下降した場合、

そのサイトに関してのインデックスデータが反映されるまで

順位が上がる可能性が低い、ということです。




到底「生誕2周年!」と祝う気にもなれないGoogle産パンダですが、基本的な対策は重複、

もしくは低コンテンツとなってしまったページを評価させない事。

最善の方法は各サブページまでユニークテキストを張り巡らすことですが、

時間も手間も、そして創意工夫もかかってしまいます。


そんなときの応急処置がrobots.txtとnoindex化です。

重複コンテンツの対処方法の記事でもお伝えしましたが、

サイト内での重複コンテンツや低コンテンツと思われるページに対し、

noindexを行う事で、順位の回復を望むことができます。


しかし、ポータルなどページの多いサイトで、こういったスカルプチュアリングを行う場合、

一つ一つにnoindexタグを入れていくだけで工数がかかってしまうのが悩みの種。

また、システム上ヘッダーテンプレートを変更することができない場合など、

一つにnoindexタグを入れると全てのページがnoindex化してしまう!なんてことも。



そこで「裏ワザ」です。

robots.txtによるNoindex化!?

一般的に、robots.txtのコマンドはDisallowのみが知られています。


Disallowを用いた下層ページのスカルプチュアリングでは、

リンクジュースの観点からするとあまりよろしくありません。



イメージとしては、クローラによるリンクの通り道を

切ってしまう事になり(クローラの仕様上、正確には異なります)

クローラビリティ不全となります。


実は、Googlebotはrobots.txt内のNoindexコマンドをサポートしています。

例えば重複ページが一つのフォルダに全て格納していた場合、robots.txtによる

noindexコマンドで一括noindex化が可能となります。



ページが多ければ多い程、一気に工数カット!

コンテンツ強化とAllowコマンド

併せて覚えておきたいのが、Allowコマンド。


理想である一つ一つのページに地道にコンテンツを追加していくことで、

ユーザーエクスペリエンスを高め回遊率を高める事が、コンバージョンへの一歩でしょうし、

正しいSEOでしょう。

そこで「フォルダ全体をnoindexかけたけれども、その中の更新したページは評価してほしい!」

という場合は、Noindex:でフォルダを指定した後に、

Allow:でページを指定することでインデックスしてもらうことができます。




ぜひ合わせて使い、ベストパフォーマンスを狙いましょう。


WordPressを使用する場合、AllinOneSEOPackをインストールすることで

個別のページにnoindexやcanonicalを設定することができますのでこちらもご参考に。

(おまけ)nofollowについて

一昔前、無駄なページにリンクジュースを渡さないよう、

企業概要などへの内部リンクに

nofollowタグを付記するスカルプチュアリングが流行したことがあります。




しかし、現在ではnofollowの仕様が変わり、

そのページに渡さなかったリンクジュースが他ページに渡される、

という訳ではなく、リンクジュースが焼失するとして処理しているようです。




nofollowを使用したスカルプチュアリングは前時代的、と頭の隅にでも。

タグ: ,


コメントをどうぞ