この記事を読むのにかかる時間: 約 9.5 分
「海外SEO情報ブログ」の鈴木 謙一氏が、
国内と海外の検索マーケティング関連情報を
さらっとまとめて毎週金曜日にお届けします。
あなたのサイトでは、「誘導ページ(ドアウェイページ)」というSEOスパムをしてしまっていないだろうか。
これは、さまざまな検索キーワードに対するランディングページを設けているサイトで、ロングテールSEOを狙っていると、うっかりとやってしまいかねないものだ。
誘導ページは、ドアウェイ(Doorway)とも呼ばれるもので、グーグルが定める次のガイドラインに違反している。
ユーザーを特定のサイトに誘導したり、資料請求などをさせたりすることだけを目的に作られた、ユーザーに独自の価値を提供していないページ群のこと
誘導ページが具体的にどのようなページなのかを例を挙げてグーグルウェブマスター向け公式ブログが解説している。
グーグルの公式ブログで示されている誘導ページの例。「渋谷区」「千代田区」「港区」「世田谷区」などの検索キーワードごとにランディングページを作っているが、各ページにオリジナルのコンテンツはほとんどない。
そうとは気付かずに誘導ページを作ってしまっているウェブ担当者がいるかもしれない。日本版ブログのオリジナル記事であり貴重な情報なので熟読してほしい。
日本語で読めるSEO/SEM情報
サーバー設定が原因で起こりがちな9つのトラブル
★★★★☆ 順位下落はペナルティではなく設定ミスにあり (グーグル ウェブマスターセントラル ブログ)
検索順位が突然大幅に下がったりインデックスから消えてしまったりした場合、自分のSEO施策が原因でペナルティを受けたと決めつけてしまいがちだが、実は、Webサーバーの設定ミスに起因する検索トラブルも少なくない。サーバーの不適切な構成によりトラブルにあったケースを筆者も何度か経験している。
大半のウェブサイトはレンタルサーバーを借りて運用している思う。サーバーの設定ミスは独自サーバーだけではなくもちろんレンタルサーバーにも当てはまる。
サーバーの設定が原因で起こりうる一般的な問題とその対処方法をグーグルウェブマスター向け公式ブログが説明した。以下の9項目だ。
- Googlebot のクロールがブロックされている
- サイトにアクセスできない
- SSL証明書が無効である
- ワイルドカードDNS
- バーチャルホストの設定ミス
- 独自ドメイン名とは別のURLでもアクセスできることによる重複コンテンツ
- ソフト エラー ページ(ソフト404)
- ホスティング会社によるコンテンツの変更やiframe埋め込み
- スパムやマルウェア
難しめの技術的な内容も含まれるが、ひととおり目を通しておきたい。
ペナルティ解除にかかる日数
★★★☆☆ 白黒ハッキリして! (グーグル ウェブマスター向け公式ヘルプフォーラム)
グーグルに手動ペナルティを受けた場合には、それを修正して再審査リクエストを送信する。その際に、当該の違反ポイントが修正されていることを確認したのか、それとも依然として違反が残っているのかを、グーグルはウェブマスターツール経由で通知するようになっている。これは、数か月前にアナウンスされたものだ。
しかし、この通知はいまだに完全には行き渡っていないようだ。
次のようなメッセージが届くことがある。
Google でサイトを再審査し、ウェブマスター向けガイドラインに違反していないことを確認した場合、サイトのインデックス登録を再審査します。再審査の手続きには数週間かかりますのでご了承ください。再審査のリクエストはすべて確認していますが、個別に返信することはできません。
これではペナルティが解除されたかどうかがまったくわからない。
公式ヘルプフォーラムで、グーグルの社員が次のように説明している。
再審査リクエストの処理が完了するまでは数週間を要することがあります。
すでに再審査リクエストをお送りされてから数週間経過している場合は、違反箇所が全て修正しきれていなかった可能性があります。
“数週間”は幅のある期間だが、2~4週間くらいをめどにすればいいのだろうか。1か月たっても変化がないとしたらまだペナルティが継続していると認識したほうがよさそうに筆者には思える。
検索結果に反映される時間はさまざまな要因に影響されるだろうから明確な期間を伝えることは難しいにしても、解除したのかしていないのかくらいは明確に伝えてほしいものだ。もちろん、元はといえばガイドライン違反を犯した自分が悪いのだし、「問題のある箇所」をすべて明らかにしていくと「問題のない箇所」がわかってしまってグーグル側にも都合が悪いという事情もあるだろうが、もう少しだけ、世のWeb担当者に優しくしてもらえるとありがたい。
類似コンテンツの量産は「順位アップ ⇒ 順位ダウン」
★★★★☆ だまし続けるのは無理 (Naoya Misawa (creatry) on Twitter)
筆者の知人で楽天のSEOチームリーダーである三澤氏のツイートを紹介する。
※()内は省略された部分を筆者が補足したもの
イエス。重複コンテンツだけでなくカノニカルの記述ミスもインデックスの是正まで面白い動きします。RT @Hacks5 ドメイン内で重複コンテンツを量産すると、最初は順調に上がって行き、あるタイミングでGoogleが重複だと気付き、一気に下がる。数万ページあれば三ヶ月位は気付かれ(ない。こうやって各フィルタが発動するにはインデックス後から比較的ラグがあり、だから若いサイトは余計上下することになる。)
注目してほしいのは、太文字で強調した「いったん上がってから下がる」という重複コンテンツの量産によるランキングの変化パターンだ。
筆者もちょうど同じ現象に遭遇しているサイトに今関わっており、そのタイミングでこの話題が出て、楽天のような大規模サイトのSEOに携わっている三澤氏が同意していたためピックアップした。
システムで大量にページを生成したらグーグルからのアクセスが一気に増えたものの、ある日を境にアクセスがガクンと下がってしまったのだ。オリジナルコンテンツに乏しいページの量産が原因と思われる。初めはグーグルが過大に評価してしまっていたものの、時間を経て相応の評価に落ち着いた結果だろう。
この現象は大規模サイトでなくても発生するはずだ。小さなサイト(ブログ)で、地域名との掛け合わせキーワードで記事をいくつも投稿し、対象とした数多くのキーワードで上位表示できたが突然に順位を大きく下げた事例があった。記事は文量の少ないものばかりだった。ユーザーにとって役に立たない類似コンテンツを削除してもらったところ、2か月ほどして前の水準に戻った。
「ページが多ければ多いほどいい」というのは一昔前のグーグルであれば確かに順位上昇に効いたかもしれない。しかし今は逆だ。質の低いページは反対にどんどん削ぎ落したほうがいい。日本にはまだ導入されていない、今年こそは導入してほしいパンダ・アップデートでは質の低いページや重複・類似コンテンツに対する低評価はいっそう顕著になるだろう。
スマートフォン用のGooglebotを導入したことをグーグルは昨年12月に公表した。この導入に際し、日本版のヘルプフォーラムでユーザーからの質問を受け付けた。その回答がついに公開された。
以下の3つのトピックに対する公式回答になる。
- スマートフォン版 Googlebot-Mobile の導入にあたって、その影響、今後の予定について
- リダイレクトスキップについて
- リダイレクト、振り分けの設定について
1つ目は「現時点でお伝えできる情報は残念ながらございません」という回答なのが残念だが、2つ目と3つ目に関しては、公式アナウンスで触れられていないありがたい情報になる。今回は第一弾ということなので、後日あるという第二弾も楽しみに待ちたい。
海外のSEO/SEM情報を日本語でピックアップ
・最新の画像検索SEO要因×4
・うっかりミスでアクセスが半分に!どうしたらいい?
・リンクを追加した時はそのページの更新が必要
・noindexタグの付いたページのリンクをグーグルはたどるのか
・JavaScriptファイルを検索エンジンからブロックすべきか
SEO Japanの掲載記事からピックアップ
・Googleが進化したソーシャル&パーソナライズド検索で開く検索新時代
・コンテンツSEOで生ゴミをダダ漏れさせないための8カ条
海外のSEO/SEM情報を日本語でピックアップ
最新の画像検索SEO要因×4
★★★☆☆ 画像検索からのアクセスも狙え (SEOWizz)
6か月間で画像検索からのアクセスを50から500,000に伸ばした実績をもとに、画像検索の4つの上位表示要因をSEOWizzが明かした。
テキスト
テキストにキーワードが含まれることが大切。具体的には以下のテキスト要素。
- ファイル名
- alt属性
- 画像のタイトル
- ページのtitleタグ
- 画像の周囲のテキスト
JPG
画像のフォーマットはJPGがもっとも成績が良かった。データサイズは1~60KBに抑える。70KBを越えると読み込みに時間がかかり成績が悪い。
新しさ
公開のタイミングが重要。新規サイトでも画像を最初に公開すれば上位表示できる。ユニークさも重要。新しい記事にユニークな画像を新規公開すると強い。
1ページあたりの量
1つのページにたくさん画像があったほうがいい。以前は逆だったのだが、ここ1年はそういう傾向だ。ただし、画像はできるかぎりクリアにして、データのサイズを小さくする。
3年前から運用していてとても評判のいいサイトのtitleタグを誤って変えてしまいました。これが2週間前の出来事で、ここ2日間ほどアクセスが半分に減ってしまいました。
気づいてすぐに修正して前の状態に戻しましたが、間違ったtitleタグをグーグルはすでにインデックスしてしまっています。
アクセスは以前のように回復するでしょうか?
どのくらい待てばいいのでしょうか?
解決するには何をしたらいいのでしょうか?
助けてください、お願いします。
このような悲痛な相談が、WebmasterWorldに投稿された。フォーラムモデレータは、次のようにアドバイスしている。
間違いはもう直っているのなら、他に何もしなくていい(待つしかない)。さらに修正すればするほど、もっとひどいことになる。
失敗を肥やしにする1つのいい経験だ。
別のフォーラムメンバーは、GoogleウェブマスターツールのFeatch as GooglebotでURL送信を実行した後に、もっとも大切なこととして次のようにしろとコメントしている。
気持ちのいい静かな場所を探して、そこにアイリッシュウイスキーを片手に座ってお気に入りの音楽でもかけるんだな。
ウェブマスターツールの作業と、そうした心の平穏を促す行動は、グーグルの問題解決に同じくらい効果があるさ。
うっかりミスによってランキングが下がったりインデックスから消えてたりしてしまったときは、確かにパニックになってしまう。しかし、焦って手当たり次第にいじくり回してしまうと、事態はさらに複雑かつ深刻になることがある。冷静になって1つ1つ順に対処し、やるべきことをやった後は静観するしかない。
SEOmozのビデオレクチャーからリンクの評価を確実にする方法の重要ポイントを要約して紹介する。
古くから存在しているページにリンクだけを追加しても、そのリンクをグーグルは評価しないようだ。これは、多くのSEO関係者が感じていることだ。これを示す実験データがあるし、グーグルが申請した特許にも該当しそうな箇所がある。
元からあるページにリンクを加えたときは、そのページが更新されたことをグーグルに認識させなければ、追加されたリンクは評価されない。
具体的には、リンクの周囲のテキストを変更したり新たに追加したりするといい。リンクが追加された理由をグーグルに知らしめるためだ。リンクだけを挿入したり、ページの下に追加したりするだけではだめだ。ページのコンテンツを変えるならtitleタグを再編集するのにも絶好のタイミングになる。titleタグが変わればページが更新したことを示す強い証拠になる。
自分が管理しないサイトのページにリンクを貼ってもらうなら、できるだけ多くのコンテンツとともにリンクを貼ってもらうといい。
もしコンテンツを足せない場合はどうしたらいいのだろうか? その場合は、リンクを追加したページにリンクを張ることが、ある程度の代替になる。リンクを張ることで検索エンジンの目に更新されたように見せることができるだろう。
端的にまとめると、昔からあるページにリンクを追加し、そのリンクを評価してもらうには、コンテンツの追加や変更を行うこと、ということだ。
noindex robots metaタグを記述したページがあります。
クローラは、そのページに書かれている他のページへのリンクをたどりますか?
グーグルのマット・カッツ氏がツイッターで尋ねられた上の質問に答えた。
noindexタグが付いていても、そこからのリンクを依然として我々はたどるよ。もちろん、そのページを取得できず、クロールできないなら、リンクはたどれないけどね。
noindex robots metaタグはインデックスを拒否する記述であるが、正確には検索結果への非表示を命令する記述だ。だから、クローラはそのページを読みインデックスはされている(そもそもページを読まなければnoindexであることを認識できない)。その過程で、ページ内にリンクがあればそのリンクをたどってリンク先ページへ訪れることがあるし、PageRankも渡す。リンク先ページへのアクセスを禁止するにはnofollow robots metaタグを記述する。
ちなみに、noindex関連の注意点を1つ紹介しておこう。検索結果に一切出したくないページがある場合、そのページにnoindex robots metaタグを記述するだろう。しかし、noindex robots metaタグを記述したページ自体をrobots.txtでブロックしてはならない。robots.txtでクローラブロックすると、検索エンジンはそのページを見ることができないので、noindexタグの存在を知ることができず、「検索結果に表示しないでね」という命令を把握できなくなるのだ。その状態で、そのページに対してリンクが多数張られていた場合は、そのページが検索結果に(URLだけ)表示されることになる。ご注意あれ。
現在はJavaScriptファイルをrobots.txtによって検索エンジンからブロックしている。
しかし、JavaScriptでタブのメニューを表示させている。ということは、グーグルにそのJavaScriptを見てもらったほうが内容の理解に役立つんじゃないかと考えるのだが、どうだろうか ?グーグルはJavaScriptも読めるようになっていることだし。
上のような質問がHigh Rankingsフォーラムに投稿された。
フォーラム管理者は次のようにアドバイスした。
まったくそのとおりです。グーグルのマット・カッツも、そうするように(JavaScriptファイルをブロックしないように)あるカンファレンスで勧めていました。
JavaScriptファイルをrobots.txtでブロックすることは簡単だ。しかしそうすることがメリットになる事情がない限りは、ブロックする必要はなさそうだ。
マット・カッツ氏がCSSファイルを隠す必要がないと以前にビデオで説明していたのを筆者は記憶している。隠すということはやましいことがあるようにも受け取られてしまうためだ。読み取りを拒否することが妥当であり正当な理由があるのでなければ、JavaScriptファイルもCSSファイルもグーグルにアクセスさせておくべきだろう。グーグルがページを理解することの手助けにもなるだろうし。
SEO Japanの掲載記事からピックアップ
グーグルがパーソナライズ検索をいっそう推し進めたニュースとコンテンツSEOで失敗しない秘訣を書いた記事を今週はピックアップ。どちらも良記事だ。
鈴木 謙一(すずき けんいち)
フリーランスのインターネットコンサルタント。アメリカを中心としたSEO/SEMのコアな情報を日本に持ち込み、「海外SEO情報ブログ」で“海外SEO”のブランドを確立。サーチエンジンマーケティング専門ソーシャルニュースサイト、Sphinn(スピン)の公式日本版であるサービス「Sphinn Japan」立ち上げメンバーでもある。
現在は、株式会社セルフデザイン・ホールディングスのCTOとして、SEOの情報収集やトレーニング、海外のSEOカンファレンス参加などを通じて正しいSEOの普及に取り組んでいる。
この記事に関連する他の記事を見る
※このコンテンツはWebサイト「Web担当者Forum - 企業ホームページとネットマーケティングの実践情報サイト - SEO/SEM アクセス解析 CMS ユーザビリティなど」で公開されている記事のフィードに含まれているものです。
オリジナル記事:中身のない誘導用ランディングページ=スパムSEO、グーグルが公式に説明 など10+2記事(海外&国内SEO情報) [海外&国内SEO情報ウォッチ] | Web担当者Forum
Copyright (C) IMPRESS BUSINESS MEDIA CORPORATION, an Impress Group company. All rights reserved.