TOP > スクリプト制作メモ > SEO(ロボット型検索エンジン最適化)について
ひところは、Yahoo!Japanに登録されることがアクセス確保の最たる手段でしたが、最近は Google の台頭などもありロボット型検索エンジンで検索結果の上位に表示されることがとても重要視されるようになっています。

≫ロボット型検索エンジンのこれまで

Search Engineとは、検索エンジンのことですが、この場合は主にロボット型検索エンジンを指します。Yahoo!などのディレクトリ型は人間がページの掲載を判断していますが、ロボット型では、その名の通りロボット(実体はサーバ上で動くプログラム)がWebページを巡回・収集して、検索を可能とする仕組みです。

日本のロボット型検索エンジンには主に以下の様なものがあります。
  • Google
    結果への信頼度はナンバーワン(主観)。シェアはロボット型の中で半分近い。
  • goo
    NTT系のロボット型検索エンジン。通常のロボット以外に最近更新があったものを主に収集して検索できるフレッシュ型ロボットのエンジンもある。
  • Infoseek
    楽天傘下のロボット型検索エンジン。検索エンジンだけでなくその他様々なサービスを提供。最近結構攻撃的に成長している気がする。
  • MSN
    蝶のマークが美しいマイクロソフト系の検索エンジン。
ロボット型検索エンジンは、ディレクトリ型に比べてキーワードにヒットするページ数がハンパではありません。しかし、沢山ヒットするからといって目的の情報が含まれたページに辿り着けるかというとなかなかそういうわけにはいかなかったのです。

なぜなら、検索結果として表示する順番が、およそ単純にページ内にどれだけ検索キーワードが含まれているかというものだったからです。その後、検索キーワードがどのようなタグに囲まれているかや、ページ内で出現する位置なども考慮するようになり、著しく検索結果は向上しました。

しかし、このロボット型検索エンジンの上位表示の優位性に早々と気づき活用しはじめた人たちがいました。そう、エロサイトです。しかも、そのころは(今でもおおいにそのような傾向はありますが)検索エンジンで検索されるキーワードの多くがエロ用語だったのです。現在はエロ画像や動画の入手経路がWeb以外に用意されつつあるので、少なくはなったと思いますが。

いわゆるページ内にやたらキーワードを含めまくったスパムの登場です。このスパムによってせっかく向上したはずの検索精度にまたも影が落ちます。まだまだディレクトリ型が信頼度とポータル機能で優位でした。

そこにさっそうと登場したのが Google です。

Googleはこれまでのロボット型検索エンジンの仕組みを踏襲しつつ、画期的な仕組みでページを評価し、ついにディレクトリ型を凌駕したかと思わせる検索精度を実現しました。効果は絶大でしたが、その仕組みのアイデア自体は実に単純です。

被リンク数の多いページを高評価する。

たったのこれだけですが、実に効果的な評価方法でした。個人的に、いい人の友達はいい人評価と呼んでいます。

Google登場のちょっと前から各ロボット型検索エンジンでスパム対策が大いに行われたのもロボット型検索エンジンの信頼度を上げた一因でもあります。

そして、Google の台頭によりロボット型検索エンジンで検索結果の上位に表示されることがとても重要視されるようになりました。

≫SEOとは

SEO とは、Search Engine Optimization の頭文字をとったものです。

検索エンジンの検索結果上位に自分のサイトを表示させるために、Webサイトを最適化することを言います。

SEOはうまくすれば費用をかけずにトラフィック(アクセス数を)稼ぐことができるため注目に値します。

現在では SEO 関連の書籍 なども多数出ていますので、参考にしてみるのも良いかもしれません。

≫具体的にどうすれば

私はSEO専門家ではないのであくまで個人サイトのレベルでやれる範囲での対策ですが、結構効果あります。例えば、当サイト内でも目立つ所だけでもアクセス解析 Perl とか1位を確保しています(狙うは「アクセス解析」トップですが、いかんせん業者相手になるので苦しいですね)。

ロボット型検索エンジンでもロボットによってクセがあり、それぞれに最適化するのはけっこう大変です。そこでここではシェア5割近いといわれる Google に的を絞ります。大抵 Google に最適化できていれば他のロボット型検索エンジンでもたいてい上位表示されるようになると思います。
  1. キーワードの選定
    まず、どのキーワードで上位を狙うかを決めます。これはほとんどの場合サイト(ページ)のメインテーマで良いですが、あまり一般的過ぎるキーワードだと、競合が多すぎたりするので、少し絞った方がいいかもしれません。特にインターネットはコアな情報だとリピータを確保できるということがあります。
    参考:キーワードアドバイスツール
     
  2. キーワードをページ内に含める
    ロボットは基本的にテキストを読んでいます。だから、キーワードがページ内に含まれないと評価が低くなります。単純にキーワードは多い方が有利ですが、一時のようにやたらキーワードを並べても駄目です。最悪スパム認定されて結果表示からはずされます。さじ加減は難しいかもしれませんが、キーワードをテーマとしたページなら、自然にキーワードも多く出現すると思います。
     
  3. タイトルタグにキーワードを含める
    <title>タグに含まれるキーワードは高評価を受けるようです。ただし、あまり長い文字列にすると評価が低くなりがちなようなので、ページタイトル自体にキーワードが入るよう工夫してみましょう。
     
  4. METAタグ
    <head>タグ内に記述するメタタグはGoogleでは無視されますが、読んでくれるロボットもいるので念のため正しく記述しましょう。
     
    • <meta name="description" content="ページの内容を解説した文章をここに書きます。">
    • <meta name="keywords" content="キーワードを半角カンマ区切りで書きます。">
    • <meta name="ROBOTS" content="INDEX,FOLLOW">
      ロボットにページを取得させない場合は NOINDEX,NOFOLLOW と書きます。NOFOLLOW はページのリンク先をロボットが辿ることを禁止します。

    •  
  5. robots.txt
    これは、サイト内をロボットが読む(クロールする)のを制御するためのファイルで、あなたのページのアドレスが http://www.example.ne.jp/~hoge/ だったら http://www.example.ne.jp/~hoge/robots.txt の位置に置きます。ちなみにパーミションは 0644 とか 0604 などで良いでしょう。上のメタタグもそうですが、robots.txt もロボットにサイトのページを“読ませる”よりも、“読ませない”事のほうに効果があります。ただし、無視するロボットも多いので注意しましょう。
     
  6. 文字列を画像で置き換えない
    デザインに凝りはじめると、見出しを画像にしたりしがちですが、できれば普通に文字列にしましょう。ロボットは画像を読んでくれません。テキストを装飾するタグやなんかもいろいろ工夫できますし、気の効いたページを作ろうと思うなら、画像とテキストと両方をうまく使う方法なんかも良いでしょう。
     
  7. alt属性
    alt属性は img タグにおいて画像を説明するテキストを記述しておく属性ですが、ロボットのなかにはこれを読むものがあるようです。デザイン的に画像を使うしかない場合など確実にalt属性でテキストを補いましょう。これはブラウザで見る人間にとっても有意義な記述です。
     
  8. フレームページ
    フレームページはできれば避けたい所です。なぜならフレーム分割処理をするページにはテキスト情報が含まれないからです。分割先のページがクロールされて高評価を得ると、今度は検索エンジンからの訪問者がフレームの中のページだけを見るという問題が発生します。ただ、Google はけっこう優秀でこの辺をうまく読んでくれるようで、分割ページのアドレスに分割後のページの評価を持ってくるようです。しかし、多くの検索エンジンはフレームにそれほど対処できていないので注意した方が良いでしょう。
     
  9. <noframe>
    フレームページでの対処方法として、<noframe>タグが有ります。元はフレームに未対応のブラウザで読まれた場合に表示する部分を記述するためのタグですが、IEやNNをはじめ統計的には9割近い人がフレームに対応しているため、むしろロボット対策に使ってしまうのはアリかもしれません。同じように<noscript>タグなんかもあります。
     
  10. 被リンク数を増やす
    Google 対策ではこれが最も効果あるような気がします。「18最未満」で Yahoo! がトップだったり「某掲示板」で2ちゃんねるがトップだったりするのは被リンクの評価によります。また、リンクのされ方も大切です。どこかからリンクされる際にアンカータグで囲まれる中に任意のキーワードが入っている時に最も評価が高くなります。ただ、これは自分の意志ではどうならない部分も大きいので難しいですが。
     
だいたい以上 10 項目が基本的対策になります。
けっこう簡単にできることばかりだと思うのでやってみてください。何もしないよりは断然上位に食い込めると思います。

あと、サーバの不具合でアクセスできなかったりすることがあると順位に響くようです。確実にそうかどうかは未確認ですが、ロボットはアクセスできない場合、通常ページがなくなったと判断するんですが、一回アクセスできなかったからといって即座に削除ではないようです。また、検索エンジンのサーバは複数台あり、アクセスできなかったということが全サーバに伝わるのにもタイムラグがあります。そのせいだと思いますがサーバの不安定さがページ順位の評価に多少関係あるようです。
一撃削除だとしても、再登録されるまでのタイムラグがあるわけですし、サーバは確実に稼動させて検索ロボットの訪問を歓迎するように心掛けなければならないようです。

参考:ロボット型検索エンジンの登録窓口
Googlehttp://www.google.co.jp/intl/ja/addurl.html
Infoseekhttp://www.infoseek.co.jp/Help?pg=help_addurl.html&svx=199700&lk=noframes&sf=1
goohttp://help.goo.ne.jp/door/furl.html
allthewebhttp://www.alltheweb.com/add_url.php
AltaVistahttp://addurl.altavista.com/addurl/new


ここんところロボット型の検索エンジンでさえも有料登録が増えて、無料で登録できるのは上のところくらいになってしまいました。ただ、有料登録のところもいつのまにか勝手に登録されたりもするようなのであんまり心配はいらないかもしれません。

≫他いろいろ

ウェブページ作成に凝ってくると、CGIやFlashなどの動的な仕組みを使ってダイナミックなページ作成を行ってかっこよくしたりしたくなると思いますが、ロボットはそういった動的ページを読むのが苦手です。何といっても画像がまず読めないくらいですから。

そういったページの場合の対策はどうすればよいでしょうか。
  • HTMLだけのドアページをつくる
    動的なページに誘導するドアページを作成して、そこでロボットの高評価を狙います。ドアページの手法は意外に古くからあるのですが、評価や印象は別れる所です。意図的な誘導が見えすぎるとユーザに嫌われますし、ロボットでもスパム認定されかねないかもしれません。
     
  • 検索エンジンは無視してコンテンツに注力する
    これ、素晴らしいと思います。あれこれロボットに左右されるよりも、いいコンテンツは人がちゃんと評価してくれます。おすすめです!(^_^;)
最後に、一番重要なことですが、サイト内に孤島をつくってはいけません。つまりどこからもリンクされていないページは作ってはいけません(どこからもリンクされていないページがロボットに100%読まれないということでもありません)。

なぜかというと、ロボットはページのリンクをどんどん辿ってインターネットを巡回するからです。 サイト全体を効率よくクロールしてもらうためには、大手サイトなどでよくあるサイト内マップのようなページをひとつつくるのが手です。

しかし、その際の注意事項として、高ランクページからのランクが引き継がれるのは、そのページからリンクしている次のページのみのようです。その次のページにリンクすると元の高ランクは関係なくなってしまい、リンク元のページランクで評価されるようです。したがって、高ランクのページがひとつあるなら、そのページから全てのページにリンクを張ったほうが、全てのページに高ランクを引き継げることになります。

≫資料


TOP > スクリプト制作メモ > SEO(ロボット型検索エンジン最適化)について
(C) bayashi.net