アプリコード

SEO【Search Engine Optimization サーチエンジン最適化】とは

SEOとは、サーチエンジンの検索結果のページの表示順の上位に自らのWebサイトが表示されるように工夫すること。また、そのための技術やサービス。 SEOに有効な対策は多くまた変化します。 具体的にいうとGoogleのウェブマスターのためのガイドラインが変われば対策方法も変わるといった具合です。検索エンジンの特性とプロバイダーの特性の相性を調べたりすることも必要です。

そんなわけでSEO対策は実施後も観察&解析することがとても重要です。

サーチエンジンは登録されているWebページをキーワードに応じて表示するが、その際の表示順位はそれぞれのサーチエンジンが独自の方式に則って決定している。この順位が上にある方が検索エンジン利用者の目につきやすく、訪問者も増えるため、企業などでは検索順位を上げるために様々な試みを行なう場合がある。その様々な技術や手法を総称してSEOという。

目次

SEO業者の選定方法

避けておくSEO業者

検索エンジンのクロール

クロールとは検索エンジンのデータベースに登録されること程度の意味です。

つまりSEO対策のクロール対策が必須なわけですね。

YahooやGoogleなどの検索エンジンがネットという情報の海を クロールで泳いでいるようなイメージといったところでしょうか。

lolipopサーバでの対策

下記の302エラー対策をする

302エラー対策

通常存在しないファイルにアクセスした場合のエラーコードは404と規定されているのですが、 プロバイダーの設定によっては302エラーをかえします。 何が困るかというと、302エラーをサーバが検索ロボットにかえした場合、 検索エンジンから、そのドメインの登録を抹消してしまうケースがあるのです。

GMOグループのレンタルサーバの特性

http://e-club3.hyperposition.com/seoblog/searchengine/20080411142824.html

によれば、実在しないアドレス「jjj」をブラウザに入力してhttpヘッダーをキャプチャーした結果 は下記のようになります。

http://onnoji.com/jjj がリクエストされる
↓
リクエストされたファイルがない!!
↓
「302」のコードを返し「 http://err.chicappa.jp/404.html 」へリダイレクト
↓
「404」のコードを返す

302のコードを返さないようにするには、

自前で404.htmlファイルを用意すると上記の流れにならずに404コードをかえす仕組みになる。

自前で404.htmlファイルを用意する。

htaccessファイルを設定する

ErrorDocument 400 /error/400.html
ErrorDocument 401 /error/401.html
ErrorDocument 403 /error/403.html
ErrorDocument 404 /error/404.html
ErrorDocument 500 /error/500.html

パス名は相対パスの記入が必須

ブラウザでのカスタムページの制限

ブラウザからは512バイト以下のページはカスタムページを表示しないようになっています。

ロリポップサーバの場合のエラーページの設定

ユーザログイン後の画面からエラーページの設定画面で設定できるようになっています。

事前準備

検索エンジン・ロボット(インデックスクローラー)がサイトをクロールする際は、必ず最初に robots.txt にアクセスします。 このファイルがないとクロールしないようになっています。

robots.txtとは

robots.txt とは、これをサイト内の所定の場所に置くことにより、特定のページが、検索エンジンのインデックス(データベース)に登録されないようするためのファイルです。 このファイルが設置されていないと安全のために検索エンジンにクロールさせないようにするプロバイダーもあることから、robots.txtの設置はSEO対策では必須だといえます。

.htaccessを確認する

pukiwikiのデフォルトでは下記のようにtxtの直接アクセスが禁止されています。
# Prohibit direct access
<FilesMatch "\.(ini\.php|lng\.php|txt|gz|tgz|zip)$">
	Order allow,deny
	Deny from all
</FilesMatch>

robots.txt の書き方 すべてクロールを許可する例

User-agent: * Allow: /

robots.txt の書き方 すべてクロールを禁止する例

User-agent: *
Disallow: /

Disallow

特定のフォルダやファイルを禁止する例 User-agent: * Disallow: /_layouts/ Disallow: /desktop.ini/

プロバイダーの対策のため無理やりrobots.txtを設置する場合

User-agent: *

robot.txtではなくrobots.txtでアクセスしてくる検索エンジン

検索エンジンUser-agent名robot.txt以外にアクセスしようとするファイル名
GoogleGooglebotrobots.txt
goomoget
msnmsnbotrobots.txt
infoseekInfoSeek?robots.txt

事前に準備しておく内容

代行を頼むにせよ、自分でやるにせよ必要な記入事項です。

検索エンジンに登録する

まずは無料でできるところから登録をしてみましょう。

Yahooに登録

http://submit.search.yahoo.co.jp/add/request

Yahooカテゴリに登録

まずは下記のサイトにアクセス

http://dir.yahoo.co.jp/

自分が登録したいカテゴリまでたどっていき
登録リンクがあるのでクリック
あとは指示に従う

Googleに登録

http://www.google.co.jp/addurl/?continue=/addurl URLを入力するだけで登録ができました。

Bing(元はMSN)に登録

http://www.bing.com/?cc=jp の検索窓に無理やり自分のURLを入力する。 するとあるはずのURLを登録するため手順がでてくるのでそれに従う。

クロールのスピードをあげるには

URLを登録しただけでは、本当に登録されたかどうか、 平均半日ぐらいしないと結果がわかりません。

もっとスピードをあげる方法はあるのでしょうか。あります。 XMLサイトマップというものを登録することでスピードが上がります。

http://web-tan.forum.impressrd.jp/e/2009/01/27/4876 によれば

とのことです。5倍~100倍早くなるんですね。 やっておいて損はないとおもいます。

XMLサイトマップ

実際にはツールをつかってつくることになる可能性大なのですが、一応紹介いたしますと、 http://www.sitemaps.org/ にて定義されており次のような機械に読み取らせやすいファイルです。

<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
  <url>
     <loc>http://www.example.com/</loc>
     <lastmod>2005-01-01</lastmod>
     <changefreq>monthly</changefreq>
     <priority>0.8</priority>
  </url>
</urlset> 

おすすめサイトマップ作成サイト

できあがったサイトマップのダウンロードするべきファイル

生成完了画面の文字列用途
Download un-compressed XML SitemapGoogle用です。
Download Sitemap in Text FormatYahoo用です。

XMLサイトマップ生成ツール

サイトマップを登録する

サイトマップを作成したら早速登録してみましょう。

Googleにサイトマップを登録する。

へログインします。

クロールの統計情報

下記に示すウェブマスターツールをみます。

ウェブマスターツール

https://www.google.com/webmasters/tools/home ここからGoogleのクロールの統計情報等のツールが簡単に使えます。

より多くの見込み顧客を獲得するには

Google アドワーズ広告

ウェブ サイトでより収益を上げる

Google AdSense?

Googleの広告を掲載してお金をいただく仕組み。 コンテンツ力に自信のある方向け

広告を出したい場合

Yahooに広告を出す。

スポンサーとして表示する費用

(2009年12月02日現在)では

Googleに広告を出す

AdWords?

広告を出したい場合に利用します。

WEBツール

ページランク・チェックhttp://www.midcon-inc.com/google/pagerank-checker.php
一括PRチェックhttp://www.midcon-inc.com/google/multiple-pagerank-checker.php
外部リンク・チェックhttp://www.midcon-inc.com/google/pagerank-crawl.php
偽ページランク・チェックhttp://www.midcon-inc.com/google/fake-rank-checker.php
AccessAnalyzer?.comhttp://ax.xrea.com/index.phpかなり細かくデータ収集と分析をしてくれる。
検索順位 レポートツールhttp://seo.shoroji.com/
ページ内単語の頻度レポートツールhttp://www.webanalysis.ga-pro.com/

トップ   新規 一覧 単語検索 最終更新   ヘルプ   最終更新のRSS