SEOとは、サーチエンジンの検索結果のページの表示順の上位に自らのWebサイトが表示されるように工夫すること。また、そのための技術やサービス。 SEOに有効な対策は多くまた変化します。 具体的にいうとGoogleのウェブマスターのためのガイドラインが変われば対策方法も変わるといった具合です。検索エンジンの特性とプロバイダーの特性の相性を調べたりすることも必要です。
そんなわけでSEO対策は実施後も観察&解析することがとても重要です。
サーチエンジンは登録されているWebページをキーワードに応じて表示するが、その際の表示順位はそれぞれのサーチエンジンが独自の方式に則って決定している。この順位が上にある方が検索エンジン利用者の目につきやすく、訪問者も増えるため、企業などでは検索順位を上げるために様々な試みを行なう場合がある。その様々な技術や手法を総称してSEOという。
クロールとは検索エンジンのデータベースに登録されること程度の意味です。
つまりSEO対策のクロール対策が必須なわけですね。
YahooやGoogleなどの検索エンジンがネットという情報の海を クロールで泳いでいるようなイメージといったところでしょうか。
下記の302エラー対策をする
通常存在しないファイルにアクセスした場合のエラーコードは404と規定されているのですが、 プロバイダーの設定によっては302エラーをかえします。 何が困るかというと、302エラーをサーバが検索ロボットにかえした場合、 検索エンジンから、そのドメインの登録を抹消してしまうケースがあるのです。
http://e-club3.hyperposition.com/seoblog/searchengine/20080411142824.html
によれば、実在しないアドレス「jjj」をブラウザに入力してhttpヘッダーをキャプチャーした結果 は下記のようになります。
http://onnoji.com/jjj がリクエストされる ↓ リクエストされたファイルがない!! ↓ 「302」のコードを返し「 http://err.chicappa.jp/404.html 」へリダイレクト ↓ 「404」のコードを返す
自前で404.htmlファイルを用意すると上記の流れにならずに404コードをかえす仕組みになる。
ErrorDocument 400 /error/400.html ErrorDocument 401 /error/401.html ErrorDocument 403 /error/403.html ErrorDocument 404 /error/404.html ErrorDocument 500 /error/500.html
パス名は相対パスの記入が必須
ブラウザからは512バイト以下のページはカスタムページを表示しないようになっています。
ユーザログイン後の画面からエラーページの設定画面で設定できるようになっています。
検索エンジン・ロボット(インデックスクローラー)がサイトをクロールする際は、必ず最初に robots.txt にアクセスします。 このファイルがないとクロールしないようになっています。
robots.txt とは、これをサイト内の所定の場所に置くことにより、特定のページが、検索エンジンのインデックス(データベース)に登録されないようするためのファイルです。 このファイルが設置されていないと安全のために検索エンジンにクロールさせないようにするプロバイダーもあることから、robots.txtの設置はSEO対策では必須だといえます。
pukiwikiのデフォルトでは下記のようにtxtの直接アクセスが禁止されています。 # Prohibit direct access <FilesMatch "\.(ini\.php|lng\.php|txt|gz|tgz|zip)$"> Order allow,deny Deny from all </FilesMatch>
# Prohibit direct access <FilesMatch "\.(ini\.php|lng\.php|gz|tgz|zip)$"> Order allow,deny Deny from all </FilesMatch>
User-agent: * Allow: /
User-agent: * Disallow: /
特定のフォルダやファイルを禁止する例 User-agent: * Disallow: /_layouts/ Disallow: /desktop.ini/
User-agent: *
検索エンジン | User-agent名 | robot.txt以外にアクセスしようとするファイル名 |
Googlebot | robots.txt | |
goo | moget | |
msn | msnbot | robots.txt |
infoseek | InfoSeek? | robots.txt |
代行を頼むにせよ、自分でやるにせよ必要な記入事項です。
まずは無料でできるところから登録をしてみましょう。
http://submit.search.yahoo.co.jp/add/request
まずは下記のサイトにアクセス
自分が登録したいカテゴリまでたどっていき 登録リンクがあるのでクリック あとは指示に従う
http://www.google.co.jp/addurl/?continue=/addurl URLを入力するだけで登録ができました。
http://www.bing.com/?cc=jp の検索窓に無理やり自分のURLを入力する。 するとあるはずのURLを登録するため手順がでてくるのでそれに従う。
URLを登録しただけでは、本当に登録されたかどうか、 平均半日ぐらいしないと結果がわかりません。
もっとスピードをあげる方法はあるのでしょうか。あります。 XMLサイトマップというものを登録することでスピードが上がります。
http://web-tan.forum.impressrd.jp/e/2009/01/27/4876 によれば
とのことです。5倍~100倍早くなるんですね。 やっておいて損はないとおもいます。
実際にはツールをつかってつくることになる可能性大なのですが、一応紹介いたしますと、 http://www.sitemaps.org/ にて定義されており次のような機械に読み取らせやすいファイルです。
<?xml version="1.0" encoding="UTF-8"?> <urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9"> <url> <loc>http://www.example.com/</loc> <lastmod>2005-01-01</lastmod> <changefreq>monthly</changefreq> <priority>0.8</priority> </url> </urlset>
生成完了画面の文字列 | 用途 |
Download un-compressed XML Sitemap | Google用です。 |
Download Sitemap in Text Format | Yahoo用です。 |
サイトマップを作成したら早速登録してみましょう。
へログインします。
下記に示すウェブマスターツールをみます。
https://www.google.com/webmasters/tools/home ここからGoogleのクロールの統計情報等のツールが簡単に使えます。
Googleの広告を掲載してお金をいただく仕組み。 コンテンツ力に自信のある方向け
(2009年12月02日現在)では
広告を出したい場合に利用します。
ページランク・チェック | http://www.midcon-inc.com/google/pagerank-checker.php | |
一括PRチェック | http://www.midcon-inc.com/google/multiple-pagerank-checker.php | |
外部リンク・チェック | http://www.midcon-inc.com/google/pagerank-crawl.php | |
偽ページランク・チェック | http://www.midcon-inc.com/google/fake-rank-checker.php | |
AccessAnalyzer?.com | http://ax.xrea.com/index.php | かなり細かくデータ収集と分析をしてくれる。 |
検索順位 レポートツール | http://seo.shoroji.com/ | |
ページ内単語の頻度レポートツール | http://www.webanalysis.ga-pro.com/ |