SEOとは、サーチエンジンの検索結果のページの表示順の上位に自らのWebサイトが表示されるように工夫すること。 現状ではSEOとはGoogle、Yahooに登録することといってもいいでしょう。 なぜなら複数の検索サイトもエンジン部分は同じであり市場を独占しているとっても言い過ぎではないからです。 いくつか検証してみた結果Googleは検索広告市場を事実上独占していると認識しました。 (ここでの独占とは法律的にではなく、検証結果にもとづいた主観的な意味です。)
そんなわけでSEO対策は実施後も観察&解析することがとても重要です。
サーチエンジンは登録されているWebページをキーワードに応じて表示する。
その様々な技術や手法を総称してSEOという。
早くても2、3日かかります。プロバイダーとサーチエンジンとの相性で障害がある場合もあるので、
障害があるから検索エンジンにのらないのか、準備中だからのらないのか確認する技術がないと、トラブル時判明までの時間がかかります。
毎日更新されるページが評価が高かったりするので、技術というより地道な努力も必要。
毎日ちょっとずつの積み重ねが必要です。
HTMLのタイトルタグ内がキーワードとして採用されている可能性大なのでここをキーワードチックにかいとけば大丈夫だ。
リンク元のリンクの文字列もキーワードになります。
Googleで「18歳未満」と検索するとYahoo!が上位に表示。
これは、アダルトサイトなどが「18歳以上 | 18歳未満」という選択肢を設け、
「18歳未満」をYahoo!にリンクしているためです。
PukiWikiの場合は新規ボタンをクリックするとページ名をもとめられるが、 一度決めてしまうと修正ができないので慎重にキーワードチックにしよう。
クロールとは検索エンジンのデータベースに登録されること程度の意味です。
つまりSEO対策のクロール対策が必須なわけですね。
YahooやGoogleなどの検索エンジンがネットという情報の海を クロールで泳いでいるようなイメージといったところでしょうか。
下記の302エラー対策をする
通常存在しないファイルにアクセスした場合のエラーコードは404と規定されているのですが、 プロバイダーの設定によっては302エラーをかえします。 何が困るかというと、302エラーをサーバが検索ロボットにかえした場合、 検索エンジンから、そのドメインの登録を抹消してしまうケースがあるのです。
http://e-club3.hyperposition.com/seoblog/searchengine/20080411142824.html
によれば、実在しないアドレス「jjj」をブラウザに入力してhttpヘッダーをキャプチャーした結果 は下記のようになります。 http://onnoji.com/jjj がリクエストされる ↓ リクエストされたファイルがない!! ↓ 「302」のコードを返し「 http://err.chicappa.jp/404.html 」へリダイレクト ↓ 「404」のコードを返す
自前で404.htmlファイルを用意すると上記の流れにならずに404コードをかえす仕組みになる。
ErrorDocument 400 /error/400.html
ErrorDocument 401 /error/401.html
ErrorDocument 403 /error/403.html
ErrorDocument 404 /error/404.html
ErrorDocument 500 /error/500.html
パス名は相対パスの記入が必須
ブラウザからは512バイト以下のページはカスタムページを表示しないようになっています。
ユーザログイン後の画面からエラーページの設定画面で設定できるようになっています。
検索エンジン・ロボット(インデックスクローラー)がサイトをクロールする際は、必ず最初に robots.txt にアクセスします。 このファイルがないとクロールしないようになっています。
robots.txt とは、これをサイト内の所定の場所に置くことにより、特定のページが、検索エンジンのインデックス(データベース)に登録されないようするためのファイルです。 このファイルが設置されていないと安全のために検索エンジンにクロールさせないようにするプロバイダーもあることから、robots.txtの設置はSEO対策では必須だといえます。
pukiwikiのデフォルト.htaccessでは下記のようにtxtの直接アクセスが禁止されています。
# Prohibit direct access
<FilesMatch "\.(ini\.php|lng\.php|txt|gz|tgz|zip)$">
Order allow,deny
Deny from all
</FilesMatch>
つまりrobots.txtのアクセスが禁止され、通常サイトでは404エラーをロボットにかえして問題ないのです。
が、GMO系のサーバはいったん302系のエラーを返してしまうので、Googleのロボットは登録非対称と認識してしまうわけなのですね。
<FilesMatch ".(ini.php|lng.php|gz|tgz|zip)$"> Order allow,deny Deny from all
User-agent: * Allow: /
User-agent: *
Disallow: /
特定のフォルダやファイルを禁止する例 User-agent: * Disallow: /_layouts/ Disallow: /desktop.ini/
User-agent: *
| 検索エンジン | User-agent名 | robot.txt以外にアクセスしようとするファイル名 |
|---|---|---|
| Googlebot | robots.txt | |
| goo | moget | |
| msn | msnbot | robots.txt |
| infoseek | InfoSeek | robots.txt |
代行を頼むにせよ、自分でやるにせよ必要な記入事項です。
電子メールアドレス
サイトのタイトル
サイトのタイトル(ふりがな)
サイトのURL
コメント
登録者名
ホームページ管理者
ホームページのタイトル
ホームページのサブタイトル
ホームページの紹介(PR)
キーワード
主催者区分
主催者の連絡先
子供が見ても大丈夫な内容かどうか
無料サイトか有料サイトかそれ以外か
新着情報が乗るのはどのページか
ホームページの業種
ホームページの目的第一希望
ホームページの目的第二希望
ホームページの目的第三希望
郵便番号
まずは無料でできるところから登録をしてみましょう。
http://submit.search.yahoo.co.jp/add/request
まずは下記のサイトにアクセス
http://dir.yahoo.co.jp/ 自分が登録したいカテゴリまでたどっていき 登録リンクがあるのでクリック あとは指示に従う
http://www.google.co.jp/addurl/?continue=/addurl URLを入力するだけで登録ができました。
http://www.bing.com/?cc=jp の検索窓に無理やり自分のURLを入力する。 するとあるはずのURLを登録するため手順がでてくるのでそれに従う。
URLを登録しただけでは、本当に登録されたかどうか、 平均半日ぐらいしないと結果がわかりません。
もっとスピードをあげる方法はあるのでしょうか。あります。 XMLサイトマップというものを登録することでスピードが上がります。
http://web-tan.forum.impressrd.jp/e/2009/01/27/4876 によれば
とのことです。5倍~100倍早くなるんですね。 やっておいて損はないとおもいます。
実際にはツールをつかってつくることになる可能性大なのですが、一応紹介いたしますと、 http://www.sitemaps.org/ にて定義されており次のような機械に読み取らせやすいファイルです。 <?xml version="1.0" encoding="UTF-8"?>
| 生成完了画面の文字列 | 用途 |
|---|---|
| Download un-compressed XML Sitemap | Google用です。 |
| Download Sitemap in Text Format | Yahoo用です。 |
サイトマップを作成したら早速登録してみましょう。
| Googleサイトマップ | https://www.google.com/accounts/ServiceLogin?service=sitemaps&nui=1&continue=https://www.google.com/webmasters/tools/&hl=ja |
|---|
へログインします。
下記に示すウェブマスターツールをみます。
ここからGoogleのクロールの統計情報等のツールが簡単に使えます。
Googleの広告を掲載してお金をいただく仕組み。 コンテンツ力に自信のある方向け
(2009年12月02日現在)では
広告を出したい場合に利用します。
| ページランク・チェック | http://www.midcon-inc.com/google/pagerank-checker.php | |
|---|---|---|
| 一括PRチェック | http://www.midcon-inc.com/google/multiple-pagerank-checker.php | |
| 外部リンク・チェック | http://www.midcon-inc.com/google/pagerank-crawl.php | |
| 偽ページランク・チェック | http://www.midcon-inc.com/google/fake-rank-checker.php | |
| AccessAnalyzer.com | http://ax.xrea.com/index.php | かなり細かくデータ収集と分析をしてくれる。 |
| 検索順位 レポートツール | http://seo.shoroji.com/ | |
| ページ内単語の頻度レポートツール | http://www.webanalysis.ga-pro.com/ |
http://q.hatena.ne.jp/1146200528
アクセス解析といえばGoogle Analytics ただ、設定しても反応がわかるまで24時間なので、 すぐには、わかりません。
http://www.google.co.jp/intl/ja_ALL/analytics/
はじめてつかう場合は申し込みボタンを押します。
ブラウザの cookie がオフになっています。 <と表示されるので、その文章中の?をクリックすると解説ページがでてくるので、そこを選択します。
申し込みボタンを押す
ウェブサイトの URL:
アカウント名:
タイム ゾーンの国または地域:
タイムゾーン:
を入力します。
とにかくアカウントをつくるところまでいくと、次は、「トラッキングコードの追加」というページになる。
<script type="text/javascript">
var gaJsHost = (("https:" == document.location.protocol) ? "https://ssl." : "http://www.");
document.write(unescape("%3Cscript src='" + gaJsHost +
"google-analytics.com/ga.js' type='text/javascript'%3E%3C/script%3E"));
</script>
<script type="text/javascript">
try {
var pageTracker = _gat._getTracker("UA-12009577-1");
pageTracker._trackPageview();
} catch(err) {}</script>
アドバンスド
というタブがあるのでクリック
PHP ページをトラッキングします ってかいてあるところのチェックボックスをクリック
次のメッセージが追加される
すべての PHP ページに、次のコードをファイル (例: analyticstracking.php) に入れてサイトにアップロードします。
その後、下記の行をそれぞれのテンプレート ページの </body> タグの前に追加します。
<?php include_once("analyticstracking.php") ?>
保存して終了ボタンをクリック
pukiwikiの場合analyticstrackingを どこにはりつけたらいいのか調べてみる。
"skin/pukiwiki.skin.php" が全ページのテンプレのようなので、 そこの
タグの直前にGoogle Analyticsのタグを埋め込む
skin/pukiwiki.skin.php 291行目付近(最後の行あたり)