SEOとは、サーチエンジンの検索結果のページの表示順の上位に自らのWebサイトが表示されるように工夫すること。
現状ではSEOとはGoogle、Yahooに登録することといってもいいでしょう。 なぜなら複数の検索サイトもエンジン部分は同じであり市場を独占しているとっても言い過ぎではないからです。 いくつか検証してみた結果Googleは検索広告市場を事実上独占していると認識しました。 (ここでの独占とは法律的にではなく、検証結果にもとづいた主観的な意味です。)
そんなわけでSEO対策は実施後も観察&解析することがとても重要です。
サーチエンジンは登録されているWebページをキーワードに応じて表示する。
その様々な技術や手法を総称してSEOという。
早くても2、3日かかります。プロバイダーとサーチエンジンとの相性で障害がある場合もあるので、
障害があるから検索エンジンにのらないのか、準備中だからのらないのか確認する技術がないと、トラブル時判明までの時間がかかります。
毎日更新されるページが評価が高かったりするので、技術というより地道な努力も必要。
毎日ちょっとずつの積み重ねが必要です。
HTMLのタイトルタグ内がキーワードとして採用されている可能性大なのでここをキーワードチックにかいとけば大丈夫だ。
<title> </title>
<H1> </H1>
リンク元のリンクの文字列もキーワードになります。
Googleで「18歳未満」と検索するとYahoo!が上位に表示。 これは、アダルトサイトなどが「18歳以上 | 18歳未満」という選択肢を設け、 「18歳未満」をYahoo!にリンクしているためです。
PukiWikiの場合は新規ボタンをクリックするとページ名をもとめられるが、 一度決めてしまうと修正ができないので慎重にキーワードチックにしよう。
クロールとは検索エンジンのデータベースに登録されること程度の意味です。
つまりSEO対策のクロール対策が必須なわけですね。
YahooやGoogleなどの検索エンジンがネットという情報の海を クロールで泳いでいるようなイメージといったところでしょうか。
下記の302エラー対策をする
通常存在しないファイルにアクセスした場合のエラーコードは404と規定されているのですが、 プロバイダーの設定によっては302エラーをかえします。 何が困るかというと、302エラーをサーバが検索ロボットにかえした場合、 検索エンジンから、そのドメインの登録を抹消してしまうケースがあるのです。
http://e-club3.hyperposition.com/seoblog/searchengine/20080411142824.html
によれば、実在しないアドレス「jjj」をブラウザに入力してhttpヘッダーをキャプチャーした結果 は下記のようになります。
http://onnoji.com/jjj がリクエストされる ↓ リクエストされたファイルがない!! ↓ 「302」のコードを返し「 http://err.chicappa.jp/404.html 」へリダイレクト ↓ 「404」のコードを返す
自前で404.htmlファイルを用意すると上記の流れにならずに404コードをかえす仕組みになる。
ErrorDocument 400 /error/400.html ErrorDocument 401 /error/401.html ErrorDocument 403 /error/403.html ErrorDocument 404 /error/404.html ErrorDocument 500 /error/500.html
パス名は相対パスの記入が必須
ブラウザからは512バイト以下のページはカスタムページを表示しないようになっています。
ユーザログイン後の画面からエラーページの設定画面で設定できるようになっています。
検索エンジン・ロボット(インデックスクローラー)がサイトをクロールする際は、必ず最初に robots.txt にアクセスします。 このファイルがないとクロールしないようになっています。
robots.txt とは、これをサイト内の所定の場所に置くことにより、特定のページが、検索エンジンのインデックス(データベース)に登録されないようするためのファイルです。 このファイルが設置されていないと安全のために検索エンジンにクロールさせないようにするプロバイダーもあることから、robots.txtの設置はSEO対策では必須だといえます。
pukiwikiのデフォルト.htaccessでは下記のようにtxtの直接アクセスが禁止されています。 # Prohibit direct access <FilesMatch "\.(ini\.php|lng\.php|txt|gz|tgz|zip)$"> Order allow,deny Deny from all </FilesMatch> つまりrobots.txtのアクセスが禁止され、通常サイトでは404エラーをロボットにかえして問題ないのです。
が、GMO系のサーバはいったん302系のエラーを返してしまうので、Googleのロボットは登録非対称と認識してしまうわけなのですね。
# Prohibit direct access <FilesMatch "\.(ini\.php|lng\.php|gz|tgz|zip)$"> Order allow,deny Deny from all </FilesMatch>
User-agent: * Allow: /
User-agent: * Disallow: /
特定のフォルダやファイルを禁止する例 User-agent: * Disallow: /_layouts/ Disallow: /desktop.ini/
User-agent: *
検索エンジン | User-agent名 | robot.txt以外にアクセスしようとするファイル名 |
Googlebot | robots.txt | |
goo | moget | |
msn | msnbot | robots.txt |
infoseek | InfoSeek? | robots.txt |
代行を頼むにせよ、自分でやるにせよ必要な記入事項です。
まずは無料でできるところから登録をしてみましょう。
サイト名 | URL | 結果 | 備考 |
国内最大級のリンクサイト「ネットアイランド」 | http://search.netisland.jp/searchgate.asp | 登録された | |
サーチ女史 | http://search.netisland.jp/ | 登録された | ネットアイランドと同じ検索エンジン? |
infoseek | http://www.infoseek.co.jp/ | 登録されていない | |
http://www.google.co.jp/ | なんと1位で登録された | キーワードは「アプリコット Java Scala]ネットアイランドに登録したタイトルで出現 | |
goo | http://www.goo.ne.jp/ | なんと1位 | googleと同じくネットアイランドに登録したのが出た |
OCNサーチ | http://www.ocn.ne.jp/ | 1位 | googleと同じくネットアイランド、ただし検索結果はたくさん出るようだ |
livedoor検索 | http://search.livedoor.com/ | 1位 | googleと同じくネットアイランド |
はてな検索 | http://search.hatena.ne.jp/ | 1位 | googleと同じくネットアイランド |
Biglobeサーチ attayo | http://search.biglobe.ne.jp/ | 1位 | googleと同じくネットアイランド |
@Nifty) | http://www.nifty.com/search/ | 登録されていない | |
So-net | http://www.so-net.ne.jp/ | 登録されていない | |
hi-ho | http://search.hi-ho.ne.jp/ | 1位 | googleと同じくネットアイランド |
AOLサーチ | http://search.jp.aol.com/aol/webhome | 1位 | googleと同じ |
excite | http://www.excite.co.jp/ | 登録されていない | |
ODNサーチ | http://www.odn.ne.jp/ | 登録されていない | |
フレッシュアイ | http://www.fresheye.com/ | 登録されていない | 検索結果が少ない |
Windows Live Search | http://www.bing.com/?cc=jp | 登録されていない | |
Yahoo! Japan | http://www.yahoo.co.jp/ | 登録されていない |
http://submit.search.yahoo.co.jp/add/request
まずは下記のサイトにアクセス
自分が登録したいカテゴリまでたどっていき 登録リンクがあるのでクリック あとは指示に従う
http://www.google.co.jp/addurl/?continue=/addurl URLを入力するだけで登録ができました。
http://www.bing.com/?cc=jp の検索窓に無理やり自分のURLを入力する。 するとあるはずのURLを登録するため手順がでてくるのでそれに従う。
URLを登録しただけでは、本当に登録されたかどうか、 平均半日ぐらいしないと結果がわかりません。
もっとスピードをあげる方法はあるのでしょうか。あります。 XMLサイトマップというものを登録することでスピードが上がります。
http://web-tan.forum.impressrd.jp/e/2009/01/27/4876 によれば
とのことです。5倍~100倍早くなるんですね。 やっておいて損はないとおもいます。
実際にはツールをつかってつくることになる可能性大なのですが、一応紹介いたしますと、 http://www.sitemaps.org/ にて定義されており次のような機械に読み取らせやすいファイルです。
<?xml version="1.0" encoding="UTF-8"?> <urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9"> <url> <loc>http://www.example.com/</loc> <lastmod>2005-01-01</lastmod> <changefreq>monthly</changefreq> <priority>0.8</priority> </url> </urlset>
生成完了画面の文字列 | 用途 |
Download un-compressed XML Sitemap | Google用です。 |
Download Sitemap in Text Format | Yahoo用です。 |
サイトマップを作成したら早速登録してみましょう。
へログインします。
下記に示すウェブマスターツールをみます。
ここからGoogleのクロールの統計情報等のツールが簡単に使えます。
Googleの広告を掲載してお金をいただく仕組み。 コンテンツ力に自信のある方向け
(2009年12月02日現在)では
広告を出したい場合に利用します。
ページランク・チェック | http://www.midcon-inc.com/google/pagerank-checker.php | |
一括PRチェック | http://www.midcon-inc.com/google/multiple-pagerank-checker.php | |
外部リンク・チェック | http://www.midcon-inc.com/google/pagerank-crawl.php | |
偽ページランク・チェック | http://www.midcon-inc.com/google/fake-rank-checker.php | |
AccessAnalyzer?.com | http://ax.xrea.com/index.php | かなり細かくデータ収集と分析をしてくれる。 |
検索順位 レポートツール | http://seo.shoroji.com/ | |
ページ内単語の頻度レポートツール | http://www.webanalysis.ga-pro.com/ |
http://q.hatena.ne.jp/1146200528
アクセス解析といえばGoogle Analytics ただ、設定しても反応がわかるまで24時間なので、 すぐには、わかりません。
http://www.google.co.jp/intl/ja_ALL/analytics/
はじめてつかう場合は申し込みボタンを押します。
ブラウザの cookie がオフになっています。
と表示されるので、その文章中の?をクリックすると解説ページがでてくるので、そこを選択します。
申し込みボタンを押す
ウェブサイトの URL:
アカウント名:
タイム ゾーンの国または地域:
タイムゾーン:
を入力します。
とにかくアカウントをつくるところまでいくと、次は、「トラッキングコードの追加」というページになる。
<script type="text/javascript"> var gaJsHost = (("https:" == document.location.protocol) ? "https://ssl." : "http://www."); document.write(unescape("%3Cscript src='" + gaJsHost + "google-analytics.com/ga.js' type='text/javascript'%3E%3C/script%3E")); </script> <script type="text/javascript"> try { var pageTracker = _gat._getTracker("UA-12009577-1"); pageTracker._trackPageview(); } catch(err) {}</script>
アドバンスド
というタブがあるのでクリック
PHP ページをトラッキングします ってかいてあるところのチェックボックスをクリック
次のメッセージが追加される
すべての PHP ページに、次のコードをファイル (例: analyticstracking.php) に入れてサイトにアップロードします。 その後、下記の行をそれぞれのテンプレート ページの </body> タグの前に追加します。 <?php include_once("analyticstracking.php") ?>
保存して終了ボタンをクリック
pukiwikiの場合analyticstrackingを どこにはりつけたらいいのか調べてみる。
"skin/pukiwiki.skin.php" が全ページのテンプレのようなので、 そこの</body>タグの直前にGoogle Analyticsのタグを埋め込む
</body> </html>
これを下記のようにする
<?php include_once("analyticstracking.php") ?> </body> </html>
おしゃれな感じ
日本語翻訳サイトが消えているので、つかう場合はイタリア語を覚悟することに
どのみちソースコードを見ようとおもうならば、 イタリア語のコメントとつきあうことになる。
http://en.php-stats.com/downloads
PHP-Stats の設置方法 http://tokyo.atso-net.jp/pukiwikip/?Php-Stats
lolipopではAnalogをつかったアクセス解析を用意している。 ユーザログイン後、Webツール>アクセスログ でたどり着く
機能は、つかってるブラウザの種類や人気のページがわかる程度