[[アプリコード]]
*SEO【Search Engine Optimization サーチエンジン最適化】とは [#n12a06a4]
SEOとは、サーチエンジンの検索結果のページの表示順の上位に自らのWebサイトが表示されるように工夫すること。また、そのための技術やサービス。
SEOに有効な対策は多くまた変化します。
具体的にいうとGoogleのウェブマスターのためのガイドラインが変われば対策方法も変わるといった具合です。検索エンジンの特性とプロバイダーの特性の相性を調べたりすることも必要です。

そんなわけでSEO対策は実施後も観察&解析することがとても重要です。


サーチエンジンは登録されているWebページをキーワードに応じて表示するが、その際の表示順位はそれぞれのサーチエンジンが独自の方式に則って決定している。この順位が上にある方が検索エンジン利用者の目につきやすく、訪問者も増えるため、企業などでは検索順位を上げるために様々な試みを行なう場合がある。その様々な技術や手法を総称してSEOという。

*目次 [#ge92ff6c]
#contents
 
*SEO業者の選定方法 [#ie915cef]
-過去の事例のサンプルを見せてもらい、成功事例を紹介してもらう。
-Google のウェブマスター向けガイドラインに従っているか。
-通常の検索を補完するオンライン マーケティング サービスやアドバイスを提供しているか。
-期待される結果とその日程、成果を測定する方法。
-同業種での実績。
-国内/地域での実績。
-外国語サイトの開発経験。
-最も重視している SEO 技術。
-創業年数。
-連絡方法。
-サイトに加えたすべての変更に関する情報
-アドバイスの内容に関する詳しい情報とその理由を伝えてくれるかどうか。

*HTMLのタグに気をつけてSEO対策 [#z1b023c0]
**TitleをキーワードチックにしてSEO対策しよう [#u971212d]
HTMLのタイトルタグ内がキーワードとして採用されている可能性大なのでここをキーワードチックにかいとけば大丈夫だ。
 <title> </title>
**H1タグもキーワードチックにする [#f1df631f]
 <H1> </H1>

*リンク元の文字に気をつけてSEO対策 [#d997f297]
リンク元のリンクの文字列もキーワードになります。

 Googleで「18歳未満」と検索するとYahoo!が上位に表示。
 これは、アダルトサイトなどが「18歳以上 | 18歳未満」という選択肢を設け、
 「18歳未満」をYahoo!にリンクしているためです。

PukiWikiの場合は新規ボタンをクリックするとページ名をもとめられるが、
一度決めてしまうと修正ができないので慎重にキーワードチックにしよう。

**避けておくSEO業者 [#m03e9ffc]
-シャドー ドメインを所有している
-誘導ページに他の顧客へのリンクを含めている
-アドレス バーへのキーワード入力プログラムを販売している
-実際の検索結果と、検索結果ページに表示される広告との区別を明確にしていない
-掲載順位を保証するが、必然的に検索結果の上位になるような、あいまいで長いキーワードの場合に限る
-複数のエイリアスや偽造された WHOIS 情報を使用している
-虚偽の検索エンジン、スパイウェア、またはスカムウェアからのトラフィックを取得している
-Google インデックスから削除されたドメインを所有している、または SEO 業者自体が Google に登録されていない
-FTP アカウント情報やサーバーへのルート アクセスを要求する

*検索エンジンのクロール [#gcc76b06]
 
クロールとは検索エンジンのデータベースに登録されること程度の意味です。

つまりSEO対策のクロール対策が必須なわけですね。

YahooやGoogleなどの検索エンジンがネットという情報の海を
クロールで泳いでいるようなイメージといったところでしょうか。

**lolipopサーバでの対策 [#a007a03c]
下記の302エラー対策をする 

**302エラー対策 [#n7a14dbe]
通常存在しないファイルにアクセスした場合のエラーコードは404と規定されているのですが、
プロバイダーの設定によっては302エラーをかえします。
何が困るかというと、302エラーをサーバが検索ロボットにかえした場合、
検索エンジンから、そのドメインの登録を抹消してしまうケースがあるのです。

***GMOグループのレンタルサーバの特性 [#a0c4998c]
http://e-club3.hyperposition.com/seoblog/searchengine/20080411142824.html

によれば、実在しないアドレス「jjj」をブラウザに入力してhttpヘッダーをキャプチャーした結果
は下記のようになります。
 http://onnoji.com/jjj がリクエストされる
 ↓
 リクエストされたファイルがない!!
 ↓
 「302」のコードを返し「 http://err.chicappa.jp/404.html 」へリダイレクト
 ↓
 「404」のコードを返す


*302のコードを返さないようにするには、 [#qe1fb8da]
自前で404.htmlファイルを用意すると上記の流れにならずに404コードをかえす仕組みになる。

**自前で404.htmlファイルを用意する。 [#u2303ac9]
**htaccessファイルを設定する [#h17d59f7]
 ErrorDocument 400 /error/400.html
 ErrorDocument 401 /error/401.html
 ErrorDocument 403 /error/403.html
 ErrorDocument 404 /error/404.html
 ErrorDocument 500 /error/500.html
パス名は相対パスの記入が必須

***ブラウザでのカスタムページの制限 [#l110efae]
ブラウザからは512バイト以下のページはカスタムページを表示しないようになっています。

***ロリポップサーバの場合のエラーページの設定 [#v0878057]
ユーザログイン後の画面からエラーページの設定画面で設定できるようになっています。

**事前準備 [#rfe65487]
検索エンジン・ロボット(インデックスクローラー)がサイトをクロールする際は、必ず最初に robots.txt にアクセスします。
このファイルがないとクロールしないようになっています。

**robots.txtとは [#pa63f7d9]
robots.txt とは、これをサイト内の所定の場所に置くことにより、特定のページが、検索エンジンのインデックス(データベース)に登録されないようするためのファイルです。
このファイルが設置されていないと安全のために検索エンジンにクロールさせないようにするプロバイダーもあることから、robots.txtの設置はSEO対策では必須だといえます。

***.htaccessを確認する [#obee60ca]
 pukiwikiのデフォルト.htaccessでは下記のようにtxtの直接アクセスが禁止されています。
 # Prohibit direct access
 <FilesMatch "\.(ini\.php|lng\.php|txt|gz|tgz|zip)$">
	Order allow,deny
	Deny from all
 </FilesMatch>
 つまりrobots.txtのアクセスが禁止され、通常サイトでは404エラーをロボットにかえして問題ないのですが、GMO系のサーバはいったん302系のエラーを返してしまうので、Googleのロボットは登録非対称と認識してしまうわけなのですね。

-txt部分を削り。txtファイルへのアクセスを許可します。
 # Prohibit direct access
 <FilesMatch "\.(ini\.php|lng\.php|gz|tgz|zip)$">
	Order allow,deny
	Deny from all
 </FilesMatch>


***robots.txt の書き方 すべてクロールを許可する例 [#v801c589]
User-agent: *
Allow: /

***robots.txt の書き方 すべてクロールを禁止する例 [#s1e3d80e]
 User-agent: *
 Disallow: /

***Disallow [#k5bb8581]
特定のフォルダやファイルを禁止する例
User-agent: *
Disallow: /_layouts/
Disallow: /desktop.ini/

***プロバイダーの対策のため無理やりrobots.txtを設置する場合 [#r7e10b40]
User-agent: *


***robot.txtではなくrobots.txtでアクセスしてくる検索エンジン [#dd2e5154]
|検索エンジン|User-agent名|robot.txt以外にアクセスしようとするファイル名|
|Google|Googlebot|robots.txt|
|goo|moget||
|msn|msnbot|robots.txt|
|infoseek|InfoSeek|robots.txt|


**事前に準備しておく内容 [#lb6467cb]
代行を頼むにせよ、自分でやるにせよ必要な記入事項です。
-電子メールアドレス
-サイトのタイトル
-サイトのタイトル(ふりがな)
-サイトのURL
-コメント
-郵便番号


*検索エンジンに登録する [#ndf7dc3d]
まずは無料でできるところから登録をしてみましょう。
**Yahooに登録 [#e84365a0]
http://submit.search.yahoo.co.jp/add/request

***Yahooカテゴリに登録 [#n0cde013]
 まずは下記のサイトにアクセス
http://dir.yahoo.co.jp/
 自分が登録したいカテゴリまでたどっていき
 登録リンクがあるのでクリック
 あとは指示に従う

**Googleに登録 [#aa254a23]
http://www.google.co.jp/addurl/?continue=/addurl
URLを入力するだけで登録ができました。

**Bing(元はMSN)に登録 [#ed220325]
http://www.bing.com/?cc=jp
の検索窓に無理やり自分のURLを入力する。
するとあるはずのURLを登録するため手順がでてくるのでそれに従う。



*クロールのスピードをあげるには [#i1f376d3]
URLを登録しただけでは、本当に登録されたかどうか、
平均半日ぐらいしないと結果がわかりません。

もっとスピードをあげる方法はあるのでしょうか。あります。
XMLサイトマップというものを登録することでスピードが上がります。

http://web-tan.forum.impressrd.jp/e/2009/01/27/4876
によれば
-サイトマップを送信した場合 
--グーグル:14分
--ヤフー:245分
-サイトマップを送信しなかった場合 
--グーグル:1375分
--ヤフー:1773分

とのことです。5倍~100倍早くなるんですね。
やっておいて損はないとおもいます。

**XMLサイトマップ [#xd8130c9]
実際にはツールをつかってつくることになる可能性大なのですが、一応紹介いたしますと、
http://www.sitemaps.org/
にて定義されており次のような機械に読み取らせやすいファイルです。
 <?xml version="1.0" encoding="UTF-8"?>
 <urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
   <url>
      <loc>http://www.example.com/</loc>
      <lastmod>2005-01-01</lastmod>
      <changefreq>monthly</changefreq>
      <priority>0.8</priority>
   </url>
 </urlset> 

**おすすめサイトマップ作成サイト [#s6bd3716]
--ツールについては下記に記しておきますがおすすめはこちらです。
-下記のサイトにアクセスしてURLを入力するとつくってくれます。
http://www.xml-sitemaps.com/

***できあがったサイトマップのダウンロードするべきファイル [#s3e1339f]
|生成完了画面の文字列|用途|
|Download un-compressed XML Sitemap|Google用です。|
|Download Sitemap in Text Format|Yahoo用です。|

**XMLサイトマップ生成ツール [#n7b331fd]
-PukiWiki 用プラグイン sitemap.inc.php
http://www.revulo.com/PukiWiki/Plugin/Sitemap.html
-インストールなしで作成してくれるページ おすすめ
http://www.xml-sitemaps.com/
-Googleサイトマップ作成ツールは詳細情報をえられるので便利
http://www.freesitemapgenerator.com/

*サイトマップを登録する [#re4fd9aa]
サイトマップを作成したら早速登録してみましょう。
-手順
--FTPでサイトのトップページがあるディレクトリにアップロードします。
**Googleにサイトマップを登録する。 [#mfc7174a]
|Googleサイトマップ|https://www.google.com/accounts/ServiceLogin?service=sitemaps&nui=1&continue=https://www.google.com/webmasters/tools/&hl=ja|
へログインします。
-サイトを追加します。
-確認用のタグもしくはHTMLをダウンロードのどちらかを選び確認をとります。
ここでrobots.txtでこけているかどうかが判断できたりできます。

***クロールの統計情報 [#fbd66225]
下記に示すウェブマスターツールをみます。

***ウェブマスターツール [#pfab5007]
-https://www.google.com/webmasters/tools/home

ここからGoogleのクロールの統計情報等のツールが簡単に使えます。




*より多くの見込み顧客を獲得するには [#k0edfcf7]
**Google アドワーズ広告 [#xa56bf3f]


*ウェブ サイトでより収益を上げる [#yd659012]
**Google AdSense [#r737ca8f]
Googleの広告を掲載してお金をいただく仕組み。
コンテンツ力に自信のある方向け

*広告を出したい場合 [#w1ab49ca]
**Yahooに広告を出す。 [#k4f0e5d8]
***スポンサーとして表示する費用 [#x524114e]
(2009年12月02日現在)では 
-3000円コース
-31290円コース
--URL
http://business.yahoo.co.jp/sponsor/



**Googleに広告を出す [#w8cab4fe]
***AdWords [#l9a49937]
広告を出したい場合に利用します。

*WEBツール [#i4f912a2]
|ページランク・チェック|http://www.midcon-inc.com/google/pagerank-checker.php||
|一括PRチェック|http://www.midcon-inc.com/google/multiple-pagerank-checker.php||
|外部リンク・チェック|http://www.midcon-inc.com/google/pagerank-crawl.php||
|偽ページランク・チェック|http://www.midcon-inc.com/google/fake-rank-checker.php||
|AccessAnalyzer.com|http://ax.xrea.com/index.php|かなり細かくデータ収集と分析をしてくれる。|
|検索順位 レポートツール|http://seo.shoroji.com/||
|ページ内単語の頻度レポートツール|http://www.webanalysis.ga-pro.com/||


#comment
トップ   新規 一覧 単語検索 最終更新   ヘルプ   最終更新のRSS