一、SEO 監査で注目すべき要因
###1. 使いやすさ
使いやすさは SEO に直接影響を与えることはできないが、他の多くの要因に影響を与えることができる。例えば転換率や、人々がこのサイトにリンクするかどうかなど
###2. アクセス可能性/クロール可能性
サイトが検索エンジンスパイダーに対して友好的であることを確認する必要があり、またアクセス可能性は使いやすさにも直接影響を与える
二。検索エンジンの健康診断
以下の簡単な方法で迅速なチェックを行うことができる:
-
検索エンジンで
site:ドメインを検索する(例えば百度でsite:ayqy.netを検索)。すべてのページがインデックスライブラリに登録されていることを確認し、この数字をサイトの実際のページ数と比較して一致しているかを確認する -
ブランド名を検索してみて、良好なランキングがあることを確認する。ランキングが低い場合はペナルティを受けている可能性がある
-
スナップショットをチェックして、ページのスナップショットバージョンが実際のページと同じであることを確認する
もちろん、より信頼性の高いチェック方法もある:
- キーワードの健康診断
キーワードの位置付けは正確か?サイト構造の論理はユーザーが関連キーワードを検索する方法と同じか?複数のページが同じキーワードを��ーゲットにしていないか(自己競争是否存在)?
- 複製コンテンツのチェック
まず行うべきことは、www なしのページ(例えば ayqy.net)を www あり(www.ayqy.net)のページに 301 リダイレクトすること、またはその逆(規範的リダイレクトと呼ぶ)。一般的に、前者の方が多く使用される。
次に、http ページの https バージョンが複製されていないことを確認し、さらに重複コンテンツのチェックを行う必要がある。方法は非常に簡単で、固有のコンテンツの一部をコピーし、半角二重引用符を付けて検索する(例えば「厚い心の壁を越えて」を検索)。検索結果にサイト内の重複ページがないかを確認する。すべてのコンテンツをチェックすることは不可能であり、必要でもない。最も重要なページに重複がないことを確認すればよい。inurl: や intitle: などの命令を使用して重複コンテンツをチェックすることもできる。
さらに、各コンテンツが固有の URL に対応することを保証する必要がある。もし保証することが非常に難しい場合、内部リンクでどれが規範バージョンかを説明するべきだが、確かに長期的な解決策ではなく、このような状況を完全に回避する必要がある(例えば cookie を使用して実装するなど)。自己競争を回避するため
- URL チェック
明確で簡潔で説明的な URL を使用していることを確認する。説明的とはキーワードを含むことを意味するが、キーワードの詰め込みは避ける。パラメータは追加しない(追加する必要がある場合も最小限にする)。キーワードはできるだけ単純にして、ユーザー(およびスパイダー)が理解しやすくする
- title タグのチェック
サイト上の各ページの title タグが固有で説明的であることを確認する。最も理想的な状況は、ブランド名を URL に入れるために時間を浪費しないこと。含める必要がある場合でも、ブランド名はタイトルの先頭ではなく末尾に配置する。タイトルの最初にキーワードを配置することはランキングに有益であるため。
さらに、タイトルタグが 70 文字未満であることを確認する(長すぎるとキーワードの詰め込みと見なされる)
- コンテンツのチェック
サイトの主要ページには十分なコンテンツがあるか?これらのページは h タグを使用しているか?別の角度から言えば、サイト上にコンテンツがほとんどないページが総ページ数に占める割合が高くないことを確認する
- meta タグのチェック
サイトページの meta robots タグをチェックする。このタグがある場合、スパイダーの主要コンテンツへのアクセスを制限していないか注意深くチェックする必要がある。NoIndex や NoFollow タグも SEO 計画を完全に破壊する可能性がある
さらに、各ページに固有の meta 説明タグがあることを確認する。もし本当に達成できない場合、説明タグを削除することを検討する。meta 説明タグはランキングに影響を与える要因ではないが、複製コンテンツの数を計算するために使用される可能性があり、検索エンジンは検索結果で meta 説明のコンテンツをウェブページの説明として使用することが多いため、クリック率に影響を与える
- sitemap ファイルと robots.txt ファイルのチェック
ウェブマスターツールで robots.txt ファイルをチェックし、さらに sitemap ファイルにインデックスしたいすべてのページが含まれていることを確認する
- リダイレクトのチェック
レスポンスヘッダー情報をチェックし、すべてのリダイレクトが 301 であることを確認する。特に CMS のデフォルト設定とホスティングサービスのデフォルト設定
- 内部リンクのチェック
リンクが多すぎるページを特定する。ページ内リンクは 100 個を超えないことを推奨する。ただし、信頼度の高いページではより多くのリンクを配置しても問題ない
サイトが内部リンクのアンカーテキスト(前述の「金鉱」)を十分に活用していることを確認する。ただし、乱用しないこと。ユーザーエクスペリエンスに影響を与えるため
- 不要なサブドメインを避ける
検索エンジンは、ドメインの全信頼度とリンクウェイトの伝達をサブドメインに伝達しない可能性がある。サブドメインは完全に異なる人の制御下にある可能性があるため(例えばブログプラットフォーム、フォーラム)。検索エンジンは分離して評価するべきだと考えている。また、実装の観点から見ると、ほとんどの場合、サブドメイン上のコンテンツはサブディレクトリに簡単に配置できる
- 地理的ターゲティング
ドメインが特定の国に位置付けられている場合、すべてのページに位置情報を追加し、ローカル検索結果でチェックして問題がないかを確認する必要がある
- 外部リンクのチェック
逆リンクツールで外部リンクをチェックし、アンカーテキストのトラップを特定する(大量の外部リンクアンカーテキストに特定の重要キーワードが含まれている場合、検索エンジンに不正行為と見なされる可能性がある)。一方では、サイトの主要キーワードが一定回数出現することを確保する必要がある。外部リンクアンカーテキストにキーワードが不足しているのも良くない。適切なバランスを見つける必要がある
ディープリンク(ホームページ以外のページへのリンク)も確認する。サイトの重要な部分のランキング向上に役立つ。外部リンクがあるページ自体も確認する。有料リンクのように見えないか、スパムサイトのように見えないか。大量の低品質外部リンクが現れた場合、ランキングに大きく影響する
最後に、十分な数の外部リンクがあることを確認し、可能な限り外部リンクの品質を確保する。主要な競合他社との比較を通じてこれらの状況を分析できる
- ページ読み込み時間
ページ読み込み時間が長すぎないか?長すぎるとサイトのクロールとインデックスに影響を与える。もちろん、5 秒またはそれ以上を超えた場合にのみ重点的に注目する必要がある
- 画像の alt タグ
すべての画像にキーワードを含む alt テキストとファイル名があるか?現在、検索エンジンは画像コンテンツの識別においてこれらの情報に大きく依存しており、これは合法的なキーワードの詰め込みである
- コード品質
検索エンジンは W3C 検証を要求しないが、コードをチェックすることも必要である。ひどいコードは悪影響を引き起こす可能性がある
三。キーワードチェックの重要性
キーワードチェックには以下のステップが含まれる:
###1. キーワード調査
できるだけ早く完了させる。キーワードはページ SEO を駆動する。どの詞をキーワードとするかを早めに決定する
###2. サイト構造
��イト構造設計は複雑な可能性がある。キーワード調査と既存のサイトをチェックする必要がある(可能な限り変更を少なくする)。サイトマップの角度から考慮することができる
すべての転換(収益化)が発生し得るページにユーザーを誘導できる階層システムが必要である。理想的な構造は、収益化可能なページの上位ページが関連キーワードの検索結果でできるだけ上位に来ることである。地理位置が関わる場合、階層構造は非常に複雑になる。最も理想的な状況は:ユーザーにとって自然に見える単一の階層システムを設計し、最も近いキーワードにマッピングすること。もちろん、ユーザーが複数の検索方法で 1 つの製品にアクセスできる場合、このような階層構造を構築するのは困難である
###3. キーワードマッピング分布
キーワードリストと全体構造を理解した後、主要な関連キーワードを URL にマッピング分布する。行う過程で、どのページがターゲットキーワードと無関係か、どのキーワードに対応するページが全くないかを発見しやすい。無関係なすべてのページを削除し、必要であれば前のステップに戻ってサイト構造を調整する(適切なサイト構造は自然にキーワードマッピング分布を行うことができるはず)
###4. サイトチェック
キーワードマッピング分布が適切に行われていれば、サイトチェックは比較的容易になる。title タグと h タグをチェックする際、キーワードマッピング分布を参照できる
四。キーワード自己競争
複数のページが同じキーワードをターゲットにすると、キーワード自己競争が発生する。例えば複数のページの title 及び h タグに同じターゲットキーワードが含まれている場合
スパイダーがサイトから同じキーワードを持つページの束を見つけた場合、これは検索エンジンにサイトがそのキーワードとより関連していると認識させるのではなく、逆に検索エンジンにこれらのページの中で選択を強いることになる。これが自己競争(内部競争)である
自己競争は以下の悪影響をもたらす:
-
内部アンカーテキストの価値を低下させる
-
外部リンクから伝達される価値を分散させる(外部リンクが複数の同じテーマのページを指しており、集中していない)
-
コンテンツ品質を低下させる(同じテーマで 3-4 篇書いた後、コンテンツの価値は低下する)
-
転換率を低下させる
自己競争を解消する方法:余分なページを削除し、ターゲットページに 301 リダイレクトする(404 を回避)
五。サーバーとホストの問題
此类の問題が発生する確率は低いが、SEO に大きく影響する可能性がある。例えば:
-
サーバータイムアウト
-
応答時間が長すぎる
-
共有 IP アドレス(共有 IP アドレス上にスパムサイトが存在するか)
-
ブロックされた IP アドレス(周囲がすべてスパムで、検索エンジンが IP セグメント全体をブロックしてしまう可能性さえある)
-
スパイダーの検出と処理(ユーザーアクセスを制限すると、スパイダーを誤って傷つける可能性がある)
-
帯域幅と転送制限(トラフィック制限。直接アクセス不能につながる)
-
サーバーの地理位置(ローカル検索最適化)
参考資料
- 『SEO 芸術』
コメントはまだありません