分析の前提: 3つのツールの役割
SEO分析は1つのツールでは完結しない。GA4・SEO_CHECK・GSCにはそれぞれ異なる役割がある。この3つを横断して初めて「なぜこのページは期待通りに機能していないのか」の答えに到達できる。
GA4— ギャップの発見
ページの期待値と現実を相対比較し、「何かおかしい」を見つける。他のページと比べてセッションが少ない、エンゲージメント率が低い、流入経路に偏りがある — こうした相対的な違和感が分析の起点になる。
SEO_CHECK— 伝達ミスの特定
Google公式ルールに対する準拠度を確認し、「Googleに正しく伝わっていない箇所」を特定する。46項目はGoogleの公式基準との照合であり、準拠していない箇所を修正すれば、ほぼ高い精度で改善される。
GSC— 結果の検証
修正後、Googleがコンテンツをどう認識しているかを確認する。表示回数・クリック数・検索クエリ・掲載順位を見て、意図した通りに伝わっているかを検証する。
以下では、Web制作者向けツールサイト(codequest.work)のCTR異常値を題材に、このプロセスを実演する。
ギャップの発見: 「このページ群だけ様子が違う」
観察
GA4でページ別のセッション数とエンゲージメント率を並べたとき、ツール型ページ(ジェネレーター・チェッカー)と記事型ページ(チュートリアル・解説)で明らかなパターンの違いがあった。ツール型はセッション数が多く、エンゲージメント率も高い。記事型は相対的に少ない。
違和感
記事型ページの中にも十分な文字数と内部リンクを持つ良質なコンテンツがある。にもかかわらず、検索からの流入が期待値を下回っている。コンテンツの質では説明できない差がある。この時点では原因がコンテンツ形式にあるのか、SEOの技術的設定にあるのか、検索意図のミスマッチにあるのかは判別できない。
GA4だけでは「何かおかしい」までしかわからない。原因の切り分けに進む。
伝達ミスの特定: 「技術的には正しく設定されているか?」
検証プロセス
GA4で違和感のあったページ群(ツール型・記事型の両方)のURLをSEO_CHECKにかけた。結果、どちらもSEOスコアは高く、タイトル・メタディスクリプション・構造化データ・内部リンクいずれも基準を満たしていた。技術的な伝達ミスはなかった。
この結果が意味すること
SEO_CHECKのスコアが両方とも高い。つまりGoogleへの伝達はどちらも正しくできている。にもかかわらずGA4でパフォーマンスに差がある。これはSEOの技術的設定が原因ではなく、「設定の外」に原因があることを意味する。具体的には、検索意図とコンテンツ形式の一致度という、チェック項目では測れない構造的要因の存在を示唆している。
分析のポイント
SEO_CHECKで「問題がない」と確認できたこと自体に価値がある。技術的な伝達ミスを排除できれば、原因の探索範囲が絞り込める。「スコアが高いのに結果が出ない」はSEO_CHECKの限界ではなく、原因が技術設定の外にあることの証拠だ。次にGSCで「Googleが実際にどう認識しているか」を確認する。
結果の検証: 「Googleはどう認識しているか」
発見
GSCでツール型ページと記事型ページのCTRを比較したとき、答えが見えた。サイト全体のCTRは4.51%(平均の2倍以上)だが、これはツール型ページが押し上げていた。同程度の順位帯でもツール型のCTRは記事型の約3倍あった。しかもツール型が不利な順位(記事型より下位)にいるケースでもCTRが上回っていた。
クエリの分析
さらにGSCのクエリレポートを見ると、ツール型ページに流入するクエリはほぼすべてDo型(「○○ ジェネレーター」「○○ チェック」)だった。検索者は情報ではなく「ツールそのもの」を探している。記事型ページへのクエリはKnow型(「○○とは」「○○ 方法」)が多く、SERPで類似記事と横並びになるためCTRが分散する。
3ツール横断で初めて見えたこと
GA4だけでは「ツール型のほうがアクセスが多い」までしかわからない。SEO_CHECKだけでは「どちらも正しく設定されている」しかわからない。GSCだけでは「CTRに差がある」しかわからない。3つを横断して初めて、「技術的には正しく伝達されているのにパフォーマンスに差がある → 原因は検索意図と形式の一致度だ」という結論に到達できた。
同じプロセスで見えた別の仮説: 鮮度クエリのアービトラージ
上記の分析を進める中で、もう1つのパターンに気づいた。「reset css 2026」で289クリックを集めたページだ。同じ3ツールのプロセスをかけた。
大手技術メディアが多数参入しているジャンルにもかかわらず、個人サイトのこのページだけ相対的にセッション数が多い。ドメインパワーで劣るはずなのに、なぜか。
自サイトのページをチェック。技術的設定は問題なし。競合上位ページのURLも同様にチェックすると、構造化データのdateModifiedが2024年のまま、メタディスクリプションに「2024年版」が残っている競合が7件中5件。タイトル・構造化データのレベルで鮮度負けしている競合が多い。
GSCでこのクエリの掲載順位推移を確認。年明け直後に急上昇し、その後安定。競合の鮮度更新タイミングを待つまでもなく、1月の時点でポジションを取れた。見かけの競合密度と実質的な鮮度競合にギャップがある、という仮説が裏付けられた。
ここでも3ツールの横断が効いている。GA4で相対的な違和感に気づき、SEO_CHECKで競合との技術設定差(特にdateModifiedの鮮度)を可視化し、GSCで順位推移から仮説を検証した。年号クエリは「ベストプラクティスが実際に変わる技術領域」でのみ有効であり、鮮度に実体が伴わない領域では効かない。
未検証の仮説: リピート利用と順位安定性
もう1つ、完全には検証できていない仮説がある。繰り返し使われるツール型コンテンツは順位が安定するのではないか、という観察だ。
JavaScript練習問題ジェネレーター(クリック数1位)のリピートユーザー率が記事型ページの2倍以上。ランダム生成が再訪動機を内蔵している。
このツールのCore Web Vitals計測でINPが良好(200ms以下)。繰り返しインタラクションが快適に動作する技術基盤がある。もしINPがpoor(500ms超)であれば、リピート利用は成立しない。SEO_CHECKでのINP確認がリテンションの前提条件になる。
GSCの順位変動幅がツール型は標準偏差1.2、記事型は3.8。ただしサンプルが少なく統計的に有意とは言えない。因果関係も証明できない。「リピートされるコンテンツは順位が安定する」という傾向はあるが、仮説の域を出ない。
なぜ未検証でも共有するのか
この仮説が正しいなら、ツール設計の段階で「再訪の動機を内蔵する」ことが検索パフォーマンスに影響する可能性がある。完全な検証はできていないが、GA4のリピート率 × SEO_CHECKのINP × GSCの順位安定性、という3軸を継続的にウォッチすることで、今後データが蓄積されれば検証可能になる。3ツールの定期的な横断チェックが、こうした仮説の検証基盤にもなる。
この分析から得た判断基準
3つの仮説検証を通じて得られた知見を、今後の判断基準として整理する。
SEO_CHECKのスコアが高いのにGA4で期待値を下回るページがあれば、原因は技術設定の外にある。SERPの1ページ目を確認し、ツールが並んでいるか記事が並んでいるかを見ることで、形式ミスマッチの可能性を判断できる。
競合のURLをSEO_CHECKにかけて鮮度を比較する。dateModifiedが古い、メタディスクリプションに古い年号が残っている競合が多ければ、鮮度で勝てるアービトラージがある。ただし内容の実質的な更新が前提。
ツール型コンテンツを設計するときは、SEO_CHECKでINPを確認してからリリースする。繰り返し使われるツールのINPが500ms超であれば、リテンションは成立しない。
いずれも、GA4・SEO_CHECK・GSCの3つを横断して初めて導ける判断だ。1つのツールで完結する分析では、ここまで到達できない。