この記事はAhrefs公式ブログの日本語訳です。
原文:<Google’s New Search Console URL Inspection API: What It Is & How to Use It>
(著者:<Chris Haines>/ 原文の最終更新日:<March 28, 2022>)
※フルスピード註:この記事は2022年3月28日時点の記載をもとに翻訳しています。Ahrefs公式ブログの記事は今後追記・再公開されることがありますことをご了承ください。
Web サイトの技術的な問題の診断は、Web サイトを運営する上で最も時間がかかるものの重要な側面の 1 つです。
さらに悪いことに、Google では、Web サイト上の潜在的な問題を診断するために、一度に 1 つの URL しか検査できません (これは Google Search Console 内で行われます)。
幸いなことに、Web サイトをより迅速にテストする方法が存在します。それは、Google Search Console URL Inspection API を入力することです。
Google Search Console URL Inspection API とは何ですか?
Google Search Console URL Inspection API は、 Google Search Console が持つ URL のデータを一括チェックする方法です。その目的は、開発者と SEO が Google 独自のデータを使用してページをより効率的にデバッグおよび最適化できるようにすることです。
API を使用して、いくつかの URL がインデックスに登録され、サイトマップに送信されているかどうかを確認する例を次に示します。
Google Search Console URL Inspection API から取得できるデータの種類は何ですか?
Google Search Console URL Inspection API を使用すると、幅広いデータを取得できます。以下は、最も議論されている機能の一部のリストです。
最後のクロール時間
このフィールドを使用すると、 Googlebot が最後にウェブサイトをクロールした時期を正確に把握できます。これは、SEO や開発者にとって、Google によるサイトのクロールの頻度を測定するのに非常に役立ちます。以前は、ログ ファイル分析または Google Search Console で個々の URL をスポットチェックすることによってのみ、この種のデータにアクセスできました。
ロボットTxt状態
このフィールドを使用すると、 Googlebot をブロックするrobots.txtルールがあるかどうかを確認できます。これは手動で確認できることですが、Google 独自のデータを使用して大規模にテストできることは素晴らしい進歩です。
googleCanonical と userCanonical
場合によっては、Google が コードで指定されている正規とは異なる正規を選択することが知られています。この状況では、API を使用して両方を比較 (並べて大規模に) できると、適切な変更を行うことができて便利です。
クロールされたように
このフィールドを使用すると、サイトのクロールにどのユーザー エージェントが使用されているか (モバイル/デスクトップ) を把握できます。参考までに、応答コードを以下に示します。
- DESKTOP – デスクトップ ユーザー エージェント
- MOBILE – モバイル ユーザー エージェント
ページフェッチ状態
pageFetchState を理解すると、サーバー エラー、見つからない 4xx、ソフト 404、リダイレクト エラー、robots.txt によってブロックされたページ、および無効な URL を診断するのに役立ちます。参考までに回答一覧を以下に掲載します。
分野 | その意味 |
---|---|
PAGE_FETCH_STATE_UNSPECIFIED | 不明なフェッチ状態 |
成功 | フェッチ成功 |
ソフト_404 | ソフト404 |
BLOCKED_ROBOTS_TXT | robots.txt によってブロックされました |
見つかりません | 見つかりません (404) |
アクセスが拒否されました | 不正なリクエストのためブロックされました (401) |
サーバーエラー | サーバーエラー(5xx) |
リダイレクトエラー | リダイレクトエラー |
アクセス_禁止 | アクセス禁止のためブロックされました (403) |
ブロック済み_4XX | 他の 4xx の問題によりブロックされました (403、404 ではありません) |
内部クロール_エラー | 内部エラー |
無効なURL | 無効なURL |
インデックス作成状態
インデックス作成状態は、URL のインデックス作成の現在のステータスを示します。より明白な合格と不合格の応答とは別に、他の応答もあります。
- NEUTRAL は、Search Console の「除外」メッセージに相当します。
- PARTIAL は、 Search Console の「有効ですが警告あり」というメッセージに相当します。
- VERDICT_UNSPECIFIED は、 Google が問題の URL について結論を出すことができないことを意味します。
ヒント
インデックス作成に問題がありますか? 「Google にインデックスを登録する 10 の方法」の投稿をお読みください。
カバレッジ状態
これにより、URL がサイトマップに送信され、インデックスに登録されたかどうかの詳細がわかります。
参照URL
Googleによれば、これにより各ページのリンク元が確認できます。
サイトマップ
これにより、どの URL がサイトマップに含まれているかを理解できるようになります。
API のその他の用途
AMP サイトがある場合は、API を使用して AMP サイトを検査することもできます。
Google Search Console URL Inspection API を段階的に使用する方法
Google Search Console URL Inspection API を使用するには、Google にリクエストを行う必要があります。定義する必要があるリクエストパラメータは、検査する URL と、Google Search Console のプロパティの URL です。
リクエスト本文には、次の構造のデータが含まれます。
API の使用方法について詳しく知りたい場合は、Google にこれに関する広範なドキュメントがあります。
以下は、API から取得できる応答のタイプの例です。
コードに慣れていない場合、またはすぐに試してみたい場合は、valentin.app の無料の Google URL 一括検査ツール を使用できます。このツールは、コーディングのスキルがなくても API をクエリするための簡単な方法を提供します。
使用方法は次のとおりです。あなたはできる:
- https://valentin.app/inspect.htmlに移動し、Google アカウントへのアクセスを承認し、テストする Search Console プロパティを選択します。次に、下のボックスに URL を貼り付けます。(データはブラウザ内で処理され、サーバーにアップロードされたり、誰かと共有されたりすることはありません。)
- 「URLを検査」ボタンをクリックします。API からのデータの取得が開始されます。
- ボタンをクリックして、データを CSV または Excel ファイルとしてエクスポートします。
- データを分析し、潜在的な問題がないか確認します。
Google Search Console URL Inspection API を実際にどのように使用できますか?
理論的には、Google Search Console URL Inspection API は、Web サイトについてより深く理解するための優れた方法のように思えます。ただし、大量のデータを取得できるため、どこから始めればよいのかわかりません。それでは、ユースケースの例をいくつか見てみましょう。
1. サイトの移行 – 技術的な問題の診断
サイトの移行により、 あらゆる種類の問題が発生する可能性があります。たとえば、開発者は、robots.txt を介して Google がサイトや特定のページをクロールできないように誤ってブロックする可能性があります。
幸いなことに、Google Search Console URL Inspection API を使用すると、これらの問題の監査が簡単になります。
たとえば、robotsTxtState を呼び出すことで、Googlebot による URL の一括クロールをブロックしているかどうかを確認できます。
これは、Google Search Console URL Inspection API (valentin.app 経由) を使用して robotsTxtState を呼び出し、URL の現在のステータスを確認する例です。
ご覧のとおり、これらのページは robots.txt によってブロックされておらず、問題はありません。
ヒント
サイトの移行により、予期せぬ SEO の技術的な問題が発生することがあります。移行後は、Ahrefs のSite Auditなどのツールを使用して、Web サイトに 100 を超える事前定義された SEO の問題がないかチェックすることをお勧めします。
2. Google があなたの宣言した正規版を尊重しているかどうかを理解する
サイト全体の正規タグに変更を加えた場合 、Google がそのタグを尊重しているかどうかを知りたいと思うでしょう。
なぜ Google があなたが宣言した正規版を無視するのか疑問に思われるかもしれません。Google は、次のようなさまざまな理由でこれを行うことができます。
- 宣言された正規は https ではありません。(Google は正規版として https を好みます。)
- Google は、宣言された正規ページよりも優れた正規ページであると判断したページを選択しました。
- 宣言された正規ページは noindex ページです。
以下は、Google Search Console URL Inspection API を使用して、Google が私の宣言した正規表現を尊重しているかどうかを確認する例です。
上のスクリーンショットからわかるように、これらの特定のページには問題はなく、Google は正規版を尊重しています。
ヒント
googleCanonical が userCanonical と一致するかどうかをすばやく確認するには、Google Bulk Inspect URLs ツールからデータを CSV にエクスポートし、Excel でIF式を使用します。たとえば、googleCanonical データが列 A にあり、userCanonical データが列 B にあると仮定すると、数式 =IF (A2=B2, “自己参照”,”非自己参照”) を使用して、一致しない正規データを確認できます。
3. サイトに変更を加えた後、Google がいつ再クロールするかを理解する
Web サイト上の多くのページを更新する場合、その取り組みの影響を知りたいと思うでしょう。これは、Google がサイトを再クロールした後にのみ発生します。
Google Search Console URL Inspection API を使用すると、lastCrawlTime を使用して Google がページをクロールした正確な時間を確認できます。
ウェブサイトのログ ファイルにアクセスできない場合、これは Google がサイトをどのようにクロールするかを理解するための優れた代替手段です。
これを確認した例を次に示します。
上のスクリーンショットでわかるように、lastCrawlTime には Web サイトがクロールされた日時が表示されます。この例では、Google による最新のクロールはホームページです。
変更後に Google がウェブサイトを再クロールするタイミングを理解すると、加えた変更が Google のクロール後にプラスまたはマイナスの影響を与えるかどうかを判断することができます。
よくある質問
Google Search Console URL Inspection API の制限を回避するにはどうすればよいですか?
Google Search Console URL Inspection API は 1 日あたり 2,000 クエリに制限されていますが、このクエリ制限はGoogle プロパティによって決定されます。
つまり、Google Search Console で個別に検証されれば、1 つのウェブサイト内に複数のプロパティを含めることができ、1 日あたり 2,000 クエリの制限を事実上回避できます。
Google Search Console では、Google Search Console アカウントに 1,000 のプロパティを含めることができるため、ほとんどのユーザーにとってはこれで十分です。
Google Search Console URL Inspection API はどのウェブサイトでも使用できますか?
もう 1 つの潜在的な制限要因は、Google Search Console URL Inspection API は、Google Search Console で所有するプロパティに対してのみ実行できることです。プロパティにアクセスできない場合、Google Search Console URL Inspection API を使用してプロパティを監査することはできません。
つまり、アクセス権のないサイトを監査すると問題が生じる可能性があるということです。
データはどの程度正確ですか?
データ自体の正確性はここ数年間、Google にとっての課題でした。この API を使用すると、そのデータにアクセスできます。したがって、おそらく、Google Search Console URL Inspection API は、その中のデータと同じくらい優れています。
Google キーワード プランナーの精度に関する調査で以前に示したように、Google からのデータは人々が思っているほど正確ではないことがよくあります。
まとめ
Google Search Console URL Inspection API は、サイト所有者が、以前 Google Search Console から可能であったものよりも大規模に大量のデータを Google から直接取得できる優れた方法です。
Daniel Waisberg と Google Search Console URL Inspection API の背後にあるチームは、これを一般にリリースする上で間違いなく素晴らしい仕事をしました。
しかし、SEO コミュニティからの Google Search Console URL Inspection API に対する批判の 1 つは、大規模なサイトに対してクエリ レート制限が低すぎるということです。(プロパティごとに 1 日あたり 2,000 クエリに制限されています。)
大規模なサイトの場合、これでは十分ではありません。また、考えられる回避策にもかかわらず、この数値は依然として低いほうにあるようです。
Google Search Console URL Inspection API の使用経験はどうですか? さらに質問がありますか? Twitter で私に連絡してください。🙂
著者
Chris は SEO ディレクターであり、代理店側の SEO に 10 年の経験があります。SEO に関わっていないときは、ビンテージ シンセサイザーをいじったり、砂浜を散歩したり、おいしいお茶を飲んだりすることを楽しんでいます。
コメント