2023 年 9 月の Google SEO オフィスアワー
Google が私の Web サイトの www バージョンを誤ってインデックス付けしているのでしょうか?
John: Wan が尋ねます。Google が私のウェブサイトの www バージョンを誤ってインデックスに登録しました。 正しいページは、HTTP の後に www を除いたドメイン名 .my である必要があります。
こんにちはワン! あなたのページを拝見したところ、サーバーが非 www バージョンから www バージョンに自動的にリダイレクトし、link rel canonical 要素を適切に設定しているようです。 Chrome を使用している場合、一見すると先頭に www がないように見えますが、ブラウザーの上部にある URL を 2 回クリックすると、www を含む完全な URL が展開されます。 実際には、これで問題ありません。サイトの www バージョンと非 www バージョンの両方が Google 検索でまったく問題ありません。 うわー、wwwがたくさんありますね!
Search Console でフィルタリングされたデータが全体のデータよりも高いのはなぜですか?
Gary: Ornella は次のように尋ねています。なぜフィルタリングされたデータが Search Console の全体のデータよりも高いのですか、それは意味がありません。
まず第一に、私はこの質問が大好きですが、おそらくその理由は間違っています。 簡単に言うと、大量のデータを処理する必要があるため、ブルーム フィルターと呼ばれるものを多用しており、ブルーム フィルターを使用すると時間とストレージを大幅に節約できます。 長い答えは、大量のデータを処理する必要があるため、ブルーム フィルターを頻繁に使用するということですが、ブルーム フィルターについてもいくつか言いたいと思います。つまり、セット内の多数の項目を処理する場合です。 数兆ではないにしても、数十億のアイテムがあると、それを迅速に検索するのは非常に困難になります。 ここでブルーム フィルタが役立ちます。ブルーム フィルタを使用すると、メイン セット内の可能性のあるアイテムのハッシュを含む別のセットを参照し、そこでデータを検索できます。 最初にハッシュを検索するため、かなり高速ですが、意図的かどうかにかかわらず、ハッシュ化ではデータの損失が発生することがあります。このデータの欠落があなたが経験していることです。通過するデータが少ないほど、何かが存在するかどうかの予測がより正確になることを意味します。 メインセットにあるかどうか。 基本的にブルーム フィルターは、データ セット内に何かが存在するかどうかを予測することで検索を高速化しますが、精度が犠牲になり、データ セットが小さいほど予測の精度が高くなります。
Google サイト Web サイトのページが適切にインデックス付けされないのはなぜですか?
ジョン: フランス語で送信された質問がありました。基本的には、Google サイトのウェブサイトのページが適切にインデックスに登録されない理由を尋ねるものです。
他の言語で質問がもらえるのはとてもうれしいです。 一歩下がってみると、Google サイトで作成されたウェブサイトは Google 検索にインデックスされる可能性があり、実際にインデックスされます。 ただし、Google サイトで使用される URL は、公開バージョンがログイン時に表示される URL とは異なる可能性があるため、追跡するのが少し困難です。率直に言うと、技術的にはインデックス付け可能ですが、SEO の目的には理想的ではなく、複雑になる可能性があります。 Search Console での追跡用。 SEO が主な考慮事項である場合は、コミットする前に他のオプションを検討し、長所と短所を確認する価値があるかもしれません。 Search Console でパフォーマンスを追跡するには、Google サイトのコンテンツに独自のドメイン名を使用することもできます。 独自のドメイン名を使用すると、必要に応じて移行が簡単になり、Search Console のドメイン全体の所有権を確認できるようになります。
私たちのサイトには多くのボタンがあり、クリックすると他のページへのリンクが表示されます。 Google はこれらのリンクをクロールできますか?
ゲイリー: サラブジットは尋ねています。私たちのウェブサイトには複数のボタンがあり、それらをクリックすると他のページへのリンクが取得されます。 Google はこれらのリンクをクロールできるでしょうか?
一般的に、Googlebot はボタンをクリックしません。
価値のあるコンテンツを書いている場合、(バックリンクを獲得するための)「ゲスト投稿」は Google のガイドラインに違反しますか?
John: Brooke の質問: 現在、ほとんどの Web サイトでは、(バックリンクを獲得するために) 「ゲスト投稿」を購入するオプションしか提供されていません。 価値のあるコンテンツを書いている場合、これは Google のガイドラインに違反しますか?
こんにちはブルック、質問を投稿していただきありがとうございます。 あなたはすでに正しい軌道に乗っているようです。 はい、リンクにゲスト投稿を使用することはスパム ポリシーに違反します。 特に、これらのリンクが検索結果に影響を与えないことを示す方法で修飾されていることが重要です。 これは、リンクの rel=nofollow または rel=sponed 属性を使用して行うことができます。 サイトを宣伝するために広告を使用するのは問題ありませんが、前述したようにリンクはブロックする必要があります。
電子商取引のカテゴリ ページのコンテンツは、全体のランキングを向上させるのに役立ちますか?
ゲイリー: ブルックは尋ねています。e コマース カテゴリ ページのコンテンツは、全体的なランキングを向上させるのに価値がありますか?
ページには好きなコンテンツを追加できます。結局のところ、それらはあなたのページです。 ただし、自動生成された低品質の宣伝文をすべてのカテゴリ ページで何度も繰り返し表示しないでください。 普通の人から見ても馬鹿げているように見えます。 ページにコンテンツが必要な場合は、ユーザーが実際に使用できるコンテンツを追加してください
十分です。検索で必要になる可能性があるため、コンテンツを追加しないでください。 e コマースに関する推奨事項もご覧ください。
セマンティック タグが間違っていると、Google が Web サイトのコンテンツを十分に理解できなくなりますか?
John: セマンティック タグが間違っていると、Google がウェブサイトのコンテンツを全体的に理解できなくなり、その結果、ウェブサイトのコンテンツをブランチに割り当てる能力が低下するのでしょうか? 特に<hr>タグはトピックの変更を示しますが、デザイン目的でのみ使用する場合があります。
興味深い質問ですね。 一般に、セマンティック HTML を正しく使用すると、検索エンジンがページのコンテンツとそのコンテキストをより深く理解できるようになります。 たとえば、ページ上の見出しをマークアップしている場合、それはコンテンツがその見出しに適合すると信じていることを明確に示しています。 これはランキング 1 位への秘密の道ではありませんが、本文の意味を理解するのが難しい場合は、見出しの形式で明確な要約を提供すると役立ちます。 これは私たちがページをどの程度理解しているかによって左右される微妙な問題であるため、すべてを網羅していることを確認することをお勧めします。 これを逆にして、意味的に正しい HTML から意味的に正しくない HTML に移行することも微妙です。 検索エンジンはまだあなたのページを理解できますか? そうすれば、おそらく彼らの理解に違いは見られないでしょう。 突然意味が曖昧になっていませんか? 次に、おそらく何らかの意味構造を使用して、ぼやけを軽減するかもしれません。 <hr> タグの具体的な例で言えば、タグが誤って使用されたためにページの理解に違いが生じる状況は思いつきません。 何かを誤って使用する方法は無限にありますが、Web デザイナーが <hr> タグを使用して誤って遭遇する可能性のあるものはかなり安全であるように思えます。 「状況による」と言うのは言い過ぎだと思いますが、どういたしまして。
Google Search Console の 404 ページのレポートには、JSON または JavaScript からのものと思われる URL が多数含まれています。 無視すべきでしょうか?
Gary: Reza が質問しています。Google Search Console の 404 ページのレポートには、JSON または JavaScript コード内から何らかの方法で誤って取得されたと思われる URL が含まれています。 これは無視すべきでしょうか?
これらは無視することも、noindex HTTP ヘッダーを追加することもできます。
サイトマップ インデックス ファイルに他のドメインのサイトマップ ファイルへのリンクを含めることはできますか?
John: Dhruv は次のように尋ねています。サイトマップ インデックス ファイルには他のドメインのサイトマップ ファイルへのリンクを含めることはできますか?
こんにちは、ドゥルブ、興味深い質問です。 Google 側からの答えは「おそらく」という明確な答えです。そのため、私の提案はそのような設定を使用しないことです。 同じドメイン上にない URL のサイトマップは、robots.txt 経由でサイトマップを送信する場合と、Search Console ですべてのドメインの所有権を確認している場合の 2 つの状況で送信できます。 特に Search Console の所有権は微妙であり、Web サイトを分析するときにすぐには確認できないため、その関係性を忘れがちです。 サイトマップ ファイルに取り組んでいて、このような設定を使用したいと判断した場合のヒントは、サイトマップ ファイルに XML コメントを追加して、これらの要件を覚えておき、誤って壊さないようにすることです。 未来。 Search Console は Google 固有であるため、これに関して他の検索エンジンが持つ要件も確認する必要があります。
Google がウェブサイトに対して独自のメタ記述を選択する可能性を減らすにはどうすればよいでしょうか?
Gary: Sam Bowers はこう尋ねています。Google がウェブサイトに対して独自のメタ記述を選択する可能性をどうやって減らすことができますか?
良い質問: 常にではありませんが、通常、ページにコンテンツがあまりない場合、またはメタ ディスクリプションがページの実際のコンテンツよりもユーザーのクエリに関連している場合、アルゴリズムはメタ ディスクリプションを使用します。 説明とスニペットについて詳しくは、こちらをご覧ください。
ページ上の特定のセクションをクロールしないように検索エンジン ボットを指定する方法はありますか?
John: ページ上の特定のセクションをクロールしないように検索エンジン ボットを指定する方法はありますか(それ以外の場合、ページのクロールとインデックス作成は許可されます)。 彼らは続けて、「メガメニュー」には重複が多いため、それらをブロックしたいと述べています。
はい、ページの一部のインデックス作成を防ぐためにできることはありますが、特にヘッダー、メニュー、サイドバー、フッターなどの一般的なページ要素については、インデックス作成をブロックする必要はありません。 検索エンジンはウェブをそのまま扱いますが、時には巨大なメガメニューやオーバーフッターが存在することがありますが、それは問題ありません。 ページ上の他のコンテンツについては、robots.txt で禁止されているソースを含む iframe を使用するか、robots.txt で同様にブロックされている JavaScript を使用してコンテンツを取り込むことができます。 スニペットに何かが表示されることを避けたいだけの場合は、data-nosnippet 属性を使用するのが良い方法です。 ただし、メニューを非表示にするためだけにこれほど複雑にする必要はありません。 不必要に複雑にすると予期せず壊れてしまうリスクがあるため、本当に必要な場合に限定するのが得策です。
Web ページで無限スクロールを推奨しますか? オーガニックトラフィックへの影響はありますか
それともグーグルボット?
Gary: Jeethu は次のように尋ねています: Web ページでの無限スクロールをお勧めしますか? その機能を追加した場合、オーガニック トラフィックや GoogleBot に影響はありますか?
無限スクロールをどのように実装するかによって異なります。 各部分や仮想ページにも一意の URL を通じてアクセスして検索できる場合は、一般的には無限スクロールでも問題ありません。
モバイル ウェブ バージョンではリンクが表示されますが、デスクトップでは非表示になります。 Googleは彼らの価値を下げるだろうか?
John: Ryan は尋ねます: ホームページにリンクがあり、そのリンクがモバイル ウェブでは表示されるが、デスクトップでは JavaScript トグルの背後に隠され、クリックされない限り HTML に含まれない場合、Google はそのリンクの価値を下げるのでしょうか?
やあ、ライアン。 モバイル ファースト インデックスでは、モバイル バージョンのページをインデックス作成とリンクの検出の基礎として使用します。 モバイル版にすべてのコンテンツが含まれている場合は、準備完了です。 デスクトップ上のコンテンツが少なくなるのは意外に感じますが、それには理由があるのでしょう。
Google は、Web サイトでホストされていない Google ドライブに保存された PDF ファイルをインデックスに登録しますか?
Gary: 匿名で質問しています: Google は、ウェブサイトでホストされていない Google ドライブに保存されている PDF ファイルをインデックスに登録しますか? もしそうなら、どれくらい時間がかかりますか?
はい、Google は、Google ドライブでホストされている公開 PDF ファイルをインデックスに登録できます。これはサイト上の単なる URL です。 他の URL と同様に、これらの PDF のインデックスが作成されないまでに数秒かかる場合があります。
Google はスクロールジャッキング コンテンツをどのようにクロールしますか?この UX へのアプローチはランキングに影響しますか?
John: Matt は次のような質問を送信しました: 「スクロールジャッキング」はウェブ全体で人気が高まっています。 一般に、これはユーザー エクスペリエンスが悪いと見なされていますが、Google はこのコンテンツをどのようにクロールするのでしょうか。UX へのこのアプローチはランキングに影響しますか? 彼らはまた、スクロールジャッキングに関する記事へのリンクも追加しました。トランスクリプトでリンクします。
こんにちは、マット、それは興味深い質問ですね。 それが「Scrolljacking」と呼ばれているとは知りませんでした。リンクをありがとう。 この設定を不正行為とはみなさないと思いますので、直接的な影響はありません。 ただし、技術的な二次的な影響が発生する可能性があります。 たとえば、Google は理論上非常に大きなモバイル デバイスにページを読み込むことでページをレンダリングします。 スクロール イベントの不正行為によりページにコンテンツが表示されない場合、システムはコンテンツが適切に表示されていないと判断する可能性があります。 つまり、これは品質の問題ではなく、潜在的なレンダリングの問題であると考えられます。
Google Search Console の robots.txt によってブロックされているにもかかわらず、URL がインデックスに登録されているのはなぜですか?
Gary: Deniz Can Aral はこう尋ねています。Google Search Console の robots.txt によってブロックされているのに、なぜインデックスに登録されるのですか?
これは比較的よくある質問です。Google は、robots.txt によるクロールがブロックされている URL であっても、URL のみをインデックスに登録できます。コンテンツはインデックスに登録できません。 ただし、インデックスに含まれるそのような URL の数はごくわずかです。これは、ブロックされた URL がインターネット上で非常に人気がある場合にのみ発生するためです。 これが問題になる場合は、URL のクロールを許可し、HTTP ヘッダーまたは <meta> タグで noindex ルールを使用してください。
不要な AI コンテンツがあります。 Web サイトから修正または削除するにはどうすればよいですか?
John: ソニアは尋ねます: コンテンツ ライターを何人か雇用しましたが、彼らは AI コンテンツを提供してくれました。どうすれば修正できますか? AI コンテンツを削除するだけですか? 新しいコンテンツに置き換えますか? 廃棄して、新しい URL で新しい Web サイトを作成しますか? お知らせ下さい!
何と言っていいかわからない、ソニア。 外部の作成者からのコンテンツをレビューせずにただ盲目的に公開しているように思えますか? AI コンテンツの側面を除いても、これは悪い考えのように思えます。 理由やソースに関係なく、Web サイトに低品質のコンテンツを公開し、それ以上関わりたくない場合は、コンテンツを削除するか、修正することができます。 もっと広い視野で見ることをお勧めします。このようなコンテンツがウェブ上に欠けていて、あなたのサイトはユーザー全体にとって大きな価値をもたらす可能性がありますか? それとも、Web の他の部分にすでに存在するコンテンツを焼き直しただけなのでしょうか? あるいは、このように考えてみてください。あなたのコンテンツが他の人がすでに持っているものと本質的に同じであるなら、なぜ検索エンジンはそれをインデックスに登録する必要があり、ましてや検索結果で上位に表示する必要があるのでしょうか? そしてもちろん、優れた Web サイトを作成するには、優れた記事だけではなく、明確な戦略と、全員が目標に確実に従うプロセスが必要です。
日を追うごとに、インデックスに登録された URL が急増しました。 理由は何ですか?
ゲイリー: ロレンゾは尋ねています。インデックスに登録された URL が日によって急増しました。その理由は何ですか?
もしかしたら、もっと多くのハードドライブを手に入れたかもしれないし、スペースを解放したかもしれないし、単に新しい URL を発見しただけなのかもしれません。 わかりにくいですね。 それでも泡を開けてください! 祝う!
Google は 1 つのファビコン ファイルで複数のファイル サイズを使用できますか?
John: Dave は尋ねます: Google は 1 つのファビコン ファイルで複数のファイル サイズを使用できますか? size 属性でマークアップされた複数のアイコンを理解し、適切なアイコンを選択しますか?
こんにちはデイブ。 技術的には、.ico ファイル形式では複数の解像度でファイルを提供できます。 しかし、さまざまな用途に使用されるサイズの数が増加するにつれて、
の目的からすると、一般的にはサイズとファイルを個別に指定する方が良いと思われます。 Google は HTML で複数のファビコン サイズをサポートしているため、指定したい特定のサイズがある場合は、そのサイズを選択します。
異なる CMS が背後にある場合、Google は Web サイトの一部を異なる判断をしますか?
Gary: Vivienne は尋ねています。Web サイトの一部の背後に別の CMS がある場合、Google はその部分を異なる判断をしますか?
いいえ。
Google 検索では、我々 のウェブサイトに PDF のダウンロードがメイン ページとして表示されます。 検索結果は変更できますか?
ジョン: アンナは尋ねます: 私たちの財団ウェブサイトからの Google 検索結果は再クロールする必要があります。メイン ページとして PDF ダウンロードが表示されます。 私たちのウェブサイトはオランダの人権財団です。 検索結果は変更できますか?
こんにちは、アンナさん。貴社のウェブサイトを拝見させていただきました。貴社のホームページではなく他のページが表示されている理由は、ホームページに noindex robots <meta> タグが付いているためです。 この <meta> タグにより、そのページのインデックス登録が妨げられます。 それを削除すると、事態はすぐに落ち着くはずです。
Google 検索で自分のウェブサイトを検索すると、最初の結果は商品ページであり、ようこそページではありません。 なぜ?
John: Julien は尋ねます: Google 検索で自分の Web サイトを検索すると、最初の結果は製品ページであり、ようこそページではありませんか? 何故ですか? 商品ページはSEO対策もされていませんが、私のウェルカムページはSEO対策が施されています。
こんにちは、ジュリアン。 Google はさまざまな要素を使用して、特定のクエリに対してユーザーにとってどのページが最も関連性が高いかを判断しようとします。 情報検索における概念の 1 つは、認識されたユーザーの意図に基づいています。 要するに、彼らはこれを検索したときに何をしようとしていたのでしょうか? 彼らは製品や会社についての詳しい情報を探していますか? それとも、今その製品を購入しようとしているのでしょうか? これは、同じクエリでも時間の経過とともに変化する可能性があります。 つまり、これは、ページが SEO 向けに準備されていない場合でも、システムがその時点で関連性があると判断すれば、検索に表示される可能性があることを意味します。 実際に私がお勧めするのは、ユーザーがサイトにアクセスする可能性のあるさまざまな方法を理解し、ユーザーがどこにアクセスしても良いエクスペリエンスが得られるように、ユーザーのニーズに適切に対応するよう努めることです。
INP の問題を改善するための Search Console アラートを受け取りました。 これはどのように計算しますか?また、最も簡単な修正方法は何ですか?
John: Alejandro さんが質問を送信しました: こんにちは、ジョンと Google チーム。本日、INP の問題の改善に関する Search Console アラートを受け取りました。 このデータはどのように計算されますか?また、それを修正する最も簡単な方法は何ですか?
ここには完全な答えはありませんが、web.dev サイトには Interaction to Next Paint (略して INP) に関する大量のドキュメントがあります。 サイトのスコアを向上させることに興味がある場合は、それをチェックすることをお勧めします。 INP はまだ Core Web Vitals の一部ではないこと、また Core Web Vitals はページ エクスペリエンスや役立つコンテンツ システムで役割を果たす多くの要素の 1 つにすぎないことに留意してください。 INP の改善は間違いなくユーザー エクスペリエンスに役立ちますが、検索ランキングが目に見えて変わるとは期待していません。
日本語のキーワード ハッキングにより Google Search Console から 30,000 個の URL を削除するにはどうすればよいですか?
John: Heather は尋ねます: 日本語のキーワード ハックから GSC から 30,000 の URL を削除するにはどうすればよいですか?
こんにちはヘザー、ハッキングされたことを聞いて残念です。 それまでに解決できれば幸いですが、この種のハッキングに関する少しのコンテンツが web.dev にあります。トランスクリプトからリンクしておきます。 このハッキングでは、ハッキングされたコンテンツが Google に隠蔽される傾向があるため、コンテンツが完全に削除されたことを再確認するには、何らかの支援が必要になる場合があることに注意してください。 また、検索結果に関しては、関係するページの数を考慮して、より目に見えるページに焦点を当て、それらのページを削除または再インデックス化することで手動で解決し、残りのページは自然に削除することをお勧めします。 ハッキングされたコンテンツを明示的に探している場合は、かなり長い間それを見つけることができますが、平均的なユーザーはあなたのサイトを探しているので、その検索結果を適切なものにすることが目標であるはずです。
Search Console でインデックス作成のためにページを送信した後、ページのインデックスが削除されるのはなぜですか? これをもう何度もやりました。
John: Grace は次のように尋ねています。Search Console でインデックス登録のためにページを送信した後、ページのインデックスが削除されるのはなぜですか? これをもう何度もやりました。
こんにちは、グレース。 関係するページが分からないので何とも言えませんが、これは私たちのシステムがあなたのサイトとそのコンテンツの価値を確信していないことを示唆しています。 Web サイトのすべてのページにインデックスを付けることはほとんどないため、これもある程度は想定内です。 一度インデックス作成をプッシュできる場合もありますが、システムは時間の経過とともにコンテンツと Web サイトを再評価し、それらのページを再び削除する可能性があります。 最善の行動は、これらのページを押し込み続けることではなく、Web サイトの全体的な品質、Web に追加される独自の価値、および何に適合するかを当社のシステムが確信できるようにすることです。 ユーザーが実際に探しているもの。 それから私たちはそれをインデックス付けします私。
Recent Comments