September 2023 Google SEO-Bürozeiten


16
/ 100


September 2023 Google SEO-Bürozeiten

Dies ist das Transkript der Septemberausgabe 2023 der Google SEO Office Hours. Für standortspezifische Hilfe empfehlen wir, Ihre Frage in der Google Search Central-Hilfe-Community zu posten.

Indexiert Google die WWW-Version meiner Website falsch?

John: Wan fragt: Google indiziert die WWW-Version meiner Website falsch. Die richtige Seite sollte HTTP sein und dann ihr Domainname .my ohne das www.

Hallo Wan! Ich habe mir Ihre Seiten angesehen und es sieht so aus, als ob Ihr Server automatisch von der Nicht-WWW-Version auf die WWW-Version umleitet und das kanonische Link-Rel-Element entsprechend einstellt. Wenn Sie Chrome verwenden, sieht es auf den ersten Blick vielleicht so aus, als stünde vorne kein www, aber wenn Sie oben im Browser zweimal auf die URL klicken, wird sie zur vollständigen URL mit www erweitert. In der Praxis ist das in Ordnung – sowohl die WWW- als auch die Nicht-WWW-Version einer Website sind bei der Google-Suche völlig in Ordnung. Wow, das sind viele wwws!

Warum sind gefilterte Daten höher als die Gesamtdaten in der Search Console?

Gary: Ornella fragt: Warum sind gefilterte Daten höher als die Gesamtdaten in der Search Console? Das ergibt keinen Sinn.

Zunächst einmal liebe ich diese Frage, aber wahrscheinlich aus dem falschen Grund. Die kurze Antwort lautet: Wir nutzen sogenannte Bloom-Filter intensiv, weil wir viele Daten verarbeiten müssen und Bloom-Filter uns viel Zeit und Speicherplatz sparen können. Die lange Antwort ist immer noch, dass wir Bloom-Filter intensiv nutzen, weil wir viele Daten verarbeiten müssen, aber ich möchte auch ein paar Worte zu Bloom-Filtern sagen: wenn Sie eine große Anzahl von Elementen in einem Satz verarbeiten, und ich meine Bei Milliarden von Artikeln, wenn nicht Billionen, wird das schnelle Nachschlagen sehr schwierig. Hier kommen Bloom-Filter zum Einsatz: Sie ermöglichen es Ihnen, einen anderen Satz zu konsultieren, der einen Hash möglicher Elemente im Hauptsatz enthält, und die Daten dort nachzuschlagen. Da Sie zuerst nach Hashes suchen, geht das ziemlich schnell, aber Hashing geht manchmal mit Datenverlust einher, sei es beabsichtigt oder nicht, und diese fehlenden Daten sind das, was Sie erleben: Weniger Daten, die durchsucht werden müssen, bedeuten genauere Vorhersagen darüber, ob etwas existiert im Hauptsatz oder nicht. Grundsätzlich beschleunigen Bloom-Filter Suchvorgänge, indem sie vorhersagen, ob etwas in einem Datensatz vorhanden ist, allerdings auf Kosten der Genauigkeit, und je kleiner der Datensatz ist, desto genauer sind die Vorhersagen.

Warum werden die Seiten meiner Google Sites-Website nicht ordnungsgemäß indiziert?

John: Es wurde eine Frage auf Französisch eingereicht, in der im Wesentlichen gefragt wird, warum die Seiten meiner Google Sites-Website nicht ordnungsgemäß indexiert werden.

Es ist toll, Fragen in anderen Sprachen zu bekommen. Um einen Schritt zurückzutreten: Websites, die auf Google Sites erstellt wurden, können und werden in der Google-Suche indexiert. Allerdings sind die in Google Sites verwendeten URLs etwas schwer zu verfolgen, da die öffentliche Version sich von der URL unterscheiden kann, die Sie sehen, wenn Sie angemeldet sind. Um es ganz klar zu sagen: Obwohl sie technisch indexierbar ist, ist sie für SEO-Zwecke nicht ideal und kann komplex sein zum Tracking in der Search Console. Wenn SEO Ihr Hauptanliegen ist, könnte es sich lohnen, andere Optionen zu erkunden und die Vor- und Nachteile zu prüfen, bevor Sie sich entscheiden. Für die Leistungsverfolgung in der Search Console können Sie auch Ihren eigenen Domainnamen für den Google Sites-Inhalt verwenden. Wenn Sie Ihren eigenen Domainnamen verwenden, ist die Migration bei Bedarf einfacher und Sie können die Inhaberschaft der gesamten Domain für die Search Console bestätigen.

Unsere Website verfügt über viele Schaltflächen. Wenn Sie darauf klicken, werden Links zu anderen Seiten aufgerufen. Kann Google diese Links crawlen?

Gary: Sarabjit fragt: Unsere Website hat mehrere Schaltflächen. Wenn wir darauf klicken, rufen wir Links zu anderen Seiten ab. Kann Google diese Links crawlen?

Im Allgemeinen klickt der Googlebot nicht auf Schaltflächen.

Verstößt ein „Gastbeitrag“ (um einen Backlink zu erhalten) gegen die Richtlinien von Google, wenn ich wertvolle Inhalte schreibe?

John: Brooke fragt: Die meisten Websites bieten heutzutage nur die Möglichkeit, einen „Gastbeitrag“ (um einen Backlink zu erhalten) von ihnen zu kaufen. Verstößt dies gegen die Richtlinien von Google, wenn ich wertvolle Inhalte schreibe?

Hallo Brooke, danke, dass du deine Frage gepostet hast. Es hört sich so an, als wären Sie bereits auf dem richtigen Weg. Ja, die Verwendung von Gastbeiträgen für Links verstößt gegen unsere Spam-Richtlinien. Insbesondere ist es wichtig, dass diese Links so qualifiziert sind, dass sie keinen Einfluss auf die Suchergebnisse haben. Sie können dies mit den Attributen rel=nofollow oder rel=sponsored auf Links tun. Es ist in Ordnung, Werbung zur Bewerbung Ihrer Website zu verwenden, die Links sollten jedoch wie erwähnt blockiert werden.

Ist der Inhalt einer E-Commerce-Kategorieseite für die Verbesserung des Gesamtrankings wertvoll?

Gary: Brooke fragt: Ist der Inhalt einer E-Commerce-Kategorieseite wertvoll für die Verbesserung des Gesamtrankings?

Sie können Ihren Seiten beliebige Inhalte hinzufügen, schließlich sind es Ihre Seiten. Aber bitte machen Sie diese automatisch generierten, minderwertigen, sich wiederholenden Textausbrüche nicht immer wieder auf allen Ihren Kategorieseiten. Es sieht einfach albern aus, selbst für den Durchschnittsmenschen. Wenn Sie Inhalte auf Ihren Seiten benötigen, fügen Sie Inhalte hinzu, die von den Leuten tatsächlich genutzt werden

Fügen Sie keine Inhalte hinzu, da die Suche dies Ihrer Meinung nach möglicherweise erfordert. Schauen Sie sich auch unsere E-Commerce-Empfehlungen an.

Führen falsche semantische Tags dazu, dass Google den Inhalt der Website schlechter versteht?

John: Führen falsche semantische Tags dazu, dass Google den Website-Inhalt insgesamt schlechter versteht und ihn somit schlechter einer Filiale zuordnen kann? Insbesondere <hr>-Tags signalisieren einen Themenwechsel, ich verwende sie jedoch möglicherweise nur zu Designzwecken.

Das ist eine interessante Frage. Im Allgemeinen kann die korrekte Verwendung von semantischem HTML Suchmaschinen dabei helfen, den Inhalt einer Seite und ihren Kontext besser zu verstehen. Wenn Sie beispielsweise Überschriften auf einer Seite markieren, ist das ein klares Zeichen dafür, dass Ihr Inhalt Ihrer Meinung nach zu dieser Überschrift passt. Es ist kein geheimer Weg zu den ersten Plätzen im Ranking, aber wenn wir Schwierigkeiten haben, zu verstehen, was Sie im Text meinen, dann hilft eine klare Zusammenfassung in Form von Überschriften. Da es sich um eine subtile Sache handelt, die davon abhängt, wie gut wir die Seite ansonsten verstehen, würde ich es als gute Vorgehensweise ansehen, sicherzustellen, dass alles abgedeckt ist. Auch die Umkehrung von semantisch korrektem zu semantisch falschem HTML ist subtil. Können Suchmaschinen Ihre Seite noch verstehen? Dann würden Sie wahrscheinlich keinen Unterschied darin sehen, wie sie es verstehen. Ist die Bedeutung plötzlich unklar? Dann, nun ja, machen Sie es vielleicht weniger verschwommen, vielleicht mit einer semantischen Struktur. Was Ihr spezielles Beispiel für <hr>-Tags betrifft, kann ich mir keine Situation vorstellen, in der es zu einem Unterschied im Verständnis einer Seite kommen würde, weil sie falsch verwendet werden. Es gibt unendlich viele Möglichkeiten, etwas falsch zu verwenden, aber diejenigen, auf die ein Webdesigner meiner Meinung nach versehentlich mit <hr>-Tags stoßen könnte, scheinen ziemlich sicher zu sein. Ich schätze, das ist ein langer Weg, um zu sagen: „Es kommt darauf an“, gern geschehen.

In der Google Search Console enthält der Bericht für 404-Seiten viele URLs, die scheinbar aus JSON oder JavaScript stammen. Sollen wir es ignorieren?

Gary: Reza fragt: In der Google Search Console ist der Bericht für 404-Seiten mit URLs gefüllt, die scheinbar versehentlich aus einem JSON- oder JavaScript-Code übernommen wurden. Sollten wir das ignorieren?

Sie können diese ignorieren oder einfach einen Noindex-HTTP-Header für sie hinzufügen.

Können Sitemap-Indexdateien Links zu Sitemap-Dateien auf anderen Domains enthalten?

John: Dhruv fragt: Kann die Sitemap-Indexdatei Links zu Sitemap-Dateien auf anderen Domains enthalten?

Hallo Dhruv, interessante Frage. Die Antwort von Googles Seite ist eindeutig vielleicht, und aus diesem Grund schlage ich vor, ein solches Setup nicht zu verwenden. Sie können in zwei Situationen Sitemaps für URLs einreichen, die sich nicht auf derselben Domain befinden: Entweder Sie übermitteln die Sitemap über robots.txt oder Sie haben die Inhaberschaft aller Domains in der Search Console bestätigt. Insbesondere der Besitz der Search Console kann subtil und bei der Analyse der Website nicht sofort sichtbar sein, sodass man diesen Zusammenhang leicht vergisst. Wenn Sie an Sitemap-Dateien arbeiten und beschließen, dass Sie ein solches Setup verwenden möchten, wäre mein Tipp, der Sitemap-Datei einen XML-Kommentar hinzuzufügen, damit Sie sich diese Anforderungen merken und sie nicht versehentlich unterbrechen Zukunft. Da die Search Console Google-spezifisch ist, sollten Sie auch die Anforderungen anderer Suchmaschinen diesbezüglich prüfen.

Wie verringert man die Wahrscheinlichkeit, dass Google eigene Meta-Beschreibungen für Websites auswählt?

Gary: Sam Bowers fragt: Wie verringert man die Wahrscheinlichkeit, dass Google seine eigenen Meta-Beschreibungen für Websites auswählt?

Gute Frage: Nicht immer, aber normalerweise verwenden unsere Algorithmen Ihre Meta-Beschreibung, wenn die Seite nicht viel Inhalt enthält oder wenn die Meta-Beschreibung für die Anfrage eines Benutzers relevanter ist als der tatsächliche Inhalt der Seite. Erfahren Sie mehr über Beschreibungen und Snippets.

Gibt es eine Möglichkeit, Suchmaschinen-Bots anzugeben, bestimmte Abschnitte einer Seite nicht zu crawlen?

John: Gibt es eine Möglichkeit, Suchmaschinen-Bots anzugeben, bestimmte Abschnitte auf einer Seite nicht zu crawlen (ansonsten ist die Seite zum Crawlen und Indexieren zugelassen). Sie erwähnen weiterhin, dass es in „Mega-Menüs“ viele Duplikate gibt und diese gerne blockiert werden würden.

Ja, es gibt Dinge, die Sie tun können, um die Indizierung von Teilen einer Seite zu verhindern, aber insbesondere für allgemeine Seitenelemente wie Kopfzeilen, Menüs, Seitenleisten und Fußzeilen ist es nicht notwendig, die Indizierung zu blockieren. Suchmaschinen gehen mit dem Web so um, wie es ist, und manchmal gibt es riesige Mega-Menüs oder Überfußzeilen, das ist in Ordnung. Für andere Inhalte auf einer Seite können Sie entweder einen Iframe mit einer von robots.txt nicht zugelassenen Quelle verwenden oder Inhalte mit JavaScript abrufen, die ebenfalls von robots.txt blockiert werden. Wenn Sie einfach vermeiden möchten, dass etwas in einem Snippet angezeigt wird, ist die Verwendung des Attributs data-nosnippet eine gute Möglichkeit, dies zu tun. Aber auch hier ist es nicht nötig, so viel Komplexität hinzuzufügen, nur um ein Menü auszublenden. Unnötige Komplexität birgt das Risiko, dass Dinge unerwartet kaputt gehen. Deshalb ist es gut, dies auf Fälle zu beschränken, in denen es wirklich nötig ist.

Empfehlen Sie unendliches Scrollen auf Webseiten? Gibt es Auswirkungen auf den organischen Traffic?

oder Googlebot?

Gary: Jeethu fragt: Empfehlen Sie unendliches Scrollen auf Webseiten? Hat es irgendwelche Auswirkungen auf den organischen Traffic oder GoogleBot, wenn ich diese Funktion hinzufüge?

Es hängt davon ab, wie Sie das unendliche Scrollen implementieren. Wenn jedes Stück oder jede virtuelle Seite auch über eine eindeutige URL zugänglich und auffindbar ist, sollte es im Allgemeinen in Ordnung sein, über unendliches Scrollen zu verfügen

In der mobilen Webversion werden Links angezeigt, auf dem Desktop jedoch ausgeblendet. Wird Google sie abwerten?

John: Ryan fragt: Wenn eine Homepage Links enthält, die im mobilen Web angezeigt werden, aber auf dem Desktop hinter einem JavaScript-Schalter verborgen sind und erst dann im HTML enthalten sind, wenn darauf geklickt wird, wird Google sie dann abwerten?

Hallo Ryan. Bei der Mobile-First-Indexierung verwenden wir die mobile Version einer Seite als Grundlage für die Indexierung und die Suche nach Links. Wenn die mobile Version den vollständigen Inhalt enthält, sind Sie startklar. Es überrascht mich, dass Sie weniger Inhalte auf dem Desktop haben, aber ich denke, Sie haben Gründe dafür.

Indiziert Google PDF-Dateien, die auf Google Drive gespeichert sind und nicht auf einer Website gehostet werden?

Gary: Anonymous fragt: Indexiert Google PDF-Dateien, die in Google Drive gespeichert sind und nicht auf einer Website gehostet werden? Wenn ja, wie lange dauert es?

Ja, Google kann öffentliche PDF-Dateien indizieren, die auf Google Drive gehostet werden. Dabei handelt es sich lediglich um eine weitere URL auf einer Website. Wie bei jeder URL kann es einige Sekunden dauern, bis diese PDFs nie indiziert werden.

Wie crawlt Google Scrolljacking-Inhalte und wird sich dieser UX-Ansatz auf das Ranking auswirken?

John: Matt hat eine Frage eingereicht, in der es heißt: „Scrolljacking“ erfreut sich im Web immer größerer Beliebtheit. Im Allgemeinen wird dies als schlechte Benutzererfahrung angesehen. Wie crawlt Google diesen Inhalt und wird sich dieser UX-Ansatz auf das Ranking auswirken? Sie haben auch einen Link zu einem Artikel über Scrolljacking hinzugefügt, auf den ich im Transkript verlinken werde.

Hallo Matt, das ist eine interessante Frage. Ich wusste nicht, dass es „Scrolljacking“ heißt, danke für den Link. Ich glaube nicht, dass wir dieses Setup als missbräuchlich empfinden würden, daher wird es keine direkten Auswirkungen geben. Es können jedoch technische Effekte zweiter Ordnung auftreten. Beispielsweise rendert Google Seiten, indem es sie auf ein theoretisch sehr großes Mobilgerät lädt. Wenn die Seite aufgrund von Spielereien mit Scroll-Ereignissen den Inhalt dort nicht anzeigt, gehen unsere Systeme möglicherweise davon aus, dass der Inhalt nicht richtig sichtbar ist. Kurz gesagt, ich würde dies eher als potenzielles Rendering-Problem denn als Qualitätsproblem betrachten.

Warum wird die URL indexiert, obwohl sie von robots.txt in meiner Google Search Console blockiert wird?

Gary: Deniz Can Aral fragt: Warum indexiert, obwohl von robots.txt in meiner Google Search Console blockiert?

Dies ist eine relativ häufige Frage: Google kann die URL indizieren, und zwar nur die URL, nicht den Inhalt, selbst wenn diese URL für das Crawlen durch robots.txt blockiert ist. Die Anzahl solcher URLs in unserem Index ist jedoch gering, da dies nur dann der Fall ist, wenn die blockierte URL im Internet stark gesucht ist. Wenn dies für Sie problematisch ist, erlauben Sie das Crawlen der URL und verwenden Sie eine Noindex-Regel in den HTTP-Headern oder ein <meta>-Tag.

Wir haben unerwünschte KI-Inhalte! Wie kann ich das Problem beheben oder von meiner Website entfernen?

John: Sonia fragt: Wir haben einige Content-Autoren eingestellt, aber sie haben uns KI-Inhalte gegeben. Wie kann ich das beheben? Lösche ich einfach KI-Inhalte? Durch neuen Inhalt ersetzen? Verschrotten und eine neue Website mit einer neuen URL erstellen? Bitte beraten!

Ich weiß nicht, was ich sagen soll, Sonia. Es hört sich so an, als hätten Sie einfach blind Inhalte von externen Autoren ohne Rezension veröffentlicht? Das scheint eine schlechte Idee zu sein, auch ohne den Aspekt der KI-Inhalte. Nun, unabhängig von den Gründen und der Quelle: Wenn Sie minderwertige Inhalte auf Ihrer Website veröffentlicht haben und nicht mehr damit in Verbindung gebracht werden möchten, können Sie die Inhalte entweder entfernen oder korrigieren. Ich würde vorschlagen, das Gesamtbild zu betrachten: Fehlen solche Inhalte im Web und Ihre Website könnte insgesamt einen erheblichen Mehrwert für die Benutzer schaffen? Oder handelt es sich lediglich um aufbereitete Inhalte, die bereits im Rest des Webs vorhanden sind? Oder stellen Sie es sich so vor: Wenn Ihr Inhalt im Wesentlichen mit dem übereinstimmt, den andere bereits haben, warum sollten Suchmaschinen ihn dann überhaupt indizieren, geschweige denn in den Suchergebnissen weit oben anzeigen? Und um eine großartige Website zu erstellen, braucht es natürlich mehr als nur gute Artikel, es braucht eine klare Strategie und Prozesse, die sicherstellen, dass alle mit Ihren Zielen einverstanden sind.

Wir haben von einem Tag auf den anderen einen Anstieg der indexierten URLs verzeichnet. Was sind die Gründe?

Gary: Lorenzo fragt: Wir haben von einem Tag auf den anderen einen Anstieg der indexierten URLs verzeichnet: Was sind die Gründe?

Vielleicht haben wir mehr Festplatten bekommen, vielleicht haben wir etwas Platz frei gemacht, vielleicht haben wir gerade diese neuen URLs entdeckt. Es ist schwer zu sagen. Öffnen Sie den Sekt trotzdem! Feiern!

Kann Google mehrere Dateigrößen in einer Favicon-Datei verwenden?

John: Dave fragt: Kann Google mehrere Dateigrößen in einer Favicon-Datei verwenden? Versteht es mehrere Symbole, die mit dem Größenattribut gekennzeichnet sind, und wählt es ein geeignetes aus?

Hallo Dave. Technisch gesehen ermöglicht Ihnen das .ico-Dateiformat die Bereitstellung von Dateien in mehreren Auflösungen. Mit der zunehmenden Anzahl von Größen, die für verschiedene Zwecke verwendet werden, nimmt jedoch zu

Für meine Zwecke vermute ich, dass es im Allgemeinen besser ist, die Größen und Dateien einzeln anzugeben. Google unterstützt mehrere Favicon-Größen in HTML. Wenn Sie also bestimmte Größen angeben möchten, würde ich diese verwenden.

Bewertet Google Teile einer Website anders, wenn ein anderes CMS dahinter steckt?

Gary: Vivienne fragt: Beurteilt Google Teile einer Website anders, wenn sich dahinter ein anderes CMS verbirgt?

NEIN.

In der Google-Suche zeigt unsere Website einen PDF-Download als Hauptseite an. Kann das Suchergebnis geändert werden?

John: Anna fragt: Das Google-Suchergebnis unserer Stiftungswebsite muss erneut gecrawlt werden. Als Hauptseite wird ein PDF-Download angezeigt. Unsere Website ist eine niederländische Menschenrechtsstiftung. Kann das Suchergebnis geändert werden?

Hallo Anna, ich habe mir deine Website angesehen und festgestellt, dass statt deiner Startseite andere Seiten angezeigt werden, weil die Startseite ein Noindex-Robots-<meta>-Tag enthält. Dieses <meta> Tag verhindert die Indexierung dieser Seite. Sobald Sie es entfernen, sollten sich die Dinge schnell beruhigen.

Wenn ich in der Google-Suche nach meiner Website suche, ist das erste Ergebnis eine Produktseite und nicht meine Willkommensseite. Warum?

John: Julien fragt: Wenn ich in der Google-Suche nach meiner Website suche, ist das erste Ergebnis eine Produktseite und nicht meine Willkommensseite? Warum das? Die Produktseite ist noch nicht einmal mit SEO vorbereitet, meine Begrüßungsseite jedoch schon.

Hallo Julien. Google nutzt eine Reihe von Faktoren, um herauszufinden, welche Seiten für Nutzer bei bestimmten Suchanfragen am relevantesten sein könnten. Beim Informationsabruf basiert eines der Konzepte auf der wahrgenommenen Benutzerabsicht. Kurz gesagt: Was wollten sie tun, als sie danach suchten? Suchen sie nach weiteren Informationen zu einem Produkt oder Unternehmen? Oder möchten sie das Produkt gerade jetzt kaufen? Dies kann sich im Laufe der Zeit auch für dieselbe Abfrage ändern. Kurz gesagt bedeutet dies jedoch, dass eine Seite auch dann in der Suche angezeigt werden kann, wenn sie nicht für SEO vorbereitet ist, wenn die Systeme sie zu diesem Zeitpunkt für relevant halten. In der Praxis empfehle ich Ihnen, die unterschiedlichen Wege zu verstehen, auf denen Benutzer auf Ihre Website gelangen könnten, und zu versuchen, ihre Bedürfnisse angemessen abzudecken, damit sie unabhängig davon, wo sie landen, ein gutes Erlebnis haben.

Ich habe eine Search Console-Benachrichtigung zur Verbesserung von INP-Problemen erhalten. Wie berechnet man das und was ist die einfachste Lösung?

John: Alejandro hat eine Frage eingereicht: Hallo John und Google-Team, heute habe ich eine Search Console-Benachrichtigung bezüglich der Verbesserung von INP-Problemen erhalten. Wie berechnet man diese Daten und wie kann man sie am einfachsten korrigieren?

Ich habe hier keine vollständige Antwort, aber es gibt eine ganze Menge Dokumentation zu Interaction to Next Paint, kurz INP, auf der Website web.dev. Ich würde Ihnen empfehlen, sich das anzusehen, wenn Sie daran interessiert sind, die Punktzahlen Ihrer Website dort zu verbessern. Beachten Sie, dass INP noch nicht Teil von Core Web Vitals ist und dass Core Web Vitals nur eines von vielen Dingen ist, die für unser Seitenerlebnis und hilfreiche Inhaltssysteme eine Rolle spielen. Obwohl eine Verbesserung des INP das Benutzererlebnis definitiv verbessern kann, erwarte ich nicht, dass sich dadurch das Suchranking sichtbar ändert.

Wie entferne ich 30.000 URLs aus der Google Search Console nach einem japanischen Keyword-Hack?

John: Heather fragt: Wie entferne ich 30.000 URLs aus GSC aus dem japanischen Keyword-Hack?

Hallo Heather, es tut mir leid, dass ich gehackt wurde. Ich hoffe, Sie konnten das Problem in der Zwischenzeit lösen, aber wir haben ein paar Inhalte zu dieser Art von Hack auf web.dev, ich werde im Transkript darauf verlinken. Beachten Sie, dass dieser Hack dazu neigt, den gehackten Inhalt für Google zu verschleiern. Daher benötigen Sie möglicherweise Hilfe, um noch einmal zu überprüfen, ob er vollständig entfernt wurde. Und was die Suchergebnisse betrifft, würde ich angesichts der Anzahl der beteiligten Seiten empfehlen, sich auf die sichtbareren Seiten zu konzentrieren und diese manuell durch Entfernen oder Neuindexieren aufzulösen und den Rest dann von selbst verschwinden zu lassen. Wenn Sie explizit nach den gehackten Inhalten suchen, werden Sie diese noch einige Zeit lang finden können, aber der durchschnittliche Benutzer würde nach Ihrer Website suchen, und das Ziel sollte darin bestehen, diese Suchergebnisse in Ordnung zu bringen.

Warum werden meine Seiten deindiziert, nachdem sie zur Indexierung in der Search Console eingereicht wurden? Ich habe das jetzt schon mehrfach gemacht.

John: Grace fragt: Warum werden Seiten deindexiert, nachdem sie zur Indexierung in der Search Console eingereicht wurden? Ich habe das jetzt schon mehrfach gemacht.

Hallo Grace. Ich kann es nicht wirklich sagen, ohne die beteiligten Seiten zu kennen. Für mich deutet dies jedoch darauf hin, dass unsere Systeme nicht vom Wert Ihrer Website und ihres Inhalts überzeugt sind. Wir indizieren fast nie alle Seiten einer Website, daher ist einiges davon auch zu erwarten. Möglicherweise können Sie einmal auf die Indexierung drängen, aber unsere Systeme werden den Inhalt und die Website im Laufe der Zeit neu bewerten und diese Seiten möglicherweise wieder löschen. Die beste Vorgehensweise besteht darin, nicht ständig zu versuchen, diese Seiten einzubinden, sondern dafür zu sorgen, dass unsere Systeme von der Gesamtqualität Ihrer Website, dem einzigartigen Wert, den sie dem Web hinzufügt, und der Übereinstimmung mit dem, was sie bietet, überzeugt sind Benutzer tatsächlich suchen. Dann gehen wir los und indizieren es auf unserem Own.