Seite 1 von 1

Kann eine Reindizierung erzwungen werden?

Verfasst: 01.03.2011, 10:58
von Linka
Hallo miteinander!

Wenn auf einer Seite Content geändert wurde, wirkt sich das in den Suchergebnissen ja erst aus, wenn Google diese Seite erneut besucht und neu indiziert hat.

Gibt es irgendeine Möglichkeit Google diesbezüglich "auf die Sprünge" zu helfen? Oder muss man einfach geduldig abwarten?

Ich warte jetzt schon seit ca. 10 Tagen. Die Seite wird auch in der XML-Sitemap, die lt. Webmaster-Tools von Google täglich geladen wird, als geändert ausgewiesen. Aber in den Suchergebnissen und im Google-Cache befindet sich immer noch die alte Seite.

Was kann ich tun?

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Verfasst: 01.03.2011, 11:15
von Malte Landwehr
Du könntest dir URL noch unter https://www.google.de/addurl/ eintragen. Ob das wirklich hilft kann ich dir nicht sagen.

Hast du Logfiles aus denen hervorgeht ob der Google-Bot in den letzten 10 Tag auf der geänderten Seite war?

Ich würde eher die Ursache als das Symptom behandeln, also überlegen warum Google den neuen Inhalt nicht sofort nimmt. Falls OnPage keine möglichen Ursachen gefunden werden muss halt OffPage mehr passieren.

Verfasst: 01.03.2011, 11:42
von Hirnhamster
Kannst auch mal dezent ein bisschen pingen, zb mit pingler.com

Verfasst:
von
Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Verfasst: 01.03.2011, 13:53
von Linka
Malte Landwehr hat geschrieben:Du könntest dir URL noch unter https://www.google.de/addurl/ eintragen. Ob das wirklich hilft kann ich dir nicht sagen.
Ich fürchte, das nützt wohl nichts. Wenn ich das richtig sehe, dient die Seite nur dazu, Google überhaupt zu sagen, dass es eine neue Site gibt. Es heißt dort ja auch ausdücklich: "Nur das oberste Verzeichnis eines Hosts ist notwendig; Sie brauchen nicht jede einzelne Seite anzugeben. Unser Web-Crawler, Googlebot, findet den Rest."
Malte Landwehr hat geschrieben:Hast du Logfiles aus denen hervorgeht ob der Google-Bot in den letzten 10 Tag auf der geänderten Seite war?
Leider nein. Dazu müsste ich sämtliche Logfiles per Hand durchsuchen, was sehr aufwändig und unübersichtlich wäre. Gibt es denn Tools, die das automatisch aus den Logs extrahieren und eine Übersicht erstellen, welcher bot welche Seite besucht hat?
Malte Landwehr hat geschrieben:Ich würde eher die Ursache als das Symptom behandeln, also überlegen warum Google den neuen Inhalt nicht sofort nimmt. Falls OnPage keine möglichen Ursachen gefunden werden muss halt OffPage mehr passieren.
Das ist sicher eine gute Idee! Welche OnPage-Ursachen kämen denn da in Frage? OffPage heißt dann mehr Backlinks, oder?

Verfasst: 01.03.2011, 14:24
von lois69
wenn du die seite zb 5 jahre nicht geaendert hast kannst auch nicht erwarten dass g. grosses interesse daran hat. dann schaut der bot nur 1 mal im monat vorbei

Verfasst: 01.03.2011, 14:39
von Linka
lois69 hat geschrieben:wenn du die seite zb 5 jahre nicht geaendert hast kannst auch nicht erwarten dass g. grosses interesse daran hat. dann schaut der bot nur 1 mal im monat vorbei
Und die XML-Sitemap (die er täglich lädt) interessiert ihn dann auch nicht? Da steht nämlich drin, wann die Seite geändert wurde.

Verfasst: 01.03.2011, 15:26
von Malte Landwehr
Die XML-Sitemap ist nur eine Empfehlung für Google, keine Anweisung. Wenn also die anderen Faktoren Google vermuten lassen, dass es keine (wichtige) Änderung gab, dann lässt Google sich auch mal viel Zeit obwohl in der XML-Sitemap steht, dass es neue/überarbeitete Inhalte gibt.


Linka hat geschrieben:Welche OnPage-Ursachen kämen denn da in Frage?
Zum Beispiel extrem viele interne Links auf jeder Unterseite. Parameter in der URL. Sehr tiefe Linkstruktur (also eigentlich Inhalte erst nach mehreren Klicks von der Startseite aus erreichbar sind). Viel DC (intern wie extern). Viele Unterseiten mit sehr wenig Content. Viele Unterseiten mit gleichen Titeln oder gleicher Meta-Description.

Wenn du dir in der Hinsicht sorgen machst: In den Google Webmaster Tools anmelden und zwei Dinge checken:
1) Wie viele Seiten aus der XML-Sitemap sind im Index?
2) Gibt es Warnungen (bezüglich Title, usw.)?


Linka hat geschrieben:OffPage heißt dann mehr Backlinks, oder?
Mehr _gute_ Backlinks .

Verfasst: 01.03.2011, 15:39
von jackwiesel
Wenn das Problem häufiger auftritt, hast Du in der Tat ein Problem - Abhilfe schaffen die Hinweise der Vorredner.

Solltest Du sehr wenig an Änderungen/Erweiterungen/Neuigkeiten einstellen, lässt sich die Aufnahme neuen Contents durch SBs in der Regel erheblich beschleunigen.

Verfasst: 01.03.2011, 16:19
von Linka
Malte Landwehr hat geschrieben:Die XML-Sitemap ist nur eine Empfehlung für Google, keine Anweisung. Wenn also die anderen Faktoren Google vermuten lassen, dass es keine (wichtige) Änderung gab, dann lässt Google sich auch mal viel Zeit obwohl in der XML-Sitemap steht, dass es neue/überarbeitete Inhalte gibt.
Schade. Ich dachte, die XML-Sitemap würde bevorzugt abgearbeitet, zumal sie lt. Webmastertools von Google täglich gezogen wird.
Malte Landwehr hat geschrieben:Wenn du dir in der Hinsicht sorgen machst: In den Google Webmaster Tools anmelden und zwei Dinge checken:
1) Wie viele Seiten aus der XML-Sitemap sind im Index?
2) Gibt es Warnungen (bezüglich Title, usw.)?
Von 3700 Seiten aus der XML-Sitemap sind lt. Webmastertools 3100 Seiten im Index. Malware wurde nicht gefunden; Dafür aber 90 fehlerhafte Links (um die will ich mich als nächstes kümmern), 2 doppelte Metabeschreibungen und 6 doppelte title-Tags. Weitere keine "HTML-Vorschlage" gibt es nicht.

Ich denke, das ist eigentlich ein ganz passables Ergebnis. Oder leige ich da falsch?
jackwiesel hat geschrieben:Solltest Du sehr wenig an Änderungen/Erweiterungen/Neuigkeiten einstellen, lässt sich die Aufnahme neuen Contents durch SBs in der Regel erheblich beschleunigen.
Entschuldigung, ich bin noch nicht so ganz in der Materie drin. Was bitte sind "SBs" ?

Verfasst: 01.03.2011, 22:22
von Hirnhamster

Verfasst: 02.03.2011, 10:00
von Linka
Danke für den Hinweis!

Also solche Seiten wie Mr. Wong und Oneview?

Bringen die echt was? Bei der Masse von (Müll)-Bookmarks gehen die eigenen doch eh total unter?

Verfasst: 02.03.2011, 10:11
von Malte Landwehr
Linka hat geschrieben:Bringen die echt was? Bei der Masse von (Müll)-Bookmarks gehen die eigenen doch eh total unter?
Ja Social-Bookmarks bringen (noch) etwas.

Verfasst: 02.03.2011, 13:11
von Linka
Hallo Malte,

vielen Dank für Deine hilfreichen Antworten. Ich bin gerade dabei, mich in das ganze Thema einzuarbeiten und ein Gefühl zu entwickeln. Daher würde ich mich sehr freuen, wenn Du auch noch was zu meinen Webmaster-Tool-Ergebnissen oben sagen könntest.

Und nochmal zu den Social Bookmarks: Ich habe gerade gesehen, dass die meisten die Links inzwischen auf "nofollow" geschaltet haben. Wie können die dann noch etwas zum Ranking beitragen, wenn sie nicht mehr als Backlinks gelten?

Verfasst: 03.03.2011, 09:07
von Linka
Schade: Editieren bringt es nicht nach oben. So, nun aber!

Verfasst: 06.03.2011, 19:04
von Linka
Hallo zusammen,

wäre echt nett, wenn mir noch jemand Feedback geben könnte:

1. zu den Ergenissen in meinen Webmastertools: Von 3700 Seiten aus der XML-Sitemap sind lt. Webmastertools 3100 Seiten im Index. Malware wurde nicht gefunden; Dafür aber 90 fehlerhafte Links (um die will ich mich als nächstes kümmern), 2 doppelte Metabeschreibungen und 6 doppelte title-Tags. Weitere keine "HTML-Vorschlage" gibt es nicht.

Ist das gut oder eher nicht?

2. Warum fördern die Social Bookmarks das Ranking, wenn inwischen fast alle Links von dort auf "nofollow" stehen?

Sorry, bin echt noch Anfänger im SEO