Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Kann eine Reindizierung erzwungen werden?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
Linka
PostRank 2
PostRank 2
Beiträge: 55
Registriert: 01.03.2011, 08:43

Beitrag von Linka » 01.03.2011, 10:58

Hallo miteinander!

Wenn auf einer Seite Content geändert wurde, wirkt sich das in den Suchergebnissen ja erst aus, wenn Google diese Seite erneut besucht und neu indiziert hat.

Gibt es irgendeine Möglichkeit Google diesbezüglich "auf die Sprünge" zu helfen? Oder muss man einfach geduldig abwarten?

Ich warte jetzt schon seit ca. 10 Tagen. Die Seite wird auch in der XML-Sitemap, die lt. Webmaster-Tools von Google täglich geladen wird, als geändert ausgewiesen. Aber in den Suchergebnissen und im Google-Cache befindet sich immer noch die alte Seite.

Was kann ich tun?

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Malte Landwehr
PostRank 10
PostRank 10
Beiträge: 3474
Registriert: 22.05.2005, 10:45

Beitrag von Malte Landwehr » 01.03.2011, 11:15

Du könntest dir URL noch unter https://www.google.de/addurl/ eintragen. Ob das wirklich hilft kann ich dir nicht sagen.

Hast du Logfiles aus denen hervorgeht ob der Google-Bot in den letzten 10 Tag auf der geänderten Seite war?

Ich würde eher die Ursache als das Symptom behandeln, also überlegen warum Google den neuen Inhalt nicht sofort nimmt. Falls OnPage keine möglichen Ursachen gefunden werden muss halt OffPage mehr passieren.
Die 45 wichtigsten SEO-Tools und wie ich sie nutze.

Hirnhamster
PostRank 10
PostRank 10
Beiträge: 2997
Registriert: 23.02.2008, 12:56

Beitrag von Hirnhamster » 01.03.2011, 11:42

Kannst auch mal dezent ein bisschen pingen, zb mit pingler.com
Texte/Content schnell und effizient en masse produzieren » Article Wizard «

SEO Grundlagen: SEO Tutorial --- Linkbuilding Fallstudie --- Find me on Google+ and Twitter

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Linka
PostRank 2
PostRank 2
Beiträge: 55
Registriert: 01.03.2011, 08:43

Beitrag von Linka » 01.03.2011, 13:53

Malte Landwehr hat geschrieben:Du könntest dir URL noch unter https://www.google.de/addurl/ eintragen. Ob das wirklich hilft kann ich dir nicht sagen.
Ich fürchte, das nützt wohl nichts. Wenn ich das richtig sehe, dient die Seite nur dazu, Google überhaupt zu sagen, dass es eine neue Site gibt. Es heißt dort ja auch ausdücklich: "Nur das oberste Verzeichnis eines Hosts ist notwendig; Sie brauchen nicht jede einzelne Seite anzugeben. Unser Web-Crawler, Googlebot, findet den Rest."
Malte Landwehr hat geschrieben:Hast du Logfiles aus denen hervorgeht ob der Google-Bot in den letzten 10 Tag auf der geänderten Seite war?
Leider nein. Dazu müsste ich sämtliche Logfiles per Hand durchsuchen, was sehr aufwändig und unübersichtlich wäre. Gibt es denn Tools, die das automatisch aus den Logs extrahieren und eine Übersicht erstellen, welcher bot welche Seite besucht hat?
Malte Landwehr hat geschrieben:Ich würde eher die Ursache als das Symptom behandeln, also überlegen warum Google den neuen Inhalt nicht sofort nimmt. Falls OnPage keine möglichen Ursachen gefunden werden muss halt OffPage mehr passieren.
Das ist sicher eine gute Idee! Welche OnPage-Ursachen kämen denn da in Frage? OffPage heißt dann mehr Backlinks, oder?

Anonymous

Beitrag von Anonymous » 01.03.2011, 14:24

wenn du die seite zb 5 jahre nicht geaendert hast kannst auch nicht erwarten dass g. grosses interesse daran hat. dann schaut der bot nur 1 mal im monat vorbei

Linka
PostRank 2
PostRank 2
Beiträge: 55
Registriert: 01.03.2011, 08:43

Beitrag von Linka » 01.03.2011, 14:39

lois69 hat geschrieben:wenn du die seite zb 5 jahre nicht geaendert hast kannst auch nicht erwarten dass g. grosses interesse daran hat. dann schaut der bot nur 1 mal im monat vorbei
Und die XML-Sitemap (die er täglich lädt) interessiert ihn dann auch nicht? Da steht nämlich drin, wann die Seite geändert wurde.

Malte Landwehr
PostRank 10
PostRank 10
Beiträge: 3474
Registriert: 22.05.2005, 10:45

Beitrag von Malte Landwehr » 01.03.2011, 15:26

Die XML-Sitemap ist nur eine Empfehlung für Google, keine Anweisung. Wenn also die anderen Faktoren Google vermuten lassen, dass es keine (wichtige) Änderung gab, dann lässt Google sich auch mal viel Zeit obwohl in der XML-Sitemap steht, dass es neue/überarbeitete Inhalte gibt.


Linka hat geschrieben:Welche OnPage-Ursachen kämen denn da in Frage?
Zum Beispiel extrem viele interne Links auf jeder Unterseite. Parameter in der URL. Sehr tiefe Linkstruktur (also eigentlich Inhalte erst nach mehreren Klicks von der Startseite aus erreichbar sind). Viel DC (intern wie extern). Viele Unterseiten mit sehr wenig Content. Viele Unterseiten mit gleichen Titeln oder gleicher Meta-Description.

Wenn du dir in der Hinsicht sorgen machst: In den Google Webmaster Tools anmelden und zwei Dinge checken:
1) Wie viele Seiten aus der XML-Sitemap sind im Index?
2) Gibt es Warnungen (bezüglich Title, usw.)?


Linka hat geschrieben:OffPage heißt dann mehr Backlinks, oder?
Mehr _gute_ Backlinks .
Die 45 wichtigsten SEO-Tools und wie ich sie nutze.

jackwiesel
PostRank 10
PostRank 10
Beiträge: 5820
Registriert: 09.09.2007, 09:44
Wohnort: Bochum

Beitrag von jackwiesel » 01.03.2011, 15:39

Wenn das Problem häufiger auftritt, hast Du in der Tat ein Problem - Abhilfe schaffen die Hinweise der Vorredner.

Solltest Du sehr wenig an Änderungen/Erweiterungen/Neuigkeiten einstellen, lässt sich die Aufnahme neuen Contents durch SBs in der Regel erheblich beschleunigen.

Linka
PostRank 2
PostRank 2
Beiträge: 55
Registriert: 01.03.2011, 08:43

Beitrag von Linka » 01.03.2011, 16:19

Malte Landwehr hat geschrieben:Die XML-Sitemap ist nur eine Empfehlung für Google, keine Anweisung. Wenn also die anderen Faktoren Google vermuten lassen, dass es keine (wichtige) Änderung gab, dann lässt Google sich auch mal viel Zeit obwohl in der XML-Sitemap steht, dass es neue/überarbeitete Inhalte gibt.
Schade. Ich dachte, die XML-Sitemap würde bevorzugt abgearbeitet, zumal sie lt. Webmastertools von Google täglich gezogen wird.
Malte Landwehr hat geschrieben:Wenn du dir in der Hinsicht sorgen machst: In den Google Webmaster Tools anmelden und zwei Dinge checken:
1) Wie viele Seiten aus der XML-Sitemap sind im Index?
2) Gibt es Warnungen (bezüglich Title, usw.)?
Von 3700 Seiten aus der XML-Sitemap sind lt. Webmastertools 3100 Seiten im Index. Malware wurde nicht gefunden; Dafür aber 90 fehlerhafte Links (um die will ich mich als nächstes kümmern), 2 doppelte Metabeschreibungen und 6 doppelte title-Tags. Weitere keine "HTML-Vorschlage" gibt es nicht.

Ich denke, das ist eigentlich ein ganz passables Ergebnis. Oder leige ich da falsch?
jackwiesel hat geschrieben:Solltest Du sehr wenig an Änderungen/Erweiterungen/Neuigkeiten einstellen, lässt sich die Aufnahme neuen Contents durch SBs in der Regel erheblich beschleunigen.
Entschuldigung, ich bin noch nicht so ganz in der Materie drin. Was bitte sind "SBs" ?

Hirnhamster
PostRank 10
PostRank 10
Beiträge: 2997
Registriert: 23.02.2008, 12:56

Beitrag von Hirnhamster » 01.03.2011, 22:22

Texte/Content schnell und effizient en masse produzieren » Article Wizard «

SEO Grundlagen: SEO Tutorial --- Linkbuilding Fallstudie --- Find me on Google+ and Twitter

Linka
PostRank 2
PostRank 2
Beiträge: 55
Registriert: 01.03.2011, 08:43

Beitrag von Linka » 02.03.2011, 10:00

Danke für den Hinweis!

Also solche Seiten wie Mr. Wong und Oneview?

Bringen die echt was? Bei der Masse von (Müll)-Bookmarks gehen die eigenen doch eh total unter?

Malte Landwehr
PostRank 10
PostRank 10
Beiträge: 3474
Registriert: 22.05.2005, 10:45

Beitrag von Malte Landwehr » 02.03.2011, 10:11

Linka hat geschrieben:Bringen die echt was? Bei der Masse von (Müll)-Bookmarks gehen die eigenen doch eh total unter?
Ja Social-Bookmarks bringen (noch) etwas.
Die 45 wichtigsten SEO-Tools und wie ich sie nutze.

Linka
PostRank 2
PostRank 2
Beiträge: 55
Registriert: 01.03.2011, 08:43

Beitrag von Linka » 02.03.2011, 13:11

Hallo Malte,

vielen Dank für Deine hilfreichen Antworten. Ich bin gerade dabei, mich in das ganze Thema einzuarbeiten und ein Gefühl zu entwickeln. Daher würde ich mich sehr freuen, wenn Du auch noch was zu meinen Webmaster-Tool-Ergebnissen oben sagen könntest.

Und nochmal zu den Social Bookmarks: Ich habe gerade gesehen, dass die meisten die Links inzwischen auf "nofollow" geschaltet haben. Wie können die dann noch etwas zum Ranking beitragen, wenn sie nicht mehr als Backlinks gelten?

Linka
PostRank 2
PostRank 2
Beiträge: 55
Registriert: 01.03.2011, 08:43

Beitrag von Linka » 03.03.2011, 09:07

Schade: Editieren bringt es nicht nach oben. So, nun aber!

Linka
PostRank 2
PostRank 2
Beiträge: 55
Registriert: 01.03.2011, 08:43

Beitrag von Linka » 06.03.2011, 19:04

Hallo zusammen,

wäre echt nett, wenn mir noch jemand Feedback geben könnte:

1. zu den Ergenissen in meinen Webmastertools: Von 3700 Seiten aus der XML-Sitemap sind lt. Webmastertools 3100 Seiten im Index. Malware wurde nicht gefunden; Dafür aber 90 fehlerhafte Links (um die will ich mich als nächstes kümmern), 2 doppelte Metabeschreibungen und 6 doppelte title-Tags. Weitere keine "HTML-Vorschlage" gibt es nicht.

Ist das gut oder eher nicht?

2. Warum fördern die Social Bookmarks das Ranking, wenn inwischen fast alle Links von dort auf "nofollow" stehen?

Sorry, bin echt noch Anfänger im SEO

Antworten