Herzlich willkommen im Archiv vom ABAKUS Online Marketing Forum
Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.
Ich fürchte, das nützt wohl nichts. Wenn ich das richtig sehe, dient die Seite nur dazu, Google überhaupt zu sagen, dass es eine neue Site gibt. Es heißt dort ja auch ausdücklich: "Nur das oberste Verzeichnis eines Hosts ist notwendig; Sie brauchen nicht jede einzelne Seite anzugeben. Unser Web-Crawler, Googlebot, findet den Rest."Malte Landwehr hat geschrieben:Du könntest dir URL noch unter https://www.google.de/addurl/ eintragen. Ob das wirklich hilft kann ich dir nicht sagen.
Leider nein. Dazu müsste ich sämtliche Logfiles per Hand durchsuchen, was sehr aufwändig und unübersichtlich wäre. Gibt es denn Tools, die das automatisch aus den Logs extrahieren und eine Übersicht erstellen, welcher bot welche Seite besucht hat?Malte Landwehr hat geschrieben:Hast du Logfiles aus denen hervorgeht ob der Google-Bot in den letzten 10 Tag auf der geänderten Seite war?
Das ist sicher eine gute Idee! Welche OnPage-Ursachen kämen denn da in Frage? OffPage heißt dann mehr Backlinks, oder?Malte Landwehr hat geschrieben:Ich würde eher die Ursache als das Symptom behandeln, also überlegen warum Google den neuen Inhalt nicht sofort nimmt. Falls OnPage keine möglichen Ursachen gefunden werden muss halt OffPage mehr passieren.
Und die XML-Sitemap (die er täglich lädt) interessiert ihn dann auch nicht? Da steht nämlich drin, wann die Seite geändert wurde.lois69 hat geschrieben:wenn du die seite zb 5 jahre nicht geaendert hast kannst auch nicht erwarten dass g. grosses interesse daran hat. dann schaut der bot nur 1 mal im monat vorbei
Zum Beispiel extrem viele interne Links auf jeder Unterseite. Parameter in der URL. Sehr tiefe Linkstruktur (also eigentlich Inhalte erst nach mehreren Klicks von der Startseite aus erreichbar sind). Viel DC (intern wie extern). Viele Unterseiten mit sehr wenig Content. Viele Unterseiten mit gleichen Titeln oder gleicher Meta-Description.Linka hat geschrieben:Welche OnPage-Ursachen kämen denn da in Frage?
Mehr _gute_ Backlinks .Linka hat geschrieben:OffPage heißt dann mehr Backlinks, oder?
Schade. Ich dachte, die XML-Sitemap würde bevorzugt abgearbeitet, zumal sie lt. Webmastertools von Google täglich gezogen wird.Malte Landwehr hat geschrieben:Die XML-Sitemap ist nur eine Empfehlung für Google, keine Anweisung. Wenn also die anderen Faktoren Google vermuten lassen, dass es keine (wichtige) Änderung gab, dann lässt Google sich auch mal viel Zeit obwohl in der XML-Sitemap steht, dass es neue/überarbeitete Inhalte gibt.
Von 3700 Seiten aus der XML-Sitemap sind lt. Webmastertools 3100 Seiten im Index. Malware wurde nicht gefunden; Dafür aber 90 fehlerhafte Links (um die will ich mich als nächstes kümmern), 2 doppelte Metabeschreibungen und 6 doppelte title-Tags. Weitere keine "HTML-Vorschlage" gibt es nicht.Malte Landwehr hat geschrieben:Wenn du dir in der Hinsicht sorgen machst: In den Google Webmaster Tools anmelden und zwei Dinge checken:
1) Wie viele Seiten aus der XML-Sitemap sind im Index?
2) Gibt es Warnungen (bezüglich Title, usw.)?
Entschuldigung, ich bin noch nicht so ganz in der Materie drin. Was bitte sind "SBs" ?jackwiesel hat geschrieben:Solltest Du sehr wenig an Änderungen/Erweiterungen/Neuigkeiten einstellen, lässt sich die Aufnahme neuen Contents durch SBs in der Regel erheblich beschleunigen.
Ja Social-Bookmarks bringen (noch) etwas.Linka hat geschrieben:Bringen die echt was? Bei der Masse von (Müll)-Bookmarks gehen die eigenen doch eh total unter?