Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Sitemaps werden teilweise nicht gelesen

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
ElDiablo
PostRank 9
PostRank 9
Beiträge: 1971
Registriert: 27.11.2011, 11:20

Beitrag von ElDiablo » 13.03.2012, 16:24

Hi zusammen,

ich habe letzte Woche von einer großen Sitemap (60k Seiten) auf ca. 10 kleinere Sitemaps gewechselt. Nun hab ich das Problem, dass nur eine der Sitemaps halbwegs im Index ist - die anderen 9 haben jeweils 3 Artikel im Index und das wars.

Braucht er da etwas, bis wieder alles dort gelistet wird?
Die Links sind eigentlich schon teilweise im Index.

Gruß El

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

CyberNibbler
PostRank 5
PostRank 5
Beiträge: 283
Registriert: 19.08.2008, 16:57
Wohnort: Berlin

Beitrag von CyberNibbler » 13.03.2012, 21:15

Hast du die Sitemaps via GWT eingereicht?
Hate Google schon alle Sitemaps abgerufen?

ElDiablo
PostRank 9
PostRank 9
Beiträge: 1971
Registriert: 27.11.2011, 11:20

Beitrag von ElDiablo » 14.03.2012, 07:51

Ja, sonst wüsste ich ja nicht, dass sie je 3 Artikel gecrawled haben.

Die Seiten sind trotzdem im Index, aber irgendwie werden die neuen Sitemaps noch ignoriert.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Lika
PostRank 8
PostRank 8
Beiträge: 880
Registriert: 27.06.2011, 09:55

Beitrag von Lika » 14.03.2012, 07:52

Hast du zusätzlich die Sitemaps in Webmaster Tools integriert? Wenn ja, dann braucht Google nur etwas Zeit.

Aber es hört sich so an, als wäre deine Seite schon älter, somit müsste Google eigentlich von selbst schon die Seiten gecrawlt haben. Es sei denn du hast neben der Sitemap auch die URL-Struktur angepasst. Kommt noch jeder mit? :wink:

ElDiablo
PostRank 9
PostRank 9
Beiträge: 1971
Registriert: 27.11.2011, 11:20

Beitrag von ElDiablo » 14.03.2012, 17:08

Ich hab etwa 100.000 Seiten im Index .. also ein Großteil des Inhalts der Sitemaps.
Diese benutze ich hauptsächlich für schwach verlinkte Unterseiten.

Alle 10 sind in WMT eingetragen. Eine davon wird mit 7000 Artikeln gecrawled, der Rest quasi ignoriert. (3-4 Artikel in WMT als indexiert gelistet).

So ganz verstehe ich nicht, was Google da grad für ein Problem hat.

Gruß El

Beloe007
PostRank 10
PostRank 10
Beiträge: 2928
Registriert: 05.03.2009, 10:31

Beitrag von Beloe007 » 14.03.2012, 22:39

Manchmal auch ein WMT AnzeigeFehler, ansonsten mal prüfen ob die URLs in der Sitemap stimmen.

ElDiablo
PostRank 9
PostRank 9
Beiträge: 1971
Registriert: 27.11.2011, 11:20

Beitrag von ElDiablo » 15.03.2012, 07:32

Ich lese sie direkt aus der Datenbank - sie sollten also stimmen.
Hab sie schon ein weiteres mal einlesen lassen.

Lika
PostRank 8
PostRank 8
Beiträge: 880
Registriert: 27.06.2011, 09:55

Beitrag von Lika » 15.03.2012, 07:46

Manchmal indexiert Google die Seiten trotzdem, auch wenn sie nicht in WMT auftauchen. DC ist aber kein Problem, oder?

Nicos
PostRank 9
PostRank 9
Beiträge: 1900
Registriert: 30.10.2006, 11:31

Beitrag von Nicos » 15.03.2012, 08:57

Die Sitemap-URLs in der robots.txt drin? :wink:
Keywordmonitoring: [URL]httpss://www.DYNAPSO.com[/URL]

Beloe007
PostRank 10
PostRank 10
Beiträge: 2928
Registriert: 05.03.2009, 10:31

Beitrag von Beloe007 » 15.03.2012, 09:08

ElDiablo hat geschrieben:Ich lese sie direkt aus der Datenbank - sie sollten also stimmen.
Hab sie schon ein weiteres mal einlesen lassen.
Solange keine Fehler angezeigt werden löst sich das Problem meistens von selbst.

Hast du die sitemaps einzeln hochgeladen?

Ich verwende:

Code: Alles auswählen

<sitemapindex xmlns&#58;xsi="http&#58;//www.w3.org/2001/XMLSchema-instance" xmlns="http&#58;//www.sitemaps.org/schemas/sitemap/0.9" xsi&#58;schemaLocation="http&#58;//www.sitemaps.org/schemas/sitemap/0.9 http&#58;//www.sitemaps.org/schemas/sitemap/0.9/siteindex.xsd">
<sitemap>
<loc>http&#58;//www.example.com/sitemaps/sitemap1.xml</loc>
<lastmod>2012-03-15T05&#58;03&#58;20+00&#58;00</lastmod>
</sitemap>
<sitemap>
<loc>http&#58;//www.example.com/sitemaps/sitemap2.xml</loc>
<lastmod>2012-03-15T05&#58;03&#58;20+00&#58;00</lastmod>
</sitemap>
<sitemap>
...
und biete nur die siteindex.xml an, die einzelnen Sitemaps holt Google sich selbst da raus.

So sind auch die Dateien flexibel, also es können statt 10 auch 11 Sitemaps werden ohne das du eingreifen musst.

ElDiablo
PostRank 9
PostRank 9
Beiträge: 1971
Registriert: 27.11.2011, 11:20

Beitrag von ElDiablo » 15.03.2012, 10:31

Habe sie aus Traffic-Gründen als xml.gz hochgeschoben, da Google sich täglich schon im GB Bereich bewegt.

Einen Sitemap Index könnte ich auch nehmen - zählt er dann in WMT die Summe hoch?
Das dürfte allerdings mein Problem nicht lösen.

Einen einzigen Fehler hat er mir angezeigt. Angeblich 404 auf eine URL, die aber funktioniert. Bin noch auf Fehlersuche ..

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag