Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Unvollständige Google-Sitemap => Problem?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
cyberradler
PostRank 2
PostRank 2
Beiträge: 42
Registriert: 28.12.2005, 12:17

Beitrag von cyberradler » 16.02.2006, 13:22

Hallo,

ich möchte die Google-Sitemap für ein Projekt einrichten und habe mich dabei gefragt, was mit indizierten URLs passiert, die nicht in der Sitemap aufgeführt werden, aber ganz normal über die Homepage erreicht werden können. Werden diese dann aus dem Index geworfen oder bleiben sie drin? In den Google-FAQs habe ich dazu nichts gefunden. Habt Ihr damit schon Erfahrungen gemacht?

Gruß
Markus
Freeware-Backlink-Checker
Suche langfristige Linkpartner für verschiedene URLs. Bitte per PN melden.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

sammy88
PostRank 1
PostRank 1
Beiträge: 18
Registriert: 16.02.2006, 12:02

Beitrag von sammy88 » 16.02.2006, 13:52

Hallo!

Ich habe folgendes vorgenommen:

1.) Ich habe die Site erstellt und eine sitemap gebaut
2.) Ich habe die Site in einigen Webkatalogen eingetragen um überhaupt ein paar links zu bekommen
3.) habe die Sitemap bei google angemeldet.


Ergebnis:
- in der mittlerweile unvollständigen Sitemap sind 140 URLs
- nach 2 Wochen sind über 70 Seiten im Google Index
- auch Seiten, die nicht in der Sitemap gelistet sind sind im Index

Fazit:
- es kommen auch Seiten in den Index, die nicht in der Sitemap sind. Denke auch nicht das die rausfliegen sollten. Warum auch
- die Sitemap-URLs werden nicht komplett auf Schlag übernommen. Auch logisch, denn die müssen ja auch alle erst vom BOT besucht werden.
- Ich denke Sitemap bringt nicht viel, wenn überhaupt, schadet aber auch nicht und man bekommt etwas Statistik für die die es brauchen und mögen.

Sammy

mediadonis
PostRank 6
PostRank 6
Beiträge: 381
Registriert: 16.02.2006, 14:06

Beitrag von mediadonis » 16.02.2006, 14:19

Das Sitemap-Tool dient eher dazu Gurgle zu sagen, wie oft er welche Seiten holen soll (z.B. bei Blogs - jeden Tag die Startseite / jede Woche die Kategorien / jeden Monat das Archiv) -
Natürlich folgt der Bot auch weiterhin jedem Sitewide-Link, und indiziert die Seiten.
Mediadonis.net
----------
Try [url=httpss://de.onpage.org/product/free/]OnPage.org FREE[/url] - die volle Kraft von OnPage.org, gratis für kleine Webseiten!

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


ani-K
PostRank 5
PostRank 5
Beiträge: 220
Registriert: 09.01.2006, 16:00

Beitrag von ani-K » 16.02.2006, 16:11

Ich habe ein paar Übersichtsseiten die bei G* eigentlich nicht auftauchen müssen, da sie sich ständig verändern (also bei G* seltenst aktuell sind). Die habe ich aus diesem Grund bei der G*-Sitemap ausgespart.
Diese Seiten waren vorher im Index und sind es heute immer noch.

Da sich G*-Sitemap aber immer noch im Betastadium befindet, kann keine genaue Aussage über das zukünftige Verhalten G* gegenüber den Sitemaps gemacht werden.

axelm
PostRank 7
PostRank 7
Beiträge: 603
Registriert: 18.10.2004, 11:42

Beitrag von axelm » 16.02.2006, 16:53

Man ließt euch doch die FAQs richtig durch.

-Die URLs aus der Sitemap kommen in die normale parsing Queue ob der Bot eure URL nun über nen Link oder die Sitemap.xml findet, die kommen alle in die gleiche Liste.

- Wer das Original Python tool von google nutzt, gibt URL und Pfad auf Filesystem und Logs frei.
Anhand des Pfads+Last Modified Date und der Anzahl der Request im Log wird
Datei, Letzte Änderung und wichtigkeit im vergleich zu allen anderen Seiten der Site ermittelt wird, was nicht erfaßt werden soll, kann über config.xml bzw. robots.txt ausgesperrt werden.

cyberradler
PostRank 2
PostRank 2
Beiträge: 42
Registriert: 28.12.2005, 12:17

Beitrag von cyberradler » 16.02.2006, 18:07

Hallo,

ich bin gerade die FAQs noch einmal durchgegangen. Eine klare Aussage zu der Frage steht dort nicht drin. Nur ein paar Formulierungen, die darauf schließen lassen. Aber Google traue ich alles zu...

Gruß
Markus
Freeware-Backlink-Checker
Suche langfristige Linkpartner für verschiedene URLs. Bitte per PN melden.

axelm
PostRank 7
PostRank 7
Beiträge: 603
Registriert: 18.10.2004, 11:42

Beitrag von axelm » 16.02.2006, 18:12

Zur Frage: Wenn die Seiten ansurfbar sind bzw. in den Logs sichtbar (und du Zugriff gibt's kommen sie in die Queue).
Das ist aber keine garantie für eine Aufnahme, die Newsgroup zum Thema Sitemaps soll ganz gut besucht sein udn angeblich vom sitemap team gelesen werden.

cyberradler
PostRank 2
PostRank 2
Beiträge: 42
Registriert: 28.12.2005, 12:17

Beitrag von cyberradler » 16.02.2006, 18:30

Klar, das hatte ich auch vermutet, aber es hätte ja auch sein können, dass Google die Sitemap zur Grundlage nimmt und nur noch die dort aufgeführten Seiten indiziert (und somit den Index "säubern" will). Ich werde mich mal in der Newsgroup umsehen.

Gruß
Markus
Freeware-Backlink-Checker
Suche langfristige Linkpartner für verschiedene URLs. Bitte per PN melden.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag