Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Sitemap anderer Websites?

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
fa_herrmann
PostRank 2
PostRank 2
Beiträge: 31
Registriert: 24.12.2006, 14:41

Beitrag von fa_herrmann » 29.12.2006, 22:51

Hi AnjaK,
AnjaK hat geschrieben:LAut Google sollten es nicht mehr als 100 interne Links sein. Das hat sicher seinen Grund (wahrscheinlich damit der Bot nicht zu lange lesen muss). Aber darüberhinaus wird dennoch gespidert.
Nöh, nicht Empfehlungen a la "you may/should..." zählen, sondern das, was als Sitemap-Protokoll-Standard - und der zugehörigen Schemadatei - festlegt ist...;)

Danach darf eine konfome Sitemapdatei...
Google hat geschrieben: ...nicht mehr als 50.000 URLs enthalten und in unkomprimiertem Zustand nicht größer als 10 MB (10.485.760 Byte) sein.
Im zugehörigen XML-Schema findet sich noch einmal der Satz:
Container for a set of up to 50,000 document elements. This is the root element of the XML file...

Braucht man mehr als 50.000 Links muß man mehrere erstellen und darauf wiederum in einer Indexdatei verweisen...
Google hat geschrieben: Bei Angabe von mehr als 50.000 URLs müssen Sie mehrere Sitemapdateien erstellen.
...
Sitemap-Indexdateien dürfen nicht mehr als 1.000 Sitemaps beinhalten.
5 Mio dürfte dann für ambitionierte Hobyprojekte erst einmal reichen;)

Wozu können Sitemapdateien gut sein? Nehmen wir mal eine Immobilienbörse. Die meisten Inhalte werden über parametrisierte Abfragen on the fly erzeugt. Sicher, man kann ein bißchen was über rewritte-Regeln Suma-freundlicher machen. Für komplexere Applikationen macht es allerdings durchaus Sinn, automatisch ein ganzes Bündel statischer Seiten mit vordefinierten Abfragen zu erzeugen und darauf in der sitemap zu verweisen. Ich mache eben genau das...;)

Etwa 400 Zeilen VBScript holen sich die Werte aus der Datenbank, schreiben ein paar Hundert vorgefertigte ASP-Scripte mit jeweils angepassten Keywords, Pagetitle etc. für die Webserver und erzeugen ein Sitemap-XML. Ich finde, das ist dann kein Suchmaschinenspam, weil: Die Seiten sehen natürlich genauso aus, als hätte ein Besucher via Suchwizzard sich eine Abfrage gestrickt, will heißen: Besucher sollen die so erzeugten Seiten ja durchaus auch so sehen.

Werden die Suchabfragen dann vom Benutzer modifiziert, weil ihm das doch ziemlich grobe Ergebnis a la "Alle Bürovermietungen in XYZ" zu viele Treffer liefert, ist er eh wieder in der normalen Applikation... Und ASP-Scripte sind's, weil sie beim Aufruf - sowohl vom Bot als auch vom Besucher - noch einmal interpretiert werden müssen, um sicherzustellen dass wirklich nur Inhalte enthalten sind, die zum Zeitpunkt des Abrufs noch up to date sind... sonst wär's freilich Suma-Spam...;)

Jetzt überlege ich nur noch, ob ich nicht meinem Script noch die zehn Zeilen gönne und versuche, auch das Einreichen der XML-Daten bei Google zu automatisieren...;)


@all
Was soll schlecht daran sein, eine Sitemap-XML auch sitemap.xml zu nennen? Ich _will_ die ja veröffentlichen. Und jJa, ich will auch die darin enthaltenen Informationen veröffentlichen. Ergo darf die auch jeder lesen, wenn er/sie gern XML-Daten liest.

BTW: Unser Produktionssteuersystem schreibt XML-Dateien, die schon mal 24 MB und mehr werden. Die zu lesen macht gar keinen Spaß;) Aber das ist schon wieder eine gaaanz andere Geschichte...

cul,
Falk