Seite 1 von 1
sitemap.xml mit allen Seiten oder nur den wichtigsten?
Verfasst: 17.10.2009, 15:20
von bluescreen
Hi,
ich habe in meinem shop neben den Produktseiten, Referenzen usw. auch jede Menge für die Bewertung des Shops eher unwichtige Seiten (Warenkorb, Impressum, techn. Daten usw) in der sitemap.xml angegeben.
Ist es für Power, Ranking, PR wirklich günstiger, möglichst viele Seiten vorweisen zu können oder verringert eine solche Vorgehensweise sogar den Wert des gesamten Auftritts für Tante G?
Verfasst:
von
Content Erstellung von
ABAKUS Internet Marketing
Ihre Vorteile:
- einzigartige Texte
- suchmaschinenoptimierte Inhalte
- eine sinnvolle Content-Strategie
- Beratung und Umsetzung
Jetzt anfragen:
0511 / 300325-0
Re: sitemap.xml mit allen Seiten oder nur den wichtigsten?
Verfasst: 17.10.2009, 17:32
von Mork vom Ork
bluescreen hat geschrieben:auch jede Menge für die Bewertung des Shops eher unwichtige Seiten (Warenkorb, Impressum, techn. Daten usw) in der sitemap.xml angegeben.
Ist es für Power, Ranking, PR wirklich günstiger, möglichst viele Seiten vorweisen zu können
1. Google bewertet nach Qualität, nicht nach Quantität.
2. Es ist für diesen Aspekt völlig wurscht, welche Seiten du in der Sitemap aufführst. So lange eine Seite nicht ausdrücklich in der robots.txt oder mit <meta>-noindex ausgeschlossen wird, findet sie der GoogleBot in der Regel auch von ganz alleine, Sitemap hin oder her.
Verfasst: 18.10.2009, 08:55
von Smilodon
oh, ich habe das bis dato so gemacht, dass ich Seite die durch meta oder robots verboten sind zwar in der sitemap aufgelistet habe, aber der Priorität "0" zugewisen habe - ist das falsch? Soll ich die besser ganz aus der sitemap entfernen?
lg
Verfasst: 18.10.2009, 09:08
von Mork vom Ork
Smilodon hat geschrieben:eine Seite, die durch meta oder robots verboten ist, zwar in der sitemap aufgelistet, aber die Priorität "0" zugewiesen habe - ist das falsch?
Ich halte es für sinnlos, etwas zur Indizierung einzureichen, was nicht indiziert werden soll.
Verfasst: 18.10.2009, 10:24
von catcat
Ich hab meine Shops so eingestellt, das nur Produktseiten und Seiten, die wirklichen Content enthalten in die Sitemap aufgenommen werden. (Meist so 250-700 URLs)
Trotzdem sind im Index bis zu 32.000 Seiten drin
Wobei allerdings die Seiten aus der Sitemap besser platziert erscheinen, da sie einfach Content enthalten.
Verfasst: 18.10.2009, 10:56
von Mork vom Ork
catcat hat geschrieben:Ich hab meine Shops so eingestellt, das nur Produktseiten und Seiten, die wirklichen Content enthalten in die Sitemap aufgenommen werden. (Meist so 250-700 URLs)
Trotzdem sind im Index bis zu 32.000 Seiten drin :-?
Auch so eine Sache, die ich nicht verstehe: Warum Arbeit und Resourcen auf den Sitemap-Kram verschwenden, wenn der Googlebot von ganz alleine doch mehr Seiten findet.
Wobei allerdings die Seiten aus der Sitemap besser platziert erscheinen, da sie einfach Content enthalten.
Wie du schon schreibst: Das hat nichts mit der Sitemap zu tun.
Das einzig brauchbare an einer sitemap.xml ist IMHO das <changefreq>-Element, weil damit die klitzekleine Chance bestehen könnte, die Penetranz des Googlebots zu mildern. Aber darüber hinaus ist mir schleierhaft, warum sich so viele zum Büttel machen und Google nutzlose Arbeit hinterhertragen.
Verfasst: 18.10.2009, 11:00
von catcat
Das macht nicht wirklich Arbeit, ey.
Das kostet mich 3 Mausklicks - sonst würde ichs auch nicht machen.
Und bei jeder Änderung wird die Sitemap sowieso automatisch neu generiert und avisiert.
Verfasst: 18.10.2009, 11:15
von Mork vom Ork
catcat hat geschrieben:Das kostet mich 3 Mausklicks
Rechne das mal in Kohlendioxyd um, das ist bestimmt ein ganzer Baum. Mit Blättern.
Verfasst: 21.10.2009, 23:16
von stef77
Ich verwende die Sitemap, um bei duplicate content zu definieren, welche URL bevorzugt behandelt werden soll.
Bei Verwendung von Mod_Rewrite kann es vorkommen, dass auch mal irgendwo der Link mit GET-Parametern auftaucht. Um diese URLs aus der Suche auszuschließen, macht der Einsatz der Sitemap durchaus Sinn.