Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

sitemap.xml mit allen Seiten oder nur den wichtigsten?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
bluescreen
PostRank 4
PostRank 4
Beiträge: 105
Registriert: 29.09.2004, 18:00

Beitrag von bluescreen » 17.10.2009, 15:20

Hi,

ich habe in meinem shop neben den Produktseiten, Referenzen usw. auch jede Menge für die Bewertung des Shops eher unwichtige Seiten (Warenkorb, Impressum, techn. Daten usw) in der sitemap.xml angegeben.

Ist es für Power, Ranking, PR wirklich günstiger, möglichst viele Seiten vorweisen zu können oder verringert eine solche Vorgehensweise sogar den Wert des gesamten Auftritts für Tante G?

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Mork vom Ork
PostRank 9
PostRank 9
Beiträge: 2557
Registriert: 08.07.2008, 11:07
Wohnort: Aufm Friedhof.

Beitrag von Mork vom Ork » 17.10.2009, 17:32

bluescreen hat geschrieben:auch jede Menge für die Bewertung des Shops eher unwichtige Seiten (Warenkorb, Impressum, techn. Daten usw) in der sitemap.xml angegeben.

Ist es für Power, Ranking, PR wirklich günstiger, möglichst viele Seiten vorweisen zu können
1. Google bewertet nach Qualität, nicht nach Quantität.
2. Es ist für diesen Aspekt völlig wurscht, welche Seiten du in der Sitemap aufführst. So lange eine Seite nicht ausdrücklich in der robots.txt oder mit <meta>-noindex ausgeschlossen wird, findet sie der GoogleBot in der Regel auch von ganz alleine, Sitemap hin oder her.

Smilodon
PostRank 5
PostRank 5
Beiträge: 307
Registriert: 15.09.2009, 16:23
Wohnort: Hannover

Beitrag von Smilodon » 18.10.2009, 08:55

oh, ich habe das bis dato so gemacht, dass ich Seite die durch meta oder robots verboten sind zwar in der sitemap aufgelistet habe, aber der Priorität "0" zugewisen habe - ist das falsch? Soll ich die besser ganz aus der sitemap entfernen?

lg

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Mork vom Ork
PostRank 9
PostRank 9
Beiträge: 2557
Registriert: 08.07.2008, 11:07
Wohnort: Aufm Friedhof.

Beitrag von Mork vom Ork » 18.10.2009, 09:08

Smilodon hat geschrieben:eine Seite, die durch meta oder robots verboten ist, zwar in der sitemap aufgelistet, aber die Priorität "0" zugewiesen habe - ist das falsch?
Ich halte es für sinnlos, etwas zur Indizierung einzureichen, was nicht indiziert werden soll.

catcat
PostRank 10
PostRank 10
Beiträge: 10292
Registriert: 02.08.2006, 13:21
Wohnort: Litauen

Beitrag von catcat » 18.10.2009, 10:24

Ich hab meine Shops so eingestellt, das nur Produktseiten und Seiten, die wirklichen Content enthalten in die Sitemap aufgenommen werden. (Meist so 250-700 URLs)
Trotzdem sind im Index bis zu 32.000 Seiten drin :-?
Wobei allerdings die Seiten aus der Sitemap besser platziert erscheinen, da sie einfach Content enthalten.

Mork vom Ork
PostRank 9
PostRank 9
Beiträge: 2557
Registriert: 08.07.2008, 11:07
Wohnort: Aufm Friedhof.

Beitrag von Mork vom Ork » 18.10.2009, 10:56

catcat hat geschrieben:Ich hab meine Shops so eingestellt, das nur Produktseiten und Seiten, die wirklichen Content enthalten in die Sitemap aufgenommen werden. (Meist so 250-700 URLs)
Trotzdem sind im Index bis zu 32.000 Seiten drin :-?
Auch so eine Sache, die ich nicht verstehe: Warum Arbeit und Resourcen auf den Sitemap-Kram verschwenden, wenn der Googlebot von ganz alleine doch mehr Seiten findet.
Wobei allerdings die Seiten aus der Sitemap besser platziert erscheinen, da sie einfach Content enthalten.
Wie du schon schreibst: Das hat nichts mit der Sitemap zu tun.

Das einzig brauchbare an einer sitemap.xml ist IMHO das <changefreq>-Element, weil damit die klitzekleine Chance bestehen könnte, die Penetranz des Googlebots zu mildern. Aber darüber hinaus ist mir schleierhaft, warum sich so viele zum Büttel machen und Google nutzlose Arbeit hinterhertragen.

catcat
PostRank 10
PostRank 10
Beiträge: 10292
Registriert: 02.08.2006, 13:21
Wohnort: Litauen

Beitrag von catcat » 18.10.2009, 11:00

Das macht nicht wirklich Arbeit, ey.
Das kostet mich 3 Mausklicks - sonst würde ichs auch nicht machen.
Und bei jeder Änderung wird die Sitemap sowieso automatisch neu generiert und avisiert.

Mork vom Ork
PostRank 9
PostRank 9
Beiträge: 2557
Registriert: 08.07.2008, 11:07
Wohnort: Aufm Friedhof.

Beitrag von Mork vom Ork » 18.10.2009, 11:15

catcat hat geschrieben:Das kostet mich 3 Mausklicks
Rechne das mal in Kohlendioxyd um, das ist bestimmt ein ganzer Baum. Mit Blättern.

stef77
PostRank 1
PostRank 1
Beiträge: 4
Registriert: 21.10.2009, 17:25

Beitrag von stef77 » 21.10.2009, 23:16

Ich verwende die Sitemap, um bei duplicate content zu definieren, welche URL bevorzugt behandelt werden soll.
Bei Verwendung von Mod_Rewrite kann es vorkommen, dass auch mal irgendwo der Link mit GET-Parametern auftaucht. Um diese URLs aus der Suche auszuschließen, macht der Einsatz der Sitemap durchaus Sinn.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag