<priority>1.00</priority>
Wie oft darf ich welche Prio verwenden?
Warum stufen die meisten Generatoren nach 1 / 0.80 / 0.64 usw. und nicht nach 1 / 0.99 / 0.98 usw.
Bei Google steht, dass die Standardpriorität einer Seite ist 0.5, wie passt das zusammen?
<lastmod>2004-03-24T00:03:36+00:00</lastmod>
Muss ich das immer wieder ändern, wenn ich was aktualisiere?
<changefreq>daily</changefreq>
Das ist bei mir total unterschiedlich, schadet es, wenn ich das Feld weg lasse?
@adw4712
Als erstes mal dem Link von oli2 folgen, denn dort ist der offizielle Standard zu finden.
priority: 0.5 ist der Standard also alles gleichwertig, alles bis 1 ist/soll wichtiger sein, darunter unwichtiger. Mein Fazit dabei. Lasse es einfach weg.
lastmod: Ja, immer ändern wenn was geändert wurde. Eben "last modified" Kannste aber auch weg lassen, da man gerade bei dynamischen Seiten so einen Wert einfach gar nicht hat.
changefreg: Das ist das gleiche. Das ist eine Angabe wie oft sich etwas ändert. Ähnlich dem "revisit-after". Setze dort überall den gleichen Wert, oder lasse es einfach weg.
Nehmen wir an meine Seite umfasst 100 Seiten.
70 einzelne Produkt-Seiten, 20 Seiten über Leistungen, Service, usw. und 10 Seiten Kontaktformulare, Impressum usw.
Wäre dann die priority-Aufteilung so denkbar:
70 Produkt-Seiten <priority> = 1.0
20 Leistungen <priority> = 0.9
10 Formulare <priority> = 0.8
Nö, ein Grundsatz: du erhälst durch Google eine Wertigkeit im Rahmen aller Webseiten des Internet. Mehr kannst du also nie verteilen ... Und: wende einfache Logik an, nie verkorkstes "SEO".
Deshalb ist es unsinnig, allen einzelnen Seiten z.B. die 1.0 (oder einen beliebigen anderen Wert) zu geben, da ja selbst die wichtigste Seite damit so wichtig (aber auch unwichtig!) wie das Impressum o.ä. wird.
Eine in etwa! logische Verteilung könnte sein: 1.0 nur für die wichtigste Seite der Präsenz, 0.8 für eine Gruppe wichtiger Seiten, 0.5 für normale, 0.1 für unwichtige.
Darin spiegelt sich doch auch logisch die Struktur der Präsenz ab: Startseite, Gruppen/Produktgruppen/Themenkreise,Boards und dann die einzelnen Beiträge, Produkte, Themen usw. Du selbst und Googlebot erkennen auf einen Blick, welche Seiten dir! wichtiger oder unwichtiger erscheinen.
Eine weitere Differenzierung mit tausenden Werten wie 0.934 oder 0.328455 erschweren nur die Übersicht.
Beachte auch: das sind nur deine! Vorstellungen. Besucher und Bots ermitteln die Wichtigkeit von Seiten oft anders ...
Die letzte Modifikation kann ohne Aufwand maschinell per CGI, PHP, ASP usw. eingetragen werden, ist aber ansonsten in jedem Dateiheader sowieso enthalten.
Der Änderungszyklus ist lediglich dein! Vorschlag zur neuen Indizierung - hier wird sowieso oft betrogen. Es ist ja aber für Googlebot kein Problem, aus der Zeit- Differenz der wirklichen Aktualisierungen diese Periode selbst zu ermitteln.
Eins damit auch deutlich: versuche, die Einträge realistisch zu machen - ansonsten erkennt sogar jede Maschine, dass deine Angaben lediglich "hochgestapelt" sind und könnte das sogar im Ranking berücksichtigen.
Ich hatte hier https://www.abakus-internet-marketing.d ... hp?t=59015 mal geschrieben, dass die Erstellung einer Sitemap mittels des dortigen Tools problemlos funktionierte. Nachdem ich nun seit ein paar Wochen ein Plugin nutze, das die Sitemap dynamisch mit allen Parametern direkt aus der Datenbank erstellt, werden die Seiten nun deutlich zuverlässiger in den Index aufgenommen. Neue Seiten werden noch am gleichen/nächsten Tag gecrawlt. Ich würde heute auf keine Parameter mehr verzichten, wenn man es irgendwie vermeiden kann.
verwende eine sitemap.txt (eine adresse je zeile, basta) - das reicht. alles andere kannst du ganz getrost in die tonne hauen, google wird sich bei deiner site eh nicht darum scheren - oder heissest du etwa ... amazon? ebay? kijiji? nein? also!
uzie - [url=httpss://plus.google.com/+HerbertSulzer/about]Google Official Bionic Top Contributor on Google Webmaster Central[/url]