Seite 1 von 1

GSiteCrawler: Einstellungen für xtc

Verfasst: 15.09.2008, 11:44
von JamesBlond
Wenn ich die default-Werte des GSC benutze, erhalte ich bei Google das Ergebnis:
Nicht aufgerufene URLs
Bei Tests von URLs auf Ihrer XML-Sitemap wurde festgestellt, dass einige URLs für Googlebot nicht zugänglich waren, da sie zu viele Weiterleitungen enthielten. Ersetzen Sie bitte in Ihrer XML-Sitemap die Weiterleitungs-URLs jeweils durch die direkte Ziel-URL (das Weiterleitungsziel). Alle gültigen URLs werden weiterhin übermittelt
Status WARNUNGEN
URLs in der XML-Sitemap insgesamt 6926
Indizierte URLs in der XML-Sitemap Hilfe Keine Daten verfügbar. Versuchen Sie es später erneut.
Ich habe aber auch diese Links übertagen: https://www.blabla.com/index.php?action ... 110&page=2

Von meinen SUMA-freundlichen URLs ist nichts zu sehen.
Habe den Eindruck, ich kapier das Tool nicht recht. :roll:

Verfasst:
von

Verfasst: 15.09.2008, 12:19
von Loptr
Meine Kenntnisse mit dem Tool sind zwar ziemlich alt, aber soweit ich mich erinnern kann konnte man bei dem ne robots.txt einlesen.
Je nachdem, was du für ein URLdesign benutzt ist es sinnvoll, diese mit einzugeben und die index.php auch mit zu integrieren. Passt dann aber nur bei SEOLinks im Shop.