Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

rorobt.txt - sitemap

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
RickiMales
PostRank 1
PostRank 1
Beiträge: 20
Registriert: 18.11.2005, 17:47
Wohnort: Bielefeld

Beitrag von RickiMales » 11.04.2013, 13:05

Hallo,

muss ich, wen ich ich verzeichnisse in der robot.txt "sperre", deren seiten auch in der sitmap noch löschen?

THX

Ricki

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


pr_sniper
PostRank 9
PostRank 9
Beiträge: 1766
Registriert: 07.02.2006, 19:21

Beitrag von pr_sniper » 11.04.2013, 18:32

Nö, du verwirrst lediglich Googlebot. Die Sitemap ist dein ausdrücklicher Wunsch zur Indexierung (du möchtest, dass diese HTML-Seiten unbedingt und viel besucht werden), die robots.txt ist dein Wunsch zum Verbot. Irre bist du aber nicht?

Tipp am Rande: SEO ist zu 95% einfachste Logik.

opetzold
PostRank 4
PostRank 4
Beiträge: 149
Registriert: 30.11.2004, 22:31

Beitrag von opetzold » 11.04.2013, 19:07

Dieser Widerspruch wird auch in den Google WebmasterTools als Warnung angezeigt, gleichzeitiges Verbot mit gleichzeitigen Wunsch in der Sitemap.

luzie
PostRank 10
PostRank 10
Beiträge: 4228
Registriert: 12.07.2007, 13:43
Wohnort: Hannover, Linden-Nord

Beitrag von luzie » 12.04.2013, 14:57

Das ist es ja gerade was er fragt.

Ja, du solltest robots.txt-gesperrte Seiten nicht mehr in der Sitemap aufführen.
Bilduzie - [url=httpss://plus.google.com/+HerbertSulzer/about]Google Official Bionic Top Contributor on Google Webmaster Central[/url]

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag