Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Nur URLs in der Sitemap crawlen?

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
HariboGold
PostRank 1
PostRank 1
Beiträge: 6
Registriert: 22.04.2009, 20:49

Beitrag von HariboGold » 22.04.2009, 20:52

Ist es möglich das nur die URLs in der Sitemap gecrawlt werden sollen? Was muss ich an der robots.txt ändern?

Ich bedanke mich schon mal im Voraus für eure Antworten.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


TBT
PostRank 5
PostRank 5
Beiträge: 306
Registriert: 13.02.2008, 16:11

Beitrag von TBT » 22.04.2009, 20:55

in der Sitemap sollten doch nur URL drinstehen ??? :crazyeyes:

HariboGold
PostRank 1
PostRank 1
Beiträge: 6
Registriert: 22.04.2009, 20:49

Beitrag von HariboGold » 22.04.2009, 20:57

ja genau, und nur die URLs sollen gecrawlt werden.

catcat
PostRank 10
PostRank 10
Beiträge: 10292
Registriert: 02.08.2006, 13:21
Wohnort: Litauen

Beitrag von catcat » 23.04.2009, 06:37

Ehm... Du willst, das ausschließlich die Sitemap gecrawlt werden soll und die anderen Seiten Deiner Website nicht? Oder wie? :o

gnark
PostRank 8
PostRank 8
Beiträge: 920
Registriert: 23.01.2009, 15:12

Beitrag von gnark » 23.04.2009, 08:47

catcat hat geschrieben:Ehm... Du willst, das ausschließlich die Sitemap gecrawlt werden soll und die anderen Seiten Deiner Website nicht? Oder wie? :o
ich glaube das will er
https://das-dass.de ... übrigens: es heisst sitewide mit "t"

catcat
PostRank 10
PostRank 10
Beiträge: 10292
Registriert: 02.08.2006, 13:21
Wohnort: Litauen

Beitrag von catcat » 23.04.2009, 09:29

Sowat?:

Sitemap: /sitemap.xml
User-agent: *
Allow: /sitemap.xml
Disallow: /*

chrizz
PostRank 10
PostRank 10
Beiträge: 3044
Registriert: 05.07.2006, 10:37
Wohnort: Berlin

Beitrag von chrizz » 23.04.2009, 13:43

was meinst du mit crawlen? In den Index aufnehmen, oder nur Besuche durch den GoogleBot?
Klar kannst du das machen, das nur Seiten, die auch in der Sitemap stehen gecrawlt werden. Allerdings solltest du dann, um die robots.txt überschaubar zu halten, die Struktur deiner Seite entsprechend anpassen (z.B: ein Extra-Dir: /uncrawlbar/, dass per robots.txt ausgeschlossen wird).
Wenn du mit crawlen nicht indizieren meinst, dann solltest du dir mal das MetaTag robot noindex anschauen...
Je nachdem wie deine Seite technisch aussieht kann man da was sinnvolles & einfaches aufsetzen...

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag