Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Robots.txt und die Sitemap

Ajax, Hijax, Microformats, RDF, Markup, HTML, PHP, CSS, MySQL, htaccess, robots.txt, CGI, Java, Javascript usw.
Neues Thema Antworten
columbus0815
PostRank 3
PostRank 3
Beiträge: 74
Registriert: 14.12.2010, 17:09

Beitrag von columbus0815 » 18.12.2010, 19:12

Mit der Robots.txt kann man den Suchmaschinen ja die Anweisung geben welche Ordner nicht gecrawelt und oder Indexiert werden dürfen doch kann man dort auch Seiten des Projektes angeben welche auf jeden Fall gecrawelt werden sollen.

Das mit dem NOINDEX kann man ja auch über die Metas steuern.

Doch bringt es was wenn nun die Links aus einer Sitemap auch als Link in die Robots.txt eingefügt werden, das die auf jeden Fall oder halt deutlich schneller sowie eventuell auch besser gerankt werden, oder wertet Google dieses unter Umständen als Spam?

Gibt es überhaupt sowas wie Robots.txt oder Sitemap Spam für die Suchmachschinen?

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Business-Experte
PostRank 8
PostRank 8
Beiträge: 794
Registriert: 05.02.2009, 17:05

Beitrag von Business-Experte » 18.12.2010, 19:17

Naja, Du kannst in die robots.txt zum Beispiel einen Verweis auf eine sitemap.xml einbauen.

andy12
PostRank 5
PostRank 5
Beiträge: 226
Registriert: 25.10.2010, 15:40
Wohnort: Dresden

Beitrag von andy12 » 18.12.2010, 19:23

Sicher könnte man die robots.txt und die Sitemap zum Spammen nutzen. Das geht dann auch hundertprozentig so aus wie mit den Metatags die schon seit Jahren von Google nicht mehr supportet werden. Deswegen sieht Google die Sitemap nur als Hilfestellung an und mehr nicht. Die robots.txt ist nur zu deiner Sicherheit damit nicht irgendwelcher Mist gecrawlt wird. Prinzipiell sucht sich der Googlebot seinen Weg selbst.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Pfauli
PostRank 5
PostRank 5
Beiträge: 223
Registriert: 12.05.2009, 17:55

Beitrag von Pfauli » 31.10.2011, 14:41

Moin Zusammen

Ich habe keinen wertvoll passenden Thread zu meiner Frage gefunden,
daher schreibe ich einmal hier weiter...

Ich habe Schwierigkeiten zu verstehen, wie ich mit den Webseiten umgehe,
die ich durch eine Robots.Txt hab spereen lassen.

Führt man, der Vollständigkeit halber in einer Sitemap auch die Unterseiten auf,
die man ja eigentlich durch die robots.txt gesperrt hat? Dies führt ja unweigerlich zu einer
Endlosschleife /Crawling Fehlern, aber führe ich diese nicht auf, erhalte ich ja auch einen Crawling Fehler.

Wie reguliert man das sauber?
Hier könnte ihre Werbung stehen!

Justus
PostRank 5
PostRank 5
Beiträge: 260
Registriert: 04.03.2009, 16:11

Beitrag von Justus » 31.10.2011, 16:02

Eine Sitemap ist kein Crawl-Befehl, sondern eine übersichtlichere Auflistung der verfügbaren Seiten, die das Crawling erleichtern, nicht aber erzwingen kann. Demnach kann man das Crawling auch dann über die robots.txt sperren, wenn die Seiten in der Sitemap aufgelistet sind.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag