Seite 1 von 1

Disallow vs. noindex follow

Verfasst: 25.02.2010, 08:59
von DZVO
So ich mal wieder nach Wochen :) .
Normalerweise sollte man ja einen Ordner in der robots.txt sperren wenn der Bot diesen Ordner nicht spidern soll/darf.

Aber nun frag ich mich ob das auch wirklich die beste Lösung für eine Domain ist.

Daher die Frage hat schon wer mal getestet was besser funktioniert?
Disallow per robots.txt oder im header noindex, follow.

Fallbeispiel wäre z.B. ein Blog.
Viele erlauben ja den Bot die Kategorien zu spidern und zu indexieren. Aber bei ältern Blogs oder wo einfach nur viel geschrieben wird wandern die angeteaserten Artikel irgendwann auf Seite 10,20, 30 usw.. Daher auch die Überlegung nun das Monatsarchiv für den Bot nicht mehr sperren sondern die Archiv-Seiten nur noch per noindex, follow zu deklarieren. Denn so sind die Artikel nicht mehr in Ebene 5 z.B. erreichbar sondern schon ab Ebene 2 bzw. 3 z.B. was die Artikel eigentlich besser ranken müsste.

Also hat wer sowas schonmal getestet???

MFG
Maik

Verfasst:
von

Verfasst: 25.02.2010, 09:40
von Pheidippides
Es sind zwei unterschiedliche Lösungen.

>> Disallow per robots.txt
Du erlaubst dem Bot nicht, die Seite zu spidern. Mit dem Ergebnis, dass ein Link auf der Seite nicht weiterverfolgt wird. (Sollte so sein und klappt meiner Meinung nach auch)

>> noindex, follow
Die Seite wird nicht im Index aufgenommen, der Link aber verfolgt und gewertet. (klappt)

In meinen Blogs mache ich es mit noindex, follow, je nach Aufbau.

Verfasst: 25.02.2010, 09:53
von DZVO
@Pheidippides beide Systeme funktionieren weiß ich selber. Die Frage war eher was performt für eine Domain besser.

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Verfasst: 25.02.2010, 09:59
von Pheidippides
DZVO hat geschrieben:@Pheidippides beide Systeme funktionieren weiß ich selber. Die Frage war eher was performt für eine Domain besser.
Die erste Methode ist eine Sackgasse, die zweite ist eine Schleuse. Das ist doch das Entscheidende.
Mit der ersten Methode verschenkst du Linkpower, mit der zweiten schleust du sie durch. Wie du es machst, hängt ganz von deinem Aufbau ab, und davon was du erreichen möchtest.

Verfasst: 25.02.2010, 10:01
von DZVO
@Pheidippides na was jeder will Platz 1 :) bei jeder Sucheanfrage ^^
Die Frage ist doch aber ob jemand dies schonmal getestet hat und erfahrungen gesammelt hat was besser funktioniert.

Verfasst: 25.02.2010, 10:17
von Who
Warum überhaupt Ignore oder Disallow?

Um Duplicate Content auszuschliessen? Google listet doch einfach nur die stärkste Seite mit DC und lässt die anderen weg. Sollte man das nicht einfach Google überlassen? Schließlich will man doch am liebsten die stärkste Seite gelistet haben.

Verfasst: 25.02.2010, 10:30
von DZVO
@who das klappt leider bei google nicht immer so wirklich zudem findet google das auch nicht so toll wenn sich verschiede documente zu sehr ähnlich sind daher sperrt man ja gewisse bereiche oder sagt noindex

Verfasst: 25.02.2010, 12:41
von Lord Pixel
Aus SEO-Sicht ist die Lösung meta-robots="noindex,follow" wegen der möglichen Vererbung besser; mit robots.txt kannst du hingegen die Serverbelastung einschränken (und eventuell spidert Google die anderen Unterseiten dann öfter).

Außerdem werden, soweit ich weiß, bei Google die über robots.txt geblockten URLs bei der site:-Suche als einfacher Link (ohne Snippet und ohne Titel) in den Suchergebnissen angezeigt; über meta-robots geblockte Seiten werden hingegen gar nicht mehr aufscheinen.

Verfasst: 25.02.2010, 13:23
von ErwinRommel
Lord Pixel hat geschrieben: Außerdem werden, soweit ich weiß, bei Google die über robots.txt geblockten URLs bei der site:-Suche als einfacher Link (ohne Snippet und ohne Titel) in den Suchergebnissen angezeigt
Die Seiten sollte man dann aber via Google Webmasterkonsole komplett entfernen. Macht auch Sinn im Hinblick auf das Ranking.