Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Disallow vs. noindex follow

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
DZVO
PostRank 6
PostRank 6
Beiträge: 476
Registriert: 27.12.2005, 04:44

Beitrag von DZVO » 25.02.2010, 08:59

So ich mal wieder nach Wochen :) .
Normalerweise sollte man ja einen Ordner in der robots.txt sperren wenn der Bot diesen Ordner nicht spidern soll/darf.

Aber nun frag ich mich ob das auch wirklich die beste Lösung für eine Domain ist.

Daher die Frage hat schon wer mal getestet was besser funktioniert?
Disallow per robots.txt oder im header noindex, follow.

Fallbeispiel wäre z.B. ein Blog.
Viele erlauben ja den Bot die Kategorien zu spidern und zu indexieren. Aber bei ältern Blogs oder wo einfach nur viel geschrieben wird wandern die angeteaserten Artikel irgendwann auf Seite 10,20, 30 usw.. Daher auch die Überlegung nun das Monatsarchiv für den Bot nicht mehr sperren sondern die Archiv-Seiten nur noch per noindex, follow zu deklarieren. Denn so sind die Artikel nicht mehr in Ebene 5 z.B. erreichbar sondern schon ab Ebene 2 bzw. 3 z.B. was die Artikel eigentlich besser ranken müsste.

Also hat wer sowas schonmal getestet???

MFG
Maik
kuckst du oder schluckst du .... | FollowTheMillion sag ich nur :)

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Pheidippides
PostRank 8
PostRank 8
Beiträge: 690
Registriert: 29.08.2007, 07:58
Wohnort: Marathon

Beitrag von Pheidippides » 25.02.2010, 09:40

Es sind zwei unterschiedliche Lösungen.

>> Disallow per robots.txt
Du erlaubst dem Bot nicht, die Seite zu spidern. Mit dem Ergebnis, dass ein Link auf der Seite nicht weiterverfolgt wird. (Sollte so sein und klappt meiner Meinung nach auch)

>> noindex, follow
Die Seite wird nicht im Index aufgenommen, der Link aber verfolgt und gewertet. (klappt)

In meinen Blogs mache ich es mit noindex, follow, je nach Aufbau.

DZVO
PostRank 6
PostRank 6
Beiträge: 476
Registriert: 27.12.2005, 04:44

Beitrag von DZVO » 25.02.2010, 09:53

@Pheidippides beide Systeme funktionieren weiß ich selber. Die Frage war eher was performt für eine Domain besser.
kuckst du oder schluckst du .... | FollowTheMillion sag ich nur :)

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Pheidippides
PostRank 8
PostRank 8
Beiträge: 690
Registriert: 29.08.2007, 07:58
Wohnort: Marathon

Beitrag von Pheidippides » 25.02.2010, 09:59

DZVO hat geschrieben:@Pheidippides beide Systeme funktionieren weiß ich selber. Die Frage war eher was performt für eine Domain besser.
Die erste Methode ist eine Sackgasse, die zweite ist eine Schleuse. Das ist doch das Entscheidende.
Mit der ersten Methode verschenkst du Linkpower, mit der zweiten schleust du sie durch. Wie du es machst, hängt ganz von deinem Aufbau ab, und davon was du erreichen möchtest.

DZVO
PostRank 6
PostRank 6
Beiträge: 476
Registriert: 27.12.2005, 04:44

Beitrag von DZVO » 25.02.2010, 10:01

@Pheidippides na was jeder will Platz 1 :) bei jeder Sucheanfrage ^^
Die Frage ist doch aber ob jemand dies schonmal getestet hat und erfahrungen gesammelt hat was besser funktioniert.
kuckst du oder schluckst du .... | FollowTheMillion sag ich nur :)

Who
PostRank 2
PostRank 2
Beiträge: 54
Registriert: 24.03.2008, 16:42

Beitrag von Who » 25.02.2010, 10:17

Warum überhaupt Ignore oder Disallow?

Um Duplicate Content auszuschliessen? Google listet doch einfach nur die stärkste Seite mit DC und lässt die anderen weg. Sollte man das nicht einfach Google überlassen? Schließlich will man doch am liebsten die stärkste Seite gelistet haben.
Zuletzt geändert von Who am 25.02.2010, 10:36, insgesamt 1-mal geändert.

DZVO
PostRank 6
PostRank 6
Beiträge: 476
Registriert: 27.12.2005, 04:44

Beitrag von DZVO » 25.02.2010, 10:30

@who das klappt leider bei google nicht immer so wirklich zudem findet google das auch nicht so toll wenn sich verschiede documente zu sehr ähnlich sind daher sperrt man ja gewisse bereiche oder sagt noindex
kuckst du oder schluckst du .... | FollowTheMillion sag ich nur :)

Lord Pixel
PostRank 7
PostRank 7
Beiträge: 601
Registriert: 24.08.2007, 17:06

Beitrag von Lord Pixel » 25.02.2010, 12:41

Aus SEO-Sicht ist die Lösung meta-robots="noindex,follow" wegen der möglichen Vererbung besser; mit robots.txt kannst du hingegen die Serverbelastung einschränken (und eventuell spidert Google die anderen Unterseiten dann öfter).

Außerdem werden, soweit ich weiß, bei Google die über robots.txt geblockten URLs bei der site:-Suche als einfacher Link (ohne Snippet und ohne Titel) in den Suchergebnissen angezeigt; über meta-robots geblockte Seiten werden hingegen gar nicht mehr aufscheinen.

ErwinRommel
PostRank 10
PostRank 10
Beiträge: 3868
Registriert: 14.09.2003, 20:46

Beitrag von ErwinRommel » 25.02.2010, 13:23

Lord Pixel hat geschrieben: Außerdem werden, soweit ich weiß, bei Google die über robots.txt geblockten URLs bei der site:-Suche als einfacher Link (ohne Snippet und ohne Titel) in den Suchergebnissen angezeigt
Die Seiten sollte man dann aber via Google Webmasterkonsole komplett entfernen. Macht auch Sinn im Hinblick auf das Ranking.
Social Media Beratung nicht nur für SEOs :)
<br>
<br>Onlineshops erfolgreich aufbauen
<br>
<br>Gute Links im Angebot.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag