Seite 1 von 1

No Index oder NoFollow

Verfasst: 01.06.2011, 15:32
von jrebuy
Ich möchte, um keine Linkpower meiner Seite zu verschwenden, die interne Verlinkung optimieren.
Dazu möchte ich gezielt Seiten aus dem Index nehmen.
Was eigenet sich da besser NoIndex oder NoFollow?

Wir haben vorhin Überlegt, dass wenn nur NoIndex genutzt der googlebot auf die Seite geht, sie nicht berücksichtigt aber den Links auf der Seite weiter folgt. Ist das richtig? Verliert er dann Trotzdem Linkpower?

Verfasst:
von

Verfasst: 01.06.2011, 15:51
von Hirnhamster
Macht beides keinen Sinn.

Nofollow funktioniert seit 2009 nicht mehr und Seiten, die angelinkt werden bekommen trotzdem Juice, auch wenn sie auf noindex gesetzt sind (außerdem werden die Links auf noindex Seiten weiterhin gewertet). Generell hört sich dein Vorhaben nach PageRank Sculpting an > https://www.myseosolution.de/seo-tutori ... sculpting/ - was ich eigentlich nicht empfehlen würde, weil es sich mMn nicht lohnt und du dir nich sicher sein kannst, ob Google später Änderungen vornimmt.

Verfasst: 01.06.2011, 16:40
von sx06050
jup - lass beides bleiben - zumidest für das, was du da vor hast
@hirnhamster
so isses - zustimm und kopfnick

Verfasst:
von

Verfasst: 03.06.2011, 13:37
von net(t)worker
beim Nofollow muss man unterscheiden

einmal in den Robots Meta Angaben, dies gilt dann ja für alle Links auf der Seite...

oder eben das rel="nofollow" für einen einzelnen Link.....

aber in beiden Fällen sollte Google den Links nicht folgen, so nenn Google selber Beispiele in denen man das nofollow verwenden sollte, z.B. bei einem unendlichen dynamisch generierten Kalender für Daten in ferner Zukunft, nicht das der Bot da jahrelang die Seite für den nächsten Tag crawlt...

aber um die interne Linkjuiceverteilung zu steuern eignet es sich nicht mehr, bei diesen Links fliest der Linkjuice also ins Nix, wird bei der linkgebenden Unterseite mit "abgezogen", kommt aber nicht bei der verlinkten Seite an, oder zumindest nicht vollständig....

das noindex macht nur Sinn wenn man eine Seite wirklich aus den SERPS raushalten will, sinnvoll z.B. bei einer Sitemap.... ist aber auch eine gute Möglichkeit um Links zu verschleiern... ein Backlink auf einer Seite die auf noindex steht, wird von Google und Co auch nie öffentlich als Backlink genannt...

Verfasst: 03.06.2011, 13:38
von jrebuy
Hirnhamster hat geschrieben:Macht beides keinen Sinn.
Generell hört sich dein Vorhaben nach PageRank Sculpting an >
Ja nach dem Artikel zu urteilen ist dass das Ziel.

Wir wollen verhindern, dass SEOunrelevante Seiten, relevanten Seiten die Link Power streitig machen.

Der Artikel spricht von einer Hierachisierung der Seiten. Wie genau mache ich das? durch einer Hierachisierung in der Sitemap??

Verfasst: 03.06.2011, 13:43
von jrebuy
Ok, danke schon mal so langsam verstehe ich.

Was mache ich am besten mit Seiten wie dem Impressum und Co.

Verfasst: 03.06.2011, 13:56
von net(t)worker
jrebuy hat geschrieben:Der Artikel spricht von einer Hierachisierung der Seiten. Wie genau mache ich das? durch einer Hierachisierung in der Sitemap??
durch die Art der internen Verlinkung, du hast ja mehrere Ebenen:

Startseite

die seiten die im Menu, bzw überall, verlinkt sind (hier gehören dann Impressum & Co auch dazu)

seiten die nur auf anderen Unterseiten verlinkt sind, und auch hier kannst du mehrere Ebenen einbauen, z.B. in einem Shop die Kategorien, und von hier aus dann die einzelnen Produktseiten verlinkt...

sinnvoll sind z.B. in einem Shop auch ein paar eingebaute HowTo's in sehr hoher Qualität, die dann mit einzelnen Kategorien/Produkten verlinkt sind. Da eine reele Chance besteht das swolche Howtos freiwillig verlinkt werden, und so Linkpower auf einzelne Kategorieseiten verteilt....

Verfasst: 03.06.2011, 14:01
von dacapo
als grafik einstellen :) oder eine (Javascript?) zwischentür mit Captchafunktion. :)

dann lässt du von andere Leuten die von Dir vorgegeben/gesammelten Captchas lösen.

Sammelst dabei fleissig die, die richtig sind, und verwendest diese dann selber für deine (automatisierten?) Zwecke. :)

Verfasst: 03.06.2011, 16:43
von Hirnhamster
dacapo hat geschrieben:als grafik einstellen :) oder eine (Javascript?) zwischentür mit Captchafunktion. :)

dann lässt du von andere Leuten die von Dir vorgegeben/gesammelten Captchas lösen.

Sammelst dabei fleissig die, die richtig sind, und verwendest diese dann selber für deine (automatisierten?) Zwecke. :)
Beides nicht zu empfehlen. Grafik geht nicht, bzw. wüsste ich nicht was das im Sinne der Linkjuiceerhaltung bringen sollte und JS ist mMn wenn überhaupt nur eine kurzfristige Lösung. Wer weiß, wann und wie Google das mal auswertet.

Ich würde es wenn überhaupt über eine sinnvolle Zusammenlegung der Seiten lösen. Also so wie bei mir im Blog "Impressum und Kontakt".

Generell ist hier aber mMn nicht viel rauszuholen - wenn überhaupt...

Empfehlung liegt hier klar auf der Usability und weniger auf dem eventuell leicht geschächten Linkflow.

Verfasst: 06.06.2011, 19:12
von ErwinRommel
Impressum u.ä. tät ich komplett auf Noindex setzen und ggf. noch zusätzlich via robots.txt ausschließen.

Verfasst: 06.06.2011, 20:56
von Hirnhamster
ErwinRommel hat geschrieben:Impressum u.ä. tät ich komplett auf Noindex setzen und ggf. noch zusätzlich via robots.txt ausschließen.
bringt aber nix bezüglich der Linkpower Konsolidierung, oder?

Verfasst: 06.06.2011, 20:58
von net(t)worker
ErwinRommel hat geschrieben:Impressum u.ä. tät ich komplett auf Noindex setzen und ggf. noch zusätzlich via robots.txt ausschließen.
jo... sehr sinnvoll..... dem Bot verbieten das Noindex dann auch zu lesen... :roll:

Verfasst: 06.06.2011, 21:16
von ErwinRommel
Läßt ihn erst das noindex im Head schlucken und später dann via robots.txt für die Zukunft blocken. ;-)

Verfasst: 06.06.2011, 22:00
von net(t)worker
klar... der Googlebot merkt sich dann auch das da auch ein Noindex war.... :roll:

zudem ist es für die interne Linkjuiceverteilung kontraproduktiv das Impressum per robots.txt zu sperren... das Impressum ist von jeder Seite aus verlinkt, bekommt also eine Menge interne Linkpower, gibt davon aber nichts weiter da per robots.txt gesperrt...

richtig wäre ein reines Noindex, dann weis Google das die Seite nicht in den SERPS auftauchen soll, aber dennoch wird die interne Linkpower weitergegeben...