Seite 1 von 1

Noindex da sinnvoll?

Verfasst: 13.08.2010, 10:53
von sx06050
Hallo,

wäre es auch aus eurer Sicht aus SEO-Sicht etc. sinnvoll bei nachfolgenden Beispielen die Unterseiten auf Noindex zu setzen?

Beispiele:
https://www.der-banker.de/auslandskredit-antrag.html
https://www.der-banker.de/ratenkredit-vergleich.html

THX!

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Verfasst: 13.08.2010, 11:02
von mano_negra
eventuell wäre es sinnvoll die links auf diese unterseiten mit nofollow zu versehen, sie in robots.txt zu sperren und zusätzlich noindex/nofollow zu verwenden.

Verfasst: 13.08.2010, 11:05
von sx06050
Genau, diesen Gedanken hatte ich auch, dass dies Sinn macht.
Danke!

Verfasst:
von

Verfasst: 13.08.2010, 19:41
von Bluemarble
Ich frag mal ganz dreist.. warum?

Verfasst: 13.08.2010, 20:13
von net(t)worker
mano_negra hat geschrieben:sie in robots.txt zu sperren und zusätzlich noindex/nofollow zu verwenden.
naja... dieses beides zusammen ist nie sinnvoll... :roll:

Verfasst: 13.08.2010, 21:44
von sx06050
warum machen beide zusammen keinen sinn?
wird ja somit nicht in den index aufgenommen und links nicht gefolowd.
grübel grübel
verlier ich somit an interner linkpower oder???
bin grad zu doof bzw. komm ned drauf.

Verfasst: 13.08.2010, 21:52
von sx06050
ach, jetzt dämmerts, weil ich einmal ja und einmal nein sage
also:
noindex:
prvererbung ja
crawling ja
index nein

und

nofollow

prvererbung nein
crawling nein
index nein

stimmts jetzt so?

->also nur nofollow

Verfasst: 14.08.2010, 08:47
von Alda
Nö. Canonical-Tag

Damit ist klar wer der "Contenteigentümer" ist, deine Seite rankt so wie vorgesehen, nämlich gar nicht, aber Du verschenkst nichts. Hier ist aber Luzie der Spezi. Vielleicht sieht der den Thead hier und sagt ob das so passt, oder ob nicht.

Verfasst: 14.08.2010, 09:07
von Fridaynite
noindex reicht vollkommen

Verfasst: 14.08.2010, 09:32
von sx06050
Danke euch.
Dann mach ich nur noindex in der meta und lass das andere bleiben.

Verfasst: 14.08.2010, 10:22
von sx06050
Sorry, nochmal hack nach.
Warum genau macht es keinen Sinn
-in der Robot.txt disallow
-meta noindex
-meta nofollow

Ist zwar ein bischen nach dem Motto, doppelt hält besser, aber ich will den genauen Grund wissen, warum das Käse ist.
Meines Wissens nach "überlesen" ja manche Bots die Meta oder bin ich da falsch informiert?

Verfasst: 16.08.2010, 07:55
von mano_negra
wenn es in der robots.txt gesperrt ist, kommt google gar nicht so weit die meta-angaben auszulesen. deshalb ist noindex/nofollow eigentlich nicht mehr nötig.

trotzdem habe ich es mir angewöhnt (aus paranoia) alles zu verwenden, nach dem motto doppelt hält besser.
und es geht mir dabei nicht um interne linkpower oder dergleichen, sondern um die seiten ohne eigenen content so weit wie möglich von google fernzuhalten um nicht als affiliate-kopie eingestuft zu werden.

dass das vielleicht gar nicht notwendig ist und google eh ganz genau weiss was sich dahinter verbirgt bzw. dass das nicht unbedingt schlecht sein muss, ist gut möglich. ich sehe das heute auch ein wenig anders, die verlinkungstechnik habe ich aber trotzdem noch beibehalten.

und starke seiten haben auch überhaupt kein problem das ganz normal zu verlinken.

Verfasst: 16.08.2010, 08:15
von sx06050
Danke dir, aber ich hab von netti nettwerweise nen Link bekommen, der dies erklärt, warum diese kombi mit der robots.txt käse ist.
hier mal der link: https://www.martins-meinung.de/2007/01/ ... wirkungen/
wollte nämlich nicht nur wissen, ob man das so macht und dann auch noch warum.
ich ging auch von dem standpunkt wie du aus, bin aber jetzt schlauer,
denn eine bei einer gesperrten robots kommt der bot nicht so weit, dass der die meta auslesen kann. zeigt aber ein link drauf, wird´s trotzdem indexiert.
->ergebnis: finger weg von der robots und nur die meta auf noindex.
(genaueres unter obigen ling)

Nochmals danke nettworker -> was gelernt

gelegentlich gibt´s hier auch mal was vernünftiges und nicht nur tourquemada, lastminute etc. (die wurden eh geschrottet - leider nur virtuel)

Verfasst: 16.08.2010, 08:32
von mano_negra
ja, das ist schon richtig. allerdings wird wenn auf eine in der robots.txt gesperrte seite gelinkt wird, normalerweise nicht richtig indiziert. du findest dann oft nur die url als title u.ä. in den serps. und oft verschwinden diese ergebnisse recht rasch wieder aus den serps.
google listet zwar die links, kennt aber den inhalt noch immer nicht (frage ob das wirklich wahr ist?) - bei noindex kennt google den inhalt aber auf jeden fall.

Verfasst: 16.08.2010, 09:09
von sx06050
stimmt, G entrümpelt da oft selbst