Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Noindex da sinnvoll?

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
sx06050
PostRank 10
PostRank 10
Beiträge: 3376
Registriert: 15.07.2008, 10:24

Beitrag von sx06050 » 13.08.2010, 10:53

Hallo,

wäre es auch aus eurer Sicht aus SEO-Sicht etc. sinnvoll bei nachfolgenden Beispielen die Unterseiten auf Noindex zu setzen?

Beispiele:
https://www.der-banker.de/auslandskredit-antrag.html
https://www.der-banker.de/ratenkredit-vergleich.html

THX!

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

mano_negra
PostRank 9
PostRank 9
Beiträge: 2812
Registriert: 23.07.2009, 15:29
Wohnort: la luna

Beitrag von mano_negra » 13.08.2010, 11:02

eventuell wäre es sinnvoll die links auf diese unterseiten mit nofollow zu versehen, sie in robots.txt zu sperren und zusätzlich noindex/nofollow zu verwenden.

sx06050
PostRank 10
PostRank 10
Beiträge: 3376
Registriert: 15.07.2008, 10:24

Beitrag von sx06050 » 13.08.2010, 11:05

Genau, diesen Gedanken hatte ich auch, dass dies Sinn macht.
Danke!

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Bluemarble
PostRank 4
PostRank 4
Beiträge: 168
Registriert: 20.07.2010, 18:46

Beitrag von Bluemarble » 13.08.2010, 19:41

Ich frag mal ganz dreist.. warum?

Anonymous

Beitrag von Anonymous » 13.08.2010, 20:13

mano_negra hat geschrieben:sie in robots.txt zu sperren und zusätzlich noindex/nofollow zu verwenden.
naja... dieses beides zusammen ist nie sinnvoll... :roll:

sx06050
PostRank 10
PostRank 10
Beiträge: 3376
Registriert: 15.07.2008, 10:24

Beitrag von sx06050 » 13.08.2010, 21:44

warum machen beide zusammen keinen sinn?
wird ja somit nicht in den index aufgenommen und links nicht gefolowd.
grübel grübel
verlier ich somit an interner linkpower oder???
bin grad zu doof bzw. komm ned drauf.

sx06050
PostRank 10
PostRank 10
Beiträge: 3376
Registriert: 15.07.2008, 10:24

Beitrag von sx06050 » 13.08.2010, 21:52

ach, jetzt dämmerts, weil ich einmal ja und einmal nein sage
also:
noindex:
prvererbung ja
crawling ja
index nein

und

nofollow

prvererbung nein
crawling nein
index nein

stimmts jetzt so?

->also nur nofollow

Alda
PostRank 10
PostRank 10
Beiträge: 4584
Registriert: 27.01.2009, 20:19
Wohnort: Kaiserslautern

Beitrag von Alda » 14.08.2010, 08:47

Nö. Canonical-Tag

Damit ist klar wer der "Contenteigentümer" ist, deine Seite rankt so wie vorgesehen, nämlich gar nicht, aber Du verschenkst nichts. Hier ist aber Luzie der Spezi. Vielleicht sieht der den Thead hier und sagt ob das so passt, oder ob nicht.

Fridaynite
PostRank 10
PostRank 10
Beiträge: 2983
Registriert: 07.01.2004, 09:10

Beitrag von Fridaynite » 14.08.2010, 09:07

noindex reicht vollkommen

sx06050
PostRank 10
PostRank 10
Beiträge: 3376
Registriert: 15.07.2008, 10:24

Beitrag von sx06050 » 14.08.2010, 09:32

Danke euch.
Dann mach ich nur noindex in der meta und lass das andere bleiben.

sx06050
PostRank 10
PostRank 10
Beiträge: 3376
Registriert: 15.07.2008, 10:24

Beitrag von sx06050 » 14.08.2010, 10:22

Sorry, nochmal hack nach.
Warum genau macht es keinen Sinn
-in der Robot.txt disallow
-meta noindex
-meta nofollow

Ist zwar ein bischen nach dem Motto, doppelt hält besser, aber ich will den genauen Grund wissen, warum das Käse ist.
Meines Wissens nach "überlesen" ja manche Bots die Meta oder bin ich da falsch informiert?

mano_negra
PostRank 9
PostRank 9
Beiträge: 2812
Registriert: 23.07.2009, 15:29
Wohnort: la luna

Beitrag von mano_negra » 16.08.2010, 07:55

wenn es in der robots.txt gesperrt ist, kommt google gar nicht so weit die meta-angaben auszulesen. deshalb ist noindex/nofollow eigentlich nicht mehr nötig.

trotzdem habe ich es mir angewöhnt (aus paranoia) alles zu verwenden, nach dem motto doppelt hält besser.
und es geht mir dabei nicht um interne linkpower oder dergleichen, sondern um die seiten ohne eigenen content so weit wie möglich von google fernzuhalten um nicht als affiliate-kopie eingestuft zu werden.

dass das vielleicht gar nicht notwendig ist und google eh ganz genau weiss was sich dahinter verbirgt bzw. dass das nicht unbedingt schlecht sein muss, ist gut möglich. ich sehe das heute auch ein wenig anders, die verlinkungstechnik habe ich aber trotzdem noch beibehalten.

und starke seiten haben auch überhaupt kein problem das ganz normal zu verlinken.

sx06050
PostRank 10
PostRank 10
Beiträge: 3376
Registriert: 15.07.2008, 10:24

Beitrag von sx06050 » 16.08.2010, 08:15

Danke dir, aber ich hab von netti nettwerweise nen Link bekommen, der dies erklärt, warum diese kombi mit der robots.txt käse ist.
hier mal der link: https://www.martins-meinung.de/2007/01/ ... wirkungen/
wollte nämlich nicht nur wissen, ob man das so macht und dann auch noch warum.
ich ging auch von dem standpunkt wie du aus, bin aber jetzt schlauer,
denn eine bei einer gesperrten robots kommt der bot nicht so weit, dass der die meta auslesen kann. zeigt aber ein link drauf, wird´s trotzdem indexiert.
->ergebnis: finger weg von der robots und nur die meta auf noindex.
(genaueres unter obigen ling)

Nochmals danke nettworker -> was gelernt

gelegentlich gibt´s hier auch mal was vernünftiges und nicht nur tourquemada, lastminute etc. (die wurden eh geschrottet - leider nur virtuel)

mano_negra
PostRank 9
PostRank 9
Beiträge: 2812
Registriert: 23.07.2009, 15:29
Wohnort: la luna

Beitrag von mano_negra » 16.08.2010, 08:32

ja, das ist schon richtig. allerdings wird wenn auf eine in der robots.txt gesperrte seite gelinkt wird, normalerweise nicht richtig indiziert. du findest dann oft nur die url als title u.ä. in den serps. und oft verschwinden diese ergebnisse recht rasch wieder aus den serps.
google listet zwar die links, kennt aber den inhalt noch immer nicht (frage ob das wirklich wahr ist?) - bei noindex kennt google den inhalt aber auf jeden fall.

sx06050
PostRank 10
PostRank 10
Beiträge: 3376
Registriert: 15.07.2008, 10:24

Beitrag von sx06050 » 16.08.2010, 09:09

stimmt, G entrümpelt da oft selbst

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag