Seite 1 von 1
noindex - Unterseiten einstellen
Verfasst: 03.05.2010, 13:59
von Dominik83
Reicht es, wenn ich die "Seite A" mit noindex markiere um auch die "Unterseiten" aus dem google Index auszuschließen, oder muss ich auch jede Unterseite mit noindex vermerken? Die Unterseiten können nur über die "Seite A" erreicht werden, Es gibt keine Sitemap.
Seite A
-------- Unterseite 1
-------- Unterseite 2
-------- Unterseite 3
-------- Unterseite 4
Verfasst:
von
Hochwertiger Linkaufbau bei ABAKUS:
- Google-konformer Linkaufbau
- nachhaltiges Ranking
- Linkbuilding Angebote zu fairen Preisen
- internationale Backlinks
Wir bieten
Beratung und
Umsetzung.
Jetzt anfragen:
0511 / 300325-0
Verfasst: 03.05.2010, 14:16
von heino
Wenn du sicherstellen willst, dass die Unterseiten ausgeschlossen werden, musste du sie alle mit noindex kennzeichnen.
Auf A kannst du ein nofollow einbauen. Das dortige noindex hat nicht die geringste Auswirkung auf die Unterseiten.
Verfasst: 03.05.2010, 14:21
von SloMo
Heino hat Recht. Wobei das nofollow auf der Startseite auch nicht garantiert, dass kein Bot auf dunklen Wegen zu den Unterseiten findet und ein noindex auf den Unterseiten nicht garantiert, dass der Content nicht auf anderem Wege ins indizierte Internet gelangt.
Verfasst: 03.05.2010, 14:35
von Dominik83
Ok, danke!
Verfasst: 03.05.2010, 15:15
von Dominik83
Wie heißt denn der Tag, wenn die Url der Unterseite z.b. www,projekt,de/wort-wort-wort/ heißt?
So?
<?php if( is_page('wort-wort-wort') ) { echo "<meta name=\"robots\" content=\"noindex\" />"; } ?>
oder
<?php if( is_page('wort wort wort') ) { echo "<meta name=\"robots\" content=\"noindex\" />"; } ?>
Verfasst: 03.05.2010, 15:32
von SloMo
Stimmt schon, WordPress ist das einzige CMS am Markt. Probiere es halt aus, kann ja nicht so schwer sein. is_page akzeptiert die ID, den post_title oder den post_name.
https://codex.wordpress.org/Function_Reference/is_page
Re: noindex - Unterseiten einstellen
Verfasst: 03.05.2010, 21:35
von Pfauli
Dominik_ hat geschrieben:Reicht es, wenn ich die "Seite A" mit noindex markiere um auch die "Unterseiten" aus dem google Index auszuschließen, oder muss ich auch jede Unterseite mit noindex vermerken? Die Unterseiten können nur über die "Seite A" erreicht werden, Es gibt keine Sitemap.
Seite A
-------- Unterseite 1
-------- Unterseite 2
-------- Unterseite 3
-------- Unterseite 4
Wie wäre es mit der Robot.txt?
User-agent: *
Disallow: /Ordner1/unterseite1
usw...
Siehe auch:
https://www.google.com/support/webmaste ... wer=156449
Verfasst: 03.05.2010, 21:44
von net(t)worker
ein sperren in der robots.txt verhindert nicht das die Site in den Index kommt, kann u.U. sogar ranken... Details:
https://www.martins-meinung.de/2007/01/ ... wirkungen/
Edit... aber genau das selbe sagt die Antwort bei Google ja auch aus... robots.txt verhindert crawlen, und noindex eben das erscheinen im Index...
Verfasst: 03.05.2010, 22:01
von Pfauli
Ah! Okay.
Es wird aber auch geraten am besten beides zu tun, also noindex + robot.txt
Naja, wie auch immer - ich nutze beides - doppelt genäht hält besser.
Etwas schleierhaft erscheint mir dennoch die Tatsache, wenn es nicht gecrawlt wird, wie es dann indexiert werden kann.
(Ich darf nicht durch die Tür, aber ich weiß wie es dahinter aussieht) schon strange irgendwie

Verfasst: 03.05.2010, 22:17
von net(t)worker
Pfauli hat geschrieben:Es wird aber auch geraten am besten beides zu tun, also noindex + robot.txt
Naja, wie auch immer - ich nutze beides - doppelt genäht hält besser.
jo klar... aber dir ist schon klar das du ein Schild an der Theke nicht lesen kannst solange die Security dich nicht ins Lokal reinlässt... oder?

Verfasst: 03.05.2010, 22:21
von Dominik83
hat das mit dem robotstext dann den vorteill, dass bereits gecrawlte seiten, die sich nicht mehr ändern nicht erneut gecrawlt werden müssen und somit google mehr zeit hat neue seiten zu finden?
Verfasst: 03.05.2010, 22:24
von net(t)worker
Dominik_ hat geschrieben:hat das mit dem robotstext dann den vorteill, dass bereits gecrawlte seiten, die sich nicht mehr ändern nicht erneut gecrawlt werden müssen und somit google mehr zeit hat neue seiten zu finden?
alter schwede...

Verfasst: 03.05.2010, 22:35
von Pfauli
net(t)worker hat geschrieben:
alter schwede...

net(t)worker hat geschrieben:Pfauli hat geschrieben:Es wird aber auch geraten am besten beides zu tun, also noindex + robot.txt
Naja, wie auch immer - ich nutze beides - doppelt genäht hält besser.
jo klar... aber dir ist schon klar das du ein Schild an der Theke nicht lesen kannst solange die Security dich nicht ins Lokal reinlässt... oder?

Ganz genau, deswegen hängt die robot.txt mit ["don't disturb"] bereits an der Außenwand angenagelt

Aber bei einer Sache muss ich Dir absolut Recht geben - glaube wenn Externe direkt verlinken, die Unterseiten twittern oder so, hilft die Robot nicht mehr, oder?
Und schon hat man den Salat ..
Verfasst: 03.05.2010, 22:45
von net(t)worker
jo... externer Link reicht um nur mit der url im Index aufzutauchen, und je nach Links auch zu ranken.... wenn du da nun also ein noindex verwenden möchtest, musste den Bot auch schon bis zur "Theke" durchlassen, sonst sieht er das ja garnicht... also nicht per robots.txt sperren...