To-Bi-As hat geschrieben:Sorry net(t)worker und catcat wenn ich da jetzt vielleicht was falsches sage, aber das Thema hatte ich erst vor ein paar Wochen. Habe da irgendwo gelesen, meine sogar auf den Google-Hilfe Seiten selber dass die robots.txt zwar das Spidern verhindert, aber wenn ein externer Link auf die Seite zeigt diese dennoch im Index erscheint. Um das zu verhindern hilft nur ein "noindex". Selbiges auch mit "nofollow". Das geht nur wenn kein externer Link drauf zeigt.
jo... stimmt, das mit den externen links...
aber da in diesem Fall Google für die "gesperrten" Unterseiten einen cache anzeigt, hat er sie auch gespidert, und das würde er ja nicht wenn die robots.txt ihm dies effektiv verbieten würde...
To-Bi-As hat geschrieben:
Wie gesagt, kann mich irren, aber hatte genau das gleiche Problem mit Aktivierungslinks die per robots.txt gesperrt sind, aber einer den verlinkt hat. War dann im Index und der Bot hat eifrig "geklickt"...
dann ist die sperrung in der robots.txt aber nicht richtig, denn die beachtet er wohl, kann also den Aktivieruingslink wohl kennen, spidert ihn aber nicht weil die robots.txt es ihm verbietet....
daher muss man sich immer überlegen was man erreichen will... soll er die Unterseite nicht spidern oder soll sie nicht in den Serps auftauchen...