Code: Alles auswählen
site:http://www.sexy-shisha.de
Herzlich willkommen im Archiv vom ABAKUS Online Marketing Forum
Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.
Code: Alles auswählen
site:http://www.sexy-shisha.de
Code: Alles auswählen
User-agent: *
Disallow: /verzeichnis/
Disallow: /eine_seite_die nicht_gespidert_werden_soll.htm
Code: Alles auswählen
User-agent: googlebot
Disallow: /verzeichnis/
Disallow: /eine_seite_die nicht_gespidert_werden_soll.htm
jo... stimmt, das mit den externen links...To-Bi-As hat geschrieben:Sorry net(t)worker und catcat wenn ich da jetzt vielleicht was falsches sage, aber das Thema hatte ich erst vor ein paar Wochen. Habe da irgendwo gelesen, meine sogar auf den Google-Hilfe Seiten selber dass die robots.txt zwar das Spidern verhindert, aber wenn ein externer Link auf die Seite zeigt diese dennoch im Index erscheint. Um das zu verhindern hilft nur ein "noindex". Selbiges auch mit "nofollow". Das geht nur wenn kein externer Link drauf zeigt.
dann ist die sperrung in der robots.txt aber nicht richtig, denn die beachtet er wohl, kann also den Aktivieruingslink wohl kennen, spidert ihn aber nicht weil die robots.txt es ihm verbietet....To-Bi-As hat geschrieben: Wie gesagt, kann mich irren, aber hatte genau das gleiche Problem mit Aktivierungslinks die per robots.txt gesperrt sind, aber einer den verlinkt hat. War dann im Index und der Bot hat eifrig "geklickt"...
Nein.Shady hat geschrieben:kann sie zb auch so aussehen :
User-agent: *
User-agent: googlebot
Disallow: /verzeichnis/
Disallow: /eine_seite_die nicht_gespidert_werden_soll.htm
warum? was hat den nun die robots mit dem cache zu tun. Das cachen wird doch nur verhindert, wenn "nocache" in den metas steht oder täusch ich mich da?net(t)worker hat geschrieben: aber da in diesem Fall Google für die "gesperrten" Unterseiten einen cache anzeigt, hat er sie auch gespidert, und das würde er ja nicht wenn die robots.txt ihm dies effektiv verbieten würde...
naja... was soll er denn im cache anzeigen wenn er die site nicht spidern darf? Ohne die site zu spidern weis google ja nicht was auf der site ist und kann so auch keinen cache dafür anzeigen...np hat geschrieben:warum? was hat den nun die robots mit dem cache zu tun. Das cachen wird doch nur verhindert, wenn "nocache" in den metas steht oder täusch ich mich da?