Seite 1 von 1

Sortier- und Blätter-Links - welche maskieren und wie?

Verfasst: 09.11.2005, 11:02
von SoniC-LaBlue
hallihallo :D,

nach ca. 3-4 monaten mitlesen im forum, hab ich jetzt auch einmal eine frage, die (hoffentlich) in dieser form noch nicht gestellt wurde.
(zumindest habe ich über die suche nix gefunden - aber man weiss ja nie :-? )

ich habe eine seite, die verschiedene kategorien mit produkten enthält.
(meine frage bezieht sich also auf eine produktliste)

nun denke ich mir, dass es aus (nicht)spam-sicht doch eigentlich so sein muss, dass ich die blätter-navigation unangetastet lasse, aber die sortierlinks sowie den 'anzahl-pro-angezeigte-seite-link' maskieren sollte!?
(blätter-navi in der form '1|2|3' - man kommt also von jeder seite auf jede andere)
(sortieren kann man z.b. nach 'grösse' etc.)

der bot kommt also auf alle seiten, erzeugt aber keinen spam/DC dadurch, dass er die selben ergebnisse umsortiert, oder eben 25 statt 10 ergebnisse auf einer seite anzeigt.

liege ich soweit richtig?


eine maskierung über javascript à la: "..relocate('xyz_sort_xy.html');.." ist wohl eher nicht ratsam, da g**gle ja scheinbar die links dann trotzdem als url erkennt (alter schlaumeier die tante :wink:)

also eher sowas wie "..relocate.php?site=xyz_sort_xy.html.." - und die relocate.php in der robots.txt ausschliessen? - dann müsste g**gle aber doch die url auch erkennen? oder wird sie ignoriert, da sie ein teil einer 'unerlaubten' url ist.

am besten also was kryptisches (jedenfalls url-loses?)
wie "..relocate.php?id=1&s=desc.." etc. PLUS relocate.php in der robots.txt ausschliessen?


danke im vorraus für eure kompetenten & informativen antworten :D


sonnigen gruß,
SoniC

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Verfasst: 09.11.2005, 11:50
von Doki
Mach es dir nicht zu schwer, wenn es nur um Google geht kannst du auch
rel="nofollow" benutzen.

mfg
Doki

Sortier- und Blätter-Links - welche maskieren und wie?

Verfasst: 09.11.2005, 12:13
von SoniC-LaBlue
hi Doki,

danke für die schnelle Antwort.

Problem ist folgendes:
Klicks auf die Sortier-Funktionen generieren hohe Last auf dem Server.

G**gle klickt da momentan extrem wild rum und die Performance
lässt nach...

'nofollow' haben wir drin, aber die Links werden ja trotzdem geklickt, halt
nur nicht gewertet.

weiterhin macht es meiner Ansicht nach mehr Sinn, den Bot aus den Bereichen, die er eh nicht indizieren muss/soll fernzuhalten.

bleibt also nur die Script-Lösung mit Ausschluss aus der robots.txt (Javascript find ich dafür eher ungeeignet)

gruß,
SoniC


:D

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Sortier- und Blätter-Links - welche maskieren und wie?

Verfasst: 10.11.2005, 09:56
von SoniC-LaBlue
...schade,

dachte ich bekomme feedback zum ersten teil (was maskieren um spammen vorzubeugen) :cry:

ist der ansatz so in euren augen o.k.?


sonnigen gruß,
SoniC

Verfasst: 10.11.2005, 11:23
von tritop
hallo kollegen,
Doki hat geschrieben:...wenn es nur um Google geht kannst du auch
rel="nofollow" benutzen.
das halte ich in diesem zusammenhang fuer falsch. der 'nofollow' bewirky lediglich dass kein pr ueber den link vererbt wird, folgen tut der bot ihm trotzdem. auch der ausschluss ueber die robots.txt ist keine sichere methode da google sich da oft nicht dran haelt.
ich empfehle eine kryptische javascriptloesung. google liest javascript (auch ausgelagerte dateien), ich glaube aber nicht dass google den code dann noch interpretiert. d.h. wenn du die url in klartext im java-code drinhast dann kennt google die, wenn du sie verschluesselt reinschreibst dann kennt google sie nicht. also so etwas:
variable1 = verschluesselte url
variable2 = entschluessel(variable1)
writeln variable2
bei mir klappt das so ganz gut.
lg tri

Sortier- und Blätter-Links - welche maskieren und wie?

Verfasst: 10.11.2005, 11:57
von Excelberti
Hi Sonic,
ich hatte auch einmal das Problem und habe es auf mehrere Seiten angegangen:
rel="nofollow" hilft zwar, aber es dauert ewig bis die bisher gespiderten Seiten verschwinden.

Habe zusätzlich per php-Skript den Seitenaufruf ausgewertet und sperrre generell im Header die robots bei bestimmten Seitenaufrufen.

Falls Deine sortierfunktion über eine eigenständige *.php aufgerufen wird, dann solltest Du diese in der robots.txt sperren.

Es dauert ewig bin bereits in den Serps befindliche Seiten entfallen. Das dauert so 6 Monate, bei irgendwelchen Updates kann es aber sein, dass die kurzzeitig doch wieder in den serps erscheinen.

Gruß
Berti

Sortier- und Blätter-Links - welche maskieren und wie?

Verfasst: 10.11.2005, 12:17
von SoniC-LaBlue
aloha,

danke für eure antworten :D

@tritop:
danke, aber ich will nicht, dass der user javascript benötigt, um bestimmte funktionen auf der site auszuführen.

mit der robots.txt habe ich bisher (zumindest bei g**gle) gute erfahrungen gemacht?
> kann da irgendjemand was zu sagen - link geklickt, obwohl ausgeschlossen?)

gruß,
SoniC