Seite 1 von 1

Google indexiert nun bis zu 6 Variablen

Verfasst: 08.12.2004, 13:35
von viggen

Verfasst:
von

Verfasst: 08.12.2004, 23:29
von manute
also ich glaube nicht daran, dass google eine 3-variablen sperre hatte und diese jetzt auf 6 ausgeweitet hat. was hätte das für nen sinn?
die anzahl der vars in der url sagt doch mal rein gar nichts über die seite aus.
google wird doch wohl auch kaum die url aufsplitten und sich die vars anschauen, was hätten sie davon?
so gesehen ist eine url mit 2 variablen technisch doch nichts anderes als eine mit 20 - vorausgesetzt sie haben nicht mehr als 256 zeichen, klar.

Verfasst: 09.12.2004, 08:55
von mario
@manute

den indexgeilen Sumas bringt das mehr Seiten :wink:

Verfasst:
von

Verfasst: 09.12.2004, 11:58
von manute
@mario: klar, aber dann könnten sie doch auch urls mit 12 vars spidern, wo ist da der unterschied?

Re: Google indexiert nun bis zu 6 Variablen

Verfasst: 10.12.2004, 18:51
von jackthebauer
Hallo

Besser aber keine Variablen benutzen, oder?

Jack
viggen hat geschrieben:Laut SEO Roundtable
https://www.seroundtable.com/archives/001236.html

Verfasst: 10.12.2004, 18:55
von manute
ja, url-rewriting ist standard.

Verfasst: 10.12.2004, 19:35
von depp ich
Das ist eine Sache, die ich nie ganz geschnallt habe:
ist
tag=10&monat=12&jahr=2004
für Google das gleiche wie
jahr=2004&monat=12&tag=10
?

Also: verschiedene URL, aber eigentlich gleiche Parameter = gleiches Ergebnis. Anders gesagt: werden Parameter neu sortiert?
Dann würde eine Obergrenze Sinn machen. Sonst wäre - wie Manute sagt - eine Obergrenze ja Blödsinn.

Verfasst: 10.12.2004, 19:50
von manute
gute frage. wenn google schlau ist, ist es das gleiche. davon würde ich aber nicht ausgehen, habe es noch nicht probiert.

Verfasst: 10.12.2004, 23:48
von depp ich
--wenn google schlau ist, ist es das gleiche

Naja - ich habs auch noch nie probiert. Aber sonst würde die "3-Parameter-Regel" oder mod_rewrite ja wenig Sinn machen.
Allerdings: SEOs neigen dazu, eine Zahl zu hören und - danke! - ab jetzt ist das so. So wie die 100-Link-Regel oder sonst was. Und: mein Respekt vor Google ist auch nicht mehr der alte...

Verfasst: 11.12.2004, 12:18
von sean
ich denke dass das Problem bei den Variablen ist, dass man mit unterschiedlichen Variablen die selben Ergebnisse bekommen kann/ oder nur leicht unterschiedliche (template steuerung, details an/aus). Auch gibt es zusätzliche Infos in den Variablen wie z.B. letzte Seite, vorheriger Artikel, Einstiegs ID, Session, Untersession, Partner ID, Regionale Steuerungen, Sprachsteuerungen, Kategorie, Unterkategorie, Angebot, Neuheit, VersionsID, usw....

Neue Inhalte werden oft mit anderen Parametern aufgerufen als alte Inhalte, dadurch ändern sich die Links (ständig). Das kommt bei Neuheiten, Angeboten, Nachrichten usw. vor. Permanente Links anzugeben ist ja noch nicht so lange en vouge.

Bei einem kleinen Web ist das zu vernachlässigen, aber noch vor nicht allzulanger Zeit gab es z.B. bei Microsoft.com gigantische Parameter die übergeben wurden.

Wenn man von Hand ein paar Parameter entfernt, sind die Ergebnisse oder die Darstellung anders. Es läßt sich auch fast nie vermeiden, dass alle Links der Parameter Konvention entsprechen, also mal fehlt ein Parameter, mal ist er leer usw.. Diese unterschiedlichen Links werden von Mitarbeitern produziert und von Externen, die z.B. Webseiten verlinken. Das ist kaum zu vermeiden.

Aufgrund der Vielzahl von Möglichkeiten wurde wohl darauf verzichtet diese als normale Seiten anzusehen, ich denke bei G. wird man das auch getestet haben. Als Hauptgrund sehe ich die Mögliche Vielzahl von Webeiten, die oft doppelte inhalte haben und die sich öfter ändernden Links, so dass Google keine aktuellen Daten liefern kann oder zu oft und intensiv indexieren muß. Letzteres ist auch problematisch, da dynamische Webs oft tausende Seiten stark sind. Wenn man bedenkt das gut 30% aller Webs dynamisch sind, ist das für G. ein enormer Mehraufwand an Rechenarbeit. Wie problematisch das sein kann, erlebt man bei einer Umstellung auf statische Links (mod_rewrite), wenn plötzlich die dynamischen Links und die statischen drin sind. Da brauch G. eine gewisse Zeit bis das entsprechend aussortiert wird. Ein Zeichen für den enormen Berechnungsaufwand (imo).

Inzwischen sieht man diese riesigen Parameter immer seltener, auch Microsoft hat hier reagiert. Obwohl ich da auch annehme dass eine Maskierung statt findet (isapi rewrite).

Ob G. die Parameter interpretiert oder als kompletten String sieht ist da egal - wenn es von beiden fast unendlich viele geben kann. Auch die bestimmung einer Webseitenstrukur zur Einschtzung der Kontentwichtigkeit wird mit dynamischen Links nicht einfacher.

Gruß

sean