Beitrag
von chio » 02.04.2004, 11:56
Hallo Jan!
Danke für's Lob :)
Die Verweigerung bei Seiten mit viel PR hab ich gemacht, damit nicht jeder in spiegel.de herumstochern kann - bei derartigen Seiten gelten die Kriterien von webeye sowieso nicht mehr. Zielgruppe sind ja nicht Profis wie du, sondern ambitionierte Webdesigner wie ich. Aber - du hast recht - wer interpretieren kann, soll es dürfen und wer nicht ist selber schuld. Ändere ich.
So nebenbei: von den ca 1800 Domains, die in den letzten 2 Monaten gespidert wurden hatten 95% einen PR <4 ! Soweit zur Welt außerhalb dieses Forums ;-)
Die Shockwave-Meldungen sind definitiv ein Problem, aber die Hinweise schaut sich auch keiner an.
Datumsangaben: webeye macht diesbezüglich keinen Unterschied (mehr) zwischen dynamisch und statisch - es gilt zunächst, was der Server ansagt. Ich habe schon 2 Jahre alte PHP-Seiten gesehen und -12 Tage alte htm... gebastelt wird scheinbar viel, wenn der Tag lang ist. webeye macht hier eine Clusteranalyse, nur die ist scheinbar halbwegs relevant. Interessant wäre natürlich, wie Google das macht.
Der Grund warum ich jetzt mal frage:
Derzeit funktioniert der Spider/Parser recht ordentlich und schaufelt den Speicher mit allerhand Daten voll.
Jetzt stellt sich für mich einfach die Frage: Was solls werden?
Ein Google-Imitat (unsinnig, überflüssig & reizvoll ;-) oder
ein One-Button Site-Check (viel Arbeit, zuwenig Eckdaten und scheinbar zuwenig Bedarf)
Was ist interessant? Keywords zählen?? - ein Klacks! - mit oder ohne Stemming?
Aber: braucht das wer?
Ich bin da momentan ein bisschen orientierungslos.... vielleicht hilft mir wer auf die Sprünge.
grüße
chio