aber bei 100.000 Ergebnissen sollte doch nach vorne zu kommen sein.... das ist es ja, bei vergleichsweise schwierigen Projekten mit Millionen von Ergebnissen hatte ich noch nie derartige Probleme. Die Linkpop der Konkurrenz ist übrigens auch deutlich schwächer und ich denke, 160 BLs in 6 Monaten si...
@net(t)worker Die Keywordkombi liefert 100.000 Ergebnisse, die Seiten der Mitbewerber sind teils sehr alt (1997) und haben wohl eine Art Spambonus von Google erhalten. PR ist durchweg schwächer (max 3). Im Plural und zusammengeschriebener Schreibweise liegen wir auf der ersten Seite. Dafür gibt es a...
Ein Kunde hatte eine Domain gereggt, die bis vor 2 Jahren jemandem anderes gehörte. Keyword im Domainnamen, PR4, 160 BLs... Das Projekt ist ca. 1/2 Jahr online und steht bei allen KW und Kombis erwartungsgemäss gut. Nur bei einer Keywordkombi tut sich nix. Weder durch Ankertexte der BLs noch durch o...
Andreas, überoptimiert kann man das nicht nennen, denn, soweit ich nach 6 Seiten sehen konnte, hast Du erst mal überall den gleichen Text im Title-Tag. Und der Rest der Horde stellt sich hier wieder an, wie eine Herde junger Stiere bei der PageRank-Verteilung. Sorry, aber OnPage ist wieder im Kommen...
@mark67 sondern weil mir auffällt, daß die vielen Cloaking Seiten, die es bisher immer gab verschwunden sind! Der echte Spam (nicht das was hier mancher neidvoll als Spam bezeichnet) ist stark reduziert worden und das sehe ich als Riesenerfolg für den Augenblick. Keine Ahnung wie tief der Brunnen is...
@Margin Wer sagt denn, daß Google einen Businessplan hat, der die unbezahlte Suche bis in alle Ewigkeit am Leben läßt. :wink: Nach den Bereichen der Investitionen und Entwicklung der Damen und Herren aus Mountain View kann man doch nicht zwangsläufig darauf schließen, daß Google wirklich langfristig...
a. Ist in meinen Bereichen kaum etwas von adwords zu sehen. Ich kenne Deine Bereiche natürlich nicht, aber bei stark kompetentiven Branchen (Automotive, Travel, Finanzen, ...) kann ich die angesprochenen Beobachtungen machen und zumindest die Möglichkeit dieses Zwangsbereitungszwanges nicht ausschl...
Kanonische Urls, Feldversuche, neuer Algo hin oder her, ich sage Euch Google braucht schlicht und ergreifend Kohle. Nicht zu letzt für die Beendigung der Serverkrise. Hat vielleicht schon mal jemand daran gedacht, daß der in epischer Breite verdrehte Sinn der ganzen Phänomene darin liegt, die Betrei...
Dnake für Eure Bestätigungen. Bleibt trotzdem, sich danach zu fragen, was der Bot sieht, was Google sieht und ob oder wie Google JS-Weiterleitungen dieser Art bewertet.
der Googlebot kann kein JS und wird sicherlich auch keinen relativen Links in Skripten folgen
Ja richtig, eben das meine ich auch. Aber ich habe den Verdacht, daß uns G**gle für diese automatische Weiterleitung ähnlich bestraft wie für einen Meta-Refresh. Wäre das denkbar?
Hi, habe hier gesucht und einiges reichlich Undifferenziertes zum Thema Weiterleitungen mit JavaScript gefunden. Es geht um folgenden Code: <script type="text/javascript"> // <![CDATA[ function gulp(e){ window.setTimeout("self.location....
Yahoo lässt sich überhaupt nicht in die Karten sehen. Zwar frisst sich Yahoo's Bot Slurp ewig fest, aber Rankingberechnungen dauern sehr unterschiedlich - aber in jedem Fall sehr - lange. Teilweise verhält sich das auch mit der Content-Aktualisierung so. Ich hielt lange Zeit Yahoo für ne klevere Suc...
@Graccem was allerdings voraussetzt, dass der Anwender die rechte Maustaste zu betätigen im Stande ist. 60 % meiner Kunden muss ich das immer noch erklären. Keine Blank-Targets nach draussen zu setzen solltet Ihr mal den Betreibern von Firmensites erklären. Die schmeissen Euch im hohen Bogen raus. :-?
ja aber das seltsame ist, das es bei mir ein relativ regelmässiges intervall ist. Das läuft schon seit mindestens 6 Wochen so. alle 6-7 Tage gibts nen einbruch (immer auf den selben level). es sieht so aus als würden da 2 verschiedene systeme laufen, nur das halt das eine nur einmal pro woche anges...