Ich möchte da mal kurz einhaken. Ist es möglich dem Bot per robots.txt zu sagen, dass er z.B. keine php-Dateien ohne Parameter (?foo=bar) spidern darf? Also anders rum: Es dürfen nur Seiten aufgenommen werden die datei.php?foo=bar und nicht datei.php lauten. Geht das mittels Disallow: /*.php$ Gruß B...
Hallo zusammen, ich habe eine Subdomain "test.meine-domain.de" auf der ich meine Seite teste (ach nee!). Diese sollte natürlich von Suchmaschinen nicht indiziert werden. Leider ist das aber passiert. Jetzt möchte ich eine htaccess mit Passwortschutz davor setzen, damit niemand da rein komm...
@oldInternetUser Ich finde Deine Einwände berechtigt und will sie ja auch garnicht abbügeln. Die Sache mit dem Duplicate Content ist aber eben so ein Ding, das man nicht per "oh die Seiten sehen ähnlich aus" oder "Da stehen die selben Textpassagen drin" erklären sollte. Es gibt T...
Das ist ja das verrückte!!!! Bei der site-Abfrage bekomme ich ebenfalls diesen Müll ohne Description. Wenn ich dann mal unter den KW suche, dann sieht das Ergebnis gut aus. Ich kann mir das alles einfach nicht mehr erklären
@oldInternetUser Besten Dank für den Hinweis. Ich habe aber in selbigem Thread auch geschrieben, dass ich a. den Duplicate Content gecheckt habe und das nicht das Problem sein kann und b. die von Dir angesprochenen anderen Affiliate-Seiten nicht davon betroffen sind und c. andere Seiten dieser Art (...
Hmmm, hab ich noch garnicht so gesehen. Ich dachte immer, dass das nicht-cachen sinnvoller ist, wenn sich Inhalte relativ häufig ändern. Aber weshalb sollte G* eine Technik abstrafen, wenn Sie explizit von G* unterstützt wird. Möglich wär's, aber mit welcher Logik.
ok der PR ist mau. Das liegt aber leider noch daran, dass die Domain nicht ganz so alt ist. Wie kann ich die Backlinks aber besser aufstellen? Und weshalb verschwindet die Seite aus dem Index, wenn Sie doch schon mal richtig fett drin war?
Hallo zusammen, ich hab vor ein paar Wochen schonmal gefragt, woran es liegen kann, dass eine Seite mit ehemals 300.000 Seiten im G-Index mehr und mehr verschwindet. Seitdem hat sich dieser Prozess kontinuierlich fortgesetzt und bald bin ich ganz weg (Stand heute 40 Seiten). Was zur Hölle mache ich ...
Ist sehr interessant das mit den Partnerprogrammen. Ich hab selber eine Domain mit dem gleichen Problem -> Content von Partnerprogrammen! Hier verlier ich zusehends an Boden. Wie lautet denn die URL Deiner Domain. Nachher sitzen wir beide noch im selben Zug.
@web_worker Das kann sein, dass es am dc liegt. Wäre aber dann echt der Hammer. Denn (siehe oben), ich hab nicht mehr als 20-40% ähnlichen Content. Und ich schreib explizit "ähnlichen" Content. Denn wie bereits erwähnt, ich hab sogar mit Seiten, die völlig anders sind 30% Übereinstimmung. ...
Guten Morgen zusammen, ich denke, ich bin raus (heute morgen 10.000). Jetzt hab ich ein wenig rumgesucht und bin auf die Sandbox-Theorie gestoßen. Neue Seiten sollen die ersten 3 Monate gepuscht werden, haben viele Seiten im Index und sind gut positioniert und dann geht's nach 3 Monaten in den Kelle...
Falls es interessiert. Ich hab das mit diesem Tool https://www.webconfs.com/similar-page-checker.php getestet. Spasseshalber hab ich dann mal irgendeine Seite von mir und einer völlig "fremden" (hier von heise) getestet und komm immer noch auf 30% selben Content! Ich denke, daran kann es n...
@oldInternetUser Zum Content kann ich so viel sagen, dass es bei Affiliate-Programmen doch immer so ist, dass hier (ein Teil) des Contents auf vielen Seiten gleich ist. Auf der anderen Seite sagt man, dass eben nicht mehr als 75% identischer Content vorhanden sein darf um "duplicate content&quo...
@web_worker Da magst Du sicherlich Recht haben. Das Blöde daran ist nur, dass mir von anfänglich sehr guten Besucherzahlen jetzt komplett alle wegbrechen. Und dass sich die Anzeige so "verschätzen" kann, ist doch unglaublich! Es sind (so zu sagen) noch 18% der ehemalige über Google zu find...