User-agent: sistrix Disallow: / ----- RewriteCond %{HTTP_USER_AGENT} ^SISTRIX.* [OR] RewriteRule .* https://www.google.de [L,NC,QSA] ----- Diese Angaben wurden überhaupt nicht beachtet Wie soll sistrix deine robots.txt beachten, wenn du ihn gleich zu google schickst? So wird sein Crawler zwangsläuf...
Kurze Antwort: Ja, der Googlebot hält sich immer daran. Lange Antwort: Zumindest dann, wenn er diese Informationen auch lesen kann, und es ihm nicht etwa durch die robots.txt verwehrt ist. Näheres dazu findest du z.B. hier: Aufbau des Googlebot . Das betrifft jedoch nur die Aufnahme der Seite in den...
Dagegen ist ja auch nichts zu sagen, aber man kann doch sehr wohl versuchen die dem Panda zu grundeliegenden Parameter zu analysieren, oder? Zumal Panda sich von anderen Teilen des Ranking-Algos deutlich unterscheidet: Panda ist nicht kontinuierlich, sondern wird Intervallweise geupdated (Eine Art C...
Bei manchen hat angeblich eine radikale De-Indizierung von (vornehmlich inhaltsleeren) Seiten geholfen. Warum das helfen könnte, kannst du z.B. hier nachlesen.
Die Absprungrate aus Analytics ist tatsächlich Wurst. Die Absprungrate, die als Signal ins Ranking eingeht, hat aber nichts mit Analytics zu tun, sondern bemisst sich einfach aus deiner Interaktion mit den SERPS. Wenn du dir wenige Sekunden nach dem Aufruf eines Ergebnisses das nächste auf der Liste...
Wenn es nicht deine Seite ist - keine Chance. Ansonsten: Sitemap einreichen und Prozentzahl ansehen oder z.B. über Analytics messen, welche "Einstiegsseiten" überhaupt Traffic kriegen.
NOFOLLOW ist nach wie vor ein wichtiges Instrument zur Beeinflussung des Crawlers! Das war vor PR Sculpting so und immernoch aktuell. Wer den Fehler macht, NOFOLLOW mit PR-Sculpting gleichzusetzen ist selber Schuld.
Bei mir sind seit gestern auf einigen Projekten die Crawler-Aktivität auf 10% runtergegangen und die Anzahl der (re)indizierten Seiten (24H) auf ca. 1%. Hat jemand ähnliches beobachtet?