Hallo zusammen, in den Webmastertools steht geschrieben: "...Content, der mithilfe dieses Tools entfernt wurde, bleibt mindestens 90 Tage aus dem Google-Index ausgeschlossen, unabhängig davon, ob unser Crawler während dieses Zeitraums darauf zugreift...." Gilt das auch für neu erzeugten Co...
Aber es ist doch ein <noframe> Tag drin. Also auf der Dealjaeger Seite selbst sieht der Link doch verfolgbar aus: <div class="shop-link-container"> <a title="Hier geht's direkt zum Anbieter dieses Artikels" target="_blank" rel="nofollow" href="/gotoDeal.a...
@AlexBS>>>>Ehm beim Load Balancing gibts kein www1, www2 www3 sondern nur ein www der Load Balancer entscheidet dann nur nach Last welcher Webserver die Anfrage bedient. Das www1, www2 usw. ist ja gerade der deutlichste Indikator, dass es ein Load Balancing gibt. D.h. die www-Domain verweist bei uns...
Vielen Dank. Ist schonmal ein interessanter Ansatz. Allerdings ist ein "Umbau" der Serverarchitektur extrem teuer und aufwändig bei uns. Daher such ich noch nach Lösungen, die die Hardware nicht betreffen. Wenn ich nur einen Server zulasse, müsste ich im Load Balancer den Crawler erkennen ...
Hallo, ich habe eine Serverarchitektur, die mit Load Balancing (www1. www2. etc.) arbeitet. Habt Ihr eine Idee, wie man damit ein sauberes SEO hinbekommt? Google nimmt die Serverstränge ja leider als separate Websites wahr - bedeutet auch die Gefahr von redundantem Content. Sollte man z.B. nur www1 ...
Warum nicht bei Google anmelden? Ich kann doch eine Sitemap über den Sitemap-Generator basteln und auf dieser oder einem Bündel an Sitemaps alle Unterseiten verlinken. Google freut sich doch, wenn man die Index-Sitemap dann anmeldet, oder nicht?
Hallo Leute, ich habe eine Frage zur Sinnhaftigkeit einer Maßnahme: Meine Seite ist sehr dynamisch und funktioniert mehr über die Suchfunktion. Es gibt aber die Möglichkeit den gesamten Content in tausende verschiedene statische Seiten zu packen. Ich möchte zum einen optimierte Landing Pages als &qu...
Vielen Dank erstmal. Werde mir mal die JSP Infos zu Gemüte führen. zum 2. Teil: Problem ist auch, dass diese suchergebnisseiten auch in dem Format ausgegeben werden, wenn man einfach einen Link auf der Startseite anklickt. Dieser Link generiert scheinbar im Hintergrund eine Suche. Aber ich vermute m...
Hallo! kann mir jemand sagen, wie die Robots auf JSP Seiten reagieren? Außerdem: auf einer Seite ist eine Suchmaske und diese liefert dann ein Ergebnis mit Dateinamen: packageDeeplink.do aus. Das sind praktisch die einzigen Unterseiten. Kann ein Robot diese erkennen? Vielen Dank für jegliche Infos m...