Guten Tag.
Ich bin neues Mitglied im Forum. Habe grundlegende Erfahrung, allerdings weniger im Bereich der rein technischen Umsetzung jenseits von html.
Ich habe einige Beitraege zu meinem Thema gefunden, aber diese scheinen der Komplexitaet meines Anliegens nicht gerecht zu werden.
Meine Website ist in ASP gecodet. Ich benutze BrowserHawk um Cookies und JavaScript Support der Besucher anzuzeigen und erlaube nur solchen Besuchern Zutritt, die beides erlaubt haben. Dies ist notwendig, da es sich um ein komplexes System handelt, das je nach Antwort auf eine Frage unterschiedlichen Content anzeigt.
Spiders werden von default.asp nach default.htm umgeleitet, einer statischen Kopie der Website, von wo aus sie die Unterseiten spidern koennen. Durch robots.txt wird das Crawlen auf einige pre-sale Unterseiten beschraenkt.
Die Website ist an ein komplexes System angebunden, an dem viele Menschen beteiligt sind: Schreiber, ein Psychologe, etc.
Um nicht all diese Menschen durch Aenderungen in Aufruhr zu versetzen, moechte ich eine zweite, statische Website komplett in html erstellen, die speziell dafuer gedacht ist, geindexed zu werden.
Durch den oben beschriebenen Vorgang erlaube ich Crawlern das Indexen, Besucher aber werden auf die jetzige Website umgeleitet.
Es wuerde mich riesig freuen, Feedback zu bekommen.
Hat jemand Erfahrung mit diesen Prozessen und kann mir sagen, welche Schlagloecher ich vermeiden kann?
Vielen Dank, ich hatte mich bisher lediglich mit der direkten optimierung des html beschaeftigt, solche Faktoren aber voellig ausser Acht gelassen, da es bisher nie ein Thema fuer mich war.
Ich werde das ganze Ding nochmal gruendlich ueberdenken und umschichten.
Im Grunde habe ich ja schon "das volle Programm" am Laufen, ungewollt...