Da ein paar Themen angeschnitten werden mein Fragen hier im Allgemeinen Bereich:
Ich baue gerade eine Website die reichlich Ajax und Javascript einsetzt. Dies zieht einige Probleme nach sich, wenn man auch SEO berücksichtigen möchte. Gleich vorneweg: Das Ajax und Javascript zu entfernen gehört nicht zum Lösungsbereich

Die Seite hat eine Javascript Navigation und es kommt noch schlimmer, der Content der dann angezeigt wird, wir mittels eines Hintergrund http-Requets direkt mit javascript in die Seite in ein dafür vorgesehenes Div geladen. Von außen sieht man also erst mal weder Links noch den nachgeladenen Content. Willkommen bei Web 3.0

Jetzt die Fragen:
Ich habe eine Sitemap (XML) hinterlegt, die Struktur ist also den Bots bekannt. Darüber hinaus habe ich in einem durch Javascript und CSS versteckten DIV (Javascript setzt beim laden die CSS-Klasse die das Div versteckt) eine Sitemap mit passenden Suchbegriffen hinterlegt.
Frage: Wird man für das auf diese Weise versteckte Div mit der Sitemap abgestraft? Es dient ja gerade dazu, daß sich der Bot und Nutzer die kein javascript aktiviert haben zurechtfinden? Soll ich nur das Sitemap.xml verwenden?
Die Nachgeladenen Inhaltsseiten werden ohne Navigation dargestellt (Die ist ja bereits vorhanden). Wenn der Bot diese Seiten indiziert und darauf direkt verlinkt, würde dem Benutzer eine gruselige Seite ohne navigation uns CSS gezeigt. Aus diesem Grund prüfe ich auf diesen Seiten mittels Javascript ob die Navigation vorhanden ist. Wenn nicht, wir mit einem Reload die Seite auf dem für einen Benutzer korrekten Weg geladen.
Macht dieses Reload denn Probleme für den Bot, macht er diesen Javascript Reload denn mit? Wird der Inhalt auf solch einer Seite überhaupt indiziert? Wird man für so ein Reload abgestraft? Wenn ja hat jemand eine Idee wir man solch eine Seite sowohl für den Bot als auch für den Benutzer verständlich hinbekommen könnte?
Vielen Dank
flusser