Beitrag
von fliper » 25.08.2005, 16:20
das eine hat mit dem anderen nichst zu tun. es wird html ausgeliefert, die spider schauen sich dieses html an. denen iss kagge-egal, ob du ein body-tag hast oder nicht. gerade diese simulation geht einfach nach dem prinzip vor: seite im quellcode angucken und alles, was lesbar ist, verwerten und als plaintext ausgeben.
und natürlich ist es auch jedem browser den ich kenne egal, ob da ein bodytag ist. die seite wird trotzdem so angezeigt. du kannst das selber mal prüfen. schalt einfach javascript bei dir aus und schau dir die seite an. das einzige, was nicht mehr funktioniert sind die auswahlmenüs oben, welche mit javascript verlinke, bzw. den neuen content dann laden sollten. das funktioniert dann nciht mehr ohne js. die normalen browser interpretieren die fehlerhaftesten codes. wäre das nicht so, könntest du fast keine seite im i-net lesen, alle haben se fehler, mache nur wenige, andere unglaublich viele, so dass man denkt: mein gott, ein wunder, dass ich im browser überhaupt nochwas sehe.
ich bin selber kein absoluter vollprofi, kann sein das ich mich irgendwo irre, aber dennoch bin ich sicher: die suchmaschine kann eure seite prima lesen, auch wenn sie noch nie was von javascript gehört hat.
also, ruhig brauner, alles ist beim alten.