Seite 1 von 1

Frage zu Tabnavigation mit javascript

Verfasst: 03.03.2009, 15:19
von herbert00
Hallo zusammen,

ich habe eine Frage bezüglich meiner Tabnavigation mit javascript.

Die URL lautet z.B: https://www.url.de/unterseite

Auf dieser Unterseite gibt es 3 tabs. Unter den tabs verbirgt sich jeweils text-content. Zwischen den tabs kann man mit klick auf den Reiter navigieren, dies läuft mit javascript. Im Quelltext erscheint der gesamte content aller drei Tabs. Beim navigieren zwischen den Tabs ändert sich die URL nicht.

Kann ein robot hier den gesamten content einspidern?

Danke und Gruß
Herbert :D

Verfasst:
von

Verfasst: 03.03.2009, 15:37
von Lord Pixel
Der Spider sieht es so, als hätte man Javascript deaktiviert. Du kannst es ja gerne mal selbst ausprobieren - bei deiner Lösung könnte alles gecrawlt werden. Nur falls du doch auf eine andere Implementierung zurückgreifen solltest, wo die anderen Seiten erst nachgeladen statt "versteckt" werden, würde das nicht gehen.

Verfasst: 03.03.2009, 16:03
von herbert00
Lord Pixel hat geschrieben:Der Spider sieht es so, als hätte man Javascript deaktiviert. Du kannst es ja gerne mal selbst ausprobieren - bei deiner Lösung könnte alles gecrawlt werden.
Danke für deine Antwort! Wie kann ich das denn selbst ausprobieren? Wenn ich Javascript deaktiviere sieht die Seite genauso aus, ich kann jedoch nicht zwischen den tabs navigieren....

Gruß
Herbert

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Verfasst: 03.03.2009, 16:17
von webpilot
Entweder du machst eine Sitemap oder, die bessere Lösung, dür fügst in einen noscript-Tag eine Alternative Navigation ohne JS ein.

Verfasst: 03.03.2009, 16:23
von wehwehweh
am besten ist du passt das javascript und css so an, dass bei ausgeschalteten javascript alles sichtbar ist.

Verfasst: 03.03.2009, 17:06
von herbert00
webpilot hat geschrieben:Entweder du machst eine Sitemap...
Eine Sitemap gibt es. Aber wie bereits beschrieben steht dort dann die URL http:/www.url.de/unterseite drin. Oder wie meinst du das mit der Sitemap?

Danke und Gruß
Herbert

Verfasst: 03.03.2009, 17:08
von herbert00
wehwehweh hat geschrieben:am besten ist du passt das javascript und css so an, dass bei ausgeschalteten javascript alles sichtbar ist.
Ist grundsätzlich eine gute Idee, jedoch schwer umsetzbar, da die zwei contentblöcke relativ groß sind. wenn ich sie bei ausgeschaltetem javascript untereinander packen würde, würde das ziemlich doof aussehen und das seitenlayout zerschießen.

Gruß
Herbert

Verfasst: 03.03.2009, 17:17
von wehwehweh
das ist doch egal wie das seitenlayout aussieht, das ist doch nur für den bot.
wieviele echte user surfen ohne js? wenn sie dann ein zerschossenes layout bekommen, selber schuld.
meine meinung

Verfasst: 04.03.2009, 10:24
von chrizz
herbert00 hat geschrieben:
Lord Pixel hat geschrieben:Der Spider sieht es so, als hätte man Javascript deaktiviert. Du kannst es ja gerne mal selbst ausprobieren - bei deiner Lösung könnte alles gecrawlt werden.
Danke für deine Antwort! Wie kann ich das denn selbst ausprobieren? Wenn ich Javascript deaktiviere sieht die Seite genauso aus, ich kann jedoch nicht zwischen den tabs navigieren....

Gruß
Herbert
damit hast du es selbst ausprobiert ;) Der Bot sieht nur den Quelltext und nicht, das was du normalerweise im Browser siehst.... wenn du es ganz genau haben willst, dann such mal nach LynxViewer. Das ist ein reiner Textbrowser. So ähnlich wird Google deine Seite dann auch sehen...

Cheers