Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Frage zu Tabnavigation mit javascript

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
herbert00
PostRank 5
PostRank 5
Beiträge: 234
Registriert: 23.05.2006, 14:35

Beitrag von herbert00 » 03.03.2009, 15:19

Hallo zusammen,

ich habe eine Frage bezüglich meiner Tabnavigation mit javascript.

Die URL lautet z.B: https://www.url.de/unterseite

Auf dieser Unterseite gibt es 3 tabs. Unter den tabs verbirgt sich jeweils text-content. Zwischen den tabs kann man mit klick auf den Reiter navigieren, dies läuft mit javascript. Im Quelltext erscheint der gesamte content aller drei Tabs. Beim navigieren zwischen den Tabs ändert sich die URL nicht.

Kann ein robot hier den gesamten content einspidern?

Danke und Gruß
Herbert :D

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Lord Pixel
PostRank 7
PostRank 7
Beiträge: 601
Registriert: 24.08.2007, 17:06

Beitrag von Lord Pixel » 03.03.2009, 15:37

Der Spider sieht es so, als hätte man Javascript deaktiviert. Du kannst es ja gerne mal selbst ausprobieren - bei deiner Lösung könnte alles gecrawlt werden. Nur falls du doch auf eine andere Implementierung zurückgreifen solltest, wo die anderen Seiten erst nachgeladen statt "versteckt" werden, würde das nicht gehen.

herbert00
PostRank 5
PostRank 5
Beiträge: 234
Registriert: 23.05.2006, 14:35

Beitrag von herbert00 » 03.03.2009, 16:03

Lord Pixel hat geschrieben:Der Spider sieht es so, als hätte man Javascript deaktiviert. Du kannst es ja gerne mal selbst ausprobieren - bei deiner Lösung könnte alles gecrawlt werden.
Danke für deine Antwort! Wie kann ich das denn selbst ausprobieren? Wenn ich Javascript deaktiviere sieht die Seite genauso aus, ich kann jedoch nicht zwischen den tabs navigieren....

Gruß
Herbert

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


webpilot
PostRank 6
PostRank 6
Beiträge: 417
Registriert: 24.03.2007, 17:03

Beitrag von webpilot » 03.03.2009, 16:17

Entweder du machst eine Sitemap oder, die bessere Lösung, dür fügst in einen noscript-Tag eine Alternative Navigation ohne JS ein.

wehwehweh
PostRank 9
PostRank 9
Beiträge: 1748
Registriert: 08.02.2008, 19:01

Beitrag von wehwehweh » 03.03.2009, 16:23

am besten ist du passt das javascript und css so an, dass bei ausgeschalteten javascript alles sichtbar ist.

herbert00
PostRank 5
PostRank 5
Beiträge: 234
Registriert: 23.05.2006, 14:35

Beitrag von herbert00 » 03.03.2009, 17:06

webpilot hat geschrieben:Entweder du machst eine Sitemap...
Eine Sitemap gibt es. Aber wie bereits beschrieben steht dort dann die URL http:/www.url.de/unterseite drin. Oder wie meinst du das mit der Sitemap?

Danke und Gruß
Herbert

herbert00
PostRank 5
PostRank 5
Beiträge: 234
Registriert: 23.05.2006, 14:35

Beitrag von herbert00 » 03.03.2009, 17:08

wehwehweh hat geschrieben:am besten ist du passt das javascript und css so an, dass bei ausgeschalteten javascript alles sichtbar ist.
Ist grundsätzlich eine gute Idee, jedoch schwer umsetzbar, da die zwei contentblöcke relativ groß sind. wenn ich sie bei ausgeschaltetem javascript untereinander packen würde, würde das ziemlich doof aussehen und das seitenlayout zerschießen.

Gruß
Herbert

wehwehweh
PostRank 9
PostRank 9
Beiträge: 1748
Registriert: 08.02.2008, 19:01

Beitrag von wehwehweh » 03.03.2009, 17:17

das ist doch egal wie das seitenlayout aussieht, das ist doch nur für den bot.
wieviele echte user surfen ohne js? wenn sie dann ein zerschossenes layout bekommen, selber schuld.
meine meinung

chrizz
PostRank 10
PostRank 10
Beiträge: 3044
Registriert: 05.07.2006, 10:37
Wohnort: Berlin

Beitrag von chrizz » 04.03.2009, 10:24

herbert00 hat geschrieben:
Lord Pixel hat geschrieben:Der Spider sieht es so, als hätte man Javascript deaktiviert. Du kannst es ja gerne mal selbst ausprobieren - bei deiner Lösung könnte alles gecrawlt werden.
Danke für deine Antwort! Wie kann ich das denn selbst ausprobieren? Wenn ich Javascript deaktiviere sieht die Seite genauso aus, ich kann jedoch nicht zwischen den tabs navigieren....

Gruß
Herbert
damit hast du es selbst ausprobiert ;) Der Bot sieht nur den Quelltext und nicht, das was du normalerweise im Browser siehst.... wenn du es ganz genau haben willst, dann such mal nach LynxViewer. Das ist ein reiner Textbrowser. So ähnlich wird Google deine Seite dann auch sehen...

Cheers

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag