Seite 1 von 1

Google und DOM

Verfasst: 03.01.2010, 13:48
von tkay
Hi!

Hab schon die Suche bemüht und auch gegoogelt, aber keine wirklich zufriedenstellende Anwort bekommen. Konkret geht es mit darum, in wie weit Google den Content (richtig) erkennt, spider, indiziert der per JS ins DOM hinzugefügt wird.

Die Frage rührt daher dass ich gerade an einem System arbeite wo eig. der KOMPLETTE Content per JS ins DOM geladen wird und einige wenige sind indiziert und einige Seiten gar nicht. Wenn ich nun z.B. eine "Unterseite" (die ins DOM geladen wurde) aufrufe und in den Quelltext schaue, wird mir natürlich der Quelltext der "Übergeordneten" Seite angezeigt, also eben NICHT der reingeladene Content. Erst wenn ich über meinen webdev mir das ganze unter "Generierten Quelltext anzeigen" angucke dann ist es auch da.

Die Frage ist also, ob Google sich den generierten Quelltext so auch angucken kann und der "gleichwertig" mit dem "normalen" ist, in dem Sinne das Google die Inhalte gleich schnell indiziert etc.

Das "Problem" vor dem ich nun stehe ist nämlich ob auf den ganzen Spaß (Content per JS hinzufügen) verzichtet werden soll und das ganze anders bzw. "Klassisch" SEO freundlich aufgezogen wird (ist ein riesen Aufwand) oder ob man vielleicht nur etwas tweaken oder es ainfach so lassen kann.

Hab vorher noch nicht an einem System gesessen, dessen fast KOMPLETTER Content per JS reingeladen wird, daher fehlt es hier ein klein wenig an Erfahrung und freue mich auf euer Feedback!

Cheers.

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Verfasst: 03.01.2010, 14:03
von Vitali Neumann
hast du auch ein Beispiel wo wir deine Arbeit nachvollziehen besser gesagt Analysieren können?

Verfasst: 03.01.2010, 14:08
von tkay
hast PM!

Verfasst:
von

Verfasst: 03.01.2010, 14:57
von tkay
Hat jemand vielleicht allgemein schon Erfahrungen mit sowas gemacht und hat ein Idee wie das zu beurteilen wäre? :)

Verfasst: 03.01.2010, 19:02
von tkay
Echt niemand eine Idee??? Bin für jedwege Erfahrungsmitteilung dankbar^^

Verfasst: 03.01.2010, 19:46
von t-rex
Hi,

so wie ich es verstanden habe, enthält Deine Seite beim ersten Request keinen Text. Und sobald diese leere Seite im Browser geladen ist, wird der Content nach geladen - z.B. über das onload-Ereignis. Weitere Unterseiten werden über einen entsprechenden genauso nach geladen und ersetzen wohl den vorigen Content.

Wenn dem so ist oder zumindest ähnlich, dann würde ich davon ausgehen, dass der Googlebot von dem Content nichts sieht. Es gibt zwar Meldungen / Erfahrungen nach denen Google Links evtl. auch Text aus JavaScript, welches im HTML eingebettet ist, parsen kann und dies auch tut, aber einfach so würde ich mich nicht darauf verlassen.

Vor einiger Zeit hat Google bekannt gegeben, dass sie nun auch Ajax crawlen können. Dafür müssen aber einige technische Eigenheiten beachtet werden. Ich habe das aber nicht genauer verfolgt. Mir fällt jetzt auch keine Quelle dazu ein. Vielleicht hilft eine Suche nach "Googlebot Ajax"

Sonnige Grüsse
HaPe

Verfasst: 03.01.2010, 20:25
von tkay
Hi T-Rex, vielen Dank für die Antwort!

Im Grunde also so ähnlich wie ich es leider schon vermutet habe. Auch folgende Ausführung ist richtig:
enthält Deine Seite beim ersten Request keinen Text. Und sobald diese leere Seite im Browser geladen ist, wird der Content nach geladen - z.B. über das onload-Ereignis. Weitere Unterseiten werden über einen entsprechenden genauso nach geladen
- aber augenscheinlich wird der Vorige Content nicht wirklich ersetzt. Wenn ich von der content Seite auf den "Links" (OnClick) klicke dann wird der neue Content wohl über XML reingeladen und ist für den User als "neue Seite" sichtbar, im Quelltext siehst du aber nix vom neuen Content, sondern den alten von der Seite von der du aus der Request gestartet hast. Der neue Content ist eben NUR über "Generierten Quelltext anzeigen" im Webdevelopver möglich und nach meiner Recherche und den indizierten Seiten, wird dieser vom Googlebot einfach nicht gelesen.

Das Googlebot wohl AJAX crawlen kann habe ich auch irgendwann gehört, aber ebenfalls nicht weiterverfolgt, da es in so einem Ausmaß vor dem ich grade stehe noch nie interessant war. In dem Google Webmaster Blog, wird das ganze aus meiner Sicht bestätigt: https://groups.google.com/group/Google_ ... ffdbb57f1b
There are some situations where we can extract URLs from JavaScript,
and if we can crawl those URLs there's a chance that they will get
indexed as well.
Schon das sagt denke ich aus, dass es sicherlich kein Regelfall ist das AJAX überhaupt gelesen werden kann und WENN dann gibt es dann auch nur eventuell die chance dass diese indiziert wird.

Lange Rede kurzer Sinn: So wies aktuell ist, ist es unter SEO Gesichtpunkten Quark und dann muss der Coder nun leider ran.

Wenn jemand absolut GEGENTEILIGE Erfahrungen hat die irgendwie belegbar sind, dann immer her damit ;) Ansonsten schein es mit Google und Ajax wohl einfach noch nicht soweit her zu sein, aber auf jedenfall vielen Dank an T-Rex!

Verfasst: 03.01.2010, 21:00
von Mork vom Ork
tkay hat geschrieben:Das Googlebot wohl AJAX crawlen kann habe ich auch irgendwann gehört
Ich möchte behaupten, da hat jemand irgendwas missverstanden und statt des Nagels am kleinen Finger gleich die ganze Hand genommen, wie im Folgenden auch zu sehen:
In dem Google Webmaster Blog, wird das ganze aus meiner Sicht bestätigt: https://groups.google.com/group/Google_ ... ffdbb57f1b
There are some situations where we can extract URLs from JavaScript
Da steht nicht wirklich etwas von AJAX, sondern lediglich, dass manche URLs in <script>-Blöcken erkannt werden können. Wie das aussieht, ist dort auch zu erfahren, denn es ist eine Beispielseite genannt, in der sich folgende Blöcke finden:

<script>var imgb = new Image(); imgb.src = 'https://counter.yadro.ru/hit;gallery-jserror?r'</script>
<script>userinfoblock=new fold({show:'1',name:'userinfo',ajaxurl:'/user/user.info.php?ajax=1&user_id=26810'});</script>

Hier sind die URL bzw. der Pfad leicht erkennbar, weil sie in einem Stück vorhanden und mit einer einfachen Textsuche aufzufinden sind - und das ist der Punkt an der ganzen Sache: Mit Javascript, geschweige denn AJAX hat das letztlich nichts zu tun, Code wird nicht ausgeführt. Nach dem gleichen Prinzip werden URLs in Textdateien erkannt.

Davon unabhängig ist die Frage, ob es sinnig ist, einen AJAX-Aufruf, der nur ein einem HTML-Fragment resultiert, überhaupt zu verfolgen.

Verfasst: 03.01.2010, 21:17
von tkay
Hmm okay, da hast du natürlich recht, da wurde was durcheinander gebracht.

Aber wenn ichs nun richtig verstehe wird code NICHT ausgeführt und dessen Inhalt von Goolgle somit auch nicht gespidert - ob das nun gut ist oder nicht wollte ich hier gar nicht debatieren^^, sondern nur ob es auch so ist.

Aber vielen Dank für die Beobachtung Mork!