Seite 1 von 1
Javascript Tool auf vielen oder nur auf einer Seite?
Verfasst: 06.06.2013, 13:55
von ritchey
Hallo zusammen,
ich habe im Moment auf einer meiner Seiten ein Javascript Feature eingebunden, mit dem sehr einfach bestimmte Schwingungen angezeigt werden können.
Nun bin ich am überlegen, ob ich das Ganze auch noch auf weiteren Seiten einbinden könnte, da es auf diesen für die Nutzer sicherlich auch förderlich wäre.
Allerdings erkennt Google ja den Code und - falls derselbige - straft die Seite ab, weil dieser dann plötzlich auf 20 Unterseiten der Domain vorkommt.
Was meint ihr? Kann man derartigen Code ohne Bedenken zwecks Duplicate Content einbinden oder sollte man diesen lieber nur auf einer Seite publizieren?
Danke und Grüße!
Verfasst: 06.06.2013, 16:53
von Melegrian
Wenn Du denselben JavaScript-Code auf mehr als eine Seite einbinden möchtest, dann wirst Du den ja wohl in eine schwingungen.js auslagern und nur mit
Code: Alles auswählen
<script type="text/javascript" src="http://www.example.com/schwingungen.js"></script>
einbinden. Ich weiß zwar nicht, welche Schwingungen der anzeigen soll, doch wichtiger ist und bleibt ja wohl der restliche Content der Seite.
Verfasst: 06.06.2013, 17:15
von ritchey
Ahja, das stimmt natürlich. Insofern sollte das ja kein Problem darstellen. Danke Dir!!!
Verfasst: 06.06.2013, 17:26
von Sciencefreak
eine kleine Verständnisfrage hinterher: selbst wenn es nicht ausgelagert werden sollte, der mögliche Duplicate Content betrifft doch nicht den Scriptcode, sondern nur die Textinhalte auf der jeweiligen Seite.. oder nicht?
Verfasst: 06.06.2013, 17:29
von ritchey
Ja ich war mir nicht sicher, ob Google vielleicht nicht auch die Seite dadurch abwerten könnte, falls sich auf vielen Unterseiten der gleiche JS Code befindet und dadurch für den Crawler vielleicht ein etwas spammiger Eindruck entstehen könnte... Grüße!
Verfasst: 06.06.2013, 18:30
von Shop_SEO
@ritchey,
dann wird Google in Kürze wahrscheinlich auch das gleiche jpg-Logo im Header jeder Seite als DC ansehen.
Evtl. auch noch <!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "
https://www.w3.org/TR/xhtml1/DTD/xhtml1 ... tional.dtd">

Verfasst: 06.06.2013, 21:00
von Melegrian
Na ja, die Frage ist zuweilen, was die Crawler lesen können. Was zum Beispiel DOM-Scripting und DOM-Manipulation anbelangt, DOM wurde mit den Jahren durch das W3C standardisiert und JavaScript durch ECMA. Gehe davon aus, dass wohl Crawler einiges lesen können. Wobei Crawler eh nur crawlen und die eigentliche Auswertung erst nach dem Crawlen erfolgt. Die Frage ist halt, egal ob der Code lang oder kurz ist, oder stets in allen Seiten gleich, ob noch genügend lesbarer Content für Google übrig bleibt.
Verfasst: 07.06.2013, 12:32
von ritchey
Ja, da habt ihr natürlich Recht!
Vielen Dank Euch für Eure Antworten!
Grüße!