Seite 1 von 3

Valider Code gut für Serps?

Verfasst: 29.11.2008, 13:55
von sx06050
Hallo zusammen,

frag mich das gerade, ob´s google mag und dadurch die position in die serps verbessert?

Das es prinzipiell gut ist, ist ja bekannt, aber ist es sehr wichtig?

Danke!

Verfasst:
von

Verfasst: 29.11.2008, 14:06
von MrTunes
nein, nicht sehr wichtig

Verfasst: 29.11.2008, 14:10
von Starborn
Ich hab auch ne Seite mit ziemlich zusammengewürfeltem Code und die rankt sehr gut :D

Verfasst:
von

Verfasst: 29.11.2008, 14:31
von SISTRIX
MrTunes hat geschrieben:nein, nicht sehr wichtig
Ist sogar vollkommen irrelevant.

Verfasst: 29.11.2008, 14:58
von Nicos
jo, ist eigentlich völlig Banane! Aber wie schon in einem anderen Beitrag geschrieben, kann bei gleichen Verhältnissen auch dies das Züngchen an der Waage sein!

Ausserdem hast Du mit validem Code in den meisten Fällen auch keine Cross-Browser-Kompatibilitäts-Probleme (cooles Wort irgendwie). Und meist kann die Ladezeit der Seite dadurch auch verbessert werden!

Und wer weiß, ob ein möglicher "Quality Rater" das nicht auch berücksichtigt, weil es womöglich durch den schlankeren Code Bot-Ressourcen spart? ;-)

Grüße
Nicos

Verfasst: 29.11.2008, 14:59
von SISTRIX
Nicos hat geschrieben:jo, ist eigentlich völlig Banane! Aber wie schon in einem anderen Beitrag geschrieben, kann bei gleichen Verhältnissen auch dies das Züngchen an der Waage sein!
Nein, kann es nicht. Es ist schlichtweg kein Ranking-Faktor.

Verfasst: 29.11.2008, 15:03
von Nicos
sag ich ja, wenn ein möglicher "QR" dransitzt vielleicht, wer weiß das schon! Diesen möglichen "QR"-Rankingfaktor kann man ja derzeit schlecht einschätzen!

Mich würde Deine Meinung dazu aber echt interessieren Sistrix!

Grüße
Nicos

Verfasst: 29.11.2008, 15:12
von smilla
@sx06050

Wieso sollte das wichtig sein? Wieso sollte man den Gedanken haben können, dass es wichig sein kann? Wie bist du darauf gekommen? :crazyeyes:

90% der Leute die Webseiten machen, haben mit Seo nichts am Hut und wissen gar nicht das ist. Denkst du etwa das Google die 90% der NICHT-SPAM Seiten, die meinetwegen öfters nicht Valide sind schlechter listen wird als die anderen? Glaubst du das etwa? :o

Viele Fragen lassen sich echt mit gesunden Menschenverstand beantworten. :D

Verfasst: 29.11.2008, 15:18
von Ehemalige Nutzer Z
"Wieso sollte das wichtig sein? Wieso sollte man den Gedanken haben können, dass es wichig sein kann?"

Weils dir jeder Webdesigner erzählt... JEDER

"90% der Leute die Webseiten machen, haben mit Seo nichts am Hut und wissen gar nicht das ist."

Wieviel von denen Ranken in den Top 10?

"Viele Fragen lassen sich echt mit gesunden Menschenverstand beantworten."

Ist das wirklich so?

Verfasst: 29.11.2008, 16:16
von MrTunes
SISTRIX hat geschrieben:
MrTunes hat geschrieben:nein, nicht sehr wichtig
Ist sogar vollkommen irrelevant.
vollkommen würde ich nicht sagen. Ist er so invalide, dass der bot beim Parsen Probleme bekommt, kann es sich schon schlecht auswirken. Ein direkter Ranking Faktor ist es aber wohl nicht.

Verfasst: 29.11.2008, 16:27
von pr_sniper
:lol: "valide" - was heißt das genau? - Kein einziger Browser, Editor oder Webmaster erfüllt irgendeine Empfehlung vollständig (tja welche? von wem? von wann? ...) ...

Ein möglichst sauberer HTML- Quelltext ist Voraussetzung für die möglichst fehlerfreie Auswertung, Berücksichtigung und damit ein Ranking überhaupt. Er wird deshalb nie schaden.

Das galt schon immer, lange vor Google, SEOs und anderen und wird sie auch überleben.

Garantiert (@Sistrix).

Verfasst: 04.12.2008, 18:28
von Sololand
Hallo,

ich habe durch die Umstellung auf xhtml und dann noch mal durch das Validieren i.vm. Accessibility/Zugänglichkeit, Usability/Benutzerfreundlichkeit via qualidator.com erhebliche Verbesserungen in den Serps erleben können.

Ergebnis: Seitengröße von 21kb auf 8Kb , wesentlich schnelleres Laden, teilweise 100% mehr Zugriffe von Suchmaschinen/Tag innerhalb eines Monats bei gleichem Content und Linkpop.

Für mich persönlich ist die Technik der Seite ein sehr wichtiges Kriterium um gut gelistet zu sein und ich mache alles daran aus.
Jede (Unter)Seite wird ins feinste technisch durchdacht.

Wer weiß was bei manchen drin wäre, wenn sie ihre seite mal technisch erneuern würden...

Gruß

Verfasst: 04.12.2008, 21:52
von bjoerntantau
..."valide" nach W3C-Standard,vermute ich mal ;-)

Schau dir die Seiten an, die G**gle so produziert (inkl. ihrer eigenen "Startseite"). Da ist der Code sowas von nicht valide... insofern KANN es gar kein Rankingkriterium sein. Und das ist es auch nicht (aber da erzähl ich hier ja nix neues) ;-)

Verfasst: 04.12.2008, 22:08
von realloader
Ladezeiten verringern durch verkleinern der des Quelltext? Tabellen weglassen? Vaaliden Text erstellen? Ich glaube ich ruf mal bei goole an, das die die 60-100k Startseiten die vor mir rumturnen, entfernen... :bad-words:

Verfasst: 04.12.2008, 22:18
von KGreulich
Gute Idee... und den Link zur Wikipedia, der noch fehlt, unbedingt noch einbauen. Dann wird das scho