Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Neues Fass - Valide Website rankt besser oder nicht?

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
anderl
PostRank 1
PostRank 1
Beiträge: 15
Registriert: 27.02.2009, 11:35

Beitrag von anderl » 27.06.2009, 23:42

Hallo ihr,

das ist ja ein endloses Thema mit der Validität der Website.

Postings die ich hierzu fand:
- https://www.sistrix.de/news/602-seo-ger ... itaet.html
- https://www.miradlo.net/bloggt/wordpres ... -wordpress

Bin mal gespannt auf fundierte geistige Ergüsse.

Gruesse!
Andi.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Hobby_SEO79
PostRank 9
PostRank 9
Beiträge: 1883
Registriert: 19.06.2008, 23:09

Beitrag von Hobby_SEO79 » 27.06.2009, 23:52

Naja ... meiner Erkenntnis nach zählt technisch gesehen nur das, was lesbar ist! Somit ist die alte Regel: "Jags durch nen Spider Check" technisch gesagt geklärt.

Wenn man mal die top Positionen checkt sieht man, dass Quellcode (valididät) keine Rolle spielt! So fein wird noch nicht unterschieden! ;) Das wäre mal ein Quali-Faktor! Da sieht man an wie sich der jeweilige Webmaster reinhängt. Aber das ist für das ERGEBNIS was der Anfrager sucht kein Relevanzkriterium. Von daher ...

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 28.06.2009, 00:05

Code-Qualität sagt nichts über Inhalte einer Site aus. Der Besucher sieht davon nichts. Warum sollte es also ins Ranking einfließen? Etwa nur, weil es von einem HTML-Geek geschrieben wurde? Das könnte genau so gut ein Grund sein, eine Site schlechter zu bewerten.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

_Angelus_
PostRank 6
PostRank 6
Beiträge: 449
Registriert: 19.06.2009, 18:14

Beitrag von _Angelus_ » 28.06.2009, 00:07

Hallo!

Betrachtet man die Tatsache das übertriebenes SEO zu einer Verschlechterung des Rankings führt, könnte ich mir zum Beispiel vorstellen das doppelte Formatierungen, wie h1 Titel-Tag + <Bold> Tag, eine Verschlechterung des PRs hervorrufen kann.

Ansonsten würde ich mich aber Hobby_SEOs Meinung anschließen. Seit Google das Gerücht aus der Welt geschafft hat, das der <Strong> Tag mehr wert sei als der <Bold> Tag (eben weil sich die Algorithmen an dem Nutzerverhalten, und nicht nach Coder-Logik richtet), dürfte die Antwort auf diese Frage eindeutig sein.

Der Quelltext hat nichts mit dem PR zu schaffen!

bluehat
PostRank 4
PostRank 4
Beiträge: 117
Registriert: 19.01.2009, 15:21

Beitrag von bluehat » 28.06.2009, 00:23

Was zum Teufel hat die Formatierung des Textes mit der Validität des Codes zu tun ???

Und was hat der PR mit dem Ranking zu tun?

Schnipsel, bitte mach Du weiter.

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 28.06.2009, 00:27

_Angelus_ hat geschrieben:Der Quelltext hat nichts mit dem PR zu schaffen!
Und der PR nichts mit dem Ranking... womit wir wieder beim Thema wären :wink:

Die Idee, dass kaputter Code auch mal nach einer Überoptimierung aussehen kann, finde ich gar nicht so abwegig. Ob sich das dann aber direkt aufs Ranking auswirkt...

Andreas I.
PostRank 9
PostRank 9
Beiträge: 1464
Registriert: 18.03.2006, 14:36
Wohnort: Hamburg

Beitrag von Andreas I. » 28.06.2009, 06:31

Mittelbar wirkt es sich aus: Wenn der Code so katastroplal ist, dass die Besucher in einigen Browsern zuviel Mist sehen, dann wirkt es sich auf das Besucherverhalten aus: Verweildauer/wiederkehrende Besucher.
Das wiederum soll ein klitzekleiner Rankingfaktor sein.

e-fee
PostRank 10
PostRank 10
Beiträge: 3893
Registriert: 08.05.2007, 12:53

Beitrag von e-fee » 28.06.2009, 09:06

Man sollte vielleicht auch noch unterscheiden zwischen so Sachen wie: nicht valide in XHTML 1.0 strict, aber durchaus valide in HTML 4.0 - also beispielsweise font-Tags drin, br und img ohne abschließenden Schrägstrich - sowas spielt für einen Suchmaschinenbot natürlich echt keine Rolle!
Und zwischen hammerharten "logischen" Problemen, die mit Glück im Browser noch richtig dargestellt werden. Also beispielsweise, man schließt ein h1-Tag nicht (und sei es nur durch einen Buchstabendreher), bevor ein p kommt. Suchmaschinenbot sucht das Ding aber, denkt "ui, iss ja alles Überschrift, muss ein spammender SEO sein."

Ich versteh nicht, was daran so schwer sein soll, mal ein bisschen Qualität abzuliefern. Es kostet mich nicht mehr Zeit, einfach gleich die Regeln zu beachten, und schwer ist es auch nicht. Wenn ich was code und durch den Validator jage, dann kriege ich nur Fehler für noch nicht gesetzte Links und solche Sachen.
Na ja, die, denen das egal ist, frickeln wahrscheinlich (hoffentlich) nur an ihren eigenen Projekten rum. Wenn man 'nen Handwerker bestellt, soll der ja schließlich auch keinen Pfusch abliefern, der einem irgendwann um die Ohren fliegen könnte. Und es geht hier - oder sollte gehen - ja nicht nur um SEO, sondern auch darum, dass es in den gängigen Browsern fehlerfrei dargestellt wird.

MrTunes
PostRank 9
PostRank 9
Beiträge: 1128
Registriert: 01.05.2007, 20:25
Wohnort: Hier

Beitrag von MrTunes » 28.06.2009, 09:07

Im Extremfall kann sich ein Parser auch mal "verlesen" oder vielleicht sogar ganz aufgeben. Dann muss man aber schon ziemlichen Mist verzapfen.
Ansonsten ist die Sache doch in Johannes Test wunderbar und eindeutig geklärt.
Es gibt viele Seite die wertvolle Informationen bieten aber voller HTML Fehlern sind. Es gibt keinen Grund wieso die Informationen dadurch weniger wert sind.
Ich möchte aber trotzdem dazu aufrufen validen und schönen Code zu schreiben. Das gehört einfach dazu, erleichertet die Entwicklung und Wartung und spart damit Zeit und Geld.

Vegas
PostRank 10
PostRank 10
Beiträge: 5063
Registriert: 27.10.2007, 13:07

Beitrag von Vegas » 28.06.2009, 10:41

Ich sags ja immer gerne wieder: Wenn man ein Brot online stellen könnte, würde Google es crawlen und mit genügend Links auch zu einem beliebigen Thema ranken...will heißen der Google ist auch gegenüber übelstem Code extrem tolerant.
Forward Up >> Suchmaschinenoptimierung >> SEO Notaufnahme >> SEO Audits >> SEM >> ORM

pr_sniper
PostRank 9
PostRank 9
Beiträge: 1766
Registriert: 07.02.2006, 19:21

Beitrag von pr_sniper » 28.06.2009, 11:05

:lol: man kann auch mit hölzernen Seifenkisten Rennen fahren ...

Sicher sind wir uns einig, dass jeder! Inhalt im Quelltext ins Ranking einfließt (wer trägt den Content?) und ein zerschossenenr Code auch durch Bots schlecht oder gar nicht ausgewertet kann ... Der Rest irgendwo dazwischen.

Kindergarten.

catcat
PostRank 10
PostRank 10
Beiträge: 10292
Registriert: 02.08.2006, 13:21
Wohnort: Litauen

Beitrag von catcat » 28.06.2009, 11:28

Eigentlich sollte ne valide Rechtschreibung ins Ranking einfließen^^
Dann wären 90% der MFA-Seiten weg!

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 28.06.2009, 12:37

catcat hat geschrieben:Eigentlich sollte ne valide Rechtschreibung ins Ranking einfließen^^
Dann wären 90% der MFA-Seiten weg!
Das stimmt. Aber dann würden auch viele Communities leiden, die vom Content leben, den ihre Zielgruppe produziert. Wenn die Zielgruppe ein niedriges Bildungsniveau hat, wird eine relevante Site dies auch widerspiegeln.

bluehat
PostRank 4
PostRank 4
Beiträge: 117
Registriert: 19.01.2009, 15:21

Beitrag von bluehat » 28.06.2009, 13:41

SloMo hat geschrieben:
catcat hat geschrieben:Eigentlich sollte ne valide Rechtschreibung ins Ranking einfließen^^
Dann wären 90% der MFA-Seiten weg!
Das stimmt. Aber dann würden auch viele Communities leiden, die vom Content leben, den ihre Zielgruppe produziert. Wenn die Zielgruppe ein niedriges Bildungsniveau hat, wird eine relevante Site dies auch widerspiegeln.
Ob ein Text gut ist oder schlecht, ist ein Stück weit subjektiv und daher ein weicher Faktor, den eine Maschine nur schwierig beurteilen kann. Die Rechtschreibung ist hingegen ein harter Faktor, den auch ein dummes Programm messen kann. Insoweit wäre es nicht klug, wenn man einen solchen Faktor bei der Bemessung der Qualität außen vor lassen würde.

Es hat aber sicher viele Gründe, warum Zeitungen so gut ranken und Foren im Vergleich dazu so schlecht. Außerdem kann man mit Links natürlich viel machen.

e-fee
PostRank 10
PostRank 10
Beiträge: 3893
Registriert: 08.05.2007, 12:53

Beitrag von e-fee » 28.06.2009, 14:30

Genau. Aber Zeitungen ranken aufgrund irrer vieler und guter Backlinks so gut (weil sie Authorities sind), und ein Forum mit vergleichbaren Backlink-Zahlen rankt auch so gut - natürlich aber nicht jedes 0815-Forum, das ein Webmasterlein mal online gestellt hat. Bestes Beispiel ist doch Abakus: rechtschreibtechnische und oft auch inhaltliche Qualität unter aller Sau, aber rankt trotzdem für jeden Scheiß (mit "bumsen" übrigens derzeit nur noch auf Seite 2).

Die Rechtschreibung in so mancher nur für mehr Pageviews gedachter Artikelgrütze auf Seiten überregionaler Tageszeitungen mag ja korrekt sein, trotzdem ist das nicht unbedingt ein Maß für inhaltliche Qualität, wohingegen manche Leute viele gute, wichtige und relevante Dinge zu sagen haben, aber halt leider in Rechtschreibung nie sonderlich fit waren. Das ist zwar sicherlich ein Faktor, der für Suchmaschinen messbar wäre, der aber leider nicht wirklich aussagekräftig ist. Und schon ein paar Kommentare unter dem Artikel könnten den ganzen schönen OrthoRank wieder zerschießen.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag