Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

HTML - Validität einhalten!

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
chio
PostRank 9
PostRank 9
Beiträge: 1153
Registriert: 01.01.2004, 16:53
Wohnort: wien

Beitrag von chio » 31.10.2004, 19:02

Hallo!
Mein Senf: Wie bekannt hab ich mal einen Minispider gemacht und ich habe Grund zur Annahme, dass sich der Googlebot so ähnlich verhält.
Mein Teilchen löscht im Body zuerst ALLES, was nicht interessant ist. Es wäre ihm völlig egal, was ein Table für Attribute hat, und wenn du deine Lebensgeschichte in den Alt-Tag schreibst. Du könntest <oma alt="sehr' +alt=100 Jahre" > im Quelltext haben: völlig egal, wird ignoriert. Oder <p oma!=jung>
Du könntest sogar 150 Tables öffnen und nie zumachen - auch egal, der Text in de Tables würde trotzdem genommen werden. Es wäre sogar egal, ob du <p> wieder schließt, weil <p> als Tag auch uninteressant ist.
Dasselbe: Kommentare, Scripts, CSS. Scripts würden höchstens kurz auf "böse" Wörter hin überprüft.

Für die Bewertung der Wörter ist nicht relevant, wo sie im Quellcode stehen, sondern wo sie im vom Code bereinigten Text stehen, solange der Code < 100k ist.

Jeder andere Bot wird das genauso machen, weil das die sicherste und schnellste Methode ist. Ein Bot ist kein Validator, sondern muss ohne Troubles schnell zu Ende kommen.

lg
chio

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


poolie
PostRank 5
PostRank 5
Beiträge: 292
Registriert: 27.04.2004, 13:47
Wohnort: Köln

Beitrag von poolie » 31.10.2004, 19:39

KeepCool hat geschrieben:@Poolie
tabellenlos in css programmiert
Du kannst in CSS programmieren ? Und das auch noch tabellenlos...:-) Dann gehörst Du auch zu der besonderen Spezie die in HTML objektorientiert programmieren können...:-):-):-)

Dachte gar nicht, mich in solch illustrer Gesellschaft von CSS- und HTML-"Programmierer" zu befinden; wieder was dazugelernt...;-)

Pisa ist wohl ein Evergreen...

KeepCool
ich entschuldige meine falsche ausdrucksweise 0X

danielr
PostRank 7
PostRank 7
Beiträge: 530
Registriert: 11.11.2003, 15:12
Wohnort: Ural

Beitrag von danielr » 31.10.2004, 19:44

@chio

das mag schon sein, aber wenn es um "Qualität" in den serps geht, sieht es schon wieder anders aus - und das ist definitiv ein Qualitätsmerkmal einer Seite. 8)

chio
PostRank 9
PostRank 9
Beiträge: 1153
Registriert: 01.01.2004, 16:53
Wohnort: wien

Beitrag von chio » 31.10.2004, 20:04

Hallo!
@danielr
Das stimmt schon, aber das ist hier nicht das Thema. Man sollte ja generell Seiten so machen, dass sie auch Menschen sehen dürfen (so mit Bildern und so ;-))

phereia
PostRank 8
PostRank 8
Beiträge: 726
Registriert: 23.04.2004, 23:19

Beitrag von phereia » 31.10.2004, 23:34

hat denn jamand schon aus diesem kreis einen test durchgeführt, ob und wenn ja in welchem ausmaß (in-)validität von seiten die positionierung in den ergebnissen beeinflußt? falls ja, wäre ich auch sehr an dem testmodell interessiert, denn ich kann mir im moment nicht vorstellen, wie sich das unter ausschaltung aller sonstigen variablen prüfen ließe.

im übrigen bin ich bis zum beweis des gegenteils davon überzeugt, daß google die validität von seiten herzlich egal ist, solange der bot auswertbaren text vorfindet.

Waldeule
PostRank 3
PostRank 3
Beiträge: 76
Registriert: 27.11.2003, 20:13

Beitrag von Waldeule » 01.11.2004, 17:51

RW hat geschrieben:Wie sind Eure Erfahrungen mit reinen CSS Konstruktionen?
Ich habe erst vor kurzem eine alte MS Frontpage Seite komplett in valides XHTML umgeschrieben. (Der Inhalt hat sich nicht geändert)
Die Seite war dann bei allen relevanten Keywords für ein paar Tage nicht mehr unter den ersten 1000 Ergebnissen. Danach allerdings bin ich im Vergleich zu vorher bei nahezu allen Keywords extrem nach oben gestiegen. :)

axelm
PostRank 7
PostRank 7
Beiträge: 603
Registriert: 18.10.2004, 11:42

Beitrag von axelm » 02.11.2004, 05:41

poolie hat geschrieben:wenn man richtig, validiert und tabellenlos in css programmiert, spart man eine menge an zeichen, kb; mb;gb gegenüber nicht validierten seiten. so isset und so bleibts.
Also ich bin dazu übergegangen in meinen Projekten nur noch XHTML zu coden. Was im vergleich zu HTML 4.01 den Code größer macht da man die Tags abschließen muss.

Ich fühle mich zwar wohler beim coden von XHTML Seiten weil ich weiss, rendert schneller, bot/browser können leichter/schneller parsen, spart Traffic etc.

aber einen unterschied ob das jetzt SEO mäßig was bringt oder nicht konnte ich nicht feststellen. Einige bekannte sind SEO mäßig erfolgreicher als ich und die geben da überhaupt keinen Wert drauf.

Alleine schon wegen der harten einschnitte die wir in XHTML 2.0 erwarten können würde ich euch empfehlen euch mit validierung zu beschäftigen.
Axel der Autoschieber
<br><br>snippetoptimizer.de Snippet optimieren
<br><br>Css Cruncher Ladezeiten optimieren.
<br><br>Webmaster Tools

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag