Seite 1 von 2

W3C?!?! Wieso, weshalb, warum?

Verfasst: 17.10.2007, 14:17
von Sipatshi
Hallo zusammen,

wenn ich unseren Online-Shop durch den W3C-Val. durchjage bekomme X Fehler angezeigt! Von Monat zu Monat werden diese Fehler immer mehr. Wir als Online-Shop kommen doch garnicht hinterher standards anzupassen.
Man versucht doch die Webmaster dazu zu zwingen nur mit CSS zu arbeiten.

Nehmen wir an ich habe alles so umgestellt, das bei W3C kein Fehler angezeigt wird, dann fängt das gleiche Problem doch doch im nächsten Monat wieder an. Wieder Fehler usw.

In einem anderen Forum hat man mich aufgrund der Fehler ausgelacht. Ich solle mich lieber um die W3C Standards kümmern bevor ich irgendwelche Optimierung-Gesichten vornehme. häää?

Meine Frage:
- hat jemand Erfahrung mit W3C in bezug auf das Google-Ranking

Verfasst:
von

Verfasst: 17.10.2007, 14:36
von Dante

Verfasst: 17.10.2007, 14:43
von chrizz
such mal hier im Forum nach w3c. Da wirst du ziemlich viel zu finden.
Ich glaube die letzte allgemeingültige Tendenz ging in Richtung: W3C ist nicht rankingrelevant. Trotzdem schadet es nicht, wenn man den ein oder anderen Fehler ausbügelt ;)

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Verfasst: 17.10.2007, 14:56
von Sipatshi
Von Tag zu Tag wird im World-Wide-Web immer mehr Domain adressen registriert. Immer mehr Menschen möchten Ihre geschäfte/kontakte/usw über Internet abschliessen. Kann es sein, das Google irgendwann das Unabhänige-W3C Unternehmen abkauft/Partnerschaft eingeht und die Webmaster dazu zwingt sich an diesen Standard zu halten. Den umso mehr Domain adressesn im World-Wide-Web, desto schwieriger für Google das Ranking zu ermitteln?



Gruß

Sipatshi

Verfasst: 17.10.2007, 15:03
von mafu
Naja, ohne klugschei**ern zu wollen, valides HTML sollte eigentlich eine Grundlage sein...

aber auch mit nichtvalidem HTML kannst Du ein sehr gutes Ranking erhalten, solange die robots Deine Seite einlesen können (also nichts hinter scripten versteckt ist)..

Verfasst: 17.10.2007, 15:24
von Sipatshi
Man liest ja, das man den Lynx-Browser nutzen soll um sich in einen Robot versetzen zu können. Wenn ich unsere Online-Shop darüber betrachte wird alles wunderbar angezeigt(als würde man die seite auf einer Elektrischer-Schreibmaschiene abetippt haben). Bin stolz darauf :lol: aber der W3C-Standart reisst mich wieder in die Tiefe.

Vielleicht wird ist an der Zeit sich an diese Grundlagen(valides-HTML) zu halten.

Naja, dat wars, danke :)

Gruß

Sipatshi

Verfasst: 17.10.2007, 16:19
von Seokratie
Oh, wollte gerade einen extra Thread erstellen:
Also mir zeigt der Validator bei XHTML 1.0 Strict EINEN Fehler an, der ist mir aber schnuppe.
Problem: Wenn ich Meta-Tags Keywords usw.. einfüge, dann sind es plötzlich über 30 Fehler?
Sorry für die Anfängerfrage...
Was mache ich falsch?

Verfasst: 17.10.2007, 16:38
von mafu
Deprofundis hat geschrieben:Oh, wollte gerade einen extra Thread erstellen:
Also mir zeigt der Validator bei XHTML 1.0 Strict EINEN Fehler an, der ist mir aber schnuppe.
Problem: Wenn ich Meta-Tags Keywords usw.. einfüge, dann sind es plötzlich über 30 Fehler?
Sorry für die Anfängerfrage...
Was mache ich falsch?
deine tags nicht-valide einbauen?? wasn das für ne frage, du baust etwas ein und bekommst fehler, also wird dein eingebauter quelltext wohl fehlerhaft sein..

schreib doch mal ne url, bzw jag deine URL durch den W3C validator, der sagt dir doch dann genau welche fehler du auf der seite hast..

Verfasst: 17.10.2007, 17:32
von Seokratie
Naja, was der sagt und was damit gemeint ist...
Aber habs mal einfach durch den Dreamweaver gejagt...
Ergbebnis: STRICT! :lol:

Verfasst: 17.10.2007, 18:38
von Thomas B
Was Dreamweaver Dir anzeigt ist völlig Banane - nur was der Validator sagt zählt. Es gibt aber einige Fehlermeldungen die man durchaus vernachlässigen kann.

Verfasst: 17.10.2007, 20:14
von Elradon
Naja, Standard hin oder her, gibt es nen tieferen Sinn hinter dem ganzen? Denn klappten tuts ja auch mit Fehlern...

Verfasst: 17.10.2007, 20:22
von Nuevo Niveau
Valide ist toll, muß aber nicht. Sehe übrigens nicht nur ich so :) Ein Google Pressesprecher hat mal gesagt (ich finds gerade nicht) "zu viele gute alte Seiten mit zu viel gutem Content drauf, ein Abwerten aufgrund von Programmierung wird nicht in Betracht gezogen"...

und das:
https://validator.w3.org/check?uri=http ... .google.de
sagt doch alles, oder :)

EDIT: Nicht mal die Hersteller der Browser halten sich dran!! Und ganz ehrlich: Haut mal alle top rankenden Seiten rein, es gibt IMMER Fehler... w3c ist STRICT und wenn ein alt="" tag fehlt, gibt es schon einen Fehler!

Verfasst: 17.10.2007, 20:31
von GreenHorn
Nuevo Niveau hat geschrieben:EDIT: Nicht mal die Hersteller der Browser halten sich dran!! Und ganz ehrlich: Haut mal alle top rankenden Seiten rein, es gibt IMMER Fehler... w3c ist STRICT und wenn ein alt="" tag fehlt, gibt es schon einen Fehler!
Wie auch immer, jeder tut gut daran fehlerfrei zu arbeiten. Programiere sauber und es lohnt sich Fehler-codes in den logs anzuschauen. :wink:
Und wer alt-tags ungenuzt läßt, ist selbst schuld und sich dessen Bedeutung offenbar nicht bewußt...

Verfasst: 17.10.2007, 20:43
von dp-wurzel
Deprofundis hat geschrieben:Problem: Wenn ich Meta-Tags Keywords usw.. einfüge, dann sind es plötzlich über 30 Fehler?
Was mache ich falsch?
Eventuell sieht das Ende deiner Meta Tags so aus:
content="index, follow">

statt so:
content="index, follow"/>

MfG dp-wurzel

Verfasst: 17.10.2007, 20:45
von Seokratie
Jup, genau so wars! :D