Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

W3C?!?! Wieso, weshalb, warum?

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Sipatshi
PostRank 3
PostRank 3
Beiträge: 79
Registriert: 07.10.2007, 18:46

Beitrag von Sipatshi » 17.10.2007, 14:17

Hallo zusammen,

wenn ich unseren Online-Shop durch den W3C-Val. durchjage bekomme X Fehler angezeigt! Von Monat zu Monat werden diese Fehler immer mehr. Wir als Online-Shop kommen doch garnicht hinterher standards anzupassen.
Man versucht doch die Webmaster dazu zu zwingen nur mit CSS zu arbeiten.

Nehmen wir an ich habe alles so umgestellt, das bei W3C kein Fehler angezeigt wird, dann fängt das gleiche Problem doch doch im nächsten Monat wieder an. Wieder Fehler usw.

In einem anderen Forum hat man mich aufgrund der Fehler ausgelacht. Ich solle mich lieber um die W3C Standards kümmern bevor ich irgendwelche Optimierung-Gesichten vornehme. häää?

Meine Frage:
- hat jemand Erfahrung mit W3C in bezug auf das Google-Ranking

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Dante
PostRank 1
PostRank 1
Beiträge: 22
Registriert: 18.11.2005, 08:03

Beitrag von Dante » 17.10.2007, 14:36

bei-uns.de
Interessen verbinden Menschen

chrizz
PostRank 10
PostRank 10
Beiträge: 3044
Registriert: 05.07.2006, 10:37
Wohnort: Berlin

Beitrag von chrizz » 17.10.2007, 14:43

such mal hier im Forum nach w3c. Da wirst du ziemlich viel zu finden.
Ich glaube die letzte allgemeingültige Tendenz ging in Richtung: W3C ist nicht rankingrelevant. Trotzdem schadet es nicht, wenn man den ein oder anderen Fehler ausbügelt ;)

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Sipatshi
PostRank 3
PostRank 3
Beiträge: 79
Registriert: 07.10.2007, 18:46

Beitrag von Sipatshi » 17.10.2007, 14:56

Von Tag zu Tag wird im World-Wide-Web immer mehr Domain adressen registriert. Immer mehr Menschen möchten Ihre geschäfte/kontakte/usw über Internet abschliessen. Kann es sein, das Google irgendwann das Unabhänige-W3C Unternehmen abkauft/Partnerschaft eingeht und die Webmaster dazu zwingt sich an diesen Standard zu halten. Den umso mehr Domain adressesn im World-Wide-Web, desto schwieriger für Google das Ranking zu ermitteln?



Gruß

Sipatshi

mafu
PostRank 4
PostRank 4
Beiträge: 109
Registriert: 21.02.2007, 09:36

Beitrag von mafu » 17.10.2007, 15:03

Naja, ohne klugschei**ern zu wollen, valides HTML sollte eigentlich eine Grundlage sein...

aber auch mit nichtvalidem HTML kannst Du ein sehr gutes Ranking erhalten, solange die robots Deine Seite einlesen können (also nichts hinter scripten versteckt ist)..
Bild

Sipatshi
PostRank 3
PostRank 3
Beiträge: 79
Registriert: 07.10.2007, 18:46

Beitrag von Sipatshi » 17.10.2007, 15:24

Man liest ja, das man den Lynx-Browser nutzen soll um sich in einen Robot versetzen zu können. Wenn ich unsere Online-Shop darüber betrachte wird alles wunderbar angezeigt(als würde man die seite auf einer Elektrischer-Schreibmaschiene abetippt haben). Bin stolz darauf :lol: aber der W3C-Standart reisst mich wieder in die Tiefe.

Vielleicht wird ist an der Zeit sich an diese Grundlagen(valides-HTML) zu halten.

Naja, dat wars, danke :)

Gruß

Sipatshi

Seokratie
PostRank 8
PostRank 8
Beiträge: 805
Registriert: 03.10.2007, 12:32

Beitrag von Seokratie » 17.10.2007, 16:19

Oh, wollte gerade einen extra Thread erstellen:
Also mir zeigt der Validator bei XHTML 1.0 Strict EINEN Fehler an, der ist mir aber schnuppe.
Problem: Wenn ich Meta-Tags Keywords usw.. einfüge, dann sind es plötzlich über 30 Fehler?
Sorry für die Anfängerfrage...
Was mache ich falsch?

mafu
PostRank 4
PostRank 4
Beiträge: 109
Registriert: 21.02.2007, 09:36

Beitrag von mafu » 17.10.2007, 16:38

Deprofundis hat geschrieben:Oh, wollte gerade einen extra Thread erstellen:
Also mir zeigt der Validator bei XHTML 1.0 Strict EINEN Fehler an, der ist mir aber schnuppe.
Problem: Wenn ich Meta-Tags Keywords usw.. einfüge, dann sind es plötzlich über 30 Fehler?
Sorry für die Anfängerfrage...
Was mache ich falsch?
deine tags nicht-valide einbauen?? wasn das für ne frage, du baust etwas ein und bekommst fehler, also wird dein eingebauter quelltext wohl fehlerhaft sein..

schreib doch mal ne url, bzw jag deine URL durch den W3C validator, der sagt dir doch dann genau welche fehler du auf der seite hast..
Bild

Seokratie
PostRank 8
PostRank 8
Beiträge: 805
Registriert: 03.10.2007, 12:32

Beitrag von Seokratie » 17.10.2007, 17:32

Naja, was der sagt und was damit gemeint ist...
Aber habs mal einfach durch den Dreamweaver gejagt...
Ergbebnis: STRICT! :lol:

Thomas B
PostRank 9
PostRank 9
Beiträge: 1810
Registriert: 04.12.2005, 12:50

Beitrag von Thomas B » 17.10.2007, 18:38

Was Dreamweaver Dir anzeigt ist völlig Banane - nur was der Validator sagt zählt. Es gibt aber einige Fehlermeldungen die man durchaus vernachlässigen kann.

Elradon
PostRank 8
PostRank 8
Beiträge: 867
Registriert: 23.08.2006, 15:36

Beitrag von Elradon » 17.10.2007, 20:14

Naja, Standard hin oder her, gibt es nen tieferen Sinn hinter dem ganzen? Denn klappten tuts ja auch mit Fehlern...

Nuevo Niveau
PostRank 5
PostRank 5
Beiträge: 218
Registriert: 24.01.2007, 09:12
Wohnort: Am liebsten zwischen Proxys

Beitrag von Nuevo Niveau » 17.10.2007, 20:22

Valide ist toll, muß aber nicht. Sehe übrigens nicht nur ich so :) Ein Google Pressesprecher hat mal gesagt (ich finds gerade nicht) "zu viele gute alte Seiten mit zu viel gutem Content drauf, ein Abwerten aufgrund von Programmierung wird nicht in Betracht gezogen"...

und das:
sagt doch alles, oder :)

EDIT: Nicht mal die Hersteller der Browser halten sich dran!! Und ganz ehrlich: Haut mal alle top rankenden Seiten rein, es gibt IMMER Fehler... w3c ist STRICT und wenn ein alt="" tag fehlt, gibt es schon einen Fehler!
Mehr IP Pop? Versuch mal Linkvault
oder Receivelinks

GreenHorn
PostRank 10
PostRank 10
Beiträge: 4487
Registriert: 19.12.2005, 15:01

Beitrag von GreenHorn » 17.10.2007, 20:31

Nuevo Niveau hat geschrieben:EDIT: Nicht mal die Hersteller der Browser halten sich dran!! Und ganz ehrlich: Haut mal alle top rankenden Seiten rein, es gibt IMMER Fehler... w3c ist STRICT und wenn ein alt="" tag fehlt, gibt es schon einen Fehler!
Wie auch immer, jeder tut gut daran fehlerfrei zu arbeiten. Programiere sauber und es lohnt sich Fehler-codes in den logs anzuschauen. :wink:
Und wer alt-tags ungenuzt läßt, ist selbst schuld und sich dessen Bedeutung offenbar nicht bewußt...

dp-wurzel
PostRank 7
PostRank 7
Beiträge: 538
Registriert: 28.02.2007, 18:36

Beitrag von dp-wurzel » 17.10.2007, 20:43

Deprofundis hat geschrieben:Problem: Wenn ich Meta-Tags Keywords usw.. einfüge, dann sind es plötzlich über 30 Fehler?
Was mache ich falsch?
Eventuell sieht das Ende deiner Meta Tags so aus:
content="index, follow">

statt so:
content="index, follow"/>

MfG dp-wurzel

Seokratie
PostRank 8
PostRank 8
Beiträge: 805
Registriert: 03.10.2007, 12:32

Beitrag von Seokratie » 17.10.2007, 20:45

Jup, genau so wars! :D

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag