Mir wurde gesagt das der "veraltete" Font Tag (und das ganze alte HTML) sich nachteilig auf Suchmaschinen auswirkt und dadurch die eigene Web Seite im Ranking abfällt. Ist dies richtig ? ..und wie ist es besser zu machen? Danke für eure Hilfe.
die Sprache des Internet war, ist und bleibt HTML. Um jedoch sauberen Quelltext zu erhalten, werden Inhalt und Formatierung sinnvollerweise getrennt: üblicherweise wird das durch HTML und! CSS erreicht.
Ein dadurch besser für Maschinen lesbarer Text (schaue einfach mal selbst in die Quelltexte) wird keinesfalls von Nachteil für Bots sein, allerdings auch kaum Punkte im Ranking bringen.
Tatsache ist aber auch, dass durch unsinnigen, übertriebenen Quelltext, übertriebene Verschachtelung, Tabellen in Tabellen usw. und dadurch eher vorkommende Fehler eine Aufnahme in Suchmaschinen erschwert wird und damit natürlich auch das Ranking fällt.
Danke für Deine Antwort und Hilfe.
Also muß der ganze "doppelte und dreifache Mist" da raus ? Aber wie kommt er da rein wenn es nicht mit Absicht gemacht wurde?
"Tatsache ist aber auch, dass durch unsinnigen, übertriebenen Quelltext, übertriebene Verschachtelung, Tabellen in Tabellen usw. und dadurch eher vorkommende Fehler eine Aufnahme in Suchmaschinen erschwert wird und damit natürlich auch das Ranking fällt."
Garnichts MUSS raus... der Spider muß es nur lesen und richtig interpretieren können, mehr nicht.
@Schnipsel: ich wundere mich etwas. Willst du mich auch noch vertreiben? - Was soll diese sinnlose Bemerkung in einem Forum zur "Optimierung"? Eventuell klärst du für dich zuerst den Begriff. Pfuschen kann jeder, dazu braucht man kein Forum. Hier aber werden doch sinnvolle Antworten erwartet.
So wie 1+1=2 ist, erhöht jedes Zeichen mehr in einer Website auch die Fehlerquote. Das lernt man u.a. in der Wahrscheinlichkeitsrechnung, einem wissenschaftlichen Zweig der Mathematik, aber auch als Milchmädchen (mehr Milch, mehr verschüttet).
Übrigens andersherum hat Google sauberen Quelltext noch nie bestraft.
@sun--point: vermutlich verwendest du ein kostenloses Script, welches stark verbesserungswürdig ist (oft darf man das sogar selbst tun). Falls es gekauft wurde, sollte das reklamiert werden: viele sinnlose Formatierungen, die den Quelltext unnötig aufblähen.
Eine alte Webmaster-Optimierungs-Regel: wenn du als Webmaster im Quelltext den Seiten-Inhalt schnell, einfach und eindeutig erkennst, wird auch jeder Bot zufrieden sein.
Mann, dann vertragen wir uns halt wieder. Ein HTML-Fetischist bin ich auch nicht.
Tabellen kann man aber doch heutzutage weitestgehend vermeiden. <div>-Container mit ausgelagertem CSS -eigentlich mittlerweile guter Standard- machen wesentlich weniger Schweinerei im Quelltext und können gleichzeitig auf vielen Seiten eingesetzt werden usw.
Solange dein Quelltext strukturiert und valide ist, ist alles okay!
Valide ist kein Kriterium was dich hebt, aber zu unstruktiriert kann evtl. die SUMA aussteigen.
Wichtiger ist die Platzierung im Dokument .....
Schnipsel tut hier so, als sei sauberes HTML völlig unwichtig, dies ist in vielen Beiträgen nachzulesen. Ich hege seit längerem den Verdacht, dass er hier eine falsche Fährte legt. In Wirklichkeit ist es wahrscheinlich so, dass Googles Algorithmus mehr und mehr in Richtung semantisches Web geht. Schnipsel weiß das und schlau wie er ist, will er sein Insiderwissen dazu nutzen, den eigenen Vorsprung auszubauen. Sollte ich falsch liegen, bleibt nur noch Altersstarrsinn als Erklärung. scnr