Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Tabellenloses Layout

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
phereia
PostRank 8
PostRank 8
Beiträge: 726
Registriert: 23.04.2004, 23:19

Beitrag von phereia » 23.05.2005, 08:09

ospose hat geschrieben:Schließlich ist allgemein bekannt, dass Quelltext, der höher positioniert wird, von Suchmaschinen höher bewertet wird (Yahoo z.B.).
Hast Du eine Quelle dafür?
Denn mit CSS kann man die ganzen Navigationslinks im Quelltext ganz unten aufführen, während Sie in Wirklichkeit auf dem Monitor oben rechts erscheinen.
Nur bedingt; wenn die Navigation z.B. als floatende Box konzipiert ist (um weniger Platz zu verschenken), wird das ganze ziemlich trickreich (einen leeren div-Container an der vorgesehenen Stelle positionieren und dann die Navigationsbox mit position:absolute in diesen "reservierten" Bereich verschieben).

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

ospose
PostRank 2
PostRank 2
Beiträge: 63
Registriert: 17.07.2004, 21:19

Beitrag von ospose » 23.05.2005, 10:13

Schließlich ist allgemein bekannt, dass Quelltext, der höher positioniert wird, von Suchmaschinen höher bewertet wird (Yahoo z.B.).

Hast Du eine Quelle dafür?
Semiprofessionelle Quellen: https://www.suchmaschinentricks.de/foru ... 42&forum=5
https://www.ranking-abc.de/website-design.html
https://www.aboutwebdesign.de/awd/conte ... 69_d.shtml

Eine richtige Autoritätsquelle habe ich jetzt nicht gefunden. Ich finde es aber irgendwie logisch. Wenn schon das Title-Tag eine solche Macht hat, sollten Sumas Inhalt im Quelltext oben höher bewerten.
Das scheinen Kleinigkeiten zu sein. Aber bei einem Wettkämpfer zählt auch jedes Gramm. Ein Gramm mehr, und schon läuft sichs schwerer.

Bei Yahoo habe ich einmal festgestellt, dass ein Keyword von mir erst in der Suma auftauchte, als ich das Wort auf die HP setzte. Sozusagen im Gesamtquelltext näher an der Wurzel.
Nur bedingt; wenn die Navigation z.B. als floatende Box konzipiert ist (um weniger Platz zu verschenken), wird das ganze ziemlich trickreich (einen leeren div-Container an der vorgesehenen Stelle positionieren und dann die Navigationsbox mit position:absolute in diesen "reservierten" Bereich verschieben)
Ja, klappt leider nur, wenn mans wirklich drauf anlegt. Man muss abwägen, was einem wichtiger ist: Jedes Quäntchen SEO oder Design.

depp ich
PostRank 9
PostRank 9
Beiträge: 1508
Registriert: 06.12.2004, 12:59

Beitrag von depp ich » 23.05.2005, 10:26

Natürlich werden die zuerst kommenden Inhalte stärker bewertet. (auf den Quellcode bezogen).
Aber: Ich zB habe die höchsten Keyworddichten im Menü. Ich wäre ein Idiot, wenn ich das Menü nach hinten verschiebe.
Ansonsten hier meine bescheidene Meinung:
https://www.site-check.cc/seiten-optimi ... erung.html
lg
chio

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

axelm
PostRank 7
PostRank 7
Beiträge: 603
Registriert: 18.10.2004, 11:42

Beitrag von axelm » 23.05.2005, 10:56

Interessanter Artikel.
Bedeutet, dass also, dass wenn eine Seite kleiner ist (in Kb, dank CSS statt großen Tabellen Layouts) der Bot sich schneller durcharbeiten kann weil weniger Zeilen/Code vorhanden ist? Laut deinem Artikel müßte das ja so sein.

Dementsprechend müßte der Bot ja durch eine Valide Seite schneller vorran kommen als wenn er eine Schleife durchgehen muss wie: "ups, da kommt im a href Tag das Attribut 'hier'", "Kenne ich das ja/nein...If a href Länge nach der URL großer als 60 Zeichen gehe davon aus, dass HTML Fehler vorhanden ist, Tag nicht beachten." etc.

Müßte nach deiner Beschriebung ja so sein. Nicht anderes macht übrigens der Browser der sich sagt :"ok, das TD Tag ist hier nicht geschlossen, was mache ich jetzt?" Spring in die Fehlerschleife entscheide ob der Fehler so schwerwiegend ist ob ich die Seite noch darstellen kann oder nicht. Sprich dauert länger (in der Praxis mußte ich leider feststellen, dass der Geschwindgkeitszuwachs beim Rendern im Browser erst ab Seiten von 100-200 Kb meßbar wird, spielt also kaum eine Rolle).

Bloß warum sollte Google nicht bei den Zahlreichen parametern die für das Ranking benutzt werden eine Rule haben wie: "Hey, die Seite ist valide. Der gebe ich mal 0,01 Punkte mehr als ne nicht valide Seite"? Oder "Hey, die Seite ist valide. Das bewerte ich jetzt noch nicht (weil noch zuviele Seiten unvalide sind), aber ich merk mir mal seit wann die Valide ist um das später einzusetzen". Ein Wenig so wie, "seit wann gibt es die Domain?", oder "seit wann gibt es diesen Backlink?".

Warum nicht?

depp ich
PostRank 9
PostRank 9
Beiträge: 1508
Registriert: 06.12.2004, 12:59

Beitrag von depp ich » 23.05.2005, 13:37

Hallo!
Um keine Missverständnisse aufkommen zu lassen: Ich habe keine Ahnung, wie Google das macht. Aber es wird wohl so oder so ähnlich sein. Ich habe webeye gemacht und den Parser darin, der natürlich die selben Sauereien parsen muss wie Google.
Es hat überhaupt keinen Sinn, nach valide oder nicht-valide zu unterscheiden; für webeye ist es zB völlig egal, wieviele <TD>s du schließt; du könntest 1000e noch offen haben und webeye würde es nicht einmal merken. Webeye beachtet keinerlei Tabellen-Tags, es gibt also keine offenen. Warum sollte ein Spider einen eingebauten Validator haben? Ist doch völlig überflüssig.

Und: Es gibt deutliche Hinweise, dass Google nicht die Position eines Begriffes im gesamten Code, sondern erst im bereinigten Text beachtet. Wenn du zB 20k Kommentar hast und dann erst den eigentlichen Text, stören die 20k Kommentar nicht wirklich. Kann sein, dass das Verhältnis von Code zu tatsächlichem Inhalt irgendwie gewertet wird, glaub ich aber nicht. Keinesfalls wird die Rechenzeit des Parser gewertet, das wäre ja völliger Blödsinn.
lg
chio

axelm
PostRank 7
PostRank 7
Beiträge: 603
Registriert: 18.10.2004, 11:42

Beitrag von axelm » 23.05.2005, 14:15

>Keinesfalls wird die Rechenzeit des Parser gewertet
Das glaube ich auch nicht aber theoretisch würde der Bot ja schneller durch die Seiten kommen (wenn sie kleiner sind, egal ob valide oder nicht).
Evtl. indexiert er ja einige Mehr. Und selbst wenn nicht reduziert es die Last und den Traffic auf dem Server der gerade vom Bot besucht wird.

ospose
PostRank 2
PostRank 2
Beiträge: 63
Registriert: 17.07.2004, 21:19

Beitrag von ospose » 23.05.2005, 14:17

Und: Es gibt deutliche Hinweise, dass Google nicht die Position eines Begriffes im gesamten Code, sondern erst im bereinigten Text beachtet. Wenn du zB 20k Kommentar hast und dann erst den eigentlichen Text, stören die 20k Kommentar nicht wirklich.
Würde ich im Prinzip auch so sehen.

Aber:
https://www.abakus-internet-marketing.d ... coding.htm
Vielleicht sollte man doch freundlich zu den Suchmaschinen sein und sie nicht zu lange parsen lassen. Bei der immer wachsenden Datenmengen könnte es sein, dass ein Spider mal seine Arbeit abbricht, um andere Seiten auch zum Zug kommen zu lassen. Zugegeben, nicht sehr wissenschaftlich, aber nett ist das für Suchmaschinen bestimmt nicht, sie mit Kommentaren, CSS-Definitionen, Tabellenlayouts, Java-Script, ... zuzumüllen.

blubb0r
PostRank 4
PostRank 4
Beiträge: 109
Registriert: 10.12.2004, 16:20

Beitrag von blubb0r » 23.05.2005, 15:27

Oder verstehe ich was falsch?
seo technisch bringt es nichts.
ich weiß nicht, ob ich dich falsch verstanden hab, aber: es soll angeblich noch welche vom alten eisen geben die der zeit hinterherlaufen... 8) für die nochmal:

https://www.hotdesign.com/seybold/
oder auf deutsch: https://seybold.jan-andresen.de/index.php

depp ich
PostRank 9
PostRank 9
Beiträge: 1508
Registriert: 06.12.2004, 12:59

Beitrag von depp ich » 23.05.2005, 16:34

Jepp.
Zum Thema aufgeblähter Code:
Der Code einer 3-spaltigen Tabelle ist 107 Byte groß. Allein die Einrückungen bei normalen Seiten (ob mit oder ohne Tabellen) machen ein Vielfaches aus.
axelm hat geschrieben:...und die Seiten 30% bis 40% kleiner werden.
Das wirft ein schlechtes Licht auf deine vorherigen Seiten.
sukaba hat geschrieben:Jede Website, die ich tabellenlos gemacht habe, hatte danach mehr Besucher.
Hast du im Zuge des Redesigns vielleicht überhaupt ein paar Sachen anders=besser gemacht?

Tabellenloses Design ist reine Glaubens- und Geschmacksfrage. Wer will, soll. Aber in Bezug auf Suchmaschinen bringt es keine Vorteile.

sukaba
PostRank 4
PostRank 4
Beiträge: 106
Registriert: 19.12.2004, 23:45

Beitrag von sukaba » 26.05.2005, 18:41

depp ich hat geschrieben:Hast du im Zuge des Redesigns vielleicht überhaupt ein paar Sachen anders=besser gemacht?
Nein, der Inhalt ist absolut gleich geblieben, genauso wie die Struktur der Seiten.
Vielleicht war es auch Zufall, dass ich danach mehr Besucher hatte. Vielleicht auch nicht...
Könnte ein qualitativ hochwertiger Quellcode nicht auch tendenziell etwas über die Qualität des Inhalts aussagen? :roll:

Sololand
PostRank 7
PostRank 7
Beiträge: 544
Registriert: 28.11.2004, 01:03

Beitrag von Sololand » 26.05.2005, 19:58

Wo ich angefangen habe Tabellen statt css einzufügen, stieg meine Suchmaschinenposition deutlich :P

Charles
PostRank 5
PostRank 5
Beiträge: 222
Registriert: 13.02.2004, 13:19
Wohnort: Reinbek

Beitrag von Charles » 27.05.2005, 10:40

Als ich angefangen habe, nur noch auf dem Laptop auf der Terrasse zu proggen, stiegen auch bei mir die Besucherzahlen. Also alle die noch im Büro arbeiten, kann man nur bedauern...:-)

Ursache und Wirkung sind nicht immer nur am Zeitfaktor festzustellen...

Gruß
Charles

P.S.: Ich habe reine CSS-Seiten, Seiten mit verschachtelten Tabellen und sogar noch Frameseiten und alle sind rankingtechnisch zufriedenstellend...

depp ich
PostRank 9
PostRank 9
Beiträge: 1508
Registriert: 06.12.2004, 12:59

Beitrag von depp ich » 29.05.2005, 16:03

Nachtrag & kleine Ironie:

Bild
Auch Google ist meiner Meinung :lol:
lg
chio

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag