Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Layout und Ranking

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
unknownsoul
PostRank 9
PostRank 9
Beiträge: 1604
Registriert: 08.02.2006, 08:28

Beitrag von unknownsoul » 17.06.2007, 23:38

Wie sieht die ABAKUS-Gemeinde eigentlich den Zusammenhang von Layout und Ranking?

Ich habe eine Seite (Texte, reiner Content) vom Tabellenlayout auf valides HTML/CSS umgestellt. Der Quellcode ist ca. um 50% geschrumpft und die Textbestandteile sind demnach an den Stellen deutlich nach oben gerutscht. Die Umstellung ist ca. 1,5 Wochen her und ich konnte bisher noch keine Verbesserung feststellen. Gut, vielleicht bin ich zu voreilig, aber einige Seiten sind im G*-Cache bereits aktualisiert.

Gibt hierzu Erfahrungswerte von anderen? Irgendwo hab ich mal gelesen, dass bei einigen die Seite aufgrund des Layouts erstmal deutlich abgerutscht ist. Besonders interessant ist natürlich die Langzeitwirkung einer Layoutumstellung.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

UweT
PostRank 10
PostRank 10
Beiträge: 5601
Registriert: 03.01.2003, 00:07

Beitrag von UweT » 18.06.2007, 07:20

Es ist meiner Meinung nach ein Ammenmärchen, dass valider Code besser gerankt wird als unsauberer Code, vorausgesetzt der Crawler schafft es sich durch den unsauberen Code zu hangeln. Natürlich freut sich ein jeder Crawler über sauberen Code und wird sich auch bei der Analyse einfacher tun - doch schlussendlich geht es dem Crawler um den Content und nicht um den validen Code. Google zum Beispiel, gibt verdammt viel Geld dafür aus, möglichst viele relevante Informationen zu sammeln - würde sich der Googlebot nun auch nur einen Hauch an validem Code orientieren und diesen bevorteilen, wäre die Relevanz des derzeitigen Index nicht mehr konkurrenzfähig zu anderen Suchen. Natürlich heisst es in den Richtlinien, dass man valide coden soll und möglichst auf CSS Layouts setzen soll... wäre ja auch schlecht, wenn man auch Sicht der Suchmaschine etwas anderes vorgeben würden. Gerade die schönen DIV Container machen es für Google einfach eine Seite detailiert zu analysieren und zu entscheiden, ob es sich um ein Navigationselement, eine Contentbox oder einen Footer handelt. Jede DIV Box kann einzeln ausgewertet werden und gibt ein viel genaueres Bild über die Seitenstruktur und den relevanten Content auf der Seite... Bei Seiten die diesem Muster nicht folgen, hat es der Crawler nicht so einfach und interpretiert im Zweifel den Inalt der Seite anders / ungenauer - das widerrum kann Vor- oder Nachteile im Ranking mit sich bringen. Da wir hier ja in einem SEO Forum sind... sollte man sich also Gedanken machen, ob man dem Bot es einfach oder lieber nicht so einfach machen will...den relevanten Content zu erkennen... Ich würde mal behaupten, dass es hier jede Menge Seiten von Mitgliedern gibt, bei denen es besser wäre, dem Bot nicht ganz so detailiert vorzumalen, was auf der Seite tatsächlich die Bereiche sind, die im Zweifel abgewertet (footer, sidebars, navigation) oder aufgewertet (content) werden sollen.

Gruß
tbone.

chio
PostRank 9
PostRank 9
Beiträge: 1153
Registriert: 01.01.2004, 16:53
Wohnort: wien

Beitrag von chio » 18.06.2007, 07:37

Es ist definitiv ein Ammenmärchen. Es gibt keinerlei Unterschied im Ranking, solange der Code vom Spider noch analysierbar ist.

Ob der Bot die div's mit bezeichnender id ab- oder aufwertet mag ich trotzdem bezweifeln: Das ist nicht so einfach; auf der einen Site würde das funktionieren, auf der anderen nicht, weil die Dinger wieder ganz anders verschachtelt sein können.
Ich gehe davon aus, dass der Bot die Tags div und td als "Trenner" ansieht, die Seite in Blöcke zerlegt und dann schaut, welche Blöcke sich wie viel unterscheiden. Irgendwann merkt er dann eben, dass sich zb nur Block 5 auf jeder Seite wirklich ändert und wertet den Rest ab.
Wenn du also deine Site von Tabellen auf CSS umstellst, ändert sich für den Bot inhaltlich nichts, sogar dann, wenn du die Reihenfolge im Quellcode änderst.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Vitali Neumann
PostRank 9
PostRank 9
Beiträge: 1015
Registriert: 12.12.2005, 15:44
Wohnort: Hannover

Beitrag von Vitali Neumann » 18.06.2007, 07:54

hier gibt es einen Bericht von sistrix

https://www.sistrix.com/news/602-seo-ge ... itaet.html
[url]httpss://www.google.com/+VitaliNeumann[/url]
Все Будет Хорошо!

UweT
PostRank 10
PostRank 10
Beiträge: 5601
Registriert: 03.01.2003, 00:07

Beitrag von UweT » 18.06.2007, 07:55

chio hat geschrieben:div's mit bezeichnender id
bezeichnend müssen die IDs meiner Meinung nach nicht sein - das Ergebnis der Analyse eines DIV-Containers ist m.E. entscheidend - also sowas wie Linkdichte, Keyworddichte, externes und internes Linkverhältnis usw... halt auf den Container bezogen - ich denke nicht, dass der Name einer DIV ID ausgewertet wird, da das sprachabhängig ist und vielleicht befindet sich im Container "id=footer" ja genau der relevante Text, der die Seite ausmacht... nur weil der Webmaster vergessen hat den Container umzubenennen ;)

gruß
tbone.

chio
PostRank 9
PostRank 9
Beiträge: 1153
Registriert: 01.01.2004, 16:53
Wohnort: wien

Beitrag von chio » 18.06.2007, 08:39

Jo, tbone78, da sind wir der selben Meinung.
Im Prinzip ist kein Unterschied zwischen <td> und <div> . Beide sind Behälter und nur als solche wird sie der Bot sehen. Die Tags <table> und <tr> kann der Bot ohnehin ignorieren.

Aber so nebenbei: Tabellen sind genauso valide, das hat eigentlich nix miteinander zu tun. Und wenn sich der Quellcode auf die Hälfte eingedünnt hat, dann musst du es vorher arg getrieben haben. ;-)

unknownsoul
PostRank 9
PostRank 9
Beiträge: 1604
Registriert: 08.02.2006, 08:28

Beitrag von unknownsoul » 18.06.2007, 10:01

Ich dank euch für die informativen Antworten.

@chio

Ja der wohl in die Jahre gekommene Quellcode blähte sich aufgrund verschachtelter Tabellen schon ziemlich auf. Valide war er dann irgendwann auch nicht mehr. :)

Die Seite sollte einen neuen Look erhalten. Letztendlich wurde das Design hauptsächlich deswegen umgestellt. Das Ranking sollte als Nebeneffekt natürlich auch etwas gesteigert werden. Zudem ist der geringere Traffic auch nicht schlecht. :)

Aufgrund einer kurzzeitigen Änderung an der Startseite verschob sich der Textanfang inkl. Überschriften im Quellcode ein Stück nach unten. Als der Bot die veränderte Seite aufnahm, sackte sie plötzlich 3 Positionen in den Top 10 ab. Die bisherige Position war bis dato lange Zeit stabil. Eigentlich brachte mich diese Erfahrung zu der Annahme, dass der Quellcode und die Positionen der Elemente einen Einfluss aufs Ranking haben müssen.

Anonymous

Beitrag von Anonymous » 18.06.2007, 10:09

tbone78 hat geschrieben:Es ist meiner Meinung nach ein Ammenmärchen, dass valider Code besser gerankt wird als unsauberer Code, vorausgesetzt der Crawler schafft es sich durch den unsauberen Code zu hangeln. Natürlich freut sich ein jeder Crawler über sauberen Code und wird sich auch bei der Analyse einfacher tun - doch schlussendlich geht es dem Crawler um den Content und nicht um den validen Code. .....
tbone.
Richtig!
Aber die Browser und die User vor dem Monitor werden sich um so mehr freuen, das der valide code - auch welcher ist - nichts über - ab - oder teile rausstehen.. die dok typen pp gibt man ja gerade hierfür an.

ich denke mal.. wichtig ist halt die struktur... einfach mal sehen, das z.b. die sitemap als einer der ersten links vom bot gefunden werden kann.. und dann passt das mit dem rest schon..

wer sowas wie nen link lageplan in seinem quellcode hat - der doppelt dreifach und gar nicht verlinkt - braucht sich auch nicht zu wundern das die bots nach der dritten runde das weite suchen .. oder sich auch gerne mit 20 oder mehr dc`s auf ner seite festbeissen..

struktur wie ein buch

titel
index
einleitung
story
impressum quellenangaben
happy end

Bruno51
PostRank 1
PostRank 1
Beiträge: 4
Registriert: 05.06.2007, 11:10

Beitrag von Bruno51 » 18.06.2007, 12:10

Hi,

ich hab diesbezüglich irgendwo mal gehört, dass manche Suchmaschinen die Seiten durch eine Browser-Engine jagen, um verstecken oder aus dem sichtbaren Bereich geschobenen Inhalt zu entdecken. Wenn dem so wäre, kommt einer wenigstens ansatzweisen Validität schon eine gewissen Bedeutung zu. Ich wüsste dann aber echt mal gerne, mit welcher Browser-Engine die das machen, da gibts ja auch immernoch himmelweite Unterschiede (<Netscape 4.7 :-))...

Gruß

chrizz
PostRank 10
PostRank 10
Beiträge: 3044
Registriert: 05.07.2006, 10:37
Wohnort: Berlin

Beitrag von chrizz » 18.06.2007, 12:14

öhm. hab ich die Frage falsch verstanden, oder sind wir hier vom Thema abgewichen?*g* Ich dachte es ging darum, dass der Content jetzt quelltexttechnisch über dem Menü steht (also ganz weit oben im Quelltext). Hab auch mal irgendwie, ich glaube sogar hier, gehört, dass es durchaus sinn macht, den Content so weit wie möglich nach oben zu klatschen und alles unwichtige erst darunter.

unknownsoul: korrigier mich, wenn ich deine frage falsch verstanden habe...

mercie

unknownsoul
PostRank 9
PostRank 9
Beiträge: 1604
Registriert: 08.02.2006, 08:28

Beitrag von unknownsoul » 18.06.2007, 12:27

Nein chrizz, Du hast das schon in etwa richtig verstanden. :) Mit einem knackigen CSS-Design befindet sich der Inhalt ja "weiter oben" im Quellcode. Also auch unabhängig von der Positionierung.

Im Zuge der Layoutänderung habe ich auch gleich das seitliche Navigationsmenü auf die rechte Seite gelegt. So wie in den meisten Blogs, um den Content an erster Stelle zu platzieren. Bisher habe ich dadurch allerdings noch keinen positiven Effekt feststellen können. Aber wie gesagt, vielleicht ist die "Erfahrungszeit" auch noch nicht ausreichend?!

chio
PostRank 9
PostRank 9
Beiträge: 1153
Registriert: 01.01.2004, 16:53
Wohnort: wien

Beitrag von chio » 18.06.2007, 12:42

chrizz hat geschrieben:glaube sogar hier, gehört, dass es durchaus sinn macht, den Content so weit wie möglich nach oben zu klatschen und alles unwichtige erst darunter.
Wenn das einen positiven Effekt hat, habe ich bisher noch nichts davon gemerkt. Außer dass bei einer meiner Seiten mit derartiger Konstruktion der IE7 plötzlich beschlossen hat, dass das Menü tatsächlich ganz unten darzustellen ist :bad-words:

Ein paar kleine Anmerkungen zu diesem ewigen Thema:
"valid" ist keinerlei Garantie, dass eine Seite richtig dargestellt wird. Wer eine Seite so macht, dass Besucher sie auch sehen dürfen, wird sich an die Regeln halten und seine Tags wieder zumachen.

Aber: An einem "<td height="100%" bgcolor=...> stört sich außer dem Validator kein Mensch.

99,9% aller Besucher haben keine Ahnung, was eine DTD ist, und 99.99% schauen NICHT in den Quellcode und zählen die fehlenden Alt-Attribute.
Diese Zielgruppe bediene ich und die bedient auch Google.

Falls dereinst die Welt nach validierten Seiten schreit, werde ich eben solche machen, bis dahin bleibe ich ohne Religionsbekenntnis.

chrizz
PostRank 10
PostRank 10
Beiträge: 3044
Registriert: 05.07.2006, 10:37
Wohnort: Berlin

Beitrag von chrizz » 18.06.2007, 12:46

keine Garantie....aber ein Hoffnungsschimmer, dass es annährend überall gleich aussieht...;)
Aber mal schaun...dann war das viellleicht auch nur ein Gerücht mit dem Quelltext ganz weit oben = besser für Suma.....hm. egal. Jetzt ist es bei mir CSS und bleibt auch so...;)

cheers

unknownsoul
PostRank 9
PostRank 9
Beiträge: 1604
Registriert: 08.02.2006, 08:28

Beitrag von unknownsoul » 18.06.2007, 12:49

Wenn das einen positiven Effekt hat, habe ich bisher noch nichts davon gemerkt. Außer dass bei einer meiner Seiten mit derartiger Konstruktion der IE7 plötzlich beschlossen hat, dass das Menü tatsächlich ganz unten darzustellen ist
Ja das kenne ich. Grausamer Effekt. Man kanns beheben, wenn man dem Menü mehr Platz einräumt, also den Contentbereich etwas verkleinert. Leider ist dann im neuen IE oder Firefox der Abstand zum Menü etwas unglücklich... Wenn man viele Besucher hat, dann macht der abgespeckte Quellcode aber schon aus Perfomancegründen Sinn.

Solander
PostRank 3
PostRank 3
Beiträge: 97
Registriert: 28.09.2006, 15:41
Wohnort: Köln

Beitrag von Solander » 18.06.2007, 13:11

Na, in meinen Augen ist es aber zumindestens einfacher, mittels validem Quellcode ein Design zu realisieren, das sämtliche relevanten Browser exakt identisch darstellen.

Sobald einer von denen in den Quirks-Modus wechselt, wird es teilweise abenteuerlich.

Mag ja sein, dass es für Sumas irrelevant ist, aber für einen Betreiber bzw. Besucher haben valider Quellcode und Stylesheets etc. in meinen Augen eigentlich nur Vorteile.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag