Seite 1 von 1

Sind diese Optimierungen sinnvoll oder bringen sie Nachteile

Verfasst: 16.05.2003, 22:50
von Noki
Hallo!

Ich betreibe eine Webseite die im Moment aus einer Datenbank mit ca 800 Datensätzen generiert wird. Bei den Datensätzen handelt es sich jeweils um ein Schlüsselwort, eine kurze Erklärung mit maximal 255 Zeichen und in einigen Fällen um einen weiterführenden erklärenden Text.

Wesentliche Optimierungen der Webseite sind:

- Der Einsatz von Mod_Rewrite um die Parameter der PHP-Seite zu verschleiern
- Die Präsentation aller Seiten in einem Verzeichnis
- Automatische Verlinkung der Begriffe untereinander, wenn also ein Begriff aus der Erklärung in der Datenbank vorkommt wird automatisch auf diesen Eintrag verlinkt
- Automatische Generierung der Keywords in den Metatags wobei als Keywords die verlinkten Begriffe benutzt werden
- automatischer Seitentitel, es wird der zu erklärende Begriff verwendet
- alphabetische Auflistung aller Begriffe damit auch alle Seiten indiziert werden können

Meine Frage ist nun, ob sich diese weitreichenden automatisierten Optimierungen negativ auf das Ranking der Seite auswirken können und wenn ja welche und warum.

Weiterhin wäre es interessant zu wissen wie es google mit einer zusätzlich angebotenen Printversion der Seite hält.

> Tobias

Verfasst:
von
Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Verfasst: 17.05.2003, 10:14
von UweT
Hallo Tobias,
Die Punkte die du zur Optimierung angegeben hast klingen alle sehr suchmaschinenfördernd und somit auch rankingfördernd.
Den einzigsten Schwachpunkt den ich erkennen kann ist, dass du dem Spider auch ein Ende vorgeben musst, dass heisst baust du ein Netzwerk auf, was insich geschlossen ist, dann läufst du Gefahr, dass du den Bot gefangen hälst, sprich der Bot sieht deine Seite und kommt da nichtmehr raus. Zur Folge hat das, dass der Bot dir extremen Traffic verursacht bis hin zu einem Serverabsturz, denn der Bot ist stärker als den Webserver :P
Grund fürs NICHTLISTEN:
Ihre Seiten werden dynamisch erstellt. Google ist in der Lage, dynamisch generierte Seiten zu indizieren. Da unsere Webcrawler jedoch Sites mit dynamischem Inhalt unter Umständen lahm legen und zum Absturz bringen, wurde der Umfang der indizierten dynamischen Seiten begrenzt. Quelle: Google.
Zu der print friendly version würde ich folgendes sagen:
Da der Content der gleiche ist wie auf der nach den Optimierungskriterien eigentlich super zu indexierenden NICHT Print Version wäre ich mit dem Link zu einer druckfreundlichen Version vorsichtig, denn wie wir alle wissen, doppelter Content macht sich im Index nicht besonders gut und führt im schlimmsten Fall zum Ausschluss einer der beiden Seiten...printfriendly oder ebend nicht nicht-druckfreundliche Version, deswegen hier ein Tip wie man die Sache dennoch interessant gestalten könnte; Stichwort Word oder PDF Version anbieten. Word oder PDF Dokumente kann man am Ende jeder Seite als Druckversion zum Download anbieten. Gerade PDFs werden von Google auch mit Vorliebe indexiert und stellen was den doppelten Content angeht, meiner Meinung nach nicht wirklich ein Problem dar, da Google den Content eines PDFs anderes prüft als der einer Textversion. Wenn du also ein automatsches PDF generieren könntest m Ende einer jeden Seite und dort einen Link zum download dieses PDF bereit stellst, dann is das die wahrscheinlichst sicherste und effektivste Methode um einen Mehrwert aus einer Druckfreundlichen Version zu bekommen.


Gruß
tbone.

Verfasst: 17.05.2003, 10:38
von Noki
Hallo!
Auf die Idee mit den PDF-Dokumenten bin ich natürlich auch schon gekommen. Bisher habe ich diese jedoch immer zusätzlich zur Druckversion bei allen Dokumenten mit ausführlicher Erklärung angeboten. Ich werde mir nun das ganze mal 2 Monate lang anschauen und dann anhand der Ergebnisse in Google entscheiden ob ich die Druckversion vollständig durch die PDF-Option ersetze.

> Tobias

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Verfasst: 17.05.2003, 10:43
von UweT
Der Vorteil bei den PDFs besteht in erster Linie darin die Meta Informationen in dem jeweiligen PDF denen der Seite etwas unterschiedlich zu gestalten, somit hast du die Chance, dass du zu ein und dem selben Content ein unterschiedliches Ranking zu erhalten.

Verfasst: 17.05.2003, 10:44
von Webby
Willkommen am Board Noki :-)
So lange als du Inhalt für diese 800 begriffen hattest und es gibt keinerlei umleitung ist dein plan eine gute. Die große Frage ist "Wirds du auch diese automatisieren durchführen war es nicht für Suchmaschinen??".

IMO immer besser ist per Hand. Hohe Rankings kommen von die Detail die bei automatisieren nie möglich werden. Was du macht ist an die grnze Spam und es braucht nur eine versteckte irgendwas oder javascript umleitung und du fliegt raus.

Sonnst für viele seiten wie bei eine produkt katalog ist das ja eine sehr gute methode. Ich wird aber immer noch die top Seiten manuell nachberarbeiten. Ich hab persönlich keinelei probleme eine automatisierte Seiten in die Rankings zu verbessern. Weil ich auf die kleine details beachten. Selten sind automatisierte Seiten, mit keywords die viele konkurrenz haben, oben zu finden.

Aber für niche worten und große produkt kataloggen ist es doch ideal.

Falls die aber nur doorwaypages erstellen ohne ichtige content kan ich dir garantieren das mit erfolg fliegst du raus (wird gepetzt) ohne erfolg.. naja, dann ohne erfolg und muss richtig per Hand gemacht :-)

Verfasst: 17.05.2003, 11:06
von Noki
Hi Webby!

Das das ganze hart an der Grenze ist, ist mir durchaus bewußt. Das interessante dabei ist jedoch, das die generierten Keywords genau auf den Text und die Informationen passen. Ich glaube wenn die Seiten genug qualitativ hochwertigen Content haben und die automatisch generierten Keywords in Ihrer Anzahl auf sagen wir mal 5 Stück begrenzt sind, sollte das eigentlich keine Probleme geben.

Ehrlich gesagt kann ich mir auch nicht vorstellen, das Google eine optimierte Seite aus dem Index nimmt wenn diese qualitativ hochwertige Informationen anbietet und von der Konkurrenz verpetzt wird. Zumindest wird dies nicht ohne eine Prüfung geschehen. Außerdem denke ich das ich mit ca. 800 Datensätzen noch ein kleiner Fisch bin.

> Tobias

Verfasst: 17.05.2003, 11:29
von Webby
So lange als die content wirklich qualitativ hochwertige Informationen anbietet hast du mit sicherheit kein Problem :-)
Aber vermeiden auf jeden fall umleitungen.
800 ist wenig für spam seiten aber viel für qualität Seiten. An die grenze ist ok aber die grenze kann sich schnell ändern. Bleib mal ins forum und sei die erste zu wissen über Google algo änderungen :D