Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

SEO bis an die Grenze [Newsletter Artikel]

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
Webby
Administrator
Administrator
Beiträge: 5420
Registriert: 17.10.2001, 01:00

Beitrag von Webby » 12.05.2004, 16:04

ABAKUS newsletter ist schon raus. Ich dacht enicht alle hier sind abonniert (schämen Sie sich :-) ) und deshalb poste ich diese artikel hier für diskussion.

______________________

SEO bis zum grenze

Die meisten professionellen Suchmaschinenoptimierer wissen, dass man mit mit dem Brechen der Google Richtlinien sehr gute Platzierungen in den Suchresultaten erzielen kann. Dabei sind natürlich das Testen und das Verwenden von "Wegwerf-Domains" ein fixer Bestandteil dieses Prozesses. Dies ist erforderlich, da ein professionneller Suchmaschinenoptimierer nur so in Erfahrung bringen kann, wie weit man gehen kann ohne gleich aus dem Index geschmissen zu werden, und dadurch das Optimum für seine Kunden erzielen kann. Es gibt im Englischen die Ausdrücke "black hat seo" und "white hat seo", was man frei übersetzt als SEO mit schwarzem Hut und SEO mit weißem Hut bezeichnen kann. Der "black hat seo" wird des sogenannten Spammings und des kontinuierlichen Übertretens der Richtlinen bezichtigt, während der "white hat seo" sich im Großen und Ganzen and die von den Suchmaschinen aufgestellten Richtlinien hält. Ich persönlich habe diese Schwarz-Weiss-Malerei nicht so gerne, da es viel zu viele Ungewissheiten gibt und die Richtlinien der Suchmaschinen relativ "schwammig" formuliert sind.

Es gibt viele legitime SEO Methoden, die grundsätzlich gegen die Google Richtlinien verstoßen.
https://www.google.com/webmasters/guidelines.html
Deshalb werden sie wahrscheinlich auch Richtlinien und nicht Bedingungen um in den Index aufgenommen zu werden, genannt.

Es gibt auch viele sogenannte "Grauzonen" der Optimierung. Diese Techniken werden dann von viele Webmaster, nach Studium der Google Richtlinien, automatisch als Optimierungstechnik ausgeschlossen. Dies geschieht aus Angst vor einer Abstrafung von Google. Selbstredend muss ich anfügen, dass sehr häufig die Richtlinien in der reinen Absicht gebrochen werden um die Suchresultate mit tausenden Doorway Seiten, Umleitungen oder versteckten Texten und ähnlichem zu manipulieren.

Es gibt jedoch Formen des Cloakings (man serviert den Googlebot einen anderen und zwar hoch optimierten Inhalt als der "normalen" Besucher), die Google gerne zulassen würde, wenn es nicht so anfällig für Spam wäre. Weitere Methoden beinhalten die Veränderung von HTML-Tags mit CSS, Javascript Umleitungen, URL-Rewriting, Erstellen von nahezu indentischen Seiten mit CSS Layers usw. Ich habe die meisten der oben genannten Methoden an meinen eigenen Seiten ausprobiert und fürchte nicht abgestraft zu werden. Warum fragt Ihr euch? Ganz einfach, ich serviere dem Googlebot genau das Gleiche, wie dem menschlichen Besucher, ich versuche auch nicht den Googlbot mit versteckten Texten oder Umleitungen zu täuschen. Außerdem gibt es noch genügend technische Gründe, warum ich dies mache (Design), und letztendlich helfe und erleichtere ich dadurch, Google dass Seiten meiner Kunden gefunden und indexiert werden.

Was für den einen Optimierer eine fortgeschrittene Technik ist, ist für einen anderen schon Spam. Es wird vermutlich wohl nie einen gemeinsamen Nenner geben, was denn so alles unter akzeptablen Optimierungstechniken verstanden wird. Man muss sich jedoch nur ganz ehrlich selber fragen, "Will ich Google täuschen? Falls ein Konkurrent meine Seiten bei Google wegen angeblichen Spamming meldet, würde ich dann noch ruhig schlafen können, oder Angst haben das meine Seiten abgestraft werden? Entscheidend ist immer die Absicht! Hilfst du den Suchmaschin, oder manipulierst du sie?

Untenstehend zeige ich euch einige Optimierungsbeispiele vor denen viele Webmaster zurückschrecken, die aber zumindest meiner Erfahrung nach absolut akzeptabel sind.

1. Das Entfernen von Session ID's bei Online Shops/Foren (wie in meinem Fall) und bei anderen dynamisch erstellten Webseiten. Dies könnte von Google grundsätzlich als eine Form des Cloaking bezeichnet werden, da es oft mit einem Referrer Check (User_Agent/IP) einher geht. Wenn der Googlebot kommt lasst man die Session ID weg. Wenn ein Mensch mit einem Browser kommt, generiert man die Session ID. Session ID`s sind jedoch ein sicherer Weg um sich aus den Serps zu verabschieden. Bei vielen großen Firmen hat man es noch immer nicht verstanden, welchen Schaden Session ID`s dem Ranking antun können. Die übliche Antwort ist dann "Wir brauchen die genauen "Click Wege" unsere Webseitenbesucher“. Was diese Firmen vergessen ist, das sie mit „Session ID's“ nicht besonders viele "Click-Verhaltensmuster" haben werden, und schon gar nicht über Suchmaschinen. Ein klein wenig programmieren könnte bereits den Großteil der Probleme von Online-Shops lösen, und den Bots die Möglichkeit bieten den Shop tief zu crawlen und dementsprechend dann auch besser gerankt zu werden. Google hat offiziell bekannt gegeben, dass das Entfernen von "Session ID's eine akzeptable Optimierungstechnik darstellt.

2. URL-Rewriting mittels PHP/ASP-Programmierung kann auch für das Enfernen von "Session ID's" und/oder Parametern (Multiple Parameters wie "?" "&") verwendet werden. Mit PHP kann man die Session ID's einer URL "verstecken". Dies, könnte man sagen, gibt Google eine URL, welche nicht die "Wahre" ist. Google ist aber froh, wenn es dadurch die Möglichkeit erhält "Qualitäts-Seiten" zu spidern und dadurch in den Index zu bekommen.

3. Das Neu Definieren von "Header Tags" (H1 etc.) mittels CSS.
Die h1-h3-Tags sind für gewöhnlich entweder viel zu groß oder passen einfach nicht in das bestehende Design. Es ist durchaus akzeptable die Größe oder das Aussehen dieser Header-Tags mittels CSS zu verändern. Es ist ja allgemein bekannt, das die "Header Tags (h1-h3)" einen gewissen Einfluss auf das Ranking von Suchmaschinen haben. Dieser Einfluss ist zwar nicht mehr so ein großer wie noch vor ein paar Monaten, aber immer noch gut genug, um sie bei der On-Site-Optimierung zu verwenden. Der "h1 Tag" ist im normalen Zustand ein wahrlich nicht schön anzuschaueder Anblick. Mit der Hilfe von CSS kann man diesen Header Tag dem eigenen Seiten-Design anpassen, und zwar sowohl in der Größe, als auch im Aussehen. Den Header-Tag kann man damit sogar unsichtbar machen. Dass dies jedoch keine gute Idee ist, brauche ich wohl nicht weiter zu erwähnen. Als Grundregel gilt; Verwende den Header Tag wo du ihn ansonsten auch verwenden würdest. Ein Beispiel für einen neubestimmten h1-Tag könnte so aussehen...

H1 {
FONT-WEIGHT: FONT-SIZE: medium; COLOR: #990000; FONT-FAMILY: Verdana, Arial, Helvetica, sans-serif
}

4. Es gibt sogar legitime Gründe für JavaScript Umleitung. Ein Beispiel dafür wäre das Aufrufen eines Framesets für die Frame-Seite, die als Landing Page bei einem Click von der Suchmaschinenresultatseite dient. Ohne diesen Frameset hat die Seite keine Navigation und wird nicht so vom Besucher gesehen, wie es sein sollte. Eine einfache JavaScript Umleitung kann dieses Problem einer Frameseite ohne Frameset lösen. Hier ein einfaches Beispiel eines Umleitungs-Sripts welches dieses Problem lösen kann.

<SCRIPT language=Javascript>
<!--
if(top.frames.length <= 0)
top.location = "https://www.your-frameset-page.com";
//-->
</SCRIPT>


Der oben gezeigt Code auf allen Frameseiten löst das Problem, das Seiten ohne den Frameset laden. Dieser Code ist eine schlichte aber schnelle Lösung. Natürlich wäre es besser Frames überhaupt wegzulassen, aber das ist diesmal nicht Ziel meines heutigen Artikels. Es gibt jedoch noch weitere und tiefergehende Lösungsansätze für diese Problemstellung. Mehr dazu gibt es bei Netmechanic.com die sehr gute Info zu diesen Thema haben https://www.netmechanic.com/news/vol5/j ... pt_no7.htm (englisch).

5. Manchmal aus technischen Gründen, meistens jedoch wegen dem fehlenden Programmier Know-How, greifen Webmaster auf Mehrzahl von Doorways und Umleitungen zurück, um dynamisch erstellte Seiten für Spider sichtbar zu machen. Diese Technik hat schon so manchen aus dem Google Index fliegen lassen. Dies ist in der Tat ein ziemlich sicherer Weg um über kurz oder lang aus dem Index rauszufliegen. Ich warne euch eindringlich; Widersteht dieser Versuchung.

Die Frage die sich nun stellt ist, wie man auf "legale" Weise die dynamischen Seiten in "statische" und von Spidern erreichbare Inhalt verwandelt. Wie wäre es zum Beispiel mit einer Version fürs ausdrucken? Sogar einige dynamisch erstellte Forenprogramme, wie zum Beipiel vBulletin, macht dies automatisch durch das archivieren von Beiträge. Es gibt auch spezielle Software die dynamische in statische Seiten umwandelt, dies ist jedoch häufig eine teure Lösung. Ein einfacherer Weg ist die wichtigsten Seiten mittels "speichern unter" abzusichern, dabei darf man jedoch nicht vergessen die Farben und Bilder zu entfernen und auch, das man einen
druckerfreundlichen Font verwendet. Damit sollte es dann keinerlei Probleme mit "doppeltem Inhalt" geben, da die dynamischen Seiten ja sowieso nicht im Index sind. Diese Methode ist natürlich offen für Missbrauch und man sollte niemals einen automatischen Umleitung dabei verwenden. Dies sollte auch nur verwendet werden wenn man sicher ist das die dynamischen Seiten nicht gespidert werden können. Ich brauche wohl nicht extra zu erwähnen, dass die statischen Seiten selbstverständlich den gleichen Inhalt, wie die dynamischen Seiten haben müssen.

6. Das Apache Mod_Rewrite Modul, oder der ISAPI Filter für Windows Server, kann die Anzahl der Parameter bei dynamischen URL's (da Google ab 3 Parametern und URL's die voll von ["?" und "&"] sind Probleme hat) reduzieren und ist eine in den Augen der Suchmaschinen akzeptable Lösung. Ich erwähne dies extra, da viele denken, dass das "flattening“ (flach machen) von URL's durch Serverseitig Technologie eine Form des Spam ist. Ich verwende bei meinem eigenen Forum diese Technik und sie funktioniert einwandfrei, da der Besucher dieselbe URL sieht wie der Suchmaschinen Spider und ist daher auch keine Form des Cloakings. Ich helfe damit nur Google meine Seiten zu indexieren.

7. Text Links im Footer Bereich (am Ende des sichtbaren Bereichs der Seite) ist eine Alternative zur traditionellen Navigation und hilft nicht nur den Spidern sich auf meiner Seite zurecht zu finden, sondern ist auch eine exzellente Art der alternativen Navigation, wie z.B für Seiten die Imagemaps, java oder javascript verwenden. Dies sind alles Links, die ansonsten nicht von den Spidern verfolgt werden könnten. Es ist daher eine gute Sache diese "extra" Navigation am Footer-Ende hinzuzufügen. Man braucht sich daher nicht des Spammings bezichtigen, nur weil man Footerlinks verwendet.

Diese sieben vorgestellten Techniken sind legitime Optimierungsmöglichkeiten die nicht nur ausgezeichnet funktionieren, sondern auch frei vom Vorwurf des Spammings sind, wenn korrekt angewendet! Sie sollten mit Maß und Ziel verwendet werden, und immer bedenken: Niemals versteckte Texter verwenden und niemals die Suchmaschinen arglistig und ohne vernünftigen Grund durch Umleitungen zu täuschen. Dass man die oben genannten Techniken auch zum spammen der Suchmaschinen missbrauchen kann, sollte euch wohl klar sein. Bitte glaubt mir jedoch, es ist das Risiko nicht wert.

Beschwert euch jedoch nicht bei mir, falls Ihr auf Grund von übertriebener oder falscher Verwendung der oben genannten Techniken aus dem Index fliegt! Man läuft meistens schon Gefahr gebannt zu werden, wenn man sich nicht sicher ist, ob man schon zu weit gegangen ist oder nicht. Man sollte zwar immer schön auf der sicheren Seite bleiben, aber auch nicht zu ängstlich sein, die oben genannten Tipps mit Maß und Ziel zu verwenden. Der gesunde Menschenverstand ist normalerweise der beste Gradmesser, um zu beurteilen, ob man mit einer Maßnahme den Suchmaschinen noch hilft oder sie bereits missbraucht.

(Danke an Viggen für die übersetzung)
__________________

Alan
ABAKUS Internet Marketing
Professionelle Suchmaschinenoptimierung und Suchmaschinenmarketing

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag