Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Halbwissen und SEO Märchen

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Fridaynite
PostRank 10
PostRank 10
Beiträge: 2983
Registriert: 07.01.2004, 09:10

Beitrag von Fridaynite » 01.02.2006, 18:54

Ausserdem vermisse ich hier:

Ein SEO hat galloppierende Paranoja. Fühlt sich überall und immer verfolgt. Schaut sich ständig über die Schulter und kontrolliert die Serps alle 2 Minuten auf allen DCs dieser Welt.

Es sei denn, ich habs überlesen :)

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Henk
PostRank 8
PostRank 8
Beiträge: 796
Registriert: 11.03.2005, 18:01

Beitrag von Henk » 01.02.2006, 18:54

"Kein Algorithmus ist so komplex wie die menschliche Vorstellungskraft" icon_idea.gif
Ich glaube, das ist noch nicht mal das Problem. Nicht eine komplexere Vorstellungskraft sondern eine falsche Vorstellung vom Algorithmus ist es, die Gerüchten und den angesprochenen "dummen" Fragen Aufwind verschafft. Man hat manchmal den Eindruck dass viele denken, ihre Seite wird regelmäßig durchgecheckt und bekommt ein "o.k.." oder "abgestraft".

Fragen wie "sind mehr als 50 ausgehende Links schädlich" oder "mindert ein externer Link meinen Pagerank" beweisen genau das. Google betrachtet eine Seite nicht mit WENN MEHR ALS 50 Links DANN PR WECH oder ähnlich.

Gleiches Phänomen ist der Fall um 10 Plätze in der Suchmaschine: Sofort werden Links umgebaut, neue besorgt, umstrukturiert. Das diese Platzveränderung in einen komplexen Mechanismus eines Rankingverfahrens (immer unter Einfluss des Rankings der anderen Milliarden Seiten) steht sehen viele nicht. Stattdessen glaubt der Seitenbauer, da muss doch etwas nicht stimmen wenn seine Seite im Index woanders steht. ("Warum wurde ich abgestraft??")

Viele SEO Gerüchte und Fragen entstehen aus einer Vorstellung des Algorithmus in menschlichen Dimensionen. "Strafe", "abwerten" etc. - Letzten Endes rattern nur Zahlen durch Pages PC, eine Unmenge an Daten. Das was rauskommt hat mit Lieschen Müllers kleiner Seite gar nichts zu tun. Aber Lieschen Müller kennt halt nur ihre Seite und die Konkurrenzseiten, die sich auch mit Aquaristik beschäftigen. Wenn eine Seite plötzlich vor ihr gelistet wird, dann gehts ab ins Abakus Forum: "Kann jemand meine Seite analysieren - was mache ich falsch?"

Das schließt nicht Optimierungsmöglichkeiten aus, aber dazu muss man wissen, mit was man es in etwa zu tun hat. (nicht aus was der Alghorithmus besteht...das ist unmöglich - aber seine Intention..)

An dieser Stelle kann ich nur die Grande Dame des Forums zitieren: ;)


AnjaK hat geschrieben:
1. beobachten
2. denken
3. nachdenken
4. testen
5. GOTO 1
;)

viele meinen jedoch 3-4 übergehn zu können, was dann den Unterschied zwischen Tretroller und Ferrari macht ;)

800XE
PostRank 10
PostRank 10
Beiträge: 5223
Registriert: 02.12.2004, 03:03

Beitrag von 800XE » 01.02.2006, 18:58

Antikoerperchen hat geschrieben:dass es einigen Leuten einfach an technischem Verständnis fehlt. Da merkt man einfach, dass die Leute nie selbst programmiert haben (HTML zählt nicht dazu) und mit Informatik nix am Hut haben. Wie du gesagt hast: Es wird angenommen, Google sei eine mysteriöse intelligente Lebensform.
es gibt auch inteligente Software ...
... und auch der Mensch denkt nur nach Programmen .... die können sich selbst ergänzen und verändern ... sind inteligent

Gachet01 hat geschrieben:...mist..nächste seite wieder ausgehende links..ich werd noch verrückt..wie soll ich denn 1. überprüfen ob die folge seite da auch einen link hat und 2. das alles dann immer abspeichern?!
es gibt doch den "link:" Befehl?
also gibts ne Datenbank wer zu wemm linkt bzw wer von wem gelinkt wurde

Spider läuft rum
sieht einen externen link, legt den in die todo liste und vermerkt wo er ihn gefunden hat
wenn er die todo abarbeitet und spidert die site und sieht dort einen link zu der site von wo er diesen link erfahren hat .... dann hat er die "reziproke" info

Anderer Blickwinkel .....
warum sollte man eine Verlinkung von "firma.de" und "firma-shop.de" bestrafen? (wobei Firma die selbe ist)
oder warum sollte diese Verlinkung weniger gewertet werden? dann müßte es ja quasie schlecht sein von allen seiner Seiten auf unterordner zu linken .... linkspam ...
warum soll man alles auf einer DOmain machen ... wieso nicht auf mehrere verteilen?

immer locker bleiben ....