Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Bla bla vers. gute Definition

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
nanoware
PostRank 2
PostRank 2
Beiträge: 34
Registriert: 03.01.2010, 13:51

Beitrag von nanoware » 03.01.2010, 14:00

Hallo zusammen,

zugegeben, der Titel ist unglaublich aussagekräftig.
Ich habe nun fast 3h die wundersamsten Artikel hier im Forum gelesen und mich teilweise über Fachsimpelei kompletter Banalitäten amüsiert, teilweise auch das enorme Fachwissen einzelner User beneidet.

Vielleicht kann man in einem Threat keine allgemeinen Fragen stellen, allerdings geht es mir hier um eine Art "größten gemeinsamen Nenner" also eine Art Schlachtplan für die Suchmaschinenoptimierung zu definieren.

Ob eine Seite nun einen hohen Pagerank hat oder nicht, juckt mich nicht (ich will keine Links verkaufen). Mich (und meine Kunden) interessiert nur, wie Sie mit den gewünschten Begriffen in die Top 10 kommen und dort bleiben.

Ich habe jetzt selbst viel probiert und bin etwas über die "Willkür" frustriert.
Ich habe Seiten NUR mit ONpage Optimierung bei mittelstarken Trefferquoten (bis ca 350.000 Treffern) in die Top 10 gebracht und scheitere bei Begriffen um 200.000 Treffern wenn ich das volle Register ziehe.

Was also sind die "Steps"?

Onpage
Alt, H Tags, interne Links,...
In wie weit jetzt die Keyworddichte und Co verfeinert werden muss, bleibt wahrscheinlich eine Philosophie.

Offpage
schnell: Katalogeintragesoftware, SocialBookmark Einträge, Presseartikel
schwerer: "bring Leute dazu, auf Dich zu verlinken".

Ich würde hier gerne als Antworten Eure Erfahrungen sammeln.
Bitte nutzt die Titel-Eingabe, um Euren Thread der Erfahrung zu beschreiben (Beispiel: Onpage -> Eintragesoftware, oder Offpage -> Keyworddichte)...

Macht das Sinn? Ist so ein Thread erwünscht?

Ich freue mich auf hoffentlich viele Antworten. Bitte achtet darauf, daß es nicht zu speziell wird (nicht "ich habe eine Seite mit 150 Unterseiten und jeweils 2 PR2 und 5 PR3 Links von der ersten auf die dritte Ebene und wollte nun in einem amerikanischen Verzeichnis Werbung für Hundefutter machen...).

LG

Marcus

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

nanoware
PostRank 2
PostRank 2
Beiträge: 34
Registriert: 03.01.2010, 13:51

Beitrag von nanoware » 03.01.2010, 14:06

OFF PAGE automatische Einträgesoftware

Und hier dann auch der erste Beitrag:

Verteufelt oder nicht, das lässt sich sicher gut diskutieren.
Für uns gehören die Programme ins Gesamtpaket unserer Arbeit und führen meistens zu einem gewissen Erfolg. Welchen Anteil sie nun genau haben, lässt sich im Nachhinein immer nur schwer sagen.

Ich nutze folgende Programme:

seit kurzem ohne Erfahrungswert:Fast Directory Submitter.[/b]
Das ist eher eine Testphase. Soweit ich das sehe, sind hier nur amerikanische Verzeichnisse enthalten. Die Software erspart einem eine Menge Tipparbeit und kombiniert munter die verschiedenen Texbausteine.
Nervig ist, daß man fast bei allen 3000 Verzeichnissen einen Code eingeben muss.

Social Bookmark Submitter (von rankware.de)
Hier wird vorallem eine automatische Accoutnanlegerei geboten (sehr praktisch). Dazu ist der Eintrag recht problemlos. Ca 90 Social Bookmark Dienste sind enthalten.

ProfiSubmit (auch von rankware.de)
Die vollautoamtische Anmeldung klappt sehr gut (ca 50 Kataloge aus Deutschland), die Teilautomatik ist teilweise lästig, geht aber auch ganz ordentlich wenn man einen HiWi dran setzt um nicht wahnsinig zu werden[/b]

tkay
PostRank 6
PostRank 6
Beiträge: 340
Registriert: 04.09.2008, 11:32

Beitrag von tkay » 03.01.2010, 14:19

Hallo nanoware, willkommen im Forum ;)

Grundsätzlich: Der Wettbewerb entscheidet sich nicht allein dadurch wie viele Ergebnisse angezeigt werden, sondern darum wie umkäpft ein Bereich ist, was sich wiederum im Suchvolumen wiederspiegelt.

Um mal dein Beispiel aufzugreifen: Wenn das Key auf das du optimierthast (das mit den ca. 350.000 Treffern) z.B. "WürstchenbudeinderKurveeinerEinbahnstraße" ist, dann wirst du mit OnPage allein sehr viel reissen können. Wenn das zweite Key (mit den ca. 200.000 Treffern) aber vom Kaliber "Kredit ohne Schufa" wäre, dann wirst du mit OnPage alleine nix reissen können.

Konsequenz: Wie schwer/einfach es ist auf ein key zu optimieren und ob OnPage und paar SB und WK Einträge reichen oder nicht, hängt davon ab wie viele andere noch auf das gleiche Key optimieren ;)

OnPage

Eig. alle Grundlagen die du auch schon z.T. aufgezählt hast, wobei ich der internen Verlinkung einen besonderen Schwepunkt geben würde. Was vielleicht noch erwähnenswert wäre, ist das man heute komplett auf irgendwelche nofollow Anweisungen bei internen Links verzichten sollte - ist nicht mehr uptodate und bringt schlicht weg nix. Auch sollte das Thema Sitemap bzw. Sitemaps bei größeren Seite nicht vergessen werden.

OffPage

Ich pers. halte rein gar ncihts vom automatischen Submitten, aber auch darüber können sich die Meinungen spalten. Was wichtig ist, ist halt eine gesunde Mischung aus natürlich generierten Links (Top Content vorausgesetzt), SB, WK, LT etc.

Was hier wichtig zu beachten wäre, ist eine Linktextdiversifizierung - Wenn 95% deiner eingehenden Links dein Key als Linktext haben, darfst du mit einer Abstrafung rechenen, da musst du das Verhältnis waren. Dafür gibt es aber leider keine Formel, da es abhängig davon ist wie groß deine Seite ist, wie alt, wie viele Links sie allgemein schon hat etc. - aber da bekommt man mit der Zeit ein Gefühl für ;)

Just my 2 cents... ;)
Zuletzt geändert von tkay am 03.01.2010, 14:26, insgesamt 1-mal geändert.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

nanoware
PostRank 2
PostRank 2
Beiträge: 34
Registriert: 03.01.2010, 13:51

Beitrag von nanoware » 03.01.2010, 14:24

tkay hat geschrieben:Hallo nanoware, willkommen im Forum ;)
Danke :D
tkay hat geschrieben: Was hier wichtig zu beachten wäre, ist eine Linktextdiversifizierung - Wenn 95% deiner eingehenden Links dein Key als Linktext haben, darfst du mit einer Abstrafung rechenen, da musst du das Verhältnis waren. Dafür gibt es aber leider keine Formel, da es abhängig davon ist wie groß deine Seite ist, wie alt, wie viele Links sie allgemein schon hat etc. - aber da bekommt man mit der Zeit ein Gefühl für ;)
Danke, das ist ein wichtiges Stichwort. Wir haben jetzt grob geschätzt 700 Webseiten in den letzten Jahren programmiert und ca 10% davon entscheiden sich für eine Suchmaschinenoptimierung.
Ich habe bis heute noch keine Idee, was eine "Abstrafung" oder eine "Google Black List" oder sonst etwas in der Art sein könnte. Das hört man zwar immer und überall als das "schlimme Damoklesschwert", aber ich habs noch nie erlebt (Gott sei Dank?).
Ich habe die Programme früher auch nur belächelt. "Automatisch", das kann ja nicht gehen wenn ich genialer Kopf dafür früher gebraucht wurde.
Die Frage ist, ob es belegbare Informationen, keine "Gefühle, oder Hörensagen" zu dem Thema gibt?

xAaron
PostRank 5
PostRank 5
Beiträge: 329
Registriert: 23.08.2009, 18:10

Beitrag von xAaron » 03.01.2010, 14:31

nanoware hat geschrieben: Ich habe jetzt selbst viel probiert und bin etwas über die "Willkür" frustriert.
google ist nicht willkürlich! google arbeitet wohl rein deterministisch, nur weil du ein Ergebnis nicht nachvollziehen kannst muss es nicht willkürlich sein. google generiert seine Ergebnisse aus 100erten von Parametern automatisch und alle Parameter sind miteinander verwoben, sodass man von außen nicht 1zu1 ableiten kann, was jetzt genau zu dem Ergebnis führt.
Z.B. kannst du dir den größten Scheiß erlauben, wenn du starke backlinks hast und fast nichts, wenn du keine hast.
nanoware hat geschrieben:Ich habe Seiten NUR mit ONpage Optimierung bei mittelstarken Trefferquoten (bis ca 350.000 Treffern) in die Top 10 gebracht und scheitere bei Begriffen um 200.000 Treffern wenn ich das volle Register ziehe.
Wie schon gesagt, nicht die Masse der Seiten, sondern die Häufigkeit der Suchabfrage ist das relevante Kriterium. Bei deinen offpage-Maßnahmen, die du aufgezählt hast wundert es mich allerdings wirklich nicht, dass google dich auch mal in einen Filter setzt.
Sehr geehrter Herr SEO Guru, ich habe eine frage zu Ihren Backlink Tipps. Es ist nämlich nicht so einfach ein Raumschiff zu bauen um einen Backlink von der NASA zu bekommen... bitte antworten Sie auf meine Mails. Zitat von winman.de

tkay
PostRank 6
PostRank 6
Beiträge: 340
Registriert: 04.09.2008, 11:32

Beitrag von tkay » 03.01.2010, 14:35

Zu den Abstrafungen - na da kannst du dich dann richtig freuen wenn dir das noch nicht passiert ist ;)

Für einen ersten Überblick mal folgende Aufzählung zu den Penaltys:

1. -6 Ranking Penalty:
Neue Abstrafungsform. Etablierte Seiten rutschen von TOP3 auf Pos.6 wenn "überomtimiert wurde".

Ist eine relativ neue Beobachtung und ob es eine Penalty ist oder nicht muss noch genauer analysiert werden, aber das Phänomen gibt es.

2. -30 Suppression Penalty (betrifft ganze Domain): Seite verliert 30 Positonen.
Kommt bei:
- Keywordstuffing, wenig Content
- Gästebuchspam
- JavaScript Redirects
- Doorway Pages
- zu viele identische Linktexte

3. -50 Paid Links Penalty: Seite verliert 50 Positionen.
Betrifft Seiten die sich Links gekauft haben.
Betrifft Seiten die Links verkaufen.

4. - PageRank Penalty (Lightversion der -50 Penalty):
Pagerank wird herabgesetzt
betrifft i.d.R. PR starke Seiten, die Links verkaufen.
Rankings werden nicht beeinflusst
wenn verkaufte Links auf nofollow gesetezt / entfernt werden,
lässt dich der ursprügliche PR wiederherstellen.

5. -950 Penalty (sehr aggressivers Crawler verhalten in der Zeit)
sätrkste Penalty Form.
Seite wird auf letzte Ergebnisseite verbannt.
Es werden wohl nur einzelne Seiten, nicht die ganze Domain
zurückgesetzt.
Gründe (vorbehaltlich) exzessives Linkbuilding, übermässige
OnPage-Optimierung, übertriebene Affliate-Links
ist nicht exakt -950 - aber Domain befindet sich in den letzten
Ergebnissen.
Ganze Domain oder Unterverzeichnis sind betroffen.
"Over Optimization Penalty" - Matt Cutts.

Wie gesagt, es soll nur ein ganz grober Überblick sein, im Einzelnen kann man das noch sehr verfeinern ;)

Zu den Autosubmittern: Da wirst du immer nur pers. Erfahrung hören können, da jede Seite und jedes Key anders ist und gewisse Erkenntnisse nicht zwangsläufig auf andere Übertragbar sind. Ich hab sowas vor paar Jahren mal probiert und gebracht hats nix (kann viele Ursachen haben) einige machen es noch heute und es bringt was (kann auch viele Ursache haben) - darum gehen die Meinungen bei dem Thema auch auseinander ;)

Im Zweifelsfall probiere es selber und hast dann eine Erkenntnis für dich :)

nanoware
PostRank 2
PostRank 2
Beiträge: 34
Registriert: 03.01.2010, 13:51

Beitrag von nanoware » 03.01.2010, 14:37

xAaron hat geschrieben:google ist nicht willkürlich! google arbeitet wohl rein deterministisch, nur weil du ein Ergebnis nicht nachvollziehen kannst muss es nicht willkürlich sein.
:D das stimmt. Dann bin ich darüber frustriert daß ich die Parameter nicht kenne (so wie wahrscheinlich jeder der damit arbeitet). Allerdings sheint es mir fast unmöglich eine saubere Arbeit abzuliefern, wenn "alles immer anderes" ist. Bei 1000en Prametern ohne Schwerpunktangabe ist die Trefferquote doch ein Lottospieö
xAaron hat geschrieben: Wie schon gesagt, nicht die Masse der Seiten, sondern die Häufigkeit der Suchabfrage ist das relevante Kriterium. Bei deinen offpage-Maßnahmen, die du aufgezählt hast wundert es mich allerdings wirklich nicht, dass google dich auch mal in einen Filter setzt.
... das google mich auf einen Filter setzt? Was heißt das bzw. wo hab ich davon geschrieben?

LG

M

nanoware
PostRank 2
PostRank 2
Beiträge: 34
Registriert: 03.01.2010, 13:51

Beitrag von nanoware » 03.01.2010, 14:59

tkay hat geschrieben: Für einen ersten Überblick mal folgende Aufzählung zu den Penaltys:
Danke für die ausführliche Antwort.
Wie sehe ich das aber z.B. bei einer Seite, welche noch nie "oben" war, aber trotz aller Bemühungen auch nicht hoch kommt?

Gibt es eine "Prüfung" für sowas, welche man sich anschauen kann?

tkay
PostRank 6
PostRank 6
Beiträge: 340
Registriert: 04.09.2008, 11:32

Beitrag von tkay » 03.01.2010, 15:10

Wie sehe ich das aber z.B. bei einer Seite, welche noch nie "oben" war, aber trotz aller Bemühungen auch nicht hoch kommt?

Gibt es eine "Prüfung" für sowas, welche man sich anschauen kann?
Jaein - du kannst dir z.B: mit Hilfe der SISTRIX Tools die History (Sichtbarkeit etc.) der Domain angucken und schauen ob du daraus z.B. Rücklüsse auf die aktuelle Situation ziehen kannst. Ein Tools was dir den genauen Grund liefert, gibt es nicht, da wird tatsächlich das Köpfchen bemüht werden müssen ;)

Grundsätzlich stellt sich die Frage für WAS die Seite nach oben kommen soll, wie sie optimiert ist, ob der Content eine Position "oben " rechtfertigt, ob eine Penalty vorliegt, ob es eine ganz neue Domain ist etc. - also da fliessen eine ganze Menge Faktoren rein und auch hier gibt es leider keine Faustformel.

Wenn du die OffPage Optimierung aber bisher tatsächlich fast nur ausschließlich über irgendwelche Software gemacht hast, ist es vermutlich genau so wie skyline es geschrieben hat - die Dinger laufen nach einem Muster ab was für Google relativ schnell erkennbar ist und ersetzen einen durchdachten Linkaufbau einfach nicht - sind im Zweifelsfall nur eine Ergänzung.

800XE
PostRank 10
PostRank 10
Beiträge: 5223
Registriert: 02.12.2004, 03:03

Beitrag von 800XE » 03.01.2010, 16:05

nanoware hat geschrieben:Ich habe jetzt selbst viel probiert und bin etwas über die "Willkür" frustriert.
Ich habe Seiten NUR mit ONpage Optimierung bei mittelstarken Trefferquoten (bis ca 350.000 Treffern) in die Top 10 gebracht und scheitere bei Begriffen um 200.000 Treffern wenn ich das volle Register ziehe.
Willkür ....
.... wenn ich gegen 200 ankomme, muß ich doch auch gegen 2 ankommen können


Sehen wir den "Bereich" zwischen Seite 2 und Seite 1 mal als Schlachtfeld

Der Deutsche kommt mit 10(von)20 Fußgängern mit Maschinengewären und tritt gegen 200 Polen auf Pferd mit Schwert an ...
.... die Polen erliegen und Deutschland ist auf Seite 1

Der Deutsche wendet sich gegen England ... mit vollem Programm, allen 20 von 20 Fußgängern mit Maschinengewähr ....
... der Engländer stellt nur zwei Gegenkämpfer .... 2 Panzer

Wem gehört Seite 1

Japs
Nutzer/in
Nutzer/in
Beiträge: 1685
Registriert: 18.10.2004, 10:50

Beitrag von Japs » 03.01.2010, 16:16

zugegeben, der Titel ist unglaublich aussagekräftig.
Genau für sowas wurde ich hier schon mehrfach verwarnt & mein Thread geschlossen oder gleich gelöscht :) Kommischwerweise ist hier noch kein Mod aufgetaucht :)

Gruß Dirk

catcat
PostRank 10
PostRank 10
Beiträge: 10292
Registriert: 02.08.2006, 13:21
Wohnort: Litauen

Beitrag von catcat » 03.01.2010, 17:25

Onpage

Mit das Wichtigste an onpage-"optimierung" ist wohl relevanter Content, Content und noch mehr Content. Sogar eine absolut nicht-optimierte Seite kann ganz weit nach oben kommen, wenn nur guter Content da ist.

nanoware
PostRank 2
PostRank 2
Beiträge: 34
Registriert: 03.01.2010, 13:51

Beitrag von nanoware » 03.01.2010, 20:27

ja schaut, und genau das ist das Problem.

Wir reden nicht von "ein bißchen mehr hier oder da".
Die Meinungen UND die Resultate gehen derart weit auseinander, daß wir entweder alle Wichtigredner ohne wirkliche Ahnung sind, die komplett im Dunkeln tappen und die einzigen die sich einen weg kichern sind die Google Leute, oder wir sind eine Fachmannschaft ohne klares Fachwissen.

Das ist es, was mir an der Suchmaschinenoptimierung so auf den Geist geht. Es kochen alle mit Wasser aber ein Rezept für eine gute Suppe gibt es offenbar nicht.

Das kann nur 2 Schlüsse zulassen:

a) es bleibt ein amüsantes Glücksspiel mit eher geringen, wirksamen Manipulationsversuchen

b) die Sachverhalte sind von Keyword zu keyword so unterschiedlich, daß eine Gemeinschaft NIE einen Konsens finden kann (womit dieses Forum und überwiegend jeder Post komplett sinnlos ist).

Das Content wichtig ist, daß es OnPageOptimierung gibt und daß Backlinks helfen, ist mal eine Basis.

Wie das aber im Detail aussieht, wie man auf einer Seite, die einfach wenig Content hat "sinnvollen Content" bekommt, oder welcher Backlink nun das große Böse verkörpert und welcher die heilige Kuh ist, das kann offenbar nicht beantwortet werden.

nanoware
PostRank 2
PostRank 2
Beiträge: 34
Registriert: 03.01.2010, 13:51

Beitrag von nanoware » 03.01.2010, 20:28

Japs hat geschrieben:
zugegeben, der Titel ist unglaublich aussagekräftig.
Genau für sowas wurde ich hier schon mehrfach verwarnt & mein Thread geschlossen oder gleich gelöscht :) Kommischwerweise ist hier noch kein Mod aufgetaucht :)

Gruß Dirk
Ja, danke. sehr hilfreich.
Ich finde es schon nicht verkehrt einmal einen Schritt zurück zu treten und sich das "große Ganze" der Suchmaschinenoptimierung mal zu betrachten.
Speziell, wenn jetzt wirklich User-Spezifische-Suchergebnisse über Cookies eingeführt werden. Dann sind wir bald komplett bei der Lotterie.

tkay
PostRank 6
PostRank 6
Beiträge: 340
Registriert: 04.09.2008, 11:32

Beitrag von tkay » 03.01.2010, 20:37

Das ist es, was mir an der Suchmaschinenoptimierung so auf den Geist geht. Es kochen alle mit Wasser aber ein Rezept für eine gute Suppe gibt es offenbar nicht.

Das kann nur 2 Schlüsse zulassen:

a) es bleibt ein amüsantes Glücksspiel mit eher geringen, wirksamen Manipulationsversuchen

b) die Sachverhalte sind von Keyword zu keyword so unterschiedlich, daß eine Gemeinschaft NIE einen Konsens finden kann (womit dieses Forum und überwiegend jeder Post komplett sinnlos ist).

Das Content wichtig ist, daß es OnPageOptimierung gibt und daß Backlinks helfen, ist mal eine Basis.

Wie das aber im Detail aussieht, wie man auf einer Seite, die einfach wenig Content hat "sinnvollen Content" bekommt, oder welcher Backlink nun das große Böse verkörpert und welcher die heilige Kuh ist, das kann offenbar nicht beantwortet werden.


Zu a) - das es wenig wirksam ist, kannst du so nicht sagen, ansonsten wären hier viele arbeitslos und alle Agenturen könnten dicht machen, was nicht der Fall ist.

Zu b) Im Kern gar nicht so verkehrt, mit einem kleinen "Gedankenfehler" - es geht gar nicht darum einen Konsens zu etwas zu finden. Es geht darum sich auszutauschen. Die meisten machen mit Ihren Seiten/Projekten sehr ähnliche Erfahrungen. Aber es gibt auf oft genug Probleme/Erfahrungen die nur bei einigen auftreten - darüber tauscht man sich aus und adaptiert eventuelle Lösungsversuche für eigene Projekte und bastelt sich daraus seinen individuellen Konsens, wenn du so möchtest.

Grundsätzlich bzw. "Im großen Ganzen" wird dir hier aber jeder Zustimmen: Jop, Seo ist nix was du point by point runterdefinieren, deine Formel klar bauen und dann loslegen kannst. Es spielen so viele Faktoren eine Rolle beim Ranking und da wir nicht alle kennen, gibt es auch keien Formel sondern es ist oft try and error, daraus erfahrungen ziehen, anwenden, sich stätig fortbilden etc. Das mag (verständlich) für viele frustrierend sein, aber dann ist es einfach nicht das richtig Business für diejenigen die so empfinden.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag