zur these der "falschen" keyword-verlinkung von extern, als ursache für rankingverlust.
können dann nicht konkurrenten, die mich weg haben wollen, einfach ensprechend böse auf meine seite linken?
nüchtern betrachtet kann alles was von extern reinkommt doch maximal unbewertet bleiben, um solche konkurentenlinkkriege zu vermeiden. das würde die suchfeld ja schon mal etwas eingrenzen. und mehr für die moneymaschine- these sprechen.
1. Bitte ein KW mit minimum 5000 Ergebnissen
2. Bitte etwas neutraler sein und wenn schon zur Verfügungstellung, dann EIGENE Domain...man braucht ja nichts zu befürchten, ist nur eine "Theorie"...*lol*
3. Wenn wir es aussuchen, dann per Zufall und nicht per Konkurrenz/IchHabeDichNichtLieb -Wegmach-Prinzip
ich glaube nicht, dass es eine Abstrafung von "falschen" kw-Verlinkungen gibt. Möglicherweise werden gleiche oder ähnliche Verlinkungen (gleicher linktext, link von ähnlicher Seite) erkannt und nicht mehr als mehrere Links gewertet sondern nur noch als 1 Link. Damit wäre auch ausgeschlossen, dass man einen Konkurrenten abschiessen kann - er verbessert sich nicht durch solch einen Link, verschlechtert sich aber auch nicht.
Gerade bei hartem Linktausch werden doch in der Regel immer die gleichen Linktexte gesetzt, da man seinem Tauschpartner den Text meist vorschreibt. Bei "echten" Links nimmt man i.d.R. keinen Einfluss auf den Linktext.
könnte es sein, dass externe links vielleicht bei nachweis eines reziproken linkverhältnises zwischen den domains doch negativ bewertet werden? das wäre dann ja eindeutig auf die aktivität des domaininhabers zurückzuführen und könnte von aussen nicht durch konkurrenz beeinflußt werden.
bin selber immer noch keepcools gegigo*-these anhängig. würde das hier nur als möglichkeit ausschliessen wollen.
hat jemand schon mal nach diesem kriterium abgecheckt ?
hat es viele domains mit eigenen eine hand-wäscht-die-andere linkbereich erwischt ?
viele grüße
sven
*geldgiergoogle
Zuletzt geändert von wilkens am 27.01.2004, 19:20, insgesamt 1-mal geändert.
Nein - kann ich auf einigen reziprok verlinkten Domains nicht beobachten.
Habe aber soeben gemerkt, dass Gooogle anscheinend immer noch neue Ergebnisse einliest:
Habe soeeben 2 Seiten bei einer 2KW Kombi mit den KW im Titel auf Seite 1 und nochmal 2 Seiten auf Seite 2 bekommen bei über 200.000 Ergebnissen.
War vorher nur mit einer vertreten.
ich glaube nicht daran, dass bei den links die domain ein kriterium ist, ob ein link extern oder intern ist - aber ich glaube daran, dass sie die erkennung von clusterung ausgebaut haben (die eine zeitlang mal im gespräch war bezüglich vereinfachung der pr berechnung).
dann könnte man versuchen, links zu identifizieren, die nicht zu einem cluster gehören und damit mit höherer wahrscheinlichkeit tatsächlich extern sind - und diese extra gewichten.
bei reziproken links wäre die frage, über wieviele etappen das gefunden wird, denn es wird ja selten von linkliste zu linkliste verlinkt, sondern zumeist aus einer tieferen seite zu einer homepage. - quasi die frage, wie cluster abgegrenzt werden.
zudem kann man versuchen, keyword-relevante links von anderen links zu unterscheiden, indem man die relevanz der verlinkenden seite für ein keyword mit bewertet. - eine keyphrasen-spezifische-submatrix der pr-matrix.
aber vielleicht ist das alles auch nur wunschdenken und viel zu rechenzeitintensiv. (und ich hab es auch schon im anderen forum vor mich hin gemurmelt.)
Es gibt auf jeden Fall einen Zusammenhang zwischen dem kommerziellen Suchwert (also den AdWords-Buchungen) und dem Filter. Wir konnten auf verschiedenen Content-Projekten, die eigentlich bis auf eine durchdachte Linkstruktur und eine entsprechende Benennung nichts mit Suchmaschinenoptimierung zu tun haben genau dies festellen.
So sind Suchphrasen vom Filter ganz erheblich betroffen, die auch deutlich höhere AdWords-Ausgaben nach sich ziehen. Da wir adwords parallel buchen, können wir eindeutig eine Relation zwischen Ausgabenhöhe und Filter feststellen!
Somit ist dies ein Kommerzfilter und nichts anderes!!! Natürlich liegt das im Ermessen von Google, doch sollte das dem Suchenden schon bewußt sein, daß er keinesfalls mehr in allen Ergebnissen sucht, sondern nur noch in solchen, die wahrscheinlich den geringsten kommerziellen Character nach Googles Maßstab aufweisen!
Also wieder zurück zum unseriösen Suchmaschinenmarketing und mit sinnlosen Doorwaypages alle möglichst 'billigen' Keywordkombis abgrasen und auf den nächsten Filter warten???
Wir erfassen seit 12 Monaten serps von G zu bestimmten Bereichen. Bisher ca. 1,2 TB an Gesamtdaten. Die Veränderungen nach Florida HABEN wir algorhythmisch brauchbar nachgebildet; in einem Miniprojekt mit einer US-Uni, haben wir einen Travel-Bullshit-and-Garbage-Anbieter bei G "revitalisiert"... nein, falsch ! Mit Hilfe unserer Analyse und einem US-SEO kam er nach ca. 28 Tagen "zurück" zum Big-Money.
Das ist der grosse Unterschied zwischen Fricklerei/Vermutung/Erinnerung/Meinung/Forumpanik und existierenden Datenbeständen und Analysetools und Empirik einerseits und mathematischer Genauitgkeit andererseits. NUR BEI EINER GENAUEN DIAGNOSE, lässt sich eine "Krankheit" beheben; alles Andere ist "Diagnosis ex juvantibus remedii" (wenn wir dem Patienten Aspirin geben, und es geht ihm besser, dann hat er vermutlich Kopfschmerzen gehabt *lol*).
Das SEO-ing in Deutschland wird mehrheitlich von einem (bestenfalls) gesunden Halbwissen beherrscht...bis auf wenige Ausnahmen von ordentlichen, seriösen Menschen, wie z.B. der Inhaber diese Forums. Alles andere sind Scriptkiddies, die nach einem schnellen Free-Download eines DWP-Generators als Ich-AG loslegen. Die Besseren können noch etwas PHP/Perl und vielleicht HTML für Anfänger...
Gute SEOs arbeiten meist mit Research zusammen.
Die Welt der SUMAs ist nicht mehr so einfach wie Ihr Euch das denkt: hier und da ein wenig <h1>, bisschen KW-Density und eine Prise Anchortext...GOOGLE hat Applied Semantics (AP) gekauft mit "CIRCA": das Stemming ist die erste Stufe der Implementierung der Applied Semantics-Technology. HILLTOP befindet sich effektiv in der Implementierung, Bahrat hat eine führende Funktion in der Research. BALD wird auch die Geschichte mit den IPs greifen und die Implementierung semantischer Filter von AP schreitet voran...
Ein zukünftiger "SEO" = in 12-14 Monate sollte hier (https://labs.google.com/papers.html) schon mal einen Blick reinwerfen, damit er schon mal ungefähr weiss, woran G so arbeitet !
Diejenigen die jetzt jammern sind selbst schuld. In einem amerikanischen Forum hiess es mal "Never put all your eggs in GOOGLEs basket"...wollte aber keiner glauben ! Jetzt, wo es viele erwischt hat, ist das Heulen gross... aber es gibt auch Gewinner --> man muss es sportlich sehen: beim nächsten mal ist man vielleicht bei den Gewinnern dabei !
KONKRET:
Wir haben es ! Eine Testpage die betroffen war, befindet sich nach dem "Retuning" auf dem Weg der "Besserung" --> ziemlich flott sogar *lol*. !!! Gilt nur für Begriffe aus dem "Money-Machine"-Filter UND SINGLEWORDS!!!!
NOCH KONKRETER
Ich habe nur Interessen am wissenschaftlichen Teil der Geschichte. Schicksale und Betroffenheit interessieren mich nicht, genau sowenig wie Geld. Was mich interessiert ist, wie und wie schnell die "gemixte Hausmachermedizin" hilft. Und das SEO wird Webby machen, WENN ER LUST HAT !
Wenn Webby Lust hat EUCH zu helfen, gebe ich ihm das Rezept mit der Vorgabe einer genauen Analyse und Berichterstattung Eurerseits (für Euch mit Arbeit verbunden). Was ich dafür erwarte: exakte Auswertung und Spezifikationen nach meinen Vorgaben.
Und jetzt fahre ich bis Sonntag Abend in die Alpen, Ski Heil und Kopf hoch
aber wenn ich lese, dass bei hochwertigen adword-keywords der filter greift und meine domains zeigen mir, das bei einem sehr hochwertigen keyword der filter nicht greift und bei einem 0,08 euro keyword das nirwana angesagt ist, dann sagt das einem alten suchmaschinen-woodoo-priester, dass das noch nicht das ende der weisheit ist.
grüsse und schönen urlaub
ps: ausserdem soll es schon vorgekommen sein, dass bei einer wissenschaftlichen analyse der versuchsaufbau genau so gewählt wurde, dass das vorher erwartete ergebnis auch gefunden wurde.
Zuletzt geändert von bugscout am 27.01.2004, 21:13, insgesamt 1-mal geändert.
Hi,
@keepCool:
Ich bin sehr gerne bereit Dir zu helfen und investiere auch gerne viel Arbeit. Ich denke da wird es hier im Forum auch noch einige Leute mehr geben und ich denke zusammenschafft man mehr als alleine...
Ich halte die Behauptung, google würde absichtlich einen Filter auf 'teure Begriffe' setzen, für Unsinn - und zwar gerade aus mathematischen Gründen.
Wo sind die Preise für Adwords hoch? Dort, wo sich viele Leute erhoffen, damit Geld verdienen zu können. Und genau in diesen Bereichen gibt es (1) viele Shops, (2) wird in diesen Bereichen viel gespammt.
google dürfte sich - gegen diese These von @Seoxx, der sie ja von GoogleGuy hat, hat hier bislang noch niemand widersprochen - für ausdifferenzierte Ergebnisse interessieren - weil dann der Benutzer eine große Auswahl hat. Das bevorzugt bei Einzelbegriffen bsp. zwangsläufig 'große Überblicksartikel großer Zeitungen' sowie thematisch begründete Linksammlungen. Damit geht es nicht, daß bei einer Million Seiten unter den ersten 100 95 Shops sind. Das gilt, egal ob diese gespammt haben oder nicht - deshalb muß es auch Nicht-Spammer erwischen. Versucht google, die Ergebnisse heterogener zu machen, dann wirkt sich dies natürlich in bislang relativ homogenen Bereichen - nämlich genau denen, in denen sich viele optimierte Shops tummeln - umso drastischer aus. Eine Korrelation zwischen Adword-Preisen und SERP-Veränderungen bei Keywords, deren Serps bislang homogen waren, ist also zu erwarten - aber diese Korrelation ist banal.
Ich habe das Beispiel meiner eigenen Domain am Sonntag bereits genannt. Mit Sql unter den deutschsprachigen knapp 1 Mio bislang auf der dritten Seite, einige Besucher pro Woche, nun unauffindbar, nicht unter den ersten 1000. Alle Unterseiten einschließlich der Sql-bezogenen werden unter diversen, niemals mehr optimierbaren Einzelkombinationen wie gehabt gefunden - eher scheint sich die Zahl der Besucher über google gestern und heute leicht erhöht zu haben. Wäre ich auf das eine Schlüsselwort angewiesen, dann wäre ich jetzt pleite - so hat sich nichts verschlechtert.
Wir hatten das ganze schon vor ein paar Wochen - bei livecam. Zunächst nur Sex-Angebote, 300.000 Seiten ohne Sex, 1.9 Mio mit. Dann flogen von den vorderen Plätzen alle Sex-Angebote weg, die über die Kombinationssuche natürlich auffindbar blieben. Die ersten Plätze - völlig verschiedenartige Informationen, dasselbe Prinzip scheint nun auf den ganzen Index angewandt worden zu sein.
@ Keep cool.
Keep cool: keep cool:-)
Mich stört es ein wenig, dass du denkst du wüsstest was ALLE anderen machen. Woher willst du wissen, ob wirklich so viele ohne Research an die Sache gehen. Meine bisherigen Gespräche auf Messen etc sprechen da eine andere Sprache.
Was du da beobachtet hast ist sicher nicht uninteressant. Aber eine wissenschaftliche Methode ist es nicht. Jeder hier der auch nur halbwegs wissenschaftlich studiert hat, wird mir da sicher beipflichten.
Ich will jetzt nicht zu sehr ins Detail gehen, da das zu weit führt.
Hauptkritikpunkt an deinem Vorgehen ist, dass du einen (kleinen) Teilaspekt herausnimmst und diesen generalisierst. Und damit begehst du eigentlich genau denselben "Fehler" den du hier allen anderen vorwirfst:-)
Wenn deine These haltbar sein soll, muss Sie alle Faktoren die das Ergebnis beinflussen eleminieren, aber das machst du nicht. Bzw. das was du über den Aufbau erzählt hast, lässt dies nicht vermuten.
Nichtsdestotrotz bin ich auf die Ergebnisse Eurer Untersuchungen gespannt, auch wenn ich mir ziemlich sicher bin, dass ich weiss wie das ergbenis aussehen wird:-)
ich wußte gar nicht, daß auch ich als scriptkiddy gelte ?!?
Gewisse Dinge bleiben nun mal Auslegungssache, da nur google Einblicke in die wahren Algorithmen und Filter hat. Da kann man so viel Research betreiben wie man will!
Auch ist uns doch allen klar, daß die Rankingmethoden der Suchmaschinen sehr komplex sind, genauso wie auch die neuen Filter von Google. Und ganz wichtig, es handelt sich auch nicht nur um wenige Faktoren, die ein vorkommen im Index bzw. ein gutes Ranking ausmachen.
Die genauen Abhängigkeiten rauszufinden wird auf jeden Fall ein wenig Zeit in Anspruch nehmen und auch nicht für jeden Bereich gleich gelten. (war auch bislang immer so)
Trotzdem sind in vielen Bereichen die kommerziellen Listungen fast vollständig verschwunden, was man schon z.T. sehr deutlich in adwords-Buchungen merkt mit Conversion-Rate Steigerungen von bis zum 5fachen (Telekommunikation/Mobilfunk)!
Was man aus all den Neuerungen und Entwicklungen nun für eine persönliche Perspektive zieht bleibt ja jedem selbst überlassen. Jedoch erfolgreiche SEOs, genauso 'unseriöse' SEOs wird es immer geben!