Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Nach Florida / Austin, mit Hilltop

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
auer
PostRank 5
PostRank 5
Beiträge: 218
Registriert: 30.10.2003, 19:19

Beitrag von auer » 30.01.2004, 22:39

Vorbemerkung: Es sind nicht, wie es in einigen Threads diskutiert wird, irgendwelche Einzelheiten. Das Gesamtbild einer Domain in Relation zu all ihren Konkurrenten müßte für die Position entscheidend sein.

Eine Domain besteht aus drei wesentlichen Merkmalen: (1) eigener Content, (2) eingehende Links, (3) ausgehende Links. Die ausgehenden Links waren bislang wohl eher negativ bzw. führten zum PR-Abfluß, so daß zu viele ausgehende Links eine Domain geschwächt haben. Dies wurde durch Linktausch, damit eingehende Links, ausgeglichen.

Das Konzept der Experten-Domains bedeutet, daß gewisse Seiten Maßstäbe setzen - für Microsoft-Themen microsoft.com, für Xml ist es w3.org, für Unicode Unicode.org. Diese Domains genügen sich selbst, sie definieren ihre eigenen Maßstäbe, sind autark, haben Unmengen ausdifferenzierter Texte und sind hierarchisch, mit einer im oberen Teil stabilen Verlinkung aufgebaut. Natürlich ist es illusorisch, zu glauben, von dort Links bekommen zu können. Angesichts des Wechsels vom 'random walk' hin zu 'Searchers are looking for information for a specific topic' kann eine kleinere Domain, die ein ähnliches Thema bietet, dem Nutzer interessante Informationen liefern, wenn diese Domain passend auf die zugehörigen Großen linkt. Damit mag zwar der PR sinken, der 'topic rank' (TR) steigt jedoch. Linkt eine Domain dagegen unspezifisch auf alles mögliche, um Backlinks zu erhalten, steigt zwar der PR, der TR wird dadurch jedoch verwässert, ohne daß die Domain mit einer solchen Strategie bereits an 'richtig große Kataloge' (odp) mit Millionen ausgehender Links herankommt.

Genau darin dürfte die neue 'Gratwanderung' bestehen: Bislang scheint oftmals 'viel hilft viel' gegolten zu haben. Das haben in bestimmten Bereichen, dort, wo Geld verdient werden konnte, sehr viele gemacht, also wurden die Serps bei Einzelbegriffen homogen, ziemlich kleine Domains konnten sehr weit vorne erscheinen. Nun dagegen hat eine Domain sehr viele eingehende Links im Vergleich zu anderen mit derselben Thematik - dann mag sie zunächst als Experten-Domain betrachtet werden und oben stehen. Handelt es sich jedoch um thematisch irrelevante Links, so schwächen die Linkpartner ihren eigenen TR, sie werden ebenfalls diesem Keyword zugeordnet. Und hat eine andere Domain 'ein bißchen mehr Content und einige eingehende, etwas differenziertere Links zusätzlich', dann kann die soeben noch oben stehende Domain ins Nirvana abstürzen.

Bei meiner Domain habe ich auf die Schnelle ein Beispiel gefunden: Mit einer Zweier-Kombination bin ich bei etwa 240.000 Seiten weltweit unter den ersten zehn. Nehme ich einen dritten Begriff hinzu, der auf der angezeigten Seite dreimal vorkommt, gibt es nur noch 13.800 Fundstellen und dieselbe Seite ist etwa auf Rang 570.

Unter Informations-Gesichtspunkten kann also eine fachliche Domain auf besser platzierte Domains linken, ordnet sich dem topic dieser Domain zu und profitiert hiervon. Im kommerziellen Bereich hieße dies, auf den Konkurrenten hinzuweisen, dessen PR zu stärken, gleichzeitig jedoch den eigenen TR zu erhöhen.

---------
Gruß, Jürgen Auer

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Seoxx
PostRank 7
PostRank 7
Beiträge: 591
Registriert: 12.10.2003, 15:07

Beitrag von Seoxx » 30.01.2004, 22:43

Hallo Auer,

ich werde mit dem nächsten Googleupdate versuchen diese These der Expertenlinks zu wiederlegen. Schauen wir mal, wenn ich es schaffe wird man es an meinen Platzierungen sehen. :wink:

Gruß
Frank
Der Kluge lernt aus allem und von jedem, der Normale aus seinen Erfahrungen und der Dumme weiß alles besser.
Zum Linktausch einfach Seite eintragen.

auer
PostRank 5
PostRank 5
Beiträge: 218
Registriert: 30.10.2003, 19:19

Beitrag von auer » 30.01.2004, 22:50

Wenn jemand am ehesten in der Lage ist, sich im Sinne des obigen Beitrags seine eigene Experten-Domain zu bauen, dann ist es @Seoxx. Die tausend klitzekleinen Partnerprogramme haben genau gegen eine größere, ausdifferenzierte und konsistent verlinkte Domain keine Chance.

Mit anderen Worten: @Seoxx, ich gehe davon aus, daß die nächste Arbeit von Dir eher oben steht.

[Edit] ... gerade weil mir gestern klargeworden ist, daß Hilltop längst schon aktiv ist.

-----------
Gruß, Jürgen Auer

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Seoxx
PostRank 7
PostRank 7
Beiträge: 591
Registriert: 12.10.2003, 15:07

Beitrag von Seoxx » 30.01.2004, 22:56

Hallo Jürgen,

ich habe schon einiges geändert, aber nichts geht in Richtung dieser These. Ich sehe die Gründe ganz woanders, dass Uniseiten derzeit weiter oben stehen. Aber vielleicht liege ich ja vollkommen falsch, das nächste Update wird es auch mir zeigen. :wink:

Sollte es allerdings schon morgen wieder ein Miniupdate geben, bin ich leider noch nicht dabei. Meine angepassten Optimierungen sind erst gestern fertig geworden. :roll:

Gruß
Frank
Der Kluge lernt aus allem und von jedem, der Normale aus seinen Erfahrungen und der Dumme weiß alles besser.
Zum Linktausch einfach Seite eintragen.

viggen
PostRank 10
PostRank 10
Beiträge: 6249
Registriert: 12.05.2003, 14:44

Beitrag von viggen » 30.01.2004, 23:03

@auer, interessant
was wäre dann die Erkärung dafür das die domain gbcproductions.co.uk bei google.com mit dem Suchwort "glamour photographs" nicht unter den ersten 1000 aber bei google.de an zweiter Stelle liegt.

Viele links aus Deutschland? (konnte ich nicht finden)

(ist eine Seite aus dem englischen Forum)

p.s (Achtung nackte Models, aber von der harmlosen Sorte)

bugscout
PostRank 9
PostRank 9
Beiträge: 2602
Registriert: 23.06.2003, 12:24

Beitrag von bugscout » 30.01.2004, 23:27

moin jürgen,

ich habe die seite spam-report mit einigen links zu spambeispielen auf spam-cowboys.

ein spambeispiel ist heine lyrik mit selbigem linktext.

die seite liegt auf platz 2 direkt vor heinrich-heine.net (mit dmoz eintrag) und diversen anderen seiten zum thema lyrik von heinrich heine.

meine seite kann wohl kaum als expertenseite gelten.

grüsse

auer
PostRank 5
PostRank 5
Beiträge: 218
Registriert: 30.10.2003, 19:19

Beitrag von auer » 31.01.2004, 11:42

Zwei Vorbemerkungen: (1) Auf meine Domain kommen die Leser mit den unterschiedlichsten Suchkombinationen. Jeder Versuch, für jede dieser Kombinationen im Vorfeld womöglich noch händisch ein 'Expertendokument' festzulegen, wäre absurd - wer soll einen solchen Katalog, gegen den das ODP noch klein ist, pflegen? (2) Anfang des Jahres habe ich meiner Domain 6 Html-Seiten hinzugefügt, eine in einem Unterkapitel, fünf in einem anderen (komplexe, ausdifferenzierte Html-Seiten), die Zahl der Seiten stieg von 26 auf 32 Seiten. Ergebnis nach der Indizierung: Eine andere Seite schoß bei etwa 2 Mio Seiten / engl.Suchbegriffe vom Ende der zweiten auf die Mitte der ersten Seite hoch (Stichwort: Größe der Domain, Menge an ausdifferenziertem Text).

google dürfte längst Methoden entwickelt haben, mögliche 'Expertendokumente' eigenständig zu identifizieren und nutzt diese Techniken bei den News. Dort werden - ausschließlich maschinell - Quellen durchforstet und nach 'neuen Themen' gruppiert (Stichwort 'automatische Identifikation von Dokumenten, die sich auf dieselbe Thematik beziehen'). Eingehende Linktexte dürfen keine Rolle spielen, da es sich um neue Themen handelt - erst wenn etwas da ist, kann es unter hierdurch generierten Keywords verlinkt werden. Gibt es zu einem neuen Thema hinreichend viel Material, dann ist das Thema Kandidat, unter den aktuell 31 angezeigten Themen aufzutauchen. Innerhalb dieser Gruppe werden wenige ausgewählt, aus denen Schlagzeilen angezeigt werden, der Rest innerhalb dieser Gruppe ist nur mit weiteren Klicks zugänglich. Ein Kriterium innerhalb der Gruppe: 'große Quelle'.

Um bei bestimmten Begriffen oben zu stehen, hat es bislang genügt, sich die ersten 20 Positionen anzusehen und diese nachzuahmen. Dann konnte man einen der zwanzig auf Platz 21 verbannen, ansonsten 'viel hilft viel', je mehr Backlinks, desto weiter vorne. Damit konnte ein Thema (Sex) ein zweites Thema (livecam) monopolisieren, das wäre damit vergleichbar, daß alle 31 News von derselben Thematik handeln. Nun dagegen dürfte es zwei unterschiedliche Möglichkeiten geben - entweder eine eigene, neue Thematik eröffnen (ausdifferenzierter, autarker Content) oder in einer vorhandenen Thematik einen anderen überholen.

Beispiel: Eine Firma entwickelt ein neues Produkt und nennt es 'Heine-Spam'. Es besteht aus zwei Teilen - 'Heine' und 'Spam', zu beiden Teilen gibt es eigenständige Dokumentationen und es gibt übergreifende Texte, die Domain geht online. google findet diese Kombination nirgends sonst, es gibt einige starke Backlinks, also muß irgend etwas daran wichtig sein. Es ist ein neues Thema, das schon vorhandene Begriffe berührt, also wird es unter diesen mitgelistet.

Vergleicht man das letzte Beispiel mit einer klassischen Buchhandlung, so würde das 'Heine-Spam-Buch' wahrscheinlich unter Computer/Internet einsortiert werden, weil Heine bloß ein Beispiel sei, Germanisten hätten niemals etwas damit zu tun. Bei News / im Web muß es dagegen möglich sein, daß eine neue Domain eine neue Thematik / Kategorie / Gruppe eröffnet. Würde google bloß homogen Seiten mit Germanistenlinks listen, dann wären die Serps abgeschottet gegenüber Neuem - so kann ein Germanist bei der Suche nach 'Heine' über diesen Link stolpern, beschäftigt sich mit der Spam-Thematik und hat Neues gelernt (Stichwort: 'Ausdifferenzierte Ergebnisse').

Folgerungen: (1) Nicht mehr 'wie alle anderen, nur mehr', sondern 'sei originell, individuell, ausdifferenziert'. (2) Ausdifferenzierung begünstigt automatisch große Domains - 'Have a single domain with mini-sites within, rather than having lots of sites' - das stoppt Mehrfachlistungen, die für Nutzer so ärgerlich sind.

-----------
@Seoxx: Bislang war Deine Domain umgeben von diversen anderen Domains anderer für denselben Zweck. Nun dürfte google die meisten dieser anderen als zur gleichen Thematik gehörend identifizieren und entfernen, die größte wird als 'thematische Schlagzeile' angezeigt.
@viggen: Die Domain hat Links von Abakus, einer größeren deutschen Domain. Auf Rang 8 / 9 gibt es eine Domain mit Glamour-Photos von Katzen, eine händische Sortierung hätte diese wohl entfernt.
@bugscout: Die Domain eröffnet eine neuartige Thematik, nämlich die Vorstellung des Produkt 'Heine-Spam', das gibt es sonst nirgens, bei einem Domain-PR von 5 aufgrund eingehender Links und 19.000 Suchergebnissen ist dies ein eigenes Thema.

----------
Gruß, Jürgen Auer

stalker
PostRank 6
PostRank 6
Beiträge: 400
Registriert: 29.01.2004, 18:00

Beitrag von stalker » 31.01.2004, 12:46

hört sich auf jedenfall schlüssig und für google umsetzbar an
ausserdem ist es nur logisch in den ersten Ergebnissen dem User möglichst verschiedene Vorschläge zu unterbreiten sofern das Thema nicht eindeutig ist wie eventuel bei so manchen suchphrasen

Aktuelles Beispiel von mir:
2 ähnliche kleine Portale waren vorher platz 1/2 und 3
jetzt ist die ältere und etwas größere Seite weiterhin top und die andere im Nirvana
verschollen

Würde deine These also untermauern.

-Stichwort: Größe der Domain, Menge an ausdifferenziertem Text

eine höhere Gewichtung dieses Faktors würde die gute Positionierung der Großen Seiten und der Unis erklären..

bugscout
PostRank 9
PostRank 9
Beiträge: 2602
Registriert: 23.06.2003, 12:24

Beitrag von bugscout » 31.01.2004, 13:27

moin jürgen
Die Domain eröffnet eine neuartige Thematik,
das wäre eine möglichkeit, werde mal weiter testen.

grüsse

rolan
PostRank 5
PostRank 5
Beiträge: 268
Registriert: 22.11.2003, 12:16

Beitrag von rolan » 31.01.2004, 16:28

gibt es z.zeit unterschied zwischen de und en ergebnisse. ist das nur vorläufig oder hat das etwas zu tun mit backlins (deutsch- oder englichspariche seiten)?

bei mir hat der letzte filter gutes und schletes gebracht.
sorgenkind ist immobilien seite die aus immer welchem grund ausgefilter würde. dafür habe ich z.zeit keine erklärung.
www.vipme.de

habt ihr ahnung was ist der grund dafür?!?

Trafficer
PostRank 4
PostRank 4
Beiträge: 100
Registriert: 05.12.2003, 11:13

Beitrag von Trafficer » 03.02.2004, 10:10

moin Frank,
ich werde mit dem nächsten Googleupdate versuchen diese These der Expertenlinks zu wiederlegen. Schauen wir mal, wenn ich es schaffe wird man es an meinen Platzierungen sehen.
Nun ... ich rechne nicht mit direkten "Expertensites", wer wollte die festle-
gen, aber ich rechne schon damit, daß sich google am "Erkennen von The-
matiken einer Site" übt. So gesehen gibt es vielleicht etwas, was die Funk-
tion von Expertensites hätte oder de facto übernehmen würde.

Aber Du wirst recht haben, starre bestimmbare "Expertensites" würden das
System unbeweglich machen und neue Dinge im Web (Blogs u.a. was da
noch kommen mag) würden in diesem Sytsem wenn überhaupt nur verspä-
tet Eingang finden. Allerdings halte ich für möglich, Sites so zu konzipieren,
daß google denen einen größeren individuellen Wert zuspricht als anderen
Sites und so etwas allein über Content- und Verlinkungstrukturen die typisch
oder zwingend für Groß-Content-Sites sind.

Habe auch ein paar Veränderungen anhand von Beobachtungen durchdacht,
mal sehen ob wir auf ähnliche Schlüsse gekommen sind. Allerdings werde
ich die weitreichenden Änderungen erst in neuen Systemen berücksichtigen.
Wer weiß ob nicht google irgendwann mal einen Fall Back macht oder einfach
so rotieren lässt .. frisst ja kein Brot solange es sich selbst verdient :)

Was in die jetzigen Systeme als Veränderung und oder Erweiterung imple-
mentierbar baue ich aber jetzt einmal testweise ein. Das sollte bereits eine
tendentielle Wirkung entfalten wenn die Richtung stimmt.

@auer
Deine Texte halte ich für sehr lesenswert :) ... egal ob ich nun vollkommen
übereinstimme oder nicht. Auf jeden Fall wird google versuchen, einen ver-
gleichbaren Weg gehen zu können. Und wer weiß schon, wie weit google im
Moment schon ist :). Wenn Du recht hättest, könnte man sogar versuchen,
für bestimmte Keywordbereiche "Expertenthemen" regelrecht zu generieren.
Bleibt nur die Frage, was macht google, wenn das mit bekannten Keywords
passiert. Das würde letztendlich auch bedeuten können, mit einem wild ge-
mixten, aber immer in gleicher Weise genutzten Keywordbereich könnte man
ein Expertenthema faken und sich selbst zum Master dieses Scheinthemas
aufwerfen ... :). Der Gedanke muß so gedacht werden können, da die Worte
alle aus einem gleichen Wortschatzpool kommen.

Na... was man morgens so halt denkt *g
Huibert

auer
PostRank 5
PostRank 5
Beiträge: 218
Registriert: 30.10.2003, 19:19

Beitrag von auer » 04.02.2004, 11:08

Beobachtung: Dialer verschwinden, fehlerhafte These: google sondert dieses 'moderne Zahlungsmittel' aus. Dialerseiten werden abgestuft, weil es sich um contentarme Seiten handeln. Der eigentliche Content liegt hinter dem Dialer, für eine Suma also unerreichbar, nicht spiderbar, die Domain sieht zu klein aus, als daß sie wichtig sein könnte.

Beobachtung: Frameseiten verschwinden, google würde Frames abstrafen. Frames sind problematisch, weil sie in der Regel Linktexte und Content trennen, damit enthält die eine Seite nur noch die Verweise für die interne Navigation, die andere Seite enthält nur noch Content mit wenig Links. Damit läßt sich nicht mehr aus Linktext und Content ein topic dieser Seite ermitteln, dies führt zu einem unscharfen, belanglosen Content.

Beobachtung: Domains mit Partnerprogrammen verlieren ihre Positionen, These: google straft solche Programme zwecks Adwords ab. Eine Domain, die vielfach auf eine andere Domain linkt, sagt, daß das Ziel sehr wichtig sei, also kann google gleich das Original anzeigen.

Behauptung: Eingehende Links mit wiederholtem Keyword führen zur Abstrafung unter diesem Keyword, daraus Schlußfolgerung: Man könne einen Konkurrenten abschießen, indem man tausendfach auf ihn linkt. Gegenteilige Folgerung, analog zum Beispiel zuvor: Eine Domain, die von jeder Unterseite auf eine andere Domain linkt, degradiert sich selbst zur Verweisdomain und verwischt ihren eigenen Content, also kann sie auch ausgeblendet werden oder zerbröseln.

Eine Autorität ist dadurch gekennzeichnet, daß sie nur sehr selektiv, auf ausgewählte, hochwertige Linkziele verlinkt. Eine Domain, die unter allen möglichen Begriffen auf alle möglichen Domains verlinkt und bei der manche Linktexte nur in Links, nicht im normalen Text vorkommen, kann keine Autorität sein.

---------
@Trafficer: Das Faken ist selbstverständlich möglich. @bugscout macht das ja bereits auf eine akzeptable Weise, bei dem auch einem Germanisten klar ist, daß man solche Test nicht mit Stinkmorchelsucher, sondern nur mit einem bereits gelisteten Begriff durchführen kann. Der Witz dabei ist nur: Das Faken wird zuallererst vom Konkurrenten beobachtet, dieser kann es nachahmen (@bugscout hat keinen). Damit werden sich diese beiden Domains wieder ähnlich. Erkennt google diese Ähnlichkeit, wird eine von beiden nach hinten verbannt. Das meint: Die google-Serps hatten bislang den Nachteil, daß eine Begriffskombination (livecam + sex), aber auch eine Kombination, bei welcher der zweite Begriff in nur wenigen Seiten mit dem ersten Begriff vorkam, den ersten Begriff völlig monopolisieren konnte (Stichwort Linkpop), so daß der Nutzer, den Begriff1 -Begriff2 interessiert, der jedoch bloß mit Begriff1 sucht, auf den ersten fünf Seiten nichts fand. google scheint nun Prinzipien entwickelt zu haben, solche Monopolisierungen zu verhindern und auch nicht bloß nach Menge zu gehen (3 Nicht-Sex auf 7 Sex -> 3:7 in den ersten 10, stattdessen eher eine Thematisierung). Der Witz dabei ist: Alle, die etwas verkaufen wollen, müssen bestimmte Begriffe verwenden, nämlich jene, die zum Suchen genutzt werden. Der Krieg müßte sich dann aber auf die Gruppe beschränken und würde nicht mehr die ganzen Serps betreffen.

---------
Gruß, Jürgen Auer

Seoxx
PostRank 7
PostRank 7
Beiträge: 591
Registriert: 12.10.2003, 15:07

Beitrag von Seoxx » 04.02.2004, 11:41

Hallo Jürgen,

ich kann nicht wirklich verstehen woran Du solche extreme Googlemaßnahmen erkennen kannst?

Ich sehe nur, dass ein Filter vor den alten Index geschaltet wurde, der überoptimierte Seiten für bestimmte Keywords ausfiltert. Einen neuen Algo kann ich nun, nach reichlich Recherche, nicht erkennen. Auch kann ich keinerlei Bezug zu Kontent, Frames oder sonstwas erkennen, da Seiten mit diesen Kriterien mal ausgefiltert werden und mal nicht.

Das Einzige was ich eindeutig sehe ist, dass nicht überoptimierte Seiten (einen bis keinen externen Link) von Projekten (Ebay, Kelkoo, Uniseiten usw.) auch nicht in den Filter fallen und somit logischer Weise nach vorne rutschen, da die überoptimierten Seiten ausgeblendet werden. Das ist aber auch schon alles. 8)

Die Geschichte mit Hiltop währe vielleicht erstrebenswert für Google, findet aber bei Austin in keinster Weise schon Anwendung. :roll:

Gruß
Frank
P.S. Wie immer nur meine Meinung und man bedenke, irren ist menschlich. :wink:
Der Kluge lernt aus allem und von jedem, der Normale aus seinen Erfahrungen und der Dumme weiß alles besser.
Zum Linktausch einfach Seite eintragen.

Trafficer
PostRank 4
PostRank 4
Beiträge: 100
Registriert: 05.12.2003, 11:13

Beitrag von Trafficer » 04.02.2004, 11:54

Simpel gesagt ... google wird eine Überoptimierung nicht wollen, weil das ein
Zeichen von Manipulation sein muß. Das lässt sich mit Sicherheit auch mit ei-
nigen Statistikgesetzen schlüssig begründen.

Huibert

Trafficer
PostRank 4
PostRank 4
Beiträge: 100
Registriert: 05.12.2003, 11:13

Beitrag von Trafficer » 04.02.2004, 11:57

hey .. PR 3 ... ich poste zu wenig *g

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag