Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Top Seite ins Nirvana und Uralt Seiten im Index

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Maurizio
PostRank 4
PostRank 4
Beiträge: 103
Registriert: 20.10.2003, 22:05

Beitrag von Maurizio » 18.12.2004, 10:00

Im anderen Forum ist auch die Rede von einer verstärkter Autoritäts-Faktor.

Spricht auch einiges dafür.

mfg

Maurizio

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

wulfo
PostRank 9
PostRank 9
Beiträge: 994
Registriert: 05.02.2004, 17:28
Wohnort: Sachsen

Beitrag von wulfo » 18.12.2004, 11:30

Hi wir konnten feststellen das der Autoritäts-Faktor mehr zählt und das die Anzahlt der im Index vorhanden Seiten gestiegen ist.

Wieder mal sehr viele alte Seiten drin die es schon lange nicht gibt.
vor allen ist es aber wieder so das in verschiedenen Bereichen genau wieder die Spamseiten vorn sind wie Anfang des Jahres mit versteckten Text hochgepuscht. :cry:

tojas
PostRank 7
PostRank 7
Beiträge: 624
Registriert: 11.09.2003, 17:14
Wohnort: Berlin

Beitrag von tojas » 18.12.2004, 11:47

Im anderen *Wasserloch* wird von einem *Blockrank-Update* gesprochen, also der Neuberechnung von Linknetzwerken, was einige BL wegfallen und andere hinzukommen lässt. Das finde ich gar nicht so abwägig.

Auf einem Datencenter (64.233.171.147 ) gibt es Merkwürdigkeiten bei der site: Abfrage. Neuere Domains sind mit site: nicht zu finden, jedoch sind sie über die Suche normal zu finden. Recht merkwürdig!

sG,
tojas

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Mario670
PostRank 9
PostRank 9
Beiträge: 1006
Registriert: 30.04.2004, 20:46
Wohnort: Neu Duvenstedt

Beitrag von Mario670 » 18.12.2004, 12:01

Im anderen *Wasserloch* wird von einem *Blockrank-Update* gesprochen, also der Neuberechnung von Linknetzwerken, was einige BL wegfallen und andere hinzukommen lässt. Das finde ich gar nicht so abwägig
Dann hätte es ganz andere Projekte von mir treffen müssen, das schleiße ich aus.
Auf einem Datencenter (64.233.171.147 ) gibt es Merkwürdigkeiten bei der site: Abfrage. Neuere Domains sind mit site: nicht zu finden, jedoch sind sie über die Suche normal zu finden. Recht merkwürdig!
Da wird scheinbar direkt auf den alten Index zugegriffen, also die Sieten gibt es da nicht.

Meine Seiten im Cache sind teilw. vom 16.10.04, auf einer anderen Seite vom 22.03.04 (gelöscht am 24.5.04) :-?
Bild
SEOigg ... SEO News satt

tojas
PostRank 7
PostRank 7
Beiträge: 624
Registriert: 11.09.2003, 17:14
Wohnort: Berlin

Beitrag von tojas » 18.12.2004, 15:34

Dann hätte es ganz andere Projekte von mir treffen müssen, das schleiße ich aus.
Wieso, kannst Du komplexe Linkbeziehungen ausrechnen? Weißt Du mit wem deine Linkpartner neue Linkpartnerschaften eingegangen sind?

Ich red nicht von eigenen Linknetzwerken sondern vom *Umfeld* einer Seite.
Da wird scheinbar direkt auf den alten Index zugegriffen, also die Sieten gibt es da nicht
Wieso sind sie dann auf dem selben DC zu finden, wenn man nach dem Keyword sucht?

Wie kann eine Domain zu einem Begriff gelistet sein, wenn man sie mit site: nicht findet?

tojas

Apotheker
PostRank 7
PostRank 7
Beiträge: 520
Registriert: 18.06.2004, 11:04
Wohnort: Ellas

Beitrag von Apotheker » 18.12.2004, 16:08

Blockrank klingt immer so toll und unheimlich, aber ich stelle vieles fest, was dagegen spricht.

Einige Projekte mit wertigem Content und vielen, natürlich gewachsenen Backlinks sind um 10 bis 20 Positionen abgerutscht.

Also müssen sie irgendwas "schlechtes" an sich haben. Alle haben (neben einer Vielzahl von ganz individuellen Seiten!) sehr viele Unterseiten, die aber sehr ähnlich sind. Keine KW-optimierten Doorways, sondern vergleichbar mit einem Lexikon/Katalog/Glossar, wo also das Drumherum gleich ist und einen Großteil der Seite ausmacht. Greift hier vielleicht ein strenger Ähnlichkeitsfilter? Und/oder ein "Steht-zuwenig-Text-auf-der-Seite-Filter"?

Gleichzeitig sind uninteressantere Projekte mit wenig Unterseiten (zum Teil nur einer einzigen Seite) und kaum Backlinks (zum Teil nur 1 oder 2 Links von reziprok verlinkten Seiten, bei denen gar nicht die Chance besteht, den Zusammenhang als armseliges Mini-Netzwerk zu verschleiern) dramatisch noch oben gerutscht und sind nun besser platziert. Und das im gleichen Keyword-Umfeld.

Eine andere Beobachtung: Die Suche nach KW1 KW2 brachte schon immer etwas andere Ergebnisse als die nach KW2 KW1. Jetzt ist es aber ganz extrem. Beispiel:
- Haupt-KW bringt die Startseite wie immer auf Platz 1
- Unterseiten mit KW2 oder KW2 KW3 abgerutscht
- Haupt-KW KW2 bringt die Startseite oder zugehörige passende Unterseiten wie immer auf Top-Positionen
- KW2 Haupt-KW (also umgekehrt, das Hauptkeyword steht hinten) brachte bisher die Startseite bzw. die passenden Unterseiten auch immer auf Toppositionen, jetzt sind aber die meisten drastisch abgerutscht.

Die meisten? Untersucht man das genauer, stellt man fest, dass bei den abgerutschten KW2 Haupt-KW beide Keywords auch in vielen externen und internen Linktexten vorkommen (egal in welcher Reihenfolge) und im Titel der abgerutschten Unterseite.

<vorsicht class="kühne theorie">
Mit anderen Worten: Keyword-Kombi im Linktext und im Titel schadet und kann nur dann kompensiert bzw. gerettet werden, wenn das Hauptkeyword vorne an der Kombi steht.
</vorsicht>

Die wichtigste Frage ist immer - warum macht Google das? Eine Erklärung wäre, dass dies zur Bekämpfung von DWPs gedacht ist, die ja meist genau die Merkmale aufweisen.

Fox Mulder
PostRank 8
PostRank 8
Beiträge: 804
Registriert: 16.11.2004, 09:06

Beitrag von Fox Mulder » 18.12.2004, 16:31

Sehr gute Analyse Apotheker!

Das mit dem "strenger Ähnlichkeitsfilter" vermute ich auch schon seit längerem.

Bin schon Ende September in diesen Filter gerutscht .

Ich habe versucht hier gegenzuarbeiten aber es ist nicht so einfach, wenn
man eine Site nach der Art von "Lexikon/Katalog/Glossar" hat, wie Du sie beschreibtst. Eine Ähnlichkeit der Unterseiten von weniger als 85% zu erreichen ist mir nicht gelungen. Demzufolge bin ich auch beim jetzigem Update im Keller geblieben.

Eigentlich sind die meisten Shopping Sites nach diesem Muster aufgebaut und die hat es auch am meisten erwischt.

Gruss

Apotheker
PostRank 7
PostRank 7
Beiträge: 520
Registriert: 18.06.2004, 11:04
Wohnort: Ellas

Beitrag von Apotheker » 18.12.2004, 16:46

Genau. Und das könnte der Grund für die Probleme der Shopping-Seiten sein, nicht die Affiliate-Links. Ich kann das Phänomen bei Seiten mit Affiliate-Links, mit Adsense, beidem und mit gar nichts Kommerziellem beobachten.

Noch eine Ergänzung: Ich habe oben geschrieben "Eine andere Beobachtung". Aber die zwei Sachen Ähnlichkeitsfilter und KW/Linktext/Titel gehören wohl durchaus zusammen. Denn eine einzelne Seite mit KW=Seitenname=Linktext=Titel=H1 (mehr geht ja wohl kaum) innerhalb einer "natürlichen" Website wird offensichtlich überhaupt nicht beeinträchtigt. Hat sie jedoch ausreichend viele ähnliche Geschwister, greift der Filter. So könnte es sein.

Im übrigen will ich andere, zusätzliche Theorien gar nicht anzweifeln. Jeder beobachtet halt das, was ihm gerade auffällt. Und der neue Algo hat mit Sicherheit mehrere Komponenten. Die greifen dann - wie bisher auch - gemeinsam. Eine Seite, die nur mit einem Teilaspekt in den Filter laufen würde, bleibt nicht hängen. Nur mit mehreren Verstößen gleichzeitig erzielt man genug Malus-Punkte, um hängenzubleiben.

wulfo
PostRank 9
PostRank 9
Beiträge: 994
Registriert: 05.02.2004, 17:28
Wohnort: Sachsen

Beitrag von wulfo » 18.12.2004, 17:04

Hi Fox Mulder , so ganz kann das nicht hinhauen mit dem "strenger Ähnlichkeitsfilter"

1 Seite eine Weiterleitung
2 Seite ein Auktionshaus
3 Seite Abakus nur durch einen Eintrag hier
4 Seite ok

interessant dann Platz 5- 6-7 absolut gleiche Seiten mit versteckten Text

8 Seite eine Weiterleitung und so weiter

normal dürfte es doch dann aber Platz 1 , 5,6,7 nicht geben vor allen 5,6,7 da ähnlicher gehen die Seiten nicht.

Und dieses ist bei vielen Produkten so oder ähnlich zu beobachten, einfache Spamseiten mit grossen Linkwerk, Weiterleitungen mit fremden Concent, Auktionshäuser grosses Linkwerk, Forums grosses Linkwerk, Shoppingportale ala suche.fireball,shopping.lycos mit grossen Linkwerk.

Apotheker
PostRank 7
PostRank 7
Beiträge: 520
Registriert: 18.06.2004, 11:04
Wohnort: Ellas

Beitrag von Apotheker » 18.12.2004, 17:13

Mit "Ähnlichkeitsfilter" ist zumindest hier gemeint, dass ähnliche Seiten innerhalb einer Domain betroffen sind. Doppelter Content auf verschiedenen Domains ist wieder eine andere Sache.

tojas
PostRank 7
PostRank 7
Beiträge: 624
Registriert: 11.09.2003, 17:14
Wohnort: Berlin

Beitrag von tojas » 18.12.2004, 17:15

Hallo Apotheker,

ich stimme Dir zu, das der Algo sicher mehrer Komponenten hat, ich denke auch das bei mehreren Komponenten die Wertigkeiten geändert wurden.

Dennoch glaube ich nicht daran, das sich Google sich sonderlich für gleiche Linktexte interessiert, denn das würde z.B. Keyworddomains evtl. benachteiligen. Ich habe z.B. eine Key-Domain zu einem Reiseziel. Die Seite wird zu 95% mit dem gleichen Linktext angelinkt (natürliche Links!) und ist dennoch nicht abgerutscht.

tojas

Apotheker
PostRank 7
PostRank 7
Beiträge: 520
Registriert: 18.06.2004, 11:04
Wohnort: Ellas

Beitrag von Apotheker » 18.12.2004, 17:25

Ja, das widerspricht sich ja nicht. Wie ich oben schon geschrieben habe, kann das Hauptkey immer noch funktionieren und sogar eine rettende Funktion haben.
Haupt-KW bringt die Startseite wie immer auf Platz 1
- Unterseiten mit KW2 oder KW2 KW3 abgerutscht
- Haupt-KW KW2 bringt die Startseite oder zugehörige passende Unterseiten wie immer auf Top-Positionen
- KW2 Haupt-KW (also umgekehrt, das Hauptkeyword steht hinten) brachte bisher die Startseite bzw. die passenden Unterseiten auch immer auf Toppositionen, jetzt sind aber die meisten drastisch abgerutscht.
Auch dies ist eine Keyword-Domain: HauptKW-KW2.de
Ich meine eher die unzähligen weiteren Keywords und -kombis, auf die jede Unterseite "optimiert" ist. (Bei einem Lexikon ist das Optimiertsein eben eher eine Begleiterscheinung)

Mario670
PostRank 9
PostRank 9
Beiträge: 1006
Registriert: 30.04.2004, 20:46
Wohnort: Neu Duvenstedt

Beitrag von Mario670 » 18.12.2004, 17:56

Mir ist gerade mal was anderes aufgefallen, 2 Projekte die btroffen sind haben beide eins gemeinsam: Ich habe vor einiger Zeit einige Unterseiten gelöscht, allerdings vergessen den Link zu diesen zu entfernen.

Bei einer anderen Seite habe ich auch Unterseiten entfernt, allerdings auch die Links gelöscht, der ist nix passiert. Jemand, ich meine Konrad wolfenstein (bin mir aber nicht mehr sicher) hatte sowas doch mal getestet und dadurch auch ein abrutschen seiner seiten festgestellt?
Bild
SEOigg ... SEO News satt

musikgoogler
PostRank 1
PostRank 1
Beiträge: 7
Registriert: 17.12.2004, 07:12

Beitrag von musikgoogler » 19.12.2004, 00:05

Bin auch betroffen, habe aber keine Unterseiten gelöscht... sondern im letzten Jahr einige Tausend hinzugefügt...

camworks
PostRank 5
PostRank 5
Beiträge: 234
Registriert: 04.08.2004, 13:38

Beitrag von camworks » 19.12.2004, 12:13

ich bemerke ein leichtes erholen vom abrutschen. zwar nur leicht, aber das macht hoffnung (denn die stirbt zuletzt).

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag