Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Nur noch URLs in Google: Mögliche Ursachen?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Muschelsammler
PostRank 1
PostRank 1
Beiträge: 5
Registriert: 28.10.2003, 23:56

Beitrag von Muschelsammler » 25.07.2005, 11:07

Ich habe die Aufgabe festzustellen, weshalb es unserer Seite www.bea*uty-ratg*eber.de seit einiger Zeit so schlecht geht.

Symptome:
- Am ca. 1. Mai begannen die Symptome und werden konstant stärker.
- von 270 Seiten werden jetzt nur noch 128 Seiten angezeigt (Befehl site:)
- Von diesen 128 Seiten werden die meisten Seiten nur als URL angezeigt, für diese Seiten hat Google auch keinen Cache der Seite mehr gespeichert und dementsprechend sind die Seiten komplett aus den Index gelöscht.
- Alle noch im Index befindlichen Seiten wurden erheblich abgewertet.

Da ich völlig ratlos bin, bitte ich um Meinungen bezüglich der Ursachen und mögliche Gegenmaßnahmen.

Wichtig: An der Seite wurden seit über einem Jahr keine Änderungen mehr vorgenommen, die Seite ist nur schwach optimiert, die Anzahl der Links ist auch seit vielen Monaten stabil.

Schon jetzt Danke für alle Hinweise!

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

fw
PostRank 6
PostRank 6
Beiträge: 464
Registriert: 11.07.2005, 23:02

Beitrag von fw » 25.07.2005, 19:10

Schau mal hier.

Kennst du den Such-Text??
Er stammt von eurer Startseite.

Such doch mal hier im Forum nach slow-death (SD) und content-klau.

piotre
PostRank 8
PostRank 8
Beiträge: 745
Registriert: 07.02.2005, 01:58
Wohnort: bustahaus'n

Beitrag von piotre » 25.07.2005, 19:21

tja - wenn schon contentklau, dann doch besser von seiten, die so bloed gebaut sind, dass sie nicht indexiert werden (geheimtipp)
- ne, nicht wirklich cool!

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 25.07.2005, 20:54

Es kann doch nicht sein, dass eine Seite abschmiert, nur weil im Internet es 3 weitere Fundstellen gibt... Da muss doch HiJacking oder mehr im Spiel sein. An diesen 3 Sätzen kann es meiner Meinung nach nicht liegen... Und wenn ja, dann gehört der DC Algo überarbeitet.

buttheads
PostRank 6
PostRank 6
Beiträge: 385
Registriert: 28.01.2004, 13:22
Wohnort: Düsseldorf

Beitrag von buttheads » 25.07.2005, 21:04

Doppelter Content führt immer mehr dazu, das "Seiten abschmieren". Gib mir mal einen Grund, warum Google ein und denselben Text mehr als 1 mal im index haben soll ... wat bringt denn das für die Serps? Der DC Filter wird immer besser ... was man an der Anzahl der Rückfragen hier im Forum prima sehen kann ;-)

Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 25.07.2005, 21:09

Du hast recht! Aber doch nicht bei 5 Zeilen... Oder habe ich bei den obigen Links was übersehen?

buttheads
PostRank 6
PostRank 6
Beiträge: 385
Registriert: 28.01.2004, 13:22
Wohnort: Düsseldorf

Beitrag von buttheads » 25.07.2005, 21:23

Mehr als diese Fünf zeilen steht doch auf der Seite nicht drauf, wenn Du affili-content und links abziehst ...

Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 25.07.2005, 21:29

Wenn die Produktbeschreibungen ebenfalls von Amazon kommen, dann liegt es aber nicht an den 3 Links oben sondern an dem Affiliate Kram... Kurz nach dem Update hat jemand (ich glaube es war ein Buch-Shop) etwas ähnliches erlebt... Absturz auf Raten.

piotre
PostRank 8
PostRank 8
Beiträge: 745
Registriert: 07.02.2005, 01:58
Wohnort: bustahaus'n

Beitrag von piotre » 26.07.2005, 13:09

ganz ehrlich: kann ich nur begruessen!

kai123
PostRank 3
PostRank 3
Beiträge: 84
Registriert: 09.12.2004, 11:29
Wohnort: Heilbronn

Beitrag von kai123 » 26.07.2005, 13:29

Da frage ich mich dann aber, was passiert mit einer Seite, die eine schwache Linkpop hat, aber eigenen content, der von einer starken Seite geklaut wird? Zählt hier auch der Punkt, wann es indexiert wurde?

Muschelsammler
PostRank 1
PostRank 1
Beiträge: 5
Registriert: 28.10.2003, 23:56

Beitrag von Muschelsammler » 26.07.2005, 15:04

- Zur Amanzon-Vermutung: Die Texte stammen nicht von Amazon sondern wurden allein für die Seite erstellt. Von Amazon stammt nur der kurze Link zu den Büchern.
- Ich glaube auch nicht, dass die Internetseiten, die immer die ersten beiden Sätze kopieren die Ursache für den Absturz sind. Jede Seite in den Top-10 ist heutzutage davon betroffen.

Gibt es noch weitere Meinungen bezüglich der Ursachen und möglicher Gegenmaßnahmen?

piotre
PostRank 8
PostRank 8
Beiträge: 745
Registriert: 07.02.2005, 01:58
Wohnort: bustahaus'n

Beitrag von piotre » 26.07.2005, 15:32

Da frage ich mich dann aber, was passiert mit einer Seite, die eine schwache Linkpop hat, aber eigenen content, der von einer starken Seite geklaut wird? Zählt hier auch der Punkt, wann es indexiert wurde?
bleibt zu hoffen!

rechtlegal
PostRank 9
PostRank 9
Beiträge: 2874
Registriert: 20.04.2005, 17:23
Wohnort: Tespe / Elbe (daneben ist Hamburg)

Beitrag von rechtlegal » 26.07.2005, 16:17

@kai123, @piotre

Der Großteil der news aus meiner Seite aus der sig werden seit März/April 2005 regelmäßig veröffentlicht bei openPR, auszugsweise bei competence-site, bei einigen rss-feeds usw.

Meist werden die openPR-Seiten eher gespidert als meine eigenen. Obwohl openPR erheblich mehr PR als meine Seite hat, hatte ich bislang keinerlei DC-Probleme.

Vielleicht unterscheidet der Google-DC-Filter da irgendwo (Spekulation)?

fischi
PostRank 1
PostRank 1
Beiträge: 8
Registriert: 01.01.2005, 16:29

Beitrag von fischi » 26.07.2005, 17:17

Hallo,

es handelt sich um www.guideboard.net.
Ich lese seit längerem in diesem Forum. Bei Muschelsammler's Treath hab ich direkt meine Seite mit dem Befehl "site:" gecheckt, und siehe da, selbes Problem!
Wie bekommt man am schnellsten heraus wer eventuell content-klau bzw. Hijacking verursacht?

Ich danke für eure Hilfe!!!

buttheads
PostRank 6
PostRank 6
Beiträge: 385
Registriert: 28.01.2004, 13:22
Wohnort: Düsseldorf

Beitrag von buttheads » 26.07.2005, 19:28

check Deine Setien doch einfach mit hattp://www.copyscape.com

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag