Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Mittendrin weg

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
wolli
PostRank 9
PostRank 9
Beiträge: 1395
Registriert: 01.01.2006, 18:48

Beitrag von wolli » 20.07.2006, 08:30

DJTonic hat geschrieben:gerade bei seo-fm gehört, dass bei webmasterworld diskutiert wird dass wohl sehr viele domains die es erwischt hat, das www.domain.de per 301 auf domain.de weitergeleitet haben.
kann das wer bestätigen/weiss da wer mehr?
hi,

das kann ich nicht bestätigen
Allerdings machen wir das umgekehrt www.domain auf domain per 301
Seit das update läuft (und es ist noch nicht fertig :-) hat es uns unter dem Key Domain von Platz 7 auf Platz 2 hochgespült

nette Grüße
wolli

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

JenaTV
PostRank 8
PostRank 8
Beiträge: 900
Registriert: 24.05.2004, 11:00
Wohnort: Jena

Beitrag von JenaTV » 20.07.2006, 09:59

Je länger ich das Ganze bei meiner betroffenen Domain untersuche umso verrückter wird es. :lol:
(Danke noch an Wolli fürs Tool, das hat sehr geholfen)
Die neuesten "Erkenntnisse":
- die Seitenzahlen der Domain im Index steigen weiter
- wenn jeweils die neuen Crawl-Ergebnisse eingespielt werden kennt G auch für einen kurzen Moment auf vielen DC die richtigen Ergebnisse für die "site"-Abfrage :o
- der Robot crawlt und crawlt und crawlt und crawlt und crawlt die Domain
Was das heißt? Keine Ahnung. Wenn wir die gern von G.-geschädigten vertretene These vom "Datencrash" mal ausschließen bleibt eigentlich nur sowas wie "Filter" oder "Sandbox".
Kleiner Gag am Rande: Was auch immer das für ein Filter ist, bei einigen Kombis wird er ausgeschaltet wenn man "and" zwischen die Begriffe setzt. So sagen es meine Referer- einige tun das wohl noch aus Gewohnheit wie ganz früher.
Hin und wieder kommen so Besucher zu mir von Serp-Seite 1, auch von äußerst umkämpften Begriffen zu denen ich vor dem 28. auch nicht plaziert war.
Also: Was immer es ist, es ist noch immer nicht fertig.
Wenn es irgendwann fertig ist und in etwa so bleibt haben die Betroffenen nur die Hoffnung das es kein Dauer-Filter ist.
Gibt es jemanden, der am 28. seinen Traffic verloren hat und bis heute wirklich zu 100% zurückgekommen ist?

Firefly
PostRank 1
PostRank 1
Beiträge: 8
Registriert: 18.07.2006, 11:40

Beitrag von Firefly » 20.07.2006, 10:23

@JenaTV

"Kleiner Gag am Rande: Was auch immer das für ein Filter ist, bei einigen Kombis wird er ausgeschaltet wenn man "and" zwischen die Begriffe setzt. So sagen es meine Referer- einige tun das wohl noch aus Gewohnheit wie ganz früher."

Habe das gerade mal ausprobiert. Bei einer Domain die es erwischt hat, hat es genau den gegenteiligen Effekt. Von der schlechten Position nach dem 28. ganz weg ...

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

JenaTV
PostRank 8
PostRank 8
Beiträge: 900
Registriert: 24.05.2004, 11:00
Wohnort: Jena

Beitrag von JenaTV » 20.07.2006, 10:45

@firefly
Ich verstehe das auch nicht. Mir ist es aufgefallen dadurch das ich bei einer sehr, sehr sehr lukrativen und für meine Seite derzeit eigentlich unerreichbaren Kombi auf 7 bin von 200 Millionen. Es ist eine Kombi bei der sogar bei dieser Verrücktheit (machen vielleicht 0,0001% der tatsächlichen Sucher) täglich Besucher kommen.
Bei meiner eigentlichen Hauptkombi gehe ich durch "and" von 87 auf meinen angestammten Platz 5.

Um den 28. Juni näher zu untersuchen habe ich mir auch ein paar Kombis gesucht mit denen ich meine schwächsten Unterseiten (4. Ebene) finde.
Da verändert sich nichts. Die sind in der Regel bei 10 bis 100 Suchergebnissen auf dem vorletzten oder drittletzten Platz vor "die Suche unter Einbeziehung der übersprungenen Ergebnisse wiederholen" :evil:

Nochmal edit: Das coolste ist, diese Unterseiten werden von meinen vor einem halben Jahr gelöschten Unterseiten der gleichen Domain deutlich abgehängt. Ich finde mich also dann zur Kombi xy mit einer lange gelöschten Unterseite, die auch schon aus dem Index war, als "zusätzliches Ergebnis" auf 1 und mit der aktuellen auf 73 oder so. tss.. tss...

DJTonic
PostRank 5
PostRank 5
Beiträge: 214
Registriert: 18.03.2005, 05:27

Beitrag von DJTonic » 20.07.2006, 11:01

je mehr mal drüber diskutiert desto blöder wird das...es gibt einfach kein einheitliches muster.
halt doch: totale verwirrung und totaler zufall *G*

JenaTV
PostRank 8
PostRank 8
Beiträge: 900
Registriert: 24.05.2004, 11:00
Wohnort: Jena

Beitrag von JenaTV » 20.07.2006, 11:07

DJTonic hat geschrieben:je mehr mal drüber diskutiert desto blöder wird das...es gibt einfach kein einheitliches muster.
halt doch: totale verwirrung und totaler zufall *G*
Leider ja. :(
Würde man irgendeinen roten Faden finden könnte, könnte man ja was machen...

BeatGorsch
PostRank 2
PostRank 2
Beiträge: 54
Registriert: 21.10.2005, 12:23
Wohnort: Bielefeld

Beitrag von BeatGorsch » 20.07.2006, 11:10

> dass www.domain.de per 301 auf domain.de weitergeleitet haben.

nein, habe nur weitere domains per 301 auf das bestehende projekt weitergeleitet

nussangler
PostRank 1
PostRank 1
Beiträge: 26
Registriert: 02.07.2006, 16:48

Beitrag von nussangler » 20.07.2006, 11:32

Besteht evtl. die Möglichkeit, daß wir in einen Spam-Filter hineingerasselt sind und Google uns (fälschlicherweise) aussortiert? Denn: Was mich etwas stutzig macht, ist die Tatsache, daß es Konkurrenzprojekten, die ähnlich gut verlinkt und aufgebaut sind, bestens geht :(

Deshalb meine Frage in die Runde: Kann man den Absturz möglichweise an irgendwelchen Onpage-Faktoren festzurren? Z.B.

- Massiver Einsatz von Alt-Texten bzw. Title-Elementen
- Identische Meta-Tags (z.B. Keywords, Description) über weite Bereiche der Seite hinweg
- Hidden-Layers (die aber nicht als Spam-Instrument eingesetzt werden)
- Spam-typischer Seitenaufbau (z.B. Titel, Beschreibung, Link)
- Zu viele ausgehende Links pro Seite (direkt, Weiterleitung?)
- Footer-Links
- Seitengröße (KB)
- Pagerank (trifft es nur Projekte mit höheren PRs?)

Bin ebenfalls ziemlich ratlos. Aber vielleicht entdecken wir ja ein paar Gemeinsamkeiten.

DJTonic
PostRank 5
PostRank 5
Beiträge: 214
Registriert: 18.03.2005, 05:27

Beitrag von DJTonic » 20.07.2006, 14:13

- Massiver Einsatz von Alt-Texten bzw. Title-Elementen
- Identische Meta-Tags (z.B. Keywords, Description) über weite Bereiche der Seite hinweg
- Hidden-Layers (die aber nicht als Spam-Instrument eingesetzt werden)
- Spam-typischer Seitenaufbau (z.B. T
- Seitengröße (KB)
- Pagerank (trifft es nur Projekte mit höheren PRs?)itel, Beschreibung, Link)

-->trifft für mich nicht zu.

- Zu viele ausgehende Links pro Seite (direkt, Weiterleitung?)
- Footer-Links
-->teilweise

JenaTV
PostRank 8
PostRank 8
Beiträge: 900
Registriert: 24.05.2004, 11:00
Wohnort: Jena

Beitrag von JenaTV » 20.07.2006, 14:37

- Massiver Einsatz von Alt-Texten bzw. Title-Elementen
- Hidden-Layers (die aber nicht als Spam-Instrument eingesetzt werden)
- Spam-typischer Seitenaufbau (z.B. Titel, Beschreibung, Link)
- Zu viele ausgehende Links pro Seite (direkt, Weiterleitung?)
- Footer-Links

Habe ich alles nicht

- Identische Meta-Tags (z.B. Keywords, Description) über weite Bereiche der Seite hinweg

Ja.

- Seitengröße (KB)

Unterseiten haben bis zu 200kb, Regelseite 30 kb

- Pagerank (trifft es nur Projekte mit höheren PRs?)

PR 5

BeatGorsch
PostRank 2
PostRank 2
Beiträge: 54
Registriert: 21.10.2005, 12:23
Wohnort: Bielefeld

Beitrag von BeatGorsch » 20.07.2006, 14:53

- Massiver Einsatz von Alt-Texten bzw. Title-Elementen
- Identische Meta-Tags (z.B. Keywords, Description) über weite Bereiche der Seite hinweg
- Hidden-Layers (die aber nicht als Spam-Instrument eingesetzt werden)
- Spam-typischer Seitenaufbau (z.B. Titel, Beschreibung, Link)
- Zu viele ausgehende Links pro Seite (direkt, Weiterleitung?)

Nein!

- Footer-Links
- Seitengröße (KB)

Ja, aber schon seit Jahren!

- Pagerank (trifft es nur Projekte mit höheren PRs?)

PR 5

DJTonic
PostRank 5
PostRank 5
Beiträge: 214
Registriert: 18.03.2005, 05:27

Beitrag von DJTonic » 20.07.2006, 15:53

schön :-) erst 2 leute und schon kann man das alles wieder in die tonne treten *G* weil bei jedem was anderes ist 8)

ich sag euch die google-leute sitzen im RZ und würfeln wer die positionen kriegt *G*

pip
PostRank 6
PostRank 6
Beiträge: 465
Registriert: 24.10.2005, 11:59

Beitrag von pip » 20.07.2006, 17:01

da es keine muster gibt spricht mehr als genug für einen daten-crash bei google.

1. Uralte Caches
2. Verbrannte, 301 und 404 Domains im Index
3. Auch ohne Filter kommen nicht die alten Ergebnisse
4. Googlebot schuftet seit Tagen ohne Pause durch
5. Es hat auch absulute whitehats und uralte domains erwischt.

Irgendwas fehlt denen, was der Bot jetzt wieder einsammeln muss und dann wird vermutlich alles auf einmal wieder gepushed. Ich sehe keine fließenden Übergänge.

nussangler
PostRank 1
PostRank 1
Beiträge: 26
Registriert: 02.07.2006, 16:48

Beitrag von nussangler » 20.07.2006, 17:21

pip hat geschrieben:da es keine muster gibt spricht mehr als genug für einen daten-crash bei google.
Diese Erklärung würde mir auch am besten gefallen. Aber weshalb präsentiert https://64.233.189.104/ (zumindest in meinem Fall) das Ranking vor dem Crash, aber mit aktuellen Daten/Caches? :roll:

DJTonic
PostRank 5
PostRank 5
Beiträge: 214
Registriert: 18.03.2005, 05:27

Beitrag von DJTonic » 20.07.2006, 17:40

ich denke halt wirklich die haben n alten algo (matt: "existing algorithmus with new data") genommen und rollen da jetzt die neuen daten dazu.

Antworten