Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Neue Domain, sinkende Anzahl an Sites im Index (Google)

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
rechtlegal
PostRank 9
PostRank 9
Beiträge: 2874
Registriert: 20.04.2005, 17:23
Wohnort: Tespe / Elbe (daneben ist Hamburg)

Beitrag von rechtlegal » 10.05.2006, 20:04

oldInternetUser hat geschrieben:...

Zweiteres wird hier geschildert - also sind diese Domains eben im Eimer.
Gewagte Theorie. :oops:

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

BHProject
PostRank 3
PostRank 3
Beiträge: 70
Registriert: 27.02.2006, 08:30

Beitrag von BHProject » 10.05.2006, 20:10

Selten so einen Schwachsinn gelesen hier im Forum. :roll:

oldInternetUser
PostRank 9
PostRank 9
Beiträge: 1250
Registriert: 19.03.2005, 12:52

Beitrag von oldInternetUser » 10.05.2006, 20:11

rechtlegal hat geschrieben:Gewagte Theorie. :oops:
Es gibt hier im Forum wiederholt Leute, die vom Absturz ihrer Domain berichtet haben. Da mußte man in den letzten Monaten (vor BD) nur mit site: verfolgen, was angezeigt wurde - nichts anderes als manches, was hier geschildert wird.

PS: Es gibt natürlich auch noch Domains, die ganz simpel Links verloren haben oder deren Links schwächer geworden sind - daß da google träger wird, dürfte ja wohl auch bekannt sein.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

The-Plaqe
PostRank 6
PostRank 6
Beiträge: 364
Registriert: 19.10.2005, 09:53

Beitrag von The-Plaqe » 11.05.2006, 03:27

was mir noch aufgefallen ist:

seit oktober habe ich bei einer seite alles nicht mehr vorhandenen seiten dieser domain bei google aus dem index entfernen lassen, was auch circa nach zwei wochen der fall war.

nun hab ich mal dieser seite bei google gefiltert und siehe da *g* die seiten sind anhand der dateinamen wieder im index vorhanden, aber nicht etwa mit dem cache datum von oktober sondern alle seiten schön mit der server fehlermeldung 404 NOT FOUND. google hat also diese ganzen 404er die der Server ausgegeben hat, da es die seiten ja nicht mehr gibt, in den index aufgenommen, das kranke, diese werden besser gerankt als seiten die im index "normal" drinne sind. :o

ich hoffe dass bleibt kein dauereffekt *g*

marc75
PostRank 9
PostRank 9
Beiträge: 1916
Registriert: 06.10.2004, 09:36

Beitrag von marc75 » 11.05.2006, 07:32

der bot kommt doch, daran liegt es nicht.

@ marc75, Last-Modified: Sun, 30 Apr 2006 20:41:52 GMT
welcher Bot kommt der mozilla oder der alte?
der Mozilla Bot mag gzip gesendete Seiten, wegen sparen an Bandbreite.

@Zur Theorie Platzmangel auf der Platte
Glaub ich nicht wirklich, habe heute per Zufall gesehen das google zu einem schwachen Keywort wieder alte Seiten im index hat, es handelt sich dabei um alte Domains (5 Stk.), die den Inhalt seit über einen Jahr nicht mehr draufhaben. Auf den 5 Domains gibt es das site: Problem auch nicht.

willy
PostRank 4
PostRank 4
Beiträge: 161
Registriert: 20.08.2005, 14:47

Beitrag von willy » 11.05.2006, 07:37

The-Plaqe hat geschrieben:seit oktober habe ich bei einer seite alles nicht mehr vorhandenen seiten dieser domain bei google aus dem index entfernen lassen, was auch circa nach zwei wochen der fall war.

nun hab ich mal dieser seite bei google gefiltert und siehe da *g* die seiten sind anhand der dateinamen wieder im index vorhanden, aber nicht etwa mit dem cache datum von oktober sondern alle seiten schön mit der server fehlermeldung 404 NOT FOUND....
Bei mir sind sie auch wieder drin (mit Cache vom Juni 2005). Diese URL-Console ist nicht nur krank sondern komplett überflüssig :bad-words:

Grüße, Willy

marc75
PostRank 9
PostRank 9
Beiträge: 1916
Registriert: 06.10.2004, 09:36

Beitrag von marc75 » 11.05.2006, 08:28

Diese URL-Console ist nicht nur krank sondern komplett überflüssig
Die löscht ja auch nicht, Sie blendet nur aus (ca. 180 Tage), So steht/stand es jedenfalls in der google faq

mcchaos
PostRank 9
PostRank 9
Beiträge: 1414
Registriert: 27.07.2004, 19:18

Beitrag von mcchaos » 11.05.2006, 08:45

Dann wundert es mich nicht, dass die Festplatten bei Tante G voll sind... :crazyeyes:

The-Plaqe
PostRank 6
PostRank 6
Beiträge: 364
Registriert: 19.10.2005, 09:53

Beitrag von The-Plaqe » 11.05.2006, 14:39

also da muss ich dann auch sagen, dass es nicht mehr nachvollziehbar ist. google nimmt diese seiten ja auch nur wirklich dann aus dem index wenn diese anhand von 404er nicht mehr an dieser stelle zu finden sind. wieso sollte der seitenbetreiber diese dokumente nach 180 tagen wieder an dieser stelle haben, obwohl er sie löschen lassen hat - klingt für mich ein wenig hirnverbrannt. :lol:

mcchaos
PostRank 9
PostRank 9
Beiträge: 1414
Registriert: 27.07.2004, 19:18

Beitrag von mcchaos » 11.05.2006, 15:21

Ja, ich habe auch schon mal 12 Monate damit verbracht, Seiten aus dem Indexzu bekommen. Vielleicht lassen sie die drin, damit sie damit angeben können, mehr Seiten indexiert zu haben als die anderen.

MeNoZony
PostRank 6
PostRank 6
Beiträge: 476
Registriert: 26.08.2004, 01:59
Wohnort: Ruhrgebiet

Beitrag von MeNoZony » 11.05.2006, 15:35

Kriege heute Bestellungen auf Seiten rein, an denen 3 Jahre nicht gearbeitet wurde- Besucher kamen von Google.
Mein Gott, wenn die Dödel jetzt noch den anderen Uralt-Krempel von anno dunnemal in die Serps spülen bin ich wahrscheinlich spätestens im Juni reif für die Reichensteuer... :lol:

Wolfgang67
PostRank 3
PostRank 3
Beiträge: 69
Registriert: 31.03.2006, 17:08

Beitrag von Wolfgang67 » 11.05.2006, 16:54

Nun hab ich seit 4 Monaten eine 301er für alle Seiten der alten Domain auf die neue Domain per htaccess. Seit ca. 2 Monaten ist der Cache der alten Seite wie eingefroren. Permanent 11.400 links... und das sind alles alte Seiten von vor einem Jahr.

Gestern hab ich mal meine logs per Hand durchstöbert und geschaut was googlebot denn so alles durchschaut... erschreckend. Der spidert die Seiten der alten Domain immer noch recht umfangreich :!: (obwohl er immer schön brav den 301er bekommt)

Gleichzeitig ist ein keyword der alten URL plötzlich wieder auf Platz Eins der durch google reinkommenden Besucher.

Da ist mir doch glatt ein Verdacht gekommen. Als nächstes habe ich dann den 301er aus der htaccess genommen... und siehe da: Plötzlich ohne Ende 404er in der Auswertung... und wenn man sich die Referrer anschaut: Kommen fast alle über die google serps rein. Ich kann auch durch geschickte Wahl der Suchworte wieder alte Seiten der alten Domain in den serps auf den ersten Plätzen finden :roll:

So langsam glaube ich daran, dass google alle Daten der letzten Monate korrupt hat und als Notlösung alten Schrott eingespielt hat. Deswegen wahrscheinlich auch plötzlich wieder der alte Titel bei dmoz.

Für mich hieße das im Umkehrschluss, dass die neue Seite google-intern wahrscheinlich 1. noch keine Backlinks hat (wegen alter Daten) und 2. ich jede Menge Double Content auf meiner alten Domain hätte (die aufgrund alter Daten wichtiger eingestuft wird als die neue) und daher die neue nicht vernünftig gespidert wird.


Ich lasse nun mal die 301er ganz weg, stattdessen als index auf der alten Domain: "Wir sind umgezogen"... und darunter ein link zur neuen URL. Keine Weiterleitung mehr... kein Gar nichts. Dafür aber eine robots.txt, die auf der alten Domain die Seiten blockiert. :evil:

So wie der Bot die alte Seite derzeit spidert, nimmt er die Ergebnisse vielleicht tatsächlich raus...

Verlieren kann ich eigentlich nichts, denn die alten PRs wurden bereits vererbt (bis auf die Startseite... die steht immer noch bei Null :evil: )

Evtl. mach ich nur in der index.php wieder eine 301er rein... vielleicht vererbt er dann auch irgendwann mal den PR auf der Hauptdomain.


Ich finde meine Theorie gut :D ... was sagt Ihr?

Hasenhuf
PostRank 9
PostRank 9
Beiträge: 2840
Registriert: 26.12.2005, 22:22

Beitrag von Hasenhuf » 11.05.2006, 17:29

marc75 hat geschrieben:welcher Bot kommt der mozilla oder der alte?
der Mozilla Bot mag gzip gesendete Seiten, wegen sparen an Bandbreite.
So wie es aussieht kommen beide aber damit habe ich mich nicht so genau beschäftigt. Meine Seiten sind nicht gegzipt.

The-Plaqe
PostRank 6
PostRank 6
Beiträge: 364
Registriert: 19.10.2005, 09:53

Beitrag von The-Plaqe » 11.05.2006, 17:56

Alles Seiten die es nicht mehr gibt sind aber derzeit in den Serps, seit Oktober waren diese eigentlich nicht da. Die Daten die seit Dez. auf dieser Domain eigentlich waren (circa. 170.000 Seiten, sind auf 1000 abgesackt)...

DIE ALTEN DINGER:
Ergebnisse 1 - 10 von ungefähr 39.700 aus www.**********.de für , ******.php **,** . (0,53 Sekunden)
2. Juli 2005 20:29:08 GMT
Da kann man doch wirklich nur noch abgdrehen *g*

Martin Ice
PostRank 6
PostRank 6
Beiträge: 346
Registriert: 24.11.2005, 19:38

Beitrag von Martin Ice » 11.05.2006, 17:59

Hab zwar immer nur noch knapp 1/10 der Seiten im Index und jede Menge alten Schrott den es gar nicht mehr gibt. Aber seit gestern geht es steitg aufwärts, jedenfalls auf 66.249.85.99. Die anderen DCs sehen nicht so rosig aus. Schnell 3x mal auf Holz klopfen.

Matts post:
Alan Eustace is up. He’s our Senior VP of Engineering, so he doesn’t have to wear a suit. Cool, Alan’s going to walk through the life of a query! He runs through the need to crawl, index, and then score relevant results. “Speed matters.” With 8 billion pages, it would take 253 years (I think I got that right) to fetch pages if you fetch one page per second. “It’s important that we gently crawl the web at very high speeds.” Alan talks about duplicate pages, which can vary from 30-50% of pages with a naive approach. Alan notes that you have to avoid infinite loops such as calendars. Freshness matters. Size matters, especially with long-tail queries.
Feshness matters!!! Deswegen sind auch all die ganzen ollen Seiten im Index. Oder meint er damit, dass alte seiten gegen neue Seiten gerechnet werden um zu gucken ob sich der Inhalt geändert hat?
Alan talks about duplicate pages, which can vary from 30-50% of pages with a naive approach
Heißt das jetzt, dass sich 30-50% der Seiten ähnlich sehen oder das Seiten mit 30%-50% gleichem Inhalt als Spam gilt?

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag