Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Neue Domain, sinkende Anzahl an Sites im Index (Google)

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Georgi
PostRank 4
PostRank 4
Beiträge: 123
Registriert: 29.03.2006, 23:49

Beitrag von Georgi » 19.05.2006, 00:25

heldenshop - stimme da mit dem alten Internetbenutzer überein. Und da es schon so weit ist noch eine Meinung von mir: Es wird schlimmer werden, bevor es besser wird. Aber nicht verzagen: Du bist jetzt in die, wie ich es mal nenne, "Neubewertung" gerutscht. Das ist nicht das, was viele Leute Dir als "Big Daddy" verkaufen wollen, sondern eine neue Bewertung des Indexes (und der Seiten, die jetzt erst mal aufgenomen werden sollen). Da ists halt so, dass Deine Seite erst mal von Grund auf neu von Google bewertet wird. Also anders gesagt: "Die Karten werden neu gemischt" und keiner garantiert _jetzt_ den Erfolg.

Nicht verzagen, wenn Du (fast nur) auf Google gesetzt hast: Zähne zusammenbeissen und durch! Und wenns um einen Mitarbeiter geht (was keiner besser verstehen kann als ich): Setze ihn ein um Dich von Google unabhängiger zu machen: Lass ihn ein Produktblog schreiben, Links sammeln, Vergleiche ziehen, Unique Content schreiben... so wirst Du (auf lange Frist) gewinnen.

Just my 0,02 €, Vodka, Georgi

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

SISTRIX
PostRank 9
PostRank 9
Beiträge: 1255
Registriert: 01.09.2003, 20:57
Wohnort: Bonn

Beitrag von SISTRIX » 19.05.2006, 07:46

Hasenhuf hat geschrieben:
SISTRIX hat geschrieben:Selbstverständlich ist es naheliegend. ... aber schlussendlich kann es natürlich sein, dass durch dieses System gute, aber wenig verlinkte Contentseiten draussen bleiben.
Und was ist daran naheliegend? Wenn linkschwache Seiten bei umkämpften Keys im Nirvan landen, bitte, wenn stören die da. Aber die gleichen Seiten können bei seltenen Keys überhaupt nicht gefunden werden wenn sie nicht im Index sind.
Du zitierst mich hier sinnfälschend. Das naheliegend war auf die Methode, eine Art von "PageRank" als Methode zur Bestimmung der maximal möglichen Seiten im Index zu nutzen, bezogen.
Dass durch dieses System kleine Contentseiten bzw. Seiten, die guten Content haben, diesen aber durch Foren oder ähnliches aufblähen, draussen bleiben könnten, habe ich auch geschrieben und wir sind uns einig, dass das nicht optimal ist.
Hasenhuf hat geschrieben:Wie kommst Du auf den schmalen Pfad? Da lassen sich mit Sicherheit genügend Beispiele finden auf die diese Aussage nicht paßt.
Da weder Du noch ich die Methode, die Google zur Ermittlung der maximal Anzahl an indexierten Seiten nutzt, kennt, bringen Beispiele rein gar nichts.

Gruß Johannes
SISTRIX Suchmaschinen Blog
SEO- und SEM-Tools: [url=httpss://tools.sistrix.de/toolbox/?tid=lnk_foren_abk]SISTRIX Toolbox[/url]
Linktausch für PR9 und 10 gesucht!

Caschi
PostRank 8
PostRank 8
Beiträge: 705
Registriert: 23.04.2003, 09:03

Beitrag von Caschi » 19.05.2006, 08:52

@Johannes

Bist Du dir wirklich so sicher was Google uns da erzählen will??? Ich werde das Gefühl nicht los die bauen da richtig Scheisse und wollen uns jetzt so das ganze verkaufen. Warum sollte sonst ne Contentseite von mir mit Pr6 (160) Seiten nur noch das Anrecht auf 12 Seiten haben???

Viele Grüße

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Hasenhuf
PostRank 9
PostRank 9
Beiträge: 2840
Registriert: 26.12.2005, 22:22

Beitrag von Hasenhuf » 19.05.2006, 08:59

SISTRIX hat geschrieben:Das naheliegend war auf die Methode, eine Art von "PageRank" als Methode zur Bestimmung der maximal möglichen Seiten im Index zu nutzen, bezogen.
Das ist mir klar nur ist es eben nicht naheliegend saubere Seiten aus dem Index zu nehmen. Warum? Das habe ich unter deinem gekürzten Zitat geschrieben. Schlechter ranken ok aber aus dem Index nehmen macht keinen Sinn.
SISTRIX hat geschrieben:Da weder Du noch ich die Methode, die Google zur Ermittlung der maximal Anzahl an indexierten Seiten nutzt, kennt, bringen Beispiele rein gar nichts.
Das wäre richtig, wenn Du nicht geschrieben hättest "... wenn das angesprochene Verhältnis Links/Seiten nicht mehr passt". Damit legst Du dich auf eine Methode mit relativ wenig Spielraum fest.

SISTRIX
PostRank 9
PostRank 9
Beiträge: 1255
Registriert: 01.09.2003, 20:57
Wohnort: Bonn

Beitrag von SISTRIX » 19.05.2006, 09:02

@Caschi: Wenn ich im Forum nach "Datencrash" suche und überlege, wieviele Leute seit 2003 ein totales Datenchaos bei Google prophezeit haben und dieses dann in Gegenüberstellung zur steigenden Qualität der SERPs sehe, so glaube ich einfach nicht, dass Google Technikprobleme hat. Man sollte bedenken, dass Google keine kleine Klitsche mit 20 Leuten mehr ist, wo über Nacht der Obernerd für ein Update mal an irgendwelchen Parametern im Quelltext rumschraubt, sondern ein Milliardenunternehmen, das riesige Resourcen hat. Für ein Update wie Big Daddy wird also mit Sicherheit der ein oder andere Testlauf vorgenommen und zufriedenstellen abgeschlossen worden sein.

Dass der PageRank, der seit Jahren (!) nur noch unwesentlich in das Ranking eingeht einen Einfluß auf diesen Wert der erlaubten Domains in Index hat, glaube ich genau so wenig wie Du :)

Gruß Johannes
SISTRIX Suchmaschinen Blog
SEO- und SEM-Tools: [url=httpss://tools.sistrix.de/toolbox/?tid=lnk_foren_abk]SISTRIX Toolbox[/url]
Linktausch für PR9 und 10 gesucht!

SISTRIX
PostRank 9
PostRank 9
Beiträge: 1255
Registriert: 01.09.2003, 20:57
Wohnort: Bonn

Beitrag von SISTRIX » 19.05.2006, 09:07

Hasenhuf hat geschrieben:Schlechter ranken ok aber aus dem Index nehmen macht keinen Sinn.
Wieso es Sinn macht, habe ich weiter oben geschrieben:

"Google hat erkannt, dass die Zahl (automatisch) generierter Seiten schneller als ihre Speicher/Suchmöglichkeiten wächst. Die massenhafte Verbreitung von "Doorway-Scripten", Amazon-API-Shops, Produkt-CSV-Dateien usw hat dazu geführt, dass jeder einige 100.000 wenn nicht sogar Millionen Seiten in den Index schießen kann. Verstärkt wird das Problem durch die ganzen schlampig programmierten Forenscripte, bei denen Anzahl an Seiten häufig über dem 10-fachen der Postings liegt ("Archiv", usw)."

Meinst Du nicht, dass es so ist? Gehen wir mal großzügig von 10 Mrd. Seiten im Index aus. Ich kann mir gut vorstellen, dass allein deutsche Spammer davon 500 Mio stellen. Das jetzt auf andere Länder hochgerechnet, ist die technische Belastung durch Müll im Index sehr hoch. Da Spamerkennung offensichtlich automatisiert nicht funktioniert, musste man sich, um die Datenbankgröße zu begrenzen etwas neues Ausdenken. Und hier kommt halt die Überlegung, dass jede Seite nur sooft in den Index kommt, wie die Qualität/Anzahl der eingehenden Links es erlaubt.

Gruß Johannes
SISTRIX Suchmaschinen Blog
SEO- und SEM-Tools: [url=httpss://tools.sistrix.de/toolbox/?tid=lnk_foren_abk]SISTRIX Toolbox[/url]
Linktausch für PR9 und 10 gesucht!

Garfield
PostRank 9
PostRank 9
Beiträge: 2182
Registriert: 12.10.2004, 10:22

Beitrag von Garfield » 19.05.2006, 09:47

Wolfgang67 hat geschrieben:... und außerdem findet Andreas Viklund es bestimmt scheiße, dass sein footer link aus dem template entfernt wurde :D
Wenn man nicht weiß, um welche Domain es geht, sollte man sich einfach raushalten.

ts
PostRank 7
PostRank 7
Beiträge: 551
Registriert: 06.08.2005, 01:55
Wohnort: München

Beitrag von ts » 19.05.2006, 09:53

Wenn man folgender Abfrage trauen kann: https://www.google.de/search?hl=de&q=*. ... uche&meta= , dann sind derzeit 25 Mrd Seiten im Index und mit dem Filter auf deutschsprachig ist man bei 2,7 Mrd. Die sind schon etwas höher die Werte. Wenn man auf Webmasterworld liest, dann ist die hier diskutierte "Neue Indizierung" bereits Fakt, allerdings noch mit Bugs belegt, die im Zusammenspiel mit MC zur Zeit bereinigt werden sollen. Wenn ich da an Canonical denke wird einem Angst und Bange.:wink:
Es macht ganz stark den Eindruck, dass dies die neue Realität ist, wobei man nach meiner Meinung nur die Kleinen erwischt hat und den großen Spammer etwas mehr Paltz an der Spitze gemacht wurde. Da wurden sicherlich auch ein paar Projekte verloren, aber andere sind dafür hoch geschossen.
Das ist schön von Sistrix geschrieben, das man an die Grenze der technischen Möglichkeiten gestoßen ist und man das Ganze wieder in den Griff bekommen muß. Da hatte hier doch auch jemand vor zwei drei Tagen angefragt wie er am Besten 15.000 Datensätze dynamisch in den Index pumpen kann. Auch für Anfänger ist es mittlerweile kein Problem mehr mal schnell 100.000 Seiten zu erstellen. Wobei Sistrix sich etwas widerspricht, erst ist der PR das Maß der Dinge und dann beim Beispiel von Caschi nicht mehr. Wobei er sicher die Power hinter dem PR meint. Wer ein bißchen mit ganz großen Datenbaken spielt, der weiß wie schnell der Bockmist wachsen kann, gerade nach Updates, auch wenn noch so gute Leute am Werk sind. Da wird sicherlich noch an der einen oder anderen Verschlimmbeutelung gearbeitet.
So wie es Ausschaut sollte man sich mit den neuen Realitäten abfinden und das Beste draus machen.

Garfield
PostRank 9
PostRank 9
Beiträge: 2182
Registriert: 12.10.2004, 10:22

Beitrag von Garfield » 19.05.2006, 09:59

oldInternetUser hat geschrieben:@Garfield: Deine Domain mit den 15 Seiten ist wohl gekickt worden. Eine Suche direkt nach der Domain sieht 'etwas heikel' aus.
Nett ausgedrückt, das "heikel" :wink:

Allerdings glaube ich nicht, daß sie gekickt wurde, weil mittlerweile wieder 50 - 100 Besucher täglich über Google kommen und noch ein paar Seiten im normalen, nicht-supplemental-Index sind.

Ich habe schon mehrere Domains gesehen, die gekickt wurden, die waren von einem auf den anderen Tag komplett aus dem Index raus. Ich glaube hier an eine massive Abwertung aus irgendwelchen Gründen. Da könnten ja diverse zusammenkommen :

- Linktauscherei (Partnerlinks sind mittlerweile quasi alle weg von der Domain bis auf zwei Stück)
- Früherer Unsinn auf der Domain, der aber schon lange beseitigt wurde
- Zu wenig Unique Content auf den Unterseiten. Das geht aber auch schlecht, da mehr unique Content draufzukriegen, weil die eingestellten Artikel nun mal gelegentlich einfach nur aus ein paar Worten bestehen müssen und damit schon alles sagen...

Wie sollte ich auf die Unterseiten mehr unique content draufbekommen ? Das einzig machbare wäre, Artikel aus der gleichen Kat. anzeigen zu lassen und deren Text anzuteasern. Aber das wäre für den User auch nicht hilfreich.

Andererseits sieht die Abfrage nach "www.domain.de" böse aus - also kommt Kicken doch in Frage... also -> Reinclusion Request, ich koooooomme :lol:

Btw, OldInternetUser, nur zur Sicherheit: Du weißt sicher, um welche Domain (P-F) es geht ?

SISTRIX
PostRank 9
PostRank 9
Beiträge: 1255
Registriert: 01.09.2003, 20:57
Wohnort: Bonn

Beitrag von SISTRIX » 19.05.2006, 10:04

ts hat geschrieben:Wobei Sistrix sich etwas widerspricht, erst ist der PR das Maß der Dinge und dann beim Beispiel von Caschi nicht mehr.
Das "PageRank" hatte ich absichtlich in Anführungszeichen gesetzt, um zu zeigen, dass ich nicht _den_ (öffentlichen) PageRank meine sondern halt einen Wert, der aus Qualität/Quantität usw der eingehenden und eventuell ausgehenden Links berechnet wird. Sorry, wenn das falsch rübergekommen ist.

Gruß Johannes
SISTRIX Suchmaschinen Blog
SEO- und SEM-Tools: [url=httpss://tools.sistrix.de/toolbox/?tid=lnk_foren_abk]SISTRIX Toolbox[/url]
Linktausch für PR9 und 10 gesucht!

Caschi
PostRank 8
PostRank 8
Beiträge: 705
Registriert: 23.04.2003, 09:03

Beitrag von Caschi » 19.05.2006, 10:23

@johannes da haste recht. ich glaube normal auch nicht an sowas ... komisch ist das genau die seiten die der moziilabot geholt hatte nun wieder raus sind und weitere dann gefallen sind. wo das elend anfing hatte ich genau den stand vor bd...

oldInternetUser
PostRank 9
PostRank 9
Beiträge: 1250
Registriert: 19.03.2005, 12:52

Beitrag von oldInternetUser » 19.05.2006, 10:27

Garfield hat geschrieben:Btw, OldInternetUser, nur zur Sicherheit: Du weißt sicher, um welche Domain (P-F) es geht ?
Yep, die meine ich. War ja mit der Größenangabe 15 Seiten nicht so schwer zu finden.

Da sind jetzt noch auf jeder Seite dieselben 8 externen Links (das finde ich ziemlich viel), außerdem weiß ich nicht, ob nicht google diese w-l etwas problematisch findet.

Das eigentliche Problem ist ja: Weil, wie @SISTRIX beschrieben hat, solche Domains inzwischen leicht aufsetzbar sind, gibt es auch viele. Resultat: Leute, die Anzeigen aufgeben, verteilen dieselbe Anzeige rasch per Copy/Paste auf verschiedene Online-Portale, wobei dem google-Sucher ein Exemplar genügen würde. Diese für den Suchenden ärgerliche DC-Produktion macht google nun durch die Ausblendung bzw. das Nicht-mehr-Spidern partiell rückgängig.

Garfield
PostRank 9
PostRank 9
Beiträge: 2182
Registriert: 12.10.2004, 10:22

Beitrag von Garfield » 19.05.2006, 11:39

oldInternetUser hat geschrieben:Da sind jetzt noch auf jeder Seite dieselben 8 externen Links (das finde ich ziemlich viel),
Eigentlich sind es sogar 10, ich habe grade mal gezählt.
oldInternetUser hat geschrieben:außerdem weiß ich nicht, ob nicht google diese w-l etwas problematisch findet.
Ach, du hast recht, was bringt es bei dieser Domain noch, viel zu versuchen :oops: Ich habe das wieder ausgebunden. Entweder kommt sie wieder, wie sie früher war, und das war sie auch ohne irgendwelche Linktauscherei, oder sie kommt gar nicht mehr.

Ich habe jetzt auf jeden Fall die Zahl der outgoing links extrem reduziert. Jeder Linkpartner möge mir verzeihen, aber die Domain scheint eh mit einem Bein im Grab. Partnerlinks könnt Ihr gerne entfernen, und nochmal Entschuldigung dafür.
oldInternetUser hat geschrieben:Leute, die Anzeigen aufgeben, verteilen dieselbe Anzeige rasch per Copy/Paste auf verschiedene Online-Portale, wobei dem google-Sucher ein Exemplar genügen würde.
Das ist sicher richtig, nur zeigt die Zahl der Besucher meiner Domain, wie sie früher war, ja, daß durchaus Bedarf an meiner Homepage bestand. Es gibt ja auch viele Foren zu bestimmten Themen, und wie will Google automatisiert entscheiden, ob das Thema "Meine Füße jucken" auf Forum A vom gleichen geschrieben wurde wie das auf Forum B ? Und wie will Google es schaffen, bei der immensen Datenmenge, die die verwalten, rauszukriegen:

Moment, auf der Domain vom Garfield ist ein kleines bißchen Text, das kenne ich doch schon von Domain schlagmichtot.de !

Ich hoffe, du verstehst, auch wenn der Vergleich a bisserl hinkt :wink:

Naja, langer Rede kurzer Sinn: Der Reinclusion Request ist gestellt, die Domain so sauber wie schon lange nicht mehr. Entweder sie kommt jetzt irgendwann wieder oder nicht.

Danke auf jeden Fall für deine Ausführungen und deinen Rat !

homeofneeoo
PostRank 5
PostRank 5
Beiträge: 210
Registriert: 08.05.2006, 16:10

Beitrag von homeofneeoo » 19.05.2006, 13:02

hallo, hier werden ja gute gründe aufgezeigt....
nun hätte ich noch ne frage...
spielt die Programmierung (Art und Weise) bei der indizierung ein rolle...
meine site www.waeschedesign.com ist auf 9 indizierte seiten abgerutscht (es waren mal 95). Eine Mitbewerber Seite .www.earlyhist.de, die nur vermittelt (affiliate programm) hat sage und schreibe 28800 Seiten drin -> keine Ahnung ob die vor wochen noch mehr hatten...(bzgl. sinkender index seiten).
Die haben etwas mehr Produkte, aber trotzdem kommt mir das spanisch vor. Liegt das an der Programmierung oder was kann das sein?
wie kann ich hier dagegen halten??
thanks for help...
homeofneeoo
-------------------------------------------
www.mountainstar.info --> Winterurlaub in Österreich


Suche immer seriöse Partner;
-> Hotel, Wellness, Tirol, Wäsche,... einfach PN

SISTRIX
PostRank 9
PostRank 9
Beiträge: 1255
Registriert: 01.09.2003, 20:57
Wohnort: Bonn

Beitrag von SISTRIX » 19.05.2006, 13:08

homeofneeoo hat geschrieben:Spielt die Programmierung (Art und Weise) bei der indizierung ein rolle...
Kann natürlich immer sein
homeofneeoo hat geschrieben:Liegt das an der Programmierung oder was kann das sein?
Es kann eine ganze Reihe von Gründen haben. Das jetzt anhand Deines Beispiels zu untersuchen würde hier ausser Dir keinem helfen, deswegen belasse ich es bei den allgemein gehaltenen Tipp unten.
homeofneeoo hat geschrieben:wie kann ich hier dagegen halten??
Derzeitiger Stand: Sinnvolle (!), thematisch passende (!) eingehende Links auf alle Seiten der Homepage bekommen; sauberen, einzigartigen Content bereitstellen; keine Tricksereien; vernünftige ausgehende Links ohne Affilate-Links.

Gruß, Johannes
SISTRIX Suchmaschinen Blog
SEO- und SEM-Tools: [url=httpss://tools.sistrix.de/toolbox/?tid=lnk_foren_abk]SISTRIX Toolbox[/url]
Linktausch für PR9 und 10 gesucht!

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag