Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Neue Domain, sinkende Anzahl an Sites im Index (Google)

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
SISTRIX
PostRank 9
PostRank 9
Beiträge: 1255
Registriert: 01.09.2003, 20:57
Wohnort: Bonn

Beitrag von SISTRIX » 18.05.2006, 13:01

Hasenhuf hat geschrieben:Haben diese Seiten einen sinnvollen Content und kein DC? Es geht doch nicht darum das auch Spamseiten betroffen sind aber wenn es eine Maßnahme gegen Spam ist, dann ist sie ungeeignet.
Ich glaube nicht, dass die Massnahme getroffen wurde um Spam zu erkennen und rauszufiltern sondern eher, um den derzeitigen technischen Möglichkeiten Googles Rechnung zu tragen. Vielleicht sollte man das auch vor dem Hintergrund, der Aussage Schmidts sehen ("Server sind voll"). Dass dadurch, dass die Anzahl/Qualität der eingehenden Links in einem vernünpftigen Verhältnis zur Zahl der indexierten Seiten stehen muss, auch und vielleicht sogar hauptsächlich Spam/"unnötige" Seiten betroffen sind, ist eventuell ein gewollter Nebeneffekt.
Hasenhuf hat geschrieben:Nein, das ist nicht naheliegend. Erstens steht nicht jede Seite auf Pos. 1 und zweitens, werden dadurch zum Beispiel Seiten mit Conten, der selten ist und selten gefragt wird (also selten und noch seltener themenrelevant verlinkt ist), auch über die seltenen Keys nicht gefunden.
Selbstverständlich ist es naheliegend. Google baut noch immer auf der Grundannahme Link=positive Wertung auf. Nur wird dieses Konzept jetzt nicht genutzt um Seiten zu einem Keyword zu sortieren sondern um zu bestimmen, welche Seiten überhaupt in den Index dürfen. Dass dabei (häufig kleinere) Seiten auf der Strecke bleiben war bereits Thema in den Kommentaren von Cutts. Er meinte, dass sie noch am feintunen der Einstellungen sein aber schlussendlich kann es natürlich sein, dass durch dieses System gute, aber wenig verlinkte Contentseiten draussen bleiben.

Gruß Johannes
SISTRIX Suchmaschinen Blog
SEO- und SEM-Tools: [url=httpss://tools.sistrix.de/toolbox/?tid=lnk_foren_abk]SISTRIX Toolbox[/url]
Linktausch für PR9 und 10 gesucht!

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

oldInternetUser
PostRank 9
PostRank 9
Beiträge: 1250
Registriert: 19.03.2005, 12:52

Beitrag von oldInternetUser » 18.05.2006, 14:11

Man kann sich das Problem relativ simpel am Beispiel der Preisvergleichs-Seiten deutlich machen:

Wenn 10 Händler das Produkt xyz mit Beschreibung anbieten und man aus diesen eine Preisvergleichsseite erstellt, dann sieht diese Seite im Kern eigentlich immer gleich aus - außer, einer der Seitenersteller hat alte Daten.

Ergebnis: Eigentlich benötigt ein Nutzer, der einen Preisvergleich zu xyz sucht, nur ein einziges aktuelles Ergebnis, alle weiteren 100 Domains mit Preisvergleichen von Konkurrenten sind im Kern redundant, natürlich mögen sie sich in den Randdingen voneinander unterscheiden. Also vermißt der Nutzer auch nichts, wenn 50 oder 80 Domains fehlen.
aber schlussendlich kann es natürlich sein, dass durch dieses System gute, aber wenig verlinkte Contentseiten draussen bleiben.
Solche, bsp. neue Seiten zu einer alten Thematik, können neue Aspekte aufgreifen oder Dinge vertieft behandeln. Ergebnis: Erst werden sie zu 3/4/5-Kombinationen gefunden, weil die Klassiker da streiken, daraufhin erhalten sie Links und überholen dann sogar die Klassiker bei den schweren Einzelkeys.

PS: Alles eigene Erfahrung - es muß nur der Inhalt gut genug sein (und nicht der hundertste Aufguß für Suchmaschinenoptimierung oder Adsense-Optimierung).

SISTRIX
PostRank 9
PostRank 9
Beiträge: 1255
Registriert: 01.09.2003, 20:57
Wohnort: Bonn

Beitrag von SISTRIX » 18.05.2006, 14:22

Wobei sich das Problem bei den (kleinen) Contentseiten natürlich auch erst ergibt, wenn das angesprochene Verhältnis Links/Seiten nicht mehr passt. Das könnte zum Beispiel passieren, wenn der Webmaster ein Forum aufsetzt und damit neben 10 ordentlichen Contentseiten nun auf einmal 100 Seiten hat. Aber prinzipiell denke ich, dass der Schritt, den Google gemacht hat in die richtige Richtung geht.

Gruß Johannes
SISTRIX Suchmaschinen Blog
SEO- und SEM-Tools: [url=httpss://tools.sistrix.de/toolbox/?tid=lnk_foren_abk]SISTRIX Toolbox[/url]
Linktausch für PR9 und 10 gesucht!

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Hasenhuf
PostRank 9
PostRank 9
Beiträge: 2840
Registriert: 26.12.2005, 22:22

Beitrag von Hasenhuf » 18.05.2006, 16:53

JenaTV hat geschrieben:Google hat nicht einen einzigen User der tatsächlich nach automatisch generiertem Content sucht. ...
Also kein sinnvoller Inhalt. Zum xten mal, dem Zeug trauert keiner hinterher es sind aber auch Seiten betroffen die kein Forum, Blog , generierter Content, DC, Spam, Linkseiten oder sonst was in der Art sind.
SISTRIX hat geschrieben:Selbstverständlich ist es naheliegend. ... aber schlussendlich kann es natürlich sein, dass durch dieses System gute, aber wenig verlinkte Contentseiten draussen bleiben.
Und was ist daran naheliegend? Wenn linkschwache Seiten bei umkämpften Keys im Nirvan landen, bitte, wenn stören die da. Aber die gleichen Seiten können bei seltenen Keys überhaupt nicht gefunden werden wenn sie nicht im Index sind.
SISTRIX hat geschrieben:Wobei sich das Problem bei den (kleinen) Contentseiten natürlich auch erst ergibt, wenn das angesprochene Verhältnis Links/Seiten nicht mehr passt.
Wie kommst Du auf den schmalen Pfad? Da lassen sich mit Sicherheit genügend Beispiele finden auf die diese Aussage nicht paßt.

meinkind
PostRank 5
PostRank 5
Beiträge: 324
Registriert: 22.01.2006, 23:42

Beitrag von meinkind » 18.05.2006, 17:23

hey das hört sich bei euch so an, als würde google foren und blogs bestrafen!

überlegt mal womit google sein tägliches brot verdient --> adsense (90% des umsatzes). und wo ist vor allem adsense zu finden? foren und blogs. die schmeissen keine foren und blogs raus. dort ist sehr viel wertvoller unique content, wo user genau das finden ws sie brauchen; probleme mit dem computer oder auto, hilfe und beraung in verschiedenen lebensbereichen etc.

und ps: https://www.google.com/search?q=site%3A ... rketing.de

Clever
PostRank 3
PostRank 3
Beiträge: 87
Registriert: 08.12.2004, 17:27

Beitrag von Clever » 18.05.2006, 17:54

Angefangen hat das ja damals alles, als Yahoo behauptete mehr Seiten im Index zu haben und Google kurz darauf diese Zahl von der Startseite nahm und behauptete sie hätten trotzdem mehr... :D

Garfield
PostRank 9
PostRank 9
Beiträge: 2182
Registriert: 12.10.2004, 10:22

Beitrag von Garfield » 18.05.2006, 18:19

Laut yourcache.com stehe ich derzeit zwischen Minus 1 (:lol:) und 15 Seiten im Index. Bis vor ein paar Wochen waren es noch (echte) ca. 10.000...

Machen kann man eh nix dran außer den üblichen Rezepten, wie man die Zeit nutzt :

- Tee kaufen
- Tee kochen
- Tee trinken
- Links besorgen
- Content ausbauen
- Duplicate Content eliminieren, falls vorhanden

Und, wie man hört, soll man angeblich auf schlechte Nachbarschaft aufpassen. Aber das ist ja auch nix neues.

rechtlegal
PostRank 9
PostRank 9
Beiträge: 2874
Registriert: 20.04.2005, 17:23
Wohnort: Tespe / Elbe (daneben ist Hamburg)

Beitrag von rechtlegal » 18.05.2006, 18:27

Garfield hat geschrieben:Laut yourcache.com stehe ich derzeit zwischen Minus 1 (:lol:) und 15 Seiten im Index.
Kater,

-1 heißt abgeschaltetes DC.

oldInternetUser
PostRank 9
PostRank 9
Beiträge: 1250
Registriert: 19.03.2005, 12:52

Beitrag von oldInternetUser » 18.05.2006, 20:11

@Garfield, zu deiner 15-Domain fällt mir ja auch nicht viel ein. Nur winziger Content, der reichhaltigste Content ist noch die google-Werbung, auf jeder Unterseite dieselben Partnerlinks.

Umgekehrt sieht man an der Domain schön, wie drastisch die Folgen von BigDaddy sind, da der PR in der Vergangenheit problemlos ausgereicht hat, alle Seiten zu indizieren.

Damit sind mit BigDaddy gewisse OnPage-Kriterien wieder wichtiger geworden, die sich nicht mehr - wie noch bisher - durch hinreichend starke Backlinks ausgleichen lassen.

heldenshop
PostRank 1
PostRank 1
Beiträge: 3
Registriert: 18.05.2006, 19:58

Beitrag von heldenshop » 18.05.2006, 20:12

Hallo

Vorab, ich bin kein Pprogrammierer sondern nur der Besitzer des Webshop. Deswegen bitte ich mir alles möglichst einfach zu erklären :D

Ich glaube das ich auch von dem hier beschriebenen Problem betroffen bin.

Folgender unserer Webshops macht mir sorgen.

www.heldenshop.de

1. Das Pagerank hat sich nicht geändert sondern ist konstant auf 4 geblieben.

2. Google hatte bis vor kurzem ca.330.000 Seiten indexiert. Da die Seite aber nur ca. 40.000 hatte war es mir eh ein Rätsel wieso die Zahl so hoch war. Das es aber wunderbar funktioniert hat, hat es mich nicht weiter gestört.

Jetzt ist die Anzahl der Seiten im Index aber auf ca.17.000 abgerutsch.

Was kann ich tun?

Man sagte mir es liegt wahrscheinlich daran das die Produkte zum großen Teil keine Beschreibung haben. Wenn es daran liegt kann ich damit leben, dann muß ich eben allen Produkten eine Beschreibung verpassen.

Aber.......

ich habe auch Produkte gefunden die haben eine Beschreibung sind aber trotzdem nicht im Index...aber andere ohne Beschreibung schon. Das erscheint mir unlogisch.

Beispiel: Das Produkt hat eine Beschreibung aber ist trotzdem nicht im Index

https://www.heldenshop.de/product_info. ... s_id=28412

Wenn es so weiter geht muß ich einen Mitarbeiter entlassen deswegen bin ich schon etwas nervös und für Hilfe sehr dankbar.

Gruß

Tobias

heldenshop
PostRank 1
PostRank 1
Beiträge: 3
Registriert: 18.05.2006, 19:58

Beitrag von heldenshop » 18.05.2006, 20:16

Zusatz:

Er ist nämlich eine wahnsinnarbeit ca.20.000 Produkten in deutsch/englisch eine Beschreibung zu verpassen...wäre Schade wenn es unsonst wäre

Wolfgang67
PostRank 3
PostRank 3
Beiträge: 69
Registriert: 31.03.2006, 17:08

Beitrag von Wolfgang67 » 18.05.2006, 20:21

...
Zuletzt geändert von Wolfgang67 am 02.11.2006, 17:02, insgesamt 1-mal geändert.

oldInternetUser
PostRank 9
PostRank 9
Beiträge: 1250
Registriert: 19.03.2005, 12:52

Beitrag von oldInternetUser » 18.05.2006, 20:27

@heldenshop: Suche nach "Fresh from the artists at WETA comes the newest entry"

von deiner Domain (willkürlich rausgegriffen) listet

"Fresh from the artists at WETA comes the newest entry"

etwa 37 Domains (wenn ich mich nicht verzählt habe), allesamt mit denselben Artikeln.

Einem Sucher genügen fünf bis zehn Ergebnisse, das hatte ich oben schon analog zu den Preisvergleichsseiten geschrieben.

Machts halt mal was Originelles, nicht was, was schon hunderte vor euch machen - dann wirds auch was mit google.

heldenshop
PostRank 1
PostRank 1
Beiträge: 3
Registriert: 18.05.2006, 19:58

Beitrag von heldenshop » 18.05.2006, 20:38

Das heißt auf gut deutsch...nicht die Texte der Herrsteller verwenden die alle nehmen, sondern andere texte verwenden oder selber Texte schreiben die sich somit von den anderen unterscheiden...richtig???

oldInternetUser
PostRank 9
PostRank 9
Beiträge: 1250
Registriert: 19.03.2005, 12:52

Beitrag von oldInternetUser » 19.05.2006, 00:01

@heldenshop: Yes - eigene, individuelle Texte - und das heißt Arbeit, viel Arbeit, immerwährend neue Arbeit - ohne Garantie, daß es dafür auch Geld gibt.

@Garfield: Deine Domain mit den 15 Seiten ist wohl gekickt worden. Eine Suche direkt nach der Domain sieht 'etwas heikel' aus.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag