Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Neue Domain, sinkende Anzahl an Sites im Index (Google)

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Garfield
PostRank 9
PostRank 9
Beiträge: 2182
Registriert: 12.10.2004, 10:22

Beitrag von Garfield » 19.05.2006, 13:09

Homeofneeoo,

das Rauskippen von Seiten aus dem Index dürfte bei dir eher an zu wenigen Links zu deiner Seite und fehlender Unterscheidungskraft der Seiten liegen.

https://www.google.com/search?q=site:ww ... =&filter=0

Überall die gleiche Beschreibung in den Meta-Tags und die gleichen Keywords, wenn ich mich nicht grad versehen hab'. Google erkennt keinen Unterschied zwischen deinen Seiten, sondern denkt, es wär ein- und dieselbe, die es x-mal gibt. Und der Rest wurde daher rausgeworfen.

Schau, daß du jeweils ganz individuelle Meta-Description und Meta-Keywords pro Seite bekommst.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

homeofneeoo
PostRank 5
PostRank 5
Beiträge: 210
Registriert: 08.05.2006, 16:10

Beitrag von homeofneeoo » 19.05.2006, 13:18

danke euch für die tipps...

-----------
Schau, daß du jeweils ganz individuelle Meta-Description und Meta-Keywords pro Seite bekommst.
-----------
wenn ich jeder seite spezifische keywords gebe, muss ich dabei auf die menge schauen? oder ist es egal wenns nur 2-4 sind?
ist der title auch wichtig?
lg
homeofneeoo
-------------------------------------------
www.mountainstar.info --> Winterurlaub in Österreich


Suche immer seriöse Partner;
-> Hotel, Wellness, Tirol, Wäsche,... einfach PN

rechtlegal
PostRank 9
PostRank 9
Beiträge: 2874
Registriert: 20.04.2005, 17:23
Wohnort: Tespe / Elbe (daneben ist Hamburg)

Beitrag von rechtlegal » 19.05.2006, 13:21

homeofneeoo hat geschrieben:wenn ich jeder seite spezifische keywords gebe, muss ich dabei auf die menge schauen? oder ist es egal wenns nur 2-4 sind?
ist der title auch wichtig?
Lieber 2- 4 individuelle als durchgängig die selben.
Ja.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

homeofneeoo
PostRank 5
PostRank 5
Beiträge: 210
Registriert: 08.05.2006, 16:10

Beitrag von homeofneeoo » 19.05.2006, 13:24

leider werden bei xt commerce die keywords auf alle seiten geschrieben....
wohl kann ich welche dazuhängen..aber eben immer die zentral gleich voran...
hat jemabd erfahrung ob es da was gibt?
thanks...
-------------------------------------------
www.mountainstar.info --> Winterurlaub in Österreich


Suche immer seriöse Partner;
-> Hotel, Wellness, Tirol, Wäsche,... einfach PN

Garfield
PostRank 9
PostRank 9
Beiträge: 2182
Registriert: 12.10.2004, 10:22

Beitrag von Garfield » 19.05.2006, 13:29

Ich habe das bei einer Seite so gelöst, daß ich ne PHP-Abfrage in die Headerdatei gebaut hab, nach dem Motto :

Falls $metakeywords mit Inhalt gefüllt ist, lauten die meta-keywords: $metakeywords -> falls nicht, nimm standardmäßig : meta-keywords=startseitenkeywords

Und direkt dahinter dann die Variable $metakeywords wieder = "" gesetzt.

Vielleicht funktioniert der Trick auch bei dir ?

Martin Ice
PostRank 6
PostRank 6
Beiträge: 346
Registriert: 24.11.2005, 19:38

Beitrag von Martin Ice » 19.05.2006, 13:53

SISTRIX hat geschrieben:@Caschi: Wenn ich im Forum nach "Datencrash" suche und überlege, wieviele Leute seit 2003 ein totales Datenchaos bei Google prophezeit haben und dieses dann in Gegenüberstellung zur steigenden Qualität der SERPs sehe, so glaube ich einfach nicht, dass Google Technikprobleme hat. Man sollte bedenken, dass Google keine kleine Klitsche mit 20 Leuten mehr ist, wo über Nacht der Obernerd für ein Update mal an irgendwelchen Parametern im Quelltext rumschraubt, sondern ein Milliardenunternehmen, das riesige Resourcen hat. Für ein Update wie Big Daddy wird also mit Sicherheit der ein oder andere Testlauf vorgenommen und zufriedenstellen abgeschlossen worden sein.

Gruß Johannes
He?, und deswegen können keine Fehler passieren? Hast Du Dir mal M$ angeschaut, wiviele Fehler da auftauchen? Die haben kein Progamm mehr mit 100 Zeilen Code, da geht es um richtige Programme wo halt in jeder noch so kleinsten Procedure ein Fehler sein kann. Dann das Zusammenspiel von "cache: bot", index und sitemaps, adwords usw. ich sehe da genug Platz für Fehler. Und testen kann man nur in Rahmenbedingungen. Ich glaube nicht, das google ein komplettes Backup-System zum frickeln hat.

Allerdings gebe ich Dir Recht, es ist gewollt so, halt nnur ein bischen arg heftig ausgefallen.

SISTRIX
PostRank 9
PostRank 9
Beiträge: 1255
Registriert: 01.09.2003, 20:57
Wohnort: Bonn

Beitrag von SISTRIX » 19.05.2006, 14:00

Martin Ice hat geschrieben:Allerdings gebe ich Dir Recht, es ist gewollt so, halt nnur ein bischen arg heftig ausgefallen.
Wenn die SEOs schreien, war es doch anscheinend genau richtig :) Bei meinen Projekten hat Google jedenfalls den Müll getroffen.

Gruß Johannes
SISTRIX Suchmaschinen Blog
SEO- und SEM-Tools: [url=httpss://tools.sistrix.de/toolbox/?tid=lnk_foren_abk]SISTRIX Toolbox[/url]
Linktausch für PR9 und 10 gesucht!

Seo
PostRank 9
PostRank 9
Beiträge: 1709
Registriert: 19.07.2005, 17:14

Beitrag von Seo » 19.05.2006, 14:09

Da stimme ich dir zu. :D

Hasenhuf
PostRank 9
PostRank 9
Beiträge: 2840
Registriert: 26.12.2005, 22:22

Beitrag von Hasenhuf » 19.05.2006, 15:15

@ SISTRIX, deine Überlegungen ziehlen nur auf eine eventuelle Überlastung der Server? Für das Problem wäre es vielleicht eine taugliche Maßnahme aber doch wohl nur ein Notnagel. Es sei denn google gibt den Anspruch an qualitätive und möglicht umfassende Ergebnisse auf.
SISTRIX hat geschrieben:Gehen wir mal großzügig von 10 Mrd. Seiten im Index aus.
SISTRIX hat geschrieben:Es gibt Schätzungen, die gehen von bis zu einer Millionen (!) Servern aus.
Damit wären wir bei 1000 Seiten die jeder Server zu verwalten hat. Sollte es dennoch an der Kapazität liegen gäbe es sehr viel einfachere Methoden.
SISTRIX hat geschrieben:Und hier kommt halt die Überlegung, dass jede Seite nur sooft in den Index kommt, wie die Qualität/Anzahl der eingehenden Links es erlaubt.
Das würde im Übrigen nicht dafür sprechen, daß auch kleine Seiten betroffen sind, sondern eher dagegen.

Ich habe auf einer domain mit PR3 noch 17 Seiten im Index. Die die nicht drin sind haben fast alle PR2 oder PR1. Da gibt es Seiten mit viel schlechterem Voraussetzungen die nicht betroffen sind.

Es sei denn es werden ja nach Links so und so viel % der Seiten in den Index genommen aber so dämlich und kurzsichtig ist nicht mal google.

SISTRIX hat geschrieben:Wenn die SEOs schreien, war es doch anscheinend genau richtig :) Bei meinen Projekten hat Google jedenfalls den Müll getroffen.
Seo hat geschrieben:Da stimme ich dir zu. :D
Ihr könnt euch ja zusammen mit oldInternetUser die Eier schaukeln oder ihr fangt an zu differenzieren. Nicht alle hier sind SEOs und nicht nur SEOs wurden getroffen.

RW
PostRank 6
PostRank 6
Beiträge: 436
Registriert: 23.07.2003, 08:54

Beitrag von RW » 19.05.2006, 16:15

Ihr könnt euch ja zusammen mit oldInternetUser die Eier schaukeln oder ihr fangt an zu differenzieren. Nicht alle hier sind SEOs und nicht nur SEOs wurden getroffen.
Wer hier herkommt der versucht zumindest ein hochzubekommen. :lol:
Und wenn es nur eine key oder eine private Seite ist.

Das was zur Zeit noch geht sind Links in die Tiefe.

Ich glaube auch das dieser Schritt von Google zu massiven cloaking führen wird was Preissuche, Amazon & Co. angeht.

RW

Clever
PostRank 3
PostRank 3
Beiträge: 87
Registriert: 08.12.2004, 17:27

Beitrag von Clever » 19.05.2006, 16:56

SISTRIX hat Folgendes geschrieben:
Gehen wir mal großzügig von 10 Mrd. Seiten im Index aus.
SISTRIX hat Folgendes geschrieben:
Es gibt Schätzungen, die gehen von bis zu einer Millionen (!) Servern aus.
Damit wären wir bei 1000 Seiten die jeder Server zu verwalten hat. Sollte es dennoch an der Kapazität liegen gäbe es sehr viel einfachere Methoden.

:-) wären dann aber 10000 Seiten pro Server...

Andy.C
PostRank 5
PostRank 5
Beiträge: 249
Registriert: 22.03.2005, 04:01
Wohnort: Berlin

Beitrag von Andy.C » 19.05.2006, 18:30

Auch ich habe soetwas beobachten können.
Ich bin sogar ganz geflogen, und war garnichtmehr im google-index vohanden. Das sogar ganze 6 Wochen lang (Oo)!

Dafür Spiele ich jetzt wieder in der ersten Liga ;)

BHProject
PostRank 3
PostRank 3
Beiträge: 70
Registriert: 27.02.2006, 08:30

Beitrag von BHProject » 19.05.2006, 18:37

Andy.C hat geschrieben:Auch ich habe soetwas beobachten können.
Ich bin sogar ganz geflogen, und war garnichtmehr im google-index vohanden. Das sogar ganze 6 Wochen lang (Oo)!

Dafür Spiele ich jetzt wieder in der ersten Liga ;)
Das ist interessant.
Ich bin auch eher der Meinung momentan nichts zu verändern, sondern ganz einfach warten, bis sich die technischen Probleme bei Google wieder einrenken.

Wolfgang67
PostRank 3
PostRank 3
Beiträge: 69
Registriert: 31.03.2006, 17:08

Beitrag von Wolfgang67 » 20.05.2006, 06:52

...
Zuletzt geändert von Wolfgang67 am 02.11.2006, 17:03, insgesamt 1-mal geändert.

Garfield
PostRank 9
PostRank 9
Beiträge: 2182
Registriert: 12.10.2004, 10:22

Beitrag von Garfield » 20.05.2006, 08:12

Und was hat das jetzt mit dem Design von Viklund zu tun ? Und was bringt dieser völlig am Thema vorbeigehende Kommentar jetzt für diesen Thread ? Hast du vielleicht einfach nichts zum Thema beizutragen ?

Dann halte dich doch einfach raus.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag