Herzlich willkommen im Archiv vom ABAKUS Online Marketing Forum
Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.
Lieber 2- 4 individuelle als durchgängig die selben.homeofneeoo hat geschrieben:wenn ich jeder seite spezifische keywords gebe, muss ich dabei auf die menge schauen? oder ist es egal wenns nur 2-4 sind?
ist der title auch wichtig?
He?, und deswegen können keine Fehler passieren? Hast Du Dir mal M$ angeschaut, wiviele Fehler da auftauchen? Die haben kein Progamm mehr mit 100 Zeilen Code, da geht es um richtige Programme wo halt in jeder noch so kleinsten Procedure ein Fehler sein kann. Dann das Zusammenspiel von "cache: bot", index und sitemaps, adwords usw. ich sehe da genug Platz für Fehler. Und testen kann man nur in Rahmenbedingungen. Ich glaube nicht, das google ein komplettes Backup-System zum frickeln hat.SISTRIX hat geschrieben:@Caschi: Wenn ich im Forum nach "Datencrash" suche und überlege, wieviele Leute seit 2003 ein totales Datenchaos bei Google prophezeit haben und dieses dann in Gegenüberstellung zur steigenden Qualität der SERPs sehe, so glaube ich einfach nicht, dass Google Technikprobleme hat. Man sollte bedenken, dass Google keine kleine Klitsche mit 20 Leuten mehr ist, wo über Nacht der Obernerd für ein Update mal an irgendwelchen Parametern im Quelltext rumschraubt, sondern ein Milliardenunternehmen, das riesige Resourcen hat. Für ein Update wie Big Daddy wird also mit Sicherheit der ein oder andere Testlauf vorgenommen und zufriedenstellen abgeschlossen worden sein.
Gruß Johannes
Wenn die SEOs schreien, war es doch anscheinend genau richtigMartin Ice hat geschrieben:Allerdings gebe ich Dir Recht, es ist gewollt so, halt nnur ein bischen arg heftig ausgefallen.
SISTRIX hat geschrieben:Gehen wir mal großzügig von 10 Mrd. Seiten im Index aus.
Damit wären wir bei 1000 Seiten die jeder Server zu verwalten hat. Sollte es dennoch an der Kapazität liegen gäbe es sehr viel einfachere Methoden.SISTRIX hat geschrieben:Es gibt Schätzungen, die gehen von bis zu einer Millionen (!) Servern aus.
Das würde im Übrigen nicht dafür sprechen, daß auch kleine Seiten betroffen sind, sondern eher dagegen.SISTRIX hat geschrieben:Und hier kommt halt die Überlegung, dass jede Seite nur sooft in den Index kommt, wie die Qualität/Anzahl der eingehenden Links es erlaubt.
SISTRIX hat geschrieben:Wenn die SEOs schreien, war es doch anscheinend genau richtigBei meinen Projekten hat Google jedenfalls den Müll getroffen.
Ihr könnt euch ja zusammen mit oldInternetUser die Eier schaukeln oder ihr fangt an zu differenzieren. Nicht alle hier sind SEOs und nicht nur SEOs wurden getroffen.Seo hat geschrieben:Da stimme ich dir zu.
Wer hier herkommt der versucht zumindest ein hochzubekommen.Ihr könnt euch ja zusammen mit oldInternetUser die Eier schaukeln oder ihr fangt an zu differenzieren. Nicht alle hier sind SEOs und nicht nur SEOs wurden getroffen.
SISTRIX hat Folgendes geschrieben:
Gehen wir mal großzügig von 10 Mrd. Seiten im Index aus.
SISTRIX hat Folgendes geschrieben:
Es gibt Schätzungen, die gehen von bis zu einer Millionen (!) Servern aus.
Damit wären wir bei 1000 Seiten die jeder Server zu verwalten hat. Sollte es dennoch an der Kapazität liegen gäbe es sehr viel einfachere Methoden.
Das ist interessant.Andy.C hat geschrieben:Auch ich habe soetwas beobachten können.
Ich bin sogar ganz geflogen, und war garnichtmehr im google-index vohanden. Das sogar ganze 6 Wochen lang (Oo)!
Dafür Spiele ich jetzt wieder in der ersten Liga