nachdem es zur Zeit beide meiner Seiten betrifft, bis hin zu Symptomen des 'slow death' (Seiten fehlen plötzlich bei der 'site'-Abfrage, andere Seiten sind nur noch mit der URL und ohne Cache in den SERPS, und zwar genau die, die den meisten Inhalt haben [selbstgestrickt sind eh' alle Texte]), wüßt' ich doch gern, ob G. da ein Schema für das Killen von Seiten hat.
Daß die SERP's auf 64.233.183.104 (und heute auch 66.249.93.104) auf Dauer keinen Bestand haben werden, weil noch mehr Schrott nach oben gespült wird, z.B. Seiten mit diesem Aufbau
ist das eine, es wäre aber nett herauszubringen, was G. da eigentlich versucht, man will ja auf die Zukunft vorbereitet sein. Ich habe zwar eine leise Vermutung, weil beide Seiten nur relativ wenig gemeinsame Eigenschaften aufweisen, A linkt z.B. auf B, aber nicht B auf A, die Backlinks (wenig genug sind's) kommen jeweils aus völlig unterschiedlichen Quellen, Domaininhaber/admin-c ist auch auf beiden Seiten unterschiedlich.
Deshalb würde mich interessieren, ob zwischen meinen und anderen von Big Daddy böse betroffenen Seiten Gemeinsamkeiten bestehen - bitte noch keine Vermutungen posten, sondern bloß Daten angeben:
1. Webhoster?
2. eigene IP oder shared IP?
3. Seitengröße (bis 20, bis 100, bis 1.000 oder mehr Unterseiten)?
4. Seitenstruktur (1, 2, 3 oder mehr Verzeichnisebenen)?
5. In welcher Sprache programmiert?
6. Mit welchem Programm/Editor?
7. Wie viele Backlinks/von wie vielen Domains/und wie vielen IP's?
8. Wie viele von den Links sind reziprok?
9. Wie viele von den Links kommen aus Webkatalogen?
10. Benutzt die Seite Cookies?
11. Benutzt die Seite javascript?
12. Benutzt die Seite ActiveX?
13. Dynamische oder statische URL's?
14. Wie oft kam der googlebot in den vergangenen Wochen vorbei,
und wie oft war er in der letzten Woche (ab 9.1.06) da?
@netttttttttttttttttttworker:
Das werde ich natürlich machen, sobald genug Antworten für eine sinnvolle Auswertung vorliegen. Aber ich will nicht andere mit meinen Angaben in die von mir vermutete Richtung lenken, das wäre nicht Sinn der Übung. Ich will meine Ahnungen nicht bestätigt, sondern überprüft haben.
kann vielleicht der ein oder andere Admin solch belanglose Threads löschen?
Das ist doch wieder einmal einer der alles auf Google schiebt und jetzt Beistand von anderen Members hier möchte!
"Ich-heul-mich-aus-Threads" haben wir doch schon mehr als genug. Wäre es möglich dass Ihr eure "Beiträge" einfach dazu postet.
Langsam finde ich es unspassig jeden Morgen den selben Müll lesen zu müssen!
@ Mac
Wenn ich von anderen leuten Infos möchte, dann sollte ich als ersten Schritt Infos von mir preis geben. Das erhöht die Wahrscheinlichkeit vernünftige Antworten zu bekommen ungemein!
@firestarter, ole1210
Solche Threads erledigen sich doch von allein. Jemand will Infos von anderen, ist (vllt. nur zunächst) nicht bereit, seine Infos zu publizieren, ... und Schluss.
Die Anfrage ist doch mal was konkretes, da hier Fakten auf den Grund gegangen werden soll.
Belanglos ist doch wohl eher das Gequatsche "Bitte liebe Admins, löscht diesen Thread, weil da wieder jemand heult." Merkt ihr es nicht, wer hier heult?
Der Sinn einer Community ist doch der Gedankenaustausch. Da ihr anscheinend eure Gedanken - sofern vorhanden - nicht austauschen möchtet, vielleicht um andere im Unwissen zu lassen (Wissen ist ja bekanntlich Macht), schlage ich vor, daß ihr, wenn euch ein Thread nicht paßt, doch einfach nicht darauf reagiert.
Ok, ich mach mal eine Einschränkung. Wenn zum 1000ten mal gefragt wird, warum eine Seite nach 3 Tagen noch nicht bei google, unter 5 Millionen Ergebnissen, auf Platz 1 ist, dann kann man wirklich nur noch den Kopf schütteln.
Ich werde die Fragen jedenfalls per PN beantworten.
Was Du da aufgelistet jast ist so ziemlich alles was man als fehlerquelle dastellen kann.du probiert nun deine vermutung die du hast dir bestätigen zulassen.Ist ja auch sinnvoll dafür ist es ja ein Forum.Nur ohne sehr genaue Angaben ist es nur ein "THREAD ach BIGDADDY.JAGGER2.5 hat mich nicht mehr lieb".Davon gibst Massenhaft und keiner wird dir eine Universallösung bieten können.
Du hast doch wahrscheinlich deine Seite genauestens Untersuchst und weisst doch selber was du an BLACK and WHITE Sachen gemacht hast.Halte dich doch einfach an "G" dort kannst du alles nötige nachlesen.Wenn Du das genauso machst wie es verlangt ist/wird garantiere ich dir das du NEVER Probleme hast/bekommst.
**************************************************************
Deshalb würde mich interessieren, ob zwischen meinen und anderen von Big Daddy böse betroffenen Seiten Gemeinsamkeiten bestehen - bitte noch keine Vermutungen posten, sondern bloß Daten angeben:
1. Webhoster? <<<<< ARTFILES
2. eigene IP oder shared IP? <<<<<EIGENDE
3. Seitengröße (bis 20, bis 100, bis 1.000 oder mehr Unterseiten)?<<unter 7 Seiten 3,2 mio serps top 10
4. Seitenstruktur (1, 2, 3 oder mehr Verzeichnisebenen)? <---1
5. In welcher Sprache programmiert? <<<<jede die "G" akzeptiert
6. Mit welchem Programm/Editor? <<<<makromedia/html hardtcore
7. Wie viele Backlinks/von wie vielen Domains/und wie vielen IP's? <----
8. Wie viele von den Links sind reziprok? <<<allle was das Beispielt angeht
9. Wie viele von den Links kommen aus Webkatalogen? <<<<ausser
10. Benutzt die Seite Cookies? <<<< nein
11. Benutzt die Seite javascript? <---nein
12. Benutzt die Seite ActiveX? <---nein
13. Dynamische oder statische URL's? <----statische
14. Wie oft kam der googlebot in den vergangenen Wochen vorbei,
und wie oft war er in der letzten Woche (ab 9.1.06) da? <<<letztemal am 14,13,10 usw
++++++++++++++++++++++++++++
Wenn Du jemand findest der dir diese fragen "AUF DEN PUNKT GENAU BEANTWORTEN KANN" ist es der GOOGLEGOTT höchstpersönlich.
@holigab: Zur Ausgangsfrage kann ich mangels ausreichender Daten noch keine Spekulationen posten, zu dem, was mir an Deiner Seite aufgefallen ist, hast Du PN.
@zottel: Natürlich weiß ich, was ich an Black&White-Sachen mache, keywords in URL, title und description und je Unterseite in 500-1000 Wörtern eigenen Texts, keyword-Dichte für jedes einzelne kw so zwischen 0,5 und 2%, in den h1-Überschriften allerdings bis zu 100% (gelegentlich brutal nur kw1 kw2 kw3), in den h2-Überschriften auch noch ganz heftig. Aber daran kann's ja wohl nicht liegen, wenn ausgerechnet die Seiten mit dem informativsten Inhalt nur noch mit der URL, oder gar nicht mehr angezeigt werden (Impressum, Anfahrtsplan etc. sind alle noch da). Und deshalb wüßt' ich schon gern, an welcher Schraube G. da gerade zu drehen versucht.