Big-Daddy-Geschädigte - Gemeinsamkeiten?
Verfasst: 17.01.2006, 01:59
Hi,
nachdem es zur Zeit beide meiner Seiten betrifft, bis hin zu Symptomen des 'slow death' (Seiten fehlen plötzlich bei der 'site'-Abfrage, andere Seiten sind nur noch mit der URL und ohne Cache in den SERPS, und zwar genau die, die den meisten Inhalt haben [selbstgestrickt sind eh' alle Texte]), wüßt' ich doch gern, ob G. da ein Schema für das Killen von Seiten hat.
Daß die SERP's auf 64.233.183.104 (und heute auch 66.249.93.104) auf Dauer keinen Bestand haben werden, weil noch mehr Schrott nach oben gespült wird, z.B. Seiten mit diesem Aufbau
www*aktuell-online*info/srv/webkatalog/k*php/Trinken
ist das eine, es wäre aber nett herauszubringen, was G. da eigentlich versucht, man will ja auf die Zukunft vorbereitet sein. Ich habe zwar eine leise Vermutung, weil beide Seiten nur relativ wenig gemeinsame Eigenschaften aufweisen, A linkt z.B. auf B, aber nicht B auf A, die Backlinks (wenig genug sind's) kommen jeweils aus völlig unterschiedlichen Quellen, Domaininhaber/admin-c ist auch auf beiden Seiten unterschiedlich.
Deshalb würde mich interessieren, ob zwischen meinen und anderen von Big Daddy böse betroffenen Seiten Gemeinsamkeiten bestehen - bitte noch keine Vermutungen posten, sondern bloß Daten angeben:
1. Webhoster?
2. eigene IP oder shared IP?
3. Seitengröße (bis 20, bis 100, bis 1.000 oder mehr Unterseiten)?
4. Seitenstruktur (1, 2, 3 oder mehr Verzeichnisebenen)?
5. In welcher Sprache programmiert?
6. Mit welchem Programm/Editor?
7. Wie viele Backlinks/von wie vielen Domains/und wie vielen IP's?
8. Wie viele von den Links sind reziprok?
9. Wie viele von den Links kommen aus Webkatalogen?
10. Benutzt die Seite Cookies?
11. Benutzt die Seite javascript?
12. Benutzt die Seite ActiveX?
13. Dynamische oder statische URL's?
14. Wie oft kam der googlebot in den vergangenen Wochen vorbei,
und wie oft war er in der letzten Woche (ab 9.1.06) da?
Gruß,
Mac
nachdem es zur Zeit beide meiner Seiten betrifft, bis hin zu Symptomen des 'slow death' (Seiten fehlen plötzlich bei der 'site'-Abfrage, andere Seiten sind nur noch mit der URL und ohne Cache in den SERPS, und zwar genau die, die den meisten Inhalt haben [selbstgestrickt sind eh' alle Texte]), wüßt' ich doch gern, ob G. da ein Schema für das Killen von Seiten hat.
Daß die SERP's auf 64.233.183.104 (und heute auch 66.249.93.104) auf Dauer keinen Bestand haben werden, weil noch mehr Schrott nach oben gespült wird, z.B. Seiten mit diesem Aufbau
www*aktuell-online*info/srv/webkatalog/k*php/Trinken
ist das eine, es wäre aber nett herauszubringen, was G. da eigentlich versucht, man will ja auf die Zukunft vorbereitet sein. Ich habe zwar eine leise Vermutung, weil beide Seiten nur relativ wenig gemeinsame Eigenschaften aufweisen, A linkt z.B. auf B, aber nicht B auf A, die Backlinks (wenig genug sind's) kommen jeweils aus völlig unterschiedlichen Quellen, Domaininhaber/admin-c ist auch auf beiden Seiten unterschiedlich.
Deshalb würde mich interessieren, ob zwischen meinen und anderen von Big Daddy böse betroffenen Seiten Gemeinsamkeiten bestehen - bitte noch keine Vermutungen posten, sondern bloß Daten angeben:
1. Webhoster?
2. eigene IP oder shared IP?
3. Seitengröße (bis 20, bis 100, bis 1.000 oder mehr Unterseiten)?
4. Seitenstruktur (1, 2, 3 oder mehr Verzeichnisebenen)?
5. In welcher Sprache programmiert?
6. Mit welchem Programm/Editor?
7. Wie viele Backlinks/von wie vielen Domains/und wie vielen IP's?
8. Wie viele von den Links sind reziprok?
9. Wie viele von den Links kommen aus Webkatalogen?
10. Benutzt die Seite Cookies?
11. Benutzt die Seite javascript?
12. Benutzt die Seite ActiveX?
13. Dynamische oder statische URL's?
14. Wie oft kam der googlebot in den vergangenen Wochen vorbei,
und wie oft war er in der letzten Woche (ab 9.1.06) da?
Gruß,
Mac