Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Google Bot versteckt?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
cu-viper
PostRank 4
PostRank 4
Beiträge: 124
Registriert: 05.09.2005, 10:31
Wohnort: Aachen

Beitrag von cu-viper » 08.09.2005, 10:19

Hi,

ich hab ne ganz komische These ohne zu wissen, wie das gehen soll.

Wie ihr vllt aus anderen Threads wisst wird meine Seite seit anfang September von den Bots scheinbar verstoßen.

Mir ist aber gerade in meinen Logs etwas aufgefallen. Meine Seitenzugriffe sind massiv höher als noch im August. Allerdings hab ich über die Tage nur meinen chCounter überwacht.

Jetzt hab ich bei google aktuelle Themen gesucht und siehe da - es scheint alles vorhanden.

Gibt es technisch die Möglcihkeit, dass google mit meinem Hoster zusammenarbeitet und eine Art deepcrawl direkt auf dem Server macht, sodass die ausgehende Verbindung davon garnix mitbekommt?

Mfg STephan

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


csx
PostRank 5
PostRank 5
Beiträge: 305
Registriert: 09.02.2005, 18:19

Beitrag von csx » 08.09.2005, 10:25

Wozu sollte G das machen??

set
PostRank 1
PostRank 1
Beiträge: 22
Registriert: 23.10.2004, 21:10

Beitrag von set » 08.09.2005, 10:25

Hi,

Meiner Logik nach, ist das ungewöhnlich, dass Google mit den "Hostern" zusammenarbeitet, weil es einfach zuviele Hoster gibt, Google kann doch nicht mit den allen Irgendwie auf ein Abbmachen kommen und fals es so wäre, wie du es sagst, dann wäre da sicher ein Gerücht aufgetreten. Ich selber denke: Google hat viele neuen Technologien, arbeiten öfters an neuen Systemen die wir noch garnicht kennen ( KEINER VON UNS)...

Besten Respekt
Set

cu-viper
PostRank 4
PostRank 4
Beiträge: 124
Registriert: 05.09.2005, 10:31
Wohnort: Aachen

Beitrag von cu-viper » 08.09.2005, 10:29

@csx - um traffic zu sparen. offensichtlich ist google in den vergangenen wochen echt an seine grenzen gestoßen. wenn die quasi "nur" eine indizierte liste vom hoster bekommen würden anstatt die ganze seite selbst spidern zu müssen würde das traffic und rechenleistung sparen - und zwar enorm!

dazu käme allerdings das problem, dass dynamische seiten (auch mod_rewrite) ein problem hätten, weil damit nur ein verzeichniscrawl möglich ist - ein kompletter crawl würde in meinen logs vermutlich auftauchen oder? (einzige option - crawlen eines raid-mirrors - wobei das dann nich in meinen traffic logs auftauchen würde.

<komisch das>

@set .. wenn die mit den 10 größten arbeiten würden würde das vermutlcih schon die hälfte der seiten gut abdecken ..
mfg cu

set
PostRank 1
PostRank 1
Beiträge: 22
Registriert: 23.10.2004, 21:10

Beitrag von set » 08.09.2005, 10:36

Hi,

Aber das sind doch alles nur vermutungen!!! Was bringen uns solche vermutungen den weiter?? Fakten müssen her, aber ich denke FAKTEN werden wir nie kriegen, da Google macht was sie will!

wbartl
PostRank 5
PostRank 5
Beiträge: 292
Registriert: 07.12.2003, 13:06

Beitrag von wbartl » 08.09.2005, 10:54

Wir sind Hoster und Google ist noch nie mit solch einem Anliegen an uns herangetreten. Aber vielleicht sind wir zu klein.
Ich denke aber nicht, das es solch ein Abkommen zwischen Google und den Hostern gibt.

axelm
PostRank 7
PostRank 7
Beiträge: 603
Registriert: 18.10.2004, 11:42

Beitrag von axelm » 08.09.2005, 11:11

Boah voll die krassen Theorien?! Nee Nee Jungs das läuft nicht.
Wenn du google helfen willst traffic zu sparen gib den ne Sitemap.xml sonst lass es.

oder setzt dich bei www.grub.org ein.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag