Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Seitenaufbauprobleme während des Besuches vom Googleboot

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
Hasso
PostRank 9
PostRank 9
Beiträge: 2107
Registriert: 12.01.2004, 13:18

Beitrag von Hasso » 12.05.2004, 14:32

Wunderschönen guten Tag zusammen.

Ich habe folgendes Problem und benötige Ihre Hilfe oder guten Rat:

Habe durch Zufall feststellen müssen, dass meine Seite während des Besuches vom "Googlebot" sich nicht richtig anzeigen lässt. Und zwar wird die Seite unnormal lange aufgebaut und letztendlich auch noch nicht vollständig, so dass ein Teil der Seite ins Browser(!) einfach als Quelltext ausgegeben wird!

Als Info: die Seite wird mittels php aufgebaut. (.php)
An sich laufen die Seite immer ohne Probleme, auch KEINE Fehlermeldungen am Server PHP oder etc. Logfiles.. werden ausgegeben.

Was natürlich komisch ist, dass es schon paar Mal passiert ist, wo der "Googlebot" meine Seiten indexiert hat... :-?

Kann mir jemand dazu einen Rat bzw. Anhaltspunkt nennen?
Kann das mit der Seitenaufbau überhaupt mit googleboot zusammenhängen?
Wenn ja, hatte schon jemand ähnliches Problem?


Danke im Voraus für eure Hilfe. :)

Liebe Grüsse
Ihr
Hasso

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


firestarter
PostRank 8
PostRank 8
Beiträge: 954
Registriert: 26.05.2003, 13:52
Wohnort: Cairns

Beitrag von firestarter » 12.05.2004, 14:35

Vielleicht ist dein Server einfach nur überlastet?
Läuft das Script auf Mysql? Wenn ja, wie sind die Werte der Sql während des spiderns?

Hasso
PostRank 9
PostRank 9
Beiträge: 2107
Registriert: 12.01.2004, 13:18

Beitrag von Hasso » 12.05.2004, 14:42

hallo firestarter!

danke für Deine schnelle Antwort :)

Nein ich benutze KEIN Mysql oder etc... alles nur .php (mit .ini Dateien)

Grüsse
Hasso

sean
PostRank 10
PostRank 10
Beiträge: 3396
Registriert: 05.01.2004, 20:26
Wohnort: Leipzig/Karlsruhe

Beitrag von sean » 12.05.2004, 14:48

@hasso

wieviele Seiten hat denn dein Web? Sind es so viele dass Google durch den spidervorgang soviel Serverlast erzeugt? Oder hast Du recht komplexe Vorgänge auf dem Server laufen?

Wieviel Seitenaufrufe hast Du täglich? Und wieviele davon verursacht ein GoogleBot?

sean

Hasso
PostRank 9
PostRank 9
Beiträge: 2107
Registriert: 12.01.2004, 13:18

Beitrag von Hasso » 12.05.2004, 15:01

@sean

wie schon geschrieben, die Seite ist eine PHP Seite und das ist physisch gesehen nur EINE .php die auf dem Server liegt! andere Seiten werden Mithilfe von "$_GET" "virtuell" bei Aufruf aufgebaut... (somit werden ja mehrere 100 Seiten generiert.. ) Es werden keine besondere Operationen durchgeführt..

Habe täglich etwa 100 Seitenaufrufe, Da die Seite recht neu ist kommt d. Googlebot sehr unregelmäßig (würde sagen selten) (PR ist ja NOCH 0)
8)
Zuletzt geändert von Hasso am 12.05.2004, 15:01, insgesamt 1-mal geändert.

sandoba
PostRank 6
PostRank 6
Beiträge: 395
Registriert: 20.10.2003, 21:33

Beitrag von sandoba » 12.05.2004, 15:01

Das scheint wirklich an einer Überlastung zu liegen. Der Googlebot holt sich normalerweise die Seiten in "humanen" Abständen, d.h. 1-2 Seiten pro Sekunde, so dass es eigentlich nicht zu einer Überlastung kommen sollte. Je nach Website können dies allerdings mitunter einige Tausend Seiten sein, die vom Googlebot geholt werden.

Hier kann dann eventuell ein Cache helfen. Wobei man ohne den Einsatz einer Datenbank mit dem Cache allein nicht wirklich viel Performancesteigerung erreichen wird.
Shop-Software CP::Shop (brandneu: V2016.1!) und Content-Management-System Contentpapst unter www.sandoba.de / www.shop-test.com
Standardmäßig SEO-/Affiliate-freundlich, flexibel anpassbar! | Tipps&Tricks: Entwickler-Weblog zu CMS + Shop-Software

sean
PostRank 10
PostRank 10
Beiträge: 3396
Registriert: 05.01.2004, 20:26
Wohnort: Leipzig/Karlsruhe

Beitrag von sean » 12.05.2004, 15:12

@hasso

>>> Habe täglich etwa 100 Seitenaufrufe, <<<
na ja, ohne die anderen Angaben kann ich dazu nichts sagen. Du must schon angeben wie oft den der Googlebott kam und was er gelesen hat.

sean

Hasso
PostRank 9
PostRank 9
Beiträge: 2107
Registriert: 12.01.2004, 13:18

Beitrag von Hasso » 12.05.2004, 15:16

@sean

habe leider noch kein passendes Programm zum Logfiles auslesen gefunden, so dass ich mühselig die Logfiles auslesen muss, kann leider die frage jetzt nicht sofort beantworten :cry:

firestarter
PostRank 8
PostRank 8
Beiträge: 954
Registriert: 26.05.2003, 13:52
Wohnort: Cairns

Beitrag von firestarter » 12.05.2004, 15:23

Komisch, dass der ohne sql solche Probs macht.

Naja warten wir mal auf die Logs.

sean
PostRank 10
PostRank 10
Beiträge: 3396
Registriert: 05.01.2004, 20:26
Wohnort: Leipzig/Karlsruhe

Beitrag von sean » 12.05.2004, 16:26

@hasso

ok, dann stell doch mal deinen Server unter Stress. Simuliere mal 10 oder 100 gleichzeitige User. Dafür gibt es auch Software, z.B. MS Web Stress. Dann müsste er ja auch in die Knie gehn.

sean

Antworten