Seite 1 von 1

Server Test durch eigene Robots möglich?

Verfasst: 28.10.2013, 12:22
von imwebsein
Guten Tag,

ich hab mal eine Fachfrage an die Programmierer unter Euch.

Ich brauche für einen Seiten/Servertest Seitenaufrufe, bzw simulierte Besucher.

Was möchte ich machen? Ich möchte im Grunde einen Crawler über die Seite laufen lassen, die die Startseite und X zb. 10 Seiten öffnet danach die Seite wieder verlässt und dann von vorne.

Toll wäre es, wenn man dann die Crawler Anzahl erhöhen kann und somit wir dann Serverlast und Seitenladegeschwindigkeit in Verbindung zu den simulierten Besuchern ermitteln können.

Ist so etwas möglich? Wenn ja wie, wenn nein wieso nicht :) Danke Euch

Verfasst:
von

Verfasst: 28.10.2013, 12:55
von Pompom
Man kann alles kaufen. Oder man macht selbst. Oder man nutzt fertige Werkzeuge. Kleiner Ansatz für den Apache2 Webserver: ab2 - Apache2 Benchmarking.

Aufruf Beispiel:
ab2 -n 100000 -c 100 https://www.bittenurdeinedomain.de/massigdbstress.php

-n: Anzahl der Requests auf die URL
-c: Anzahl der gleichzeitigen Requests.

Alternativen:
z.B.
https://www.hpl.hp.com/research/linux/httpserf/

Verfasst: 28.10.2013, 13:07
von Kristian
"ab" ist wohl eher ein Streßtest, der "so" absolut nichts aussagt, da hier aus dem Ram/Cache geantwortet wird.
Aber nette Zahlen gibt es schon, man kann zumindest die Bandbreite des Netzes ermitteln.
@imwebsein
Mann kann Browser steuern bzw. Abfragen automatisieren.
Es gibt dafür diverse Ansätze, "selenium" ist ein möglicher Suchbergriff.
In Perl wäre "WWW::Mechanize" der Ansatz, kurz gefasst, es geht.