Die derzeit besten Erfahrungen haben wir in jeder Hinsicht mit HostEurope. Derzeit haben witr dort verschiedene Kunden mit insgesamt über 40 Paketen, inklusive unserer eigenen Präsenzen. Aus unserer Sicht gehts los mit WebPack™ L 2.0 für € 4.99. Drunter gibts kein mod_rewrite, das ist u. E. unbrauch...
Hallo Leute, da aus unserer Erfahrung die Ladezeit einer Webseite nicht nur von der Menge der Daten der Seite, sondern in Zeiten der php/mysql-Webseiten auch ganz drastisch von der Serverperformance abhängt, haben wir vor längerer Zeit mal ein entsprechendes Tool gebaut. Das gibts als Kutztest jetzt...
Hi Twigg, Jawoll, man kann Navigationen auch mit Bildern über das Alt-Tag suchmaschinentauglich machen, oder über das von Verfahren von Margin. Bleibt aber immer noch die vergrößerte Ladezeit und die zweifelhafte Barrierefreiheit. Im Zweifel würde ich immer einen schicken Hintergrundbutton per css h...
Hallo Leute, und 2.500 ms sind immer noch zweieinhalb Sekunden. Das ist aus unserer Sicht unterirdisch. Spass macht Surfen auf Seiten mit Zugriffszeiten unter 200 ms. Zum Vergleich: man surfe mal über https://www.ahrens-sieberz.de . Das ist ein Onlineshop, und zwar schon ein recht groß befüllter. Al...
z.B. Minimalpakete von 1u1 Mit der Datenbankperformance dieses Hosters hatten wir auch schon Spass. Dabei ist das problem nicht auf die Minimalpakete beschränkt. Betroffen sind erfahrungsgemäß sämtliche pakete, die die Datenbank nicht auf dem localhost haben, sondern eine von den 100 MB DBs auf der...
@klaus, ist ein Witz, und eigentlich ein ziemlich guter. Die robots.txt ist die einzige Datei auf einer Präsenz, bei der ip-cloaking überhaupt keinen Sinn macht. ip-cloaking ist eine Technik, mittels derer man robotern und menschen unterschiedliche Inhalte zeigen kann. ist eigentlich eine gute Techn...
Hallo Klaus, der Bot fragt nur die robots.txt ab. Wenn Du in die Robots.txt was für den Bot reinschreibst, muß er die abrufen, damit er weiß was drinsteht. Über die robots.txt kannst Du jeden Bot nur von den Seiten fernhalten, nicht jedoch vom Auslesen der robots.txt. mail mich mal an, oder ruf mich...
Hallo, ich habe WebSuxess. Da mir die gelieferten Statistiken teils merkwürdig erschienen, habe ich ein Logfile genommen und manuell alle automatischen, sprich boterzeugten Zugriffe gelöscht. Ausser Websuxess dabei: mescalero und logfile analyse von jan Winkler. Mit allen drei Programmen habe ich da...
>was sagt der dmmv zu versteckten Links? nichts. Ich halte versteckte links grundsätzlich nicht für schlecht im Sinne von unethisch. Links zu verstecken ist nur eine Technik, die Ethik kommt erst durch das Ziel dieser Technik ins Spiel. Mit der beanstandeten Domain (doll gefunden wird die eh nicht) ...