Hi, ist schon ok :wink: Man kann ja nie wissen, was sich hier im Forum so herumtreibt. Trust no one! ... auch mir nicht :D Zu deiner Frage: Das hängt davon ab, was man unter verbrannt oder verbannt versteht. Bei geparkten oder ungenutzten Domains etwas Verläßliches zu sagen dürfte schwer sein. Mir f...
>>@infinity: Arbeitest du für den "Domainprofi"? Wie kommst du darauf? Weil ich auf deiner Beispiel-Domain kein User-Agent-Cloaking gefunden habe? Disclaimer: Ich arbeite nicht für diese Firma und habe bisher auch noch nie davon gehört, ich bin auch nicht im Domainhandel tätig und habe dar...
Hi, ich konnte die angegebene Beispiel-Site mit dem User-Agent des Googlebots problemlos spidern. Ich habe keine Ahnung, warum das Tool einen Fehler bekommt. In den HTTP-Headern ist auch eine andere Apache-Version angegeben als auf der Fehlerseite, die im Tool gezeigt wird. Zumindest habe ich keinen...
Hi, Domains, die mit dem Status-Code 301 auf andere Domains weiterleiten, werden meiner Erfahrung nach weiterhin und regelmäßig vom Googlebot gecrawlt. Wenn der Googlebot auf einen 301 trifft, wird als nächstes die Zielseite des Redirects gecrawlt. Wenn es dort etwas zu indexieren gibt, landet die S...
Ach, du meinst den User-Agent. Das kann man über die .htaccess und mod_rewrite machen: RewriteEngine On RewriteCond %{HTTP_USER_AGENT} Googlebot [NC,OR] RewriteCond %{HTTP_USER_AGENT} bingbot [NC,OR] RewriteCond %{HTTP_USER...
Ausserdem dürfte die Sicherheit so auch höher sein, da es kein Opensource ist und nur ich den Quellcode kenne. Security through obscurity ist kein gutes Sicherheitskonzept. Man sollte immer davon ausgehen, daß ein Angreifer das System kennt. Für die meisten Blogsuchmaschinen reicht es wohl, wenn ei...