Oder gibst nen 404 aus und leitest alle 404 automatisch per 301 irgendwohin. Sowas geht nicht, man kann nicht zwei Status Codes zur selben Zeit senden. @Freelancer Ich würde dir empfehlen die 301 Weiterleitung nur zu nutzten wenn auch auf der Zielseite die selben Informationen zu finden sind. Wenn ...
... Noch im März auf 280.000 Platz, heute ist sie auf den 2.916.522 Platz abgerutscht, das ist ein vorbildliche Absturz den ich mir nicht erklären kann – alleine in den letzten 10 Tagen um über 900.000 abgestürzt. Die Daten von Alexa sind extrem ungenau und sehr leicht manipulierbar, vor allem in d...
Wenn du RSS Feeds nutzt kannst du diese auch als Sitemap einreichen, dort stehen ja für gewöhnlich die neusten Artikel drin. Eigentlich brauchst du auch nur die Index-Sitemap bei Google einreichen bzw. über die robots.txt verlinken, dann holen sich die Crawler die von allein. Achja, bei so vielen UR...
Von WP würde ich dir auch abraten, bei einem Projekt in der Größenordnung. Aber welches CMS sich am besten eignet hängt viel mehr von den Details deines Projektes ab. Mit so wenig Informationen kann man da schwer etwas empfehlen. Typo3 und Joomla sind für so eine Größe schon besser geeignet als WP. ...
Der Webanalyzer bezieht seine Daten aus den Server logs, die Daten extra zu loggen ist eigentlich überflüssig. Aber wenn es sich wirklich um einen Bing Bot handelt, kann man auch die robots.txt nutzen. Der msnbot unterstützt den Parameter Crawl-delay , damit kannst du die Zugriffe auf die Seite eins...