es gibt die Domain www.tld.de auf dieser domain gibt es verschiedene Unterkategorien z.b. www.tld.de/test/blablabla.html www.tld.de/test1/blablabla.html www.tld.de/test2/blablabla.html usw. diese sind mit html indexiert und ich wollte, das aus www.tld.de/test/blablabla.html www.tld.de/test/blablabla...
wow, das ging ja schnell und es funktioniert :) da es noch andere ordner gibt als nur "test" hab ich es so abgeändert RewriteRule ^test/([^.]+)/$ $1.html?rw=1 [QSA,L] RewriteCond %{QUERY_STRING} !^rw=1 RewriteRule ^([^.]+)\.html$ /$1/ [R=301,L] beim ersten test hab ich den Namen der Domain...
Hallo, ich musste auf einem php Projekt von mir die bereits indexierten Unterseiten welche auf *.html enden in / umschreiben. Beispiel: https://www.tld.de/test/test.html wird zu https://www,tld.de/test/test/ Die URLs sind aber bereits alle in *.html indexiert. Wie kann ich per 301 in der httacess de...
ist doch logisch warum das so ist...weil zum Beispiel Keywörter wie Tierarzt bzw. andere Branchen + das jeweilige Stadtkeyword nie hart umkämpft sind und google muss ja was listen...
ich bin auch mit meinem Hauptkeyword wo ich seit 2 Jahren auf Platz 1 war auf Platz 4 gefallen. Hier stellt sich natürlich für mich die Frage, bin ich schwächer geworden oder die Konkurrenz stärker..oder beides..wobei ich mir beides nicht vorstellen kann. ich war genauso aktiv wie vor den 2 Jahren u...
das dachte ich natürlich auch bereits. Aber in der Webmastertools werden doch die Seiten gelistet welche der Crawler beim spidern der eigenen Seite entdeckt hat oder? Also nicht von aussen auf meine Seite verweisst...oder verstehe ich hier was falsch?
Hi Michi, endlich mal jemand mit dem gleichen Problem. Ich hab auch %20 und diverse andere 404er in den Webmastertools. hab bereits mit xenu und gsites meine 30 000 seiten starken verzeichnisse mehrmals übernacht gegrawlt und per hand alle 404 ausgewertet. Ich kann sagen, intern ist bei mir alles ko...
@unfix: ok danke, falls ich den Absprungpunkt nicht finden sollte, werde ich es wohl per robots.txt lösen @greenhorn: richtig, ich arbeite mit php und sql DB und nutze auch mehrere Sprachen, jedoch ist in meiner source definitiv keine dieser oben angegebenen Aufrufe zu finden. Hab jedes einzelne Fil...
@unifex: ich nutze keine sitemap, da meine systemstruktur sehr gut verlinkt ist. ich weiss nicht wie ich per robots.txt sperren kann, da mittlerweile 400 Unterseiten so enden wie oben beschrieben. Habe meine Seite bereits per xenu gegrawlt und dieser findet diese URLs nicht..wobei xenu seit 8 stunde...
ich nutze kein cms und habe bereits mit einem tool alle meine Files per dokumentsuche nach dieses codeschnipsel durchsucht. in all meinen Files gibt es diese codes nicht. es ist für mich einfach unverständlich wie das der spider macht... kann es sein das jemand per 301 auf mich verlinkt und google d...
gibts denn keine Möglichkeit rauszufinden wo der Spider die falschen URLs findet? Ein Programm von aussen kann doch nicht fehlerhafte URLs erzeugen oder? Da der Crawler von google ja auf meiner Seite die falschen URLs gefunden hat, gehe ich davon aus, dass irgendein code etc dies ausgelöst hat. Alle...
Hallo, ich hab in meinen webmaster tools bei "nicht gefundende Webseiten" einige 404er gefunden, welche so aussehen: Arbeitsagentur/contact?lang= Arbeitsagentur/agb?lang= Arbeitsagentur/searchbox?lang= Arbeitsagentur/imprint?lang= in meinen kompletten code nutze ich keinen "imprint?la...