Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

robots.txt gesperrt, schlechteres Ranking

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
maxfragtmal
PostRank 1
PostRank 1
Beiträge: 27
Registriert: 06.07.2012, 11:28

Beitrag von maxfragtmal » 13.03.2013, 19:13

Hallo,

ich habe mit einer Seite gute Rankings. Allerdings wollte ich jetzt (damit man in der robots.txt nicht sieht welches cms) die Inhalte der robots.txt verstecken.

Dies machte ich in der .htaccess mit

<files robots.txt>
order allow,deny
deny from all
</files>

Jetzt rutschte das Hauptkeyword ins nirvana ab.

Logisch oder nicht?

euer
max.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Melegrian
PostRank 10
PostRank 10
Beiträge: 3170
Registriert: 30.01.2005, 12:36

Beitrag von Melegrian » 13.03.2013, 20:17

Nicht ganz logisch, wie hast Du das gemeint?

Bin damit nicht so bewandert, doch wenn ich im Web suche oder im Buch nachschlage, dann liest sich da für mich so, als würdest Du in der ersten Zeile allen den Zugriff gestatten und in der zweiten wieder allen, einschließlich der Suchmaschinen, den Zugriff verweigern?
maxfragtmal hat geschrieben:Dies machte ich in der .htaccess mit

<files robots.txt>
order allow,deny
deny from all
</files>
Ich denke es müsste in etwa so aussehen:

Code: Alles auswählen

<files robots.txt>
order allow,deny
allow from all
deny from ... die Du verbieten möchtest aufführen
</files>
Ich würde es ohnehin gänzlich lassen, eine robots.txt, die nicht erreichbar ist, die ist so gut wie gar keine robots.txt.

Irgendwann werde ich das wohl auch mal testen, doch vorläufig habe ich das erst einmal so verstanden, braucht aber nicht richtig zu sein:

Code: Alles auswählen

order deny,allow  => Reihenfolge festlegen
deny from all     => diese werden alle abgewiesen
allow from ...    => nur diesen wird der Zugriff gewährt

Code: Alles auswählen

order allow,deny  => Reihenfolge festlegen
allow from all    => all diesen wird der Zugriff gestattet
deny from ...     => und diesen verweigert
Somit könnte eigentlich nur das unterste funktionieren (nach meinen gegenwärtigen Verständnis) und da müsstest Du für Browser vermutlich noch Umgebungsvariablen setzen, um nur Browsern, jedoch nicht den Suchmaschinen den Zugriff zu verweigern.

https://buecher.lingoworld.de/apache2/showdir.php?id=535

Halte es für ein sinnloses Unterfangen. Selbst wenn es Dir gelingen würde, nur die Browser auszusperren, wer die robots.txt auslesen möchte, weiß auch wie er einen beliebigen User Agent setzt.

Könnte schon sein, wenn die jetzt für alle gesperrt war, dass dadurch die Suchmaschinen nun Seiten eingelesen haben, die sie eigentlich nicht einlesen sollten.

Hier ist es noch einmal gut beschrieben:

https://de.selfhtml.org/servercgi/server ... iche_namen

MonikaTS
PostRank 10
PostRank 10
Beiträge: 3582
Registriert: 07.10.2005, 09:05

Beitrag von MonikaTS » 13.03.2013, 23:03

1. ist es doch schnurzwurschtpiepsegal welches CMS du nutzt

wer einbrechen mag, wird nicht vorher die robots.txt lesen und sucht eh nach anderen Dingen

2. Google ist das auch einfach egal womit du deine Seite machts

also wozu eine robots.txt befüllen, wenn sie dann keiner lesen sollt können? :o

nerd
PostRank 10
PostRank 10
Beiträge: 4023
Registriert: 15.02.2005, 04:02

Beitrag von nerd » 13.03.2013, 23:16

Ohje. Wenn du automechaniker waerst, wuerdest du wahrscheinlich auch erstmal alle teile aus dem auto ausbauen, deren sinn sich dir nicht erschliesst und dich dann wundern warum es nichtmehr faehrt.

Lass die robots.txt so wie sie ist, wenn sie vom CMS angelegt wurde. Die ueber .htaccess zu verbieten mach ueberhaupt keinen sinn.

Beloe007
PostRank 10
PostRank 10
Beiträge: 2928
Registriert: 05.03.2009, 10:31

Beitrag von Beloe007 » 14.03.2013, 08:57

maxfragtmal hat geschrieben:<files robots.txt>
order allow,deny
deny from all
</files>
Dann kannst du sie auch löschen :D

luisekuschinski
PostRank 6
PostRank 6
Beiträge: 454
Registriert: 20.01.2009, 16:31
Wohnort: Nordsee u. Morro Jable

Beitrag von luisekuschinski » 14.03.2013, 13:17

nerd hat geschrieben:Ohje. Wenn du automechaniker waerst, wuerdest du wahrscheinlich auch erstmal alle teile aus dem auto ausbauen, deren sinn sich dir nicht erschliesst und dich dann wundern warum es nichtmehr faehrt.
Nein, er würde alle Markenembleme abmachen, damit keiner merkt, was für ein Auto er fährt... :roll:

@maxfragtmal: Und Du meinst, jemand könnte das gleiche CMS benutzen und auch so ein gute Ranking haben? Wie Monika schon schrieb, hat das nichts mit dem Werkzeug zu tun... bei solchen Angstpsychosen würde ich meine Websites ganz aus dem Netz nehmen!
Kredite und sonst garnichts!

Ruf mich an, ich flüstere dir geile Sauereien ins Ohr!
37 Euro/Min., auch mit Kloppe, Tiere gratis!

maxfragtmal
PostRank 1
PostRank 1
Beiträge: 27
Registriert: 06.07.2012, 11:28

Beitrag von maxfragtmal » 15.03.2013, 16:32

denke für eure Meinungen.

Tatsache ist, nachdem die robots.txt wieder "auffindbar" ist, kommt das keyword wieder in die Regionen um Platz 10.

Fand ich sehr interessant, den Test.

max.

Antworten