Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Schon wieder die .htaccess

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
Seokratie
PostRank 8
PostRank 8
Beiträge: 805
Registriert: 03.10.2007, 12:32

Beitrag von Seokratie » 13.02.2008, 13:05

Irgendwann denkt man mal, man weiß viel, aber die .htaccess ist einfach mein Feind.
Ich habe eine Seite mit einem seltsamen CMS zu betreuen, die immer noch seltsamere Variablen anhängt.
So zum Beispiel https://www.domain.de/?last=123 und /? und alle möglichen Endungen.
Jetzt habe ich festgestellt, dass manche dieser Seiten im Google Index sind: DC vom Feinsten.
Wie schreibt man so etwas in die .htaccess? Geht das überhaupt? Vielleicht hilft es zu sagen, dass alle "normalen" seiten kein fragezeichen in der URL haben.

Danke für eure Hilfe!

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

EmmCEe
PostRank 2
PostRank 2
Beiträge: 36
Registriert: 18.07.2005, 17:49

Beitrag von EmmCEe » 13.02.2008, 13:16

Spontan würde mir als einfachste und schnellste Lösung die robots.txt einfallen. (Zumindest für den Gockel)

Zum Bleistift:

User-agent: *
Disallow:/*last=*

Seokratie
PostRank 8
PostRank 8
Beiträge: 805
Registriert: 03.10.2007, 12:32

Beitrag von Seokratie » 13.02.2008, 13:22

Stimmt!
Ist das so gut, wie die .htaccess? Ich nutze die Robots.txt eigentlich kaum

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


EmmCEe
PostRank 2
PostRank 2
Beiträge: 36
Registriert: 18.07.2005, 17:49

Beitrag von EmmCEe » 13.02.2008, 13:32

Das kann ich dir leider nicht so genau beantworten.

Am besten wäre es, wenn du die Links mit den Parametern erst gar nicht auf irgendeiner Seite setzt (falls sie wirklich nicht benötigt werden).

Wenn du die Links mit dem "unnötigen" Parametern nicht von den Seiten wegbekommst würde ich in diesem Fall wohl zur robots.txt tendieren, aber da lässt sich bestimmt drüber streiten. Was sollte eine SuMa "davon halten", wenn du Links auf deinen Seiten setzt die scheinbar "falsch" sind und ständig redirected werden.

^^Aber besser hör dir noch paar Meinungen dazu an. Vor allem bin ich nicht sicher ob mein Text gerade verständlich war ;)

Seokratie
PostRank 8
PostRank 8
Beiträge: 805
Registriert: 03.10.2007, 12:32

Beitrag von Seokratie » 13.02.2008, 14:19

EmmCEe hat geschrieben:
User-agent: *
Disallow:/*last=*
Vielen Dank nochmal!
Nur mal eine Frage: Ich sehe dort kein Fragezeichen. Geht das trotzdem? Die URLS sehen so aus wewewe.domain.de/?last=123 und es sollen alle mit "last" oder auch alle mit "?" ausgeschlossen werden.
Ist der o.g. Code dafür richtig?

EmmCEe
PostRank 2
PostRank 2
Beiträge: 36
Registriert: 18.07.2005, 17:49

Beitrag von EmmCEe » 13.02.2008, 14:53

Hab mal eben die nach google gegoogelt *g*

https://www.google.com/support/webmaste ... swer=40367

und hier die Übersicht:
https://www.google.com/support/webmaste ... swer=40360

Disallow:/*last=*
würde alle Seiten blocken die im Query irgendwo "last=" stehen hätten, bsp. auch
https://www.domain.de/?seite=3&last=123

LG

anmae
PostRank 1
PostRank 1
Beiträge: 12
Registriert: 17.01.2008, 11:10

Beitrag von anmae » 13.02.2008, 15:00

und die angehangenen Parameter haben wirklich keine Auswirkungen? Wenn die wirklich einfach weggelassen werden können, dann würde ich das tun, denn dann wäre www.xyz.de/?a=b das Selbe wie www.xyz.de/ , würde also beim Aufruf des indizierten Links auch keinen Fehler geben. Dieses /? habe ich schonmal gesehen, das hängt die Parameter an die Standartdatei des Ordners an (also z.b. index.php)
{Aussage ohne Garantie}
Ansonsten schau dir mal mod_rewrite an. Damit kannst du eventuell die Links verschönern.

Seokratie
PostRank 8
PostRank 8
Beiträge: 805
Registriert: 03.10.2007, 12:32

Beitrag von Seokratie » 13.02.2008, 15:13

anmae hat geschrieben:und die angehangenen Parameter haben wirklich keine Auswirkungen?
Nein, das ist einfach die Startseite (Doppelter Inhalt). Es ist die Seite eines Kunden. Ich habe nur Domain.de?last123 Domain.de?last453 und noch 3-4 andere im Google Index gefunden.
Wegen Mod_rewrite: Das CMS macht die URLS automatisch schön und diese 3-4 ?last-Dinger sind einfach irgendwelche Überbleibsel vergangener Zeiten.

Der Hoster von denen weiß übrigens nicht, was eine .htaccess ist. Als ich es ihm erklärt hatte, hat er dann die .com auf die .de umgeleitet.
Und heute sehe ich voller Erstaunen, dass jede einzelne Seite unter .com und .de im Index steht - zusammen mit diesen ?last-Dingern. Also hats mit der .htaccess dann wohl doch nicht geklappt. Also nochmal angerufen, zur Schnecke gemacht und böse gedroht.

Da freut sich der SEO. :Fade-color

Ein Tipp an alle Webhoster da draußen: Seht mal nach, was mod_rewrite ist!!!

EmmCEe
PostRank 2
PostRank 2
Beiträge: 36
Registriert: 18.07.2005, 17:49

Beitrag von EmmCEe » 13.02.2008, 15:20

Wer weiss, vielleicht ist's ja auch die böse Konkurrenz die einfach mal sinnlos Parameter anhängt und Links setzt und damit versucht die Seite "abzuschiessen"... :lol:

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag