Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

htacces und https

Ajax, Hijax, Microformats, RDF, Markup, HTML, PHP, CSS, MySQL, htaccess, robots.txt, CGI, Java, Javascript usw.
Neues Thema Antworten
Shredder
PostRank 5
PostRank 5
Beiträge: 226
Registriert: 28.03.2005, 14:12

Beitrag von Shredder » 11.10.2005, 00:21

Ich habe mit entsetzen festgestellt, dass von meinen Seiten im Cache von google jeweils ein Doppel existiert. Einmal mit www und einmal ohne. Bei dynamischen Seiten die öfter den Inhalt wechseln ist das kein Problem. Die Seiten, die ihren Inhalt selten oder gar nicht wechseln, sind nur noch ohne Beschreibung in den Serps zu finden.

Das lässt sich ja nun relativ einfach hiermit lösen:


Nun das eigentliche Problem:
Das Script beinhaltet einige Funktionen, bei denen ich unbedingt https brauche. Leider kann ich diese Funktionen nicht in ein Unterverzeichnis auslagern.
Verwende ich die Umleitung, wird aus https.//domain.de https://www.domain.de
Das wäre noch nicht so schlimm. Ich benutze aber ein Zertifikat, das ohne www registriert ist. Nun erscheint jedesmal ein Sicherheitshinweis. Das ist nicht so toll.
Ich bräuchte nun einen Rule, der https von der Umleitung ausnimmt.

Nun stehe ich auf dem Schlauch, da ich an dieser Stelle nicht weiter komme.
Hat jemand eine Idee wie man das lösen kann?

Mit unwissenden Grüssen :roll:

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

michle
PostRank 2
PostRank 2
Beiträge: 38
Registriert: 08.10.2005, 21:39

Beitrag von michle » 11.10.2005, 08:25

Sorry, wenn ich mich hier so ranhänge. Ich habe ebenfalls ein Problem mit dem Code. Meine Startseite wird mit www geladen und ohne wird der Zugriff verweigert. Das wäre ja auch O.K. gewesen, aber auf den Unterseiten ist der Zugriff dann ganz verweigert (egal ob mit oder ohne www).

Gibt es eigentlich auch eine Möglichkeit das Google-Problem mit einer robots.txt Datei zu lösen? (also spidern ohne www verboten wird).

Oder ist das eh alles übertrieben? Es muss ja zig-tausende Seiten geben, die mit und ohne www erreichbar sind (ohne Umleitung).

Vielen Dank

gsingle
PostRank 4
PostRank 4
Beiträge: 113
Registriert: 25.08.2005, 00:26
Wohnort: Deutschland

Beitrag von gsingle » 11.10.2005, 15:12

@michle
eh
rewrite es doch einfach, so dass das "www" in der URL immer eingefügt wird, sollte es fehlen.

etwa so:

Code: Alles auswählen

RewriteEngine On
RewriteBase /
RewriteCond %{HTTP_HOST} !^www\.domain\.de$
RewriteRule ^(.*)$ http://www.domain.de/$1 [L,R=301]
Damit löst du auch das Duplicate Content Problem mit G****** - weil die Weiterleitung via HTTP 301 (moved permanently) erfolgt.

hth