Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

https wird gecrawlt, trotz robots

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
Manu v6
PostRank 5
PostRank 5
Beiträge: 306
Registriert: 01.02.2011, 12:20

Beitrag von Manu v6 » 29.05.2011, 13:55

Hallo,

bei der site-Abfrage habe ich mit Erschrecken entdeckt, dass unsere Shop-Startseite auch als https im Index ist. Im google Webmaster Forum hatten wir einen Betrag gefunden, in dem zu einer /robots-ssl.txt geraten wurde, was wir auch gemacht haben. Inhalt dieser:

# robots.txt 4 SSL

User-agent: *

Disallow: /

Aber das bringt anscheinend nichts. Was gibt es sonst noch für Lösungen? Grundüberlegung ist natürlich eine robots.txt mit obigem Inhalt unter https://www.example.com/robots.txt abzulegen, aber wie soll das bei einem SSL Zertifikat realisiert werden?
Zuletzt geändert von Manu v6 am 29.05.2011, 18:07, insgesamt 2-mal geändert.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Anonymous

Beitrag von Anonymous » 29.05.2011, 13:57

ich würde nen canonical auf die http:// url in den head setzen... dann würden die https zwar noch gecrawlt werden, aber nicht mehr in den Index landen... und es würden zudem keine freiwillig gesetzten externen Links zu den https:// Seiten verloren gehen.....

Hirnhamster
PostRank 10
PostRank 10
Beiträge: 2997
Registriert: 23.02.2008, 12:56

Beitrag von Hirnhamster » 29.05.2011, 16:17

Manu v6 hat geschrieben:Hallo,

bei der site-Abfrage habe ich mit Erschrecken entdeckt, dass unsere Shop-Startseite auch als https im Index ist. Im google Webmaster Forum hatten wir einen Betrag gefunden, in dem zu einer /robots-ssl.txt geraten wurde, was wir auch gemacht haben. Inhalt dieser:

# robots.txt 4 SSL

User-agent: *

Disallow: /

Aber das bringt anscheinend nichts. Was gibt es sonst noch für Lösungen? Grundüberlegung ist natürlich eine robots.txt mit obigem Inhalt unter https://www.example.de/robots.txt abzulegen, aber wie soll das bei einem SSL Zertifikat realisiert werden?
Davon hab ich noch nie was gehört.. hast nen Link dazu?

Ansonsten stimm ich nettworker zu, Canonical ist the way to go.

Oh, und benutz mal example.com für Beispiel bei Domains.. Auf xxx.de möchtest du glaub nicht linken ;)
Texte/Content schnell und effizient en masse produzieren » Article Wizard «

SEO Grundlagen: SEO Tutorial --- Linkbuilding Fallstudie --- Find me on Google+ and Twitter