Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Schnelllebiger Inhalt und Google Verhalten?

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
Trendy
PostRank 3
PostRank 3
Beiträge: 68
Registriert: 18.09.2007, 10:59
Wohnort: Leipzig

Beitrag von Trendy » 07.09.2008, 09:38

Hallo liebe Leute,

ich hab da mal ´ne Frage....

Ich betreibe einen Onlineshop mit schnell wechselnden Angebot. Das heißt, der Link zu dem Produktdetail kann morgen schon rausfallen, da der Artikel ausverkauft ist.

Da dies nun doch sehr schnelllebiger Inhalt ist, frag ich mich, ob Google diese schnell wieder verschwindenden Links nicht leiden mag. Soll ich die Produktdetails lieber per robot.txt sperren? Wenn der User auf solchen Link klicken würde, käme er auf der Suchseite raus. Sollte ich aber diese Details sperren, fehlen mir natürlich auch ein paar wichtige Contentseiten.

Was denkt ihr? Sperren oder lieber nicht?

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Seokratie
PostRank 8
PostRank 8
Beiträge: 805
Registriert: 03.10.2007, 12:32

Beitrag von Seokratie » 07.09.2008, 10:05

Auf keinen Fall sperren!
Am besten, du lässt die Produkte einfach im Shop stehen und schreibst nur "ausverkauft" dahinter. So sind sie trotzdem sichtbar und die Seiten verschwinden nicht. :Fade-color

Trendy
PostRank 3
PostRank 3
Beiträge: 68
Registriert: 18.09.2007, 10:59
Wohnort: Leipzig

Beitrag von Trendy » 07.09.2008, 11:15

Vielen Dank für die schnelle Antwort.

Wie ist das eigentlich, wenn ich die Produkte dann nicht drin lassen würde, sondern den Dingen, sagen wir mal ihren normalen Lauf nehmen lasse. Der Artikel wird raus genommen und das Shopprogramm leitet weiter auf die Search Seite. Diese wurde durch robot.txt gesperrt. Würde Google das als Error werten oder einfach nur die betreffende Seite aus dem Index entfernen? Es gibt bei den Webmastertools doch auch die Meldung: URL durch "robots.txt" eingeschränkt, die Google nicht als "Fehler" wertet.

Würde dann in dem Fall Google mit den Schultern zucken und sagen, dann eben nicht, oder würde es zu einer 404 Meldung kommen?

Wie ist das eigentlich mit vielen 404 Meldungen? Gibt es bei vielen solcher Meldungen eine Abstrafung? Ich habe nämlich vor kurzen das Shopprogramm geändert und die alten Seiten entfernt. Nun kommen natürlich viele 404 Errors, die ich fleißig aus dem Index löschen lasse.