Ich betreibe einen Onlineshop mit schnell wechselnden Angebot. Das heißt, der Link zu dem Produktdetail kann morgen schon rausfallen, da der Artikel ausverkauft ist.
Da dies nun doch sehr schnelllebiger Inhalt ist, frag ich mich, ob Google diese schnell wieder verschwindenden Links nicht leiden mag. Soll ich die Produktdetails lieber per robot.txt sperren? Wenn der User auf solchen Link klicken würde, käme er auf der Suchseite raus. Sollte ich aber diese Details sperren, fehlen mir natürlich auch ein paar wichtige Contentseiten.
Auf keinen Fall sperren!
Am besten, du lässt die Produkte einfach im Shop stehen und schreibst nur "ausverkauft" dahinter. So sind sie trotzdem sichtbar und die Seiten verschwinden nicht.
Wie ist das eigentlich, wenn ich die Produkte dann nicht drin lassen würde, sondern den Dingen, sagen wir mal ihren normalen Lauf nehmen lasse. Der Artikel wird raus genommen und das Shopprogramm leitet weiter auf die Search Seite. Diese wurde durch robot.txt gesperrt. Würde Google das als Error werten oder einfach nur die betreffende Seite aus dem Index entfernen? Es gibt bei den Webmastertools doch auch die Meldung: URL durch "robots.txt" eingeschränkt, die Google nicht als "Fehler" wertet.
Würde dann in dem Fall Google mit den Schultern zucken und sagen, dann eben nicht, oder würde es zu einer 404 Meldung kommen?
Wie ist das eigentlich mit vielen 404 Meldungen? Gibt es bei vielen solcher Meldungen eine Abstrafung? Ich habe nämlich vor kurzen das Shopprogramm geändert und die alten Seiten entfernt. Nun kommen natürlich viele 404 Errors, die ich fleißig aus dem Index löschen lasse.