meine Frage ist, warum Google meine robots.txt ignoriert.
Im Google Index finden sich eine Anzahl Webseiten, welche ich eigentlich per robots.txt ausgeschlossen hatte.
z.B.
advanced_search.php
create_account.php
usw.
Backlinks gibt es für diese Seiten keine.
Hier meine robots.txt:
Code: Alles auswählen
User-agent: *
Disallow: address_book_process.php
Disallow: account.php
Disallow: account_edit.php
Disallow: account_edit_process.php
Disallow: account_history.php
Disallow: account_history_info.php
Disallow: address_book.php
Disallow: checkout_process.php
Disallow: advanced_search.php
Disallow: advanced_search_result.php
Disallow: checkout_address.php
Disallow: checkout_confirmation.php
Disallow: checkout_payment.php
Disallow: checkout_success.php
Disallow: contact_us.php
Disallow: create_account.php
Disallow: create_account_guest.php
Disallow: create_account_process.php
Disallow: create_account_success.php
Disallow: info_shopping_cart.php
Disallow: logoff.php
Disallow: password_double_opt.php
Disallow: popup_image.php
Disallow: popup_search_help.php
Disallow: privacy.php
Disallow: product_notifications.php
Disallow: product_reviews.php
Disallow: product_reviews_info.php
Disallow: shipping.php
Disallow: admin/
Disallow: export/
Disallow: download/
Disallow: includes/
Disallow: pub/
Disallow: media/
Es wäre schön, wenn ihr mir helfen könntet.
Gibt es noch andere Möglichkeiten, eine Seite vom Index aus zu schließen?