Max Einträge in Robots.txt
Verfasst: 10.11.2005, 09:41
Moin,
ich habe da mal nen Frägelchen. Ich wollte nun nen paar alte Links aus einem Projekt über die Robots.txt und die Google URL-Console killen lassen. Nun meine Frage: Wieviele Links dürfen in der Robots.txt drinne sein? Oder gibt es eine Möglichkeit das alles per ONE zu killen. Da des alte System über Templates lief, also Sprich = datei.php?template=news, datei.php?template=Downloads u.s.w.
würde es reichen einfach nur die datei.php in die robots zu machen, damit die URL-Console alle Links damit löscht. ?
Ich bedanke mich, für die Hilfe !
ich habe da mal nen Frägelchen. Ich wollte nun nen paar alte Links aus einem Projekt über die Robots.txt und die Google URL-Console killen lassen. Nun meine Frage: Wieviele Links dürfen in der Robots.txt drinne sein? Oder gibt es eine Möglichkeit das alles per ONE zu killen. Da des alte System über Templates lief, also Sprich = datei.php?template=news, datei.php?template=Downloads u.s.w.
würde es reichen einfach nur die datei.php in die robots zu machen, damit die URL-Console alle Links damit löscht. ?
Ich bedanke mich, für die Hilfe !
