Seite 1 von 1

google verbieten, pdfs in den Index zu nehmen

Verfasst: 17.01.2005, 14:10
von hakker82
auf meiner Seite habe ich content in Form von html-code und pdfs. Die pdfs sitzen aber auf einem anderen webspace, um traffic zu sparen.

Wie kann ich google verbieten, diese pdfs zu indexieren?

noch keine Antorten:
dann erkläre ich das mal genauer:

ich habe ein paar tutorials, die in html-Form vorliegen. außerdem habe ich pdfs davon in meinem home-Verzeichnis bei der Uni liegen, um traffic zu sparen. wie kann ich verhindern, dass google diesen links folgt oder die pdfs überhaupt in den Index aufnimmt?

Verfasst:
von

Verfasst: 17.01.2005, 14:50
von Toppi
Ich würd die PDFs über ein Weiterleitungsscript einbinden, dann kann Google dem Link ja nicht folgen!

Verfasst: 17.01.2005, 14:53
von hakker82
kannst du mir das näher erklären?

da habe ich noch eine andere Idee:
das pdf als zip verpacken, dann kann google ix damit anfangen

Verfasst:
von

Verfasst: 17.01.2005, 15:01
von ypsie
Kann man nicht einfach per robots.txt die betroffene Datei verbieten?

Mfg, Julian

Verfasst: 17.01.2005, 15:02
von hakker82
die robots.txt kann ich leider nicht editieren, weil es sich um einen Uni-Server handelt. Es handelt sich um ein paar pdfs im meinem public_html Verzeichnis dort.

Verfasst: 17.01.2005, 15:11
von hakker82
mit Weiterleitungsscript meinst du eine normale Weiterleitung mit meta-tags?

Verfasst: 17.01.2005, 15:24
von Toppi
Ich meinte eigentlich den Link auf die PDFs z.B. per Javascript für Google unlesbar zu machen!

Verfasst: 17.01.2005, 15:25
von mark
die robots.txt kann ich leider nicht editieren, weil es sich um einen Uni-Server handelt. Es handelt sich um ein paar pdfs im meinem public_html Verzeichnis dort.
Dann leg sie doch wo anders hin. Es gibt geschätzte 300.000 Anbieter von Free Webspace im Netz.
u.a. hier: https://directory.google.com/Top/World/ ... Kostenlos/

Du könntest auch per .htaccess sperren falls Du da Zugriff drauf hat.
Die Weiterleitungsgeschichte ist imho unnötig kompliziert für den Zweck und funktioniert ohne den Ausschluss über die robots.txt auch nicht.
habe ich pdfs davon in meinem home-Verzeichnis bei der Uni liegen, um traffic zu sparen
Wieviel Traffic hast Du denn? So viele Gigs an Download das dein Hostingpaket nicht ausreicht?
Dann Glückwunsch.
Ansonsten ist es ja auch recht sinnvoll zu sehen wie oft die Dateien aufgerufen werden. Und Zugriff auf die Uni Logfiles wirst Du wohl auch nicht haben...

Verfasst: 17.01.2005, 15:30
von hakker82
ich habe 1500 MB freien traffic. da das pdf eines tutorial, wenn es fretig gestellt ist (bisher 200kb) ca. 450 kb haben wird, kann es schnell zu sehr viel traffic führen. dazu kommt noch das ps (gepackt) und dvi-file.
Dazu kommen noch die anderen Inhalte.

Mir geht es vor allem darum, dass die Leute nicht das pdf mit google finden, sondern auf meine Seite kommen, um es dort herunterzuladen. Es als zip zu verpacken, ist da wohl die einzige Möglichkeit.