Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

PDF Dokumente für Suchmaschinen unsichtbar machen

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
d0ng3000
PostRank 1
PostRank 1
Beiträge: 10
Registriert: 21.11.2008, 12:19

Beitrag von d0ng3000 » 01.12.2008, 16:17

Hallo Zusammen,

eine kurze Frage:
Gibt es die Möglichkeit suchmaschinenunlesbare (geniale Wortschöpfung) PDF-Dokumente zu erstellen?

Bzw. kann man durch irgendeine bestimmte Einstellung beim PDF verhindern, dass g**gle und co. diese indexieren, !ohne! auf die robots.txt zuzurückzufreifen?

Thx 4 ur support,
D0ng

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


chrizz
PostRank 10
PostRank 10
Beiträge: 3044
Registriert: 05.07.2006, 10:37
Wohnort: Berlin

Beitrag von chrizz » 01.12.2008, 16:43

du könntest den Text in Pfade umwandeln... allerdings weiß ich nicht, ob das so ohne weiteres mit jedem Programm klappt. Adobe Indesign kann das jedenfalls :)
Ansonsten Text als Grafik...

Cheers

Fortunus
PostRank 5
PostRank 5
Beiträge: 202
Registriert: 25.06.2008, 07:15

Beitrag von Fortunus » 01.12.2008, 16:52

Das ist zwar eine Möglichkeit, aber ich glaube ohne robots.txt wird das schwierig bzw. nicht wirklich leicht machbar sein :cry:

Und selbst dann kann man sich nicht sicher sein, dass die pdfs dann doch irgendwo indiziert werden.
Zuletzt geändert von Fortunus am 02.12.2008, 11:40, insgesamt 1-mal geändert.
gelöschte Domains kostenlos, ungefiltert und in Echtzeit

d0ng3000
PostRank 1
PostRank 1
Beiträge: 10
Registriert: 21.11.2008, 12:19

Beitrag von d0ng3000 » 01.12.2008, 16:56

Dabke für den Tipp mit dne Pfaden, ich werde das mal checken.

Die Texte als Grafiken auszugeben hatte ich mir auch schon überlegt... Mal sehen was besser funktioniert.

Ich will diese Maßnahme zusätzlich zur Robots.txt umsetzen, da ich wirklich sichern gehen will, dass die PDFs in keinem Ranking auftauchen.

Thx,
D0ng

catcat
PostRank 10
PostRank 10
Beiträge: 10292
Registriert: 02.08.2006, 13:21
Wohnort: Litauen

Beitrag von catcat » 01.12.2008, 19:17

Du kannst den text und die eingebundenen Grafiken als jpeg speichern und diese dann als pdf ausgeben.
Das wäre schon mal die erste Hürde für den Bot.
Dann noch per robots.txt entweder nur pdf sperren oder den Pfad zum pdf-Dokument.

EDIT:
Ok. Hab nochmal geguckt. Du könntest unter "Erweitert"-->"Sicherheitseinstellungen" Dein pdf mit einem Leseschutz-PW schützen. (Und ggfls. das PW in den Dokumententitel einbauen?)

Deathcore
PostRank 5
PostRank 5
Beiträge: 258
Registriert: 05.11.2008, 17:20
Wohnort: Bavaria

Beitrag von Deathcore » 01.12.2008, 19:51

-entweder schriften in jpg umwandeln
-Sicherheitseinstellungen vom PDF ändern
-das pdf zippen (könnt ich mir vorstellen, weiß nicht ob google zips mag?)

catcat
PostRank 10
PostRank 10
Beiträge: 10292
Registriert: 02.08.2006, 13:21
Wohnort: Litauen

Beitrag von catcat » 01.12.2008, 20:11

Ehm... nochmal gefragt:
Wozu darf der Otto-normal-user das PDF nicht lesen können?

Leg es einfach auf ein Lesegeschütztes verzeichnis mit PW-Schutz. Das PW bekommen nur die "Auserwählten". dann kommt auch der google-bot nicht ran.

xoni
PostRank 8
PostRank 8
Beiträge: 692
Registriert: 22.08.2007, 12:14

Beitrag von xoni » 02.12.2008, 09:48

@ catcat
Leg es einfach auf ein Lesegeschütztes verzeichnis mit PW-Schutz. Das PW bekommen nur die "Auserwählten". dann kommt auch der google-bot nicht ran.
genau, das ich habe ich kürzlich auch gemacht. Das funktioniert recht gut.
Der Dowload wird durch ein PHP-Script veranlasst, der Dokumentenordner ist mit .htaccess geschützt
(besser wäre noch, ihn ausserhalb des Doc-Root zu legen, was bei vielen Hostern aber leider nicht möglich ist).
Selbst bei Kenntnis der URL zu einem PDF-File kann dieses nicht aufgerufen werden.

csx
PostRank 5
PostRank 5
Beiträge: 305
Registriert: 09.02.2005, 18:19

Beitrag von csx » 02.12.2008, 16:40

Oder nenn die PDFs einfach "irgendein-name.noindex.pdf" und sperr in deiner robots.txt alle Dateien, die "noindex" im Namen haben. Denn alle PDFs zu sperren würde auch solche ausschließen, die du vielleicht indexiert haben möchtest.

d0ng3000
PostRank 1
PostRank 1
Beiträge: 10
Registriert: 21.11.2008, 12:19

Beitrag von d0ng3000 » 03.12.2008, 20:37

catcat hat geschrieben:Ehm... nochmal gefragt:
Wozu darf der Otto-normal-user das PDF nicht lesen können?

Leg es einfach auf ein Lesegeschütztes verzeichnis mit PW-Schutz. Das PW bekommen nur die "Auserwählten". dann kommt auch der google-bot nicht ran.
Weil die PDFs eigentlich kostenpflichtig sind und nur einem "auserwählten" Nutzerkreis zur Verfügung gestellt werden sollen. Das mit dem PW-Schutz lässt sich leider auch nur insofern realisieren, als dass die PDFs nach einem Login sichtbar sind, aber nicht selber mit PW geschützt werden. Liegt an dem CMS (nicht von mir gebastelt ;) Wenn ein User den Link einmal gesichtet hat, kann er ihn auch ohne Login aufrufen, verbreiten ,verlinken etc. Ich will verhindern, dass die PDFs bei G**gle in den SERPs laden.

Habe noch eine andere Lösung erg**gelt: Man kann anscheinend die PDFs in einem zu Acrobat 5 kompatiblen Format anlegen, da die Crawler erst PDFs > Acrobat 5 lesen können. Somit wären die PDFs angeblich 'uncrawlbar'.

Hat jemand davon mal etwas gehört, kann das stimmen?

Cheers,
D0ng

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag