Seite 1 von 1
Link sperren in Google
Verfasst: 07.04.2005, 19:00
von hannes.b
Hallo,
würde gerne 2 Links aus der Google Scuhe entfernen.
bzw sie dürfen nicht darin erscheinen.
Wie kann man es verhindern ?
Gruss Johan
Verfasst:
von
Hochwertiger Linkaufbau bei ABAKUS:
- Google-konformer Linkaufbau
- nachhaltiges Ranking
- Linkbuilding Angebote zu fairen Preisen
- internationale Backlinks
Wir bieten
Beratung und
Umsetzung.
Jetzt anfragen:
0511 / 300325-0
Link sperren in Google
Verfasst: 07.04.2005, 19:23
von Caterham
z.B. per robots.txt
example.com/robots.txt hat geschrieben:User-agent: *
Disallow: /mein/pfad/zur/datei.php
Disallow: /anderedateiimroot.php
Soll's nur für googlebot sein, die 1. Zeile durch diese austauschen:
User-agent: googlebot
Die Textdatei muss ins root deiner Domain, also unter example.com/robots.txt erreichbar sein.
Grüße
Robert
Link sperren in Google
Verfasst: 07.04.2005, 19:59
von Septober
Hallo,
ich habe die Erfahrung gamacht, dass der googlebot
User-agent: *
nicht beachtet
User-agent: googlebot
wird beachtet.
Verfasst: 07.04.2005, 21:30
von hannes.b
Also eine Robots.txt erstllen und nur die ZEilen rein ? oder muss sonst nochwas dazu ?
Link sperren in Google
Verfasst: 07.04.2005, 21:33
von Caterham
Also eine Robots.txt erstllen und nur die ZEilen rein ?
Ja, genau.
oder muss sonst nochwas dazu ?
Nein.
ich habe die Erfahrung gamacht, dass der googlebot
User-agent: *
nicht beachtet
Bei mir mir schon...

Verfasst: 07.04.2005, 21:47
von hannes.b
Sollte es dann so aussehen:
User-agent: googlebot
User-agent: *
Disallow: /assets/
oder reicht:
User-agent: *
Disallow: /assets/
Wei lange dauert der Ausschluss der Seite ?
Link sperren in Google
Verfasst: 07.04.2005, 22:11
von Caterham
Ein
User-agent: *
Disallow: /assets/
sollte reichen. Auf Fehler in der Syntax kannst du die robots.txt auf
https://www.searchengineworld.com/cgi-b ... tcheck.cgi überprüfen.
Wei lange dauert der Ausschluss der Seite ?
Erst einmal muss google deine Seite wieder indizieren. In welchen Abständen der Bot bei dir vorbeischaut, kannst du an deinen Logs erkennen. Bis die Seite aus dem Index ist (d.h. als Titel wird in den Ergebnissen nur noch die URL angezeigt), dauert es vielleicht dann noch so 2-4 Wochen.
Für Notfälle gibt es da noch die URL-Console:
https://www.google.de/intl/de/remove.html
Grüße
Robert
Verfasst: 07.04.2005, 22:18
von hannes.b
Verschwindet der URL Eintrag dann nicht ?
Momentan wird er ohne Beschreibung angezeigt.
Leider ist der Wert höher als meine Root/index.htm, sobald sie erscheint ist mein /index.htm auf den letzten Seiten zu finden.
Wenn sie mal kurz weg ist springt mein /index.htm gleich wieder vor auf Seite 1.
D.h ich habe mit der Robots.txt kein Erfolg ?
Verfasst: 07.04.2005, 22:28
von vism
Guck mal hier:
https://www.searchcode.de/robotstxt.php
und hier:
https://www.searchcode.de/artikel/robotstxt.php
Da solltest du genügend Informationen über die robots.txt finden.
Link sperren in Google
Verfasst: 07.04.2005, 22:29
von Caterham
Verschwindet der URL Eintrag dann nicht ?
Momentan wird er ohne Beschreibung angezeigt.
Das dauert unwahrscheinlich lange, bis die Seite komplett verschwunden ist, d.h. auch der Eintrag ohne Beschreibtng entfernt ist.
Leider ist der Wert höher als meine Root/index.htm, sobald sie erscheint ist mein /index.htm auf den letzten Seiten zu finden.
Wenn sie mal kurz weg ist springt mein /index.htm gleich wieder vor auf Seite 1.
Der google-pageRank von /assets/ ist höher als der von /index.htm bzw.
https://www.example.com/ ? Und warum sperrst du dann das Verzeichnis?
D.h ich habe mit der Robots.txt kein Erfolg ?
Wenn du erreichen willst, dass /assets/ nicht mehr gelistet wird, wirst du Erfolg haben. Der Pagerank von /assets/ geht dann aber nicht auf / oder /index.htm über (falls das das ist, was du erreichen möchtest?).
Verfasst: 07.04.2005, 22:42
von hannes.b
DAS mit dem PR ist soweit kalr, die Seite aber selbst hat das
Problem. An den Assets selbst ist es so wenn jemand den Link in Google aufruft das Script verzeichniss sieht statt die HP.