Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Googlebot ignoriert robots.txt

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
marky
PostRank 3
PostRank 3
Beiträge: 88
Registriert: 24.07.2005, 09:12

Beitrag von marky » 22.06.2008, 14:57

Hallo,

ich habe in den letzten Wochen ziemlich viele Projekte neu online gestehlt und bei nahezu allen ist mir aufgefallen, dass der Googlebot eigentlich immer die robots ignoriert und die gesperrten Pfad aufnimmt und auch über site anzeigt, allerdings nur die URL, keine Titel, keine Beschreibung.

Ist das noch jemanden aufgefallen und kann man dagegen machen?

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

UweT
PostRank 10
PostRank 10
Beiträge: 5601
Registriert: 03.01.2003, 00:07

Beitrag von UweT » 22.06.2008, 15:50

Das ist ein normales Verhalten des Crawlers - die URLs werden nicht gecrawlt - was jedoch nicht heisst, dass die URL / Reference nicht im Index auftaucht.

-> https://googlewebmastercentral.blogspot ... oogle.html im Video -> Minute 5 bis Minute 6 wirds erklärt.

Gruß
tbone.

800XE
PostRank 10
PostRank 10
Beiträge: 5223
Registriert: 02.12.2004, 03:03

Beitrag von 800XE » 22.06.2008, 16:18

marky hat geschrieben:dass der Googlebot eigentlich immer die robots ignoriert und die gesperrten Pfad aufnimmt und auch über site anzeigt,

allerdings nur die URL, keine Titel, keine Beschreibung.
was verbietet die robots.txt?
das besuchen einer Seite
nicht das finden von Links zu dieser Seite

1. index.html ... mit link auf /Ausgang/irgednwas.html
2. /Ausgang/irgednwas.html

1 darf gelesen werden, wird gelesen und 2 wird gefunden
2 kommt in todo-Liste, damit erscheint sie auch schonmal in site:
beim Versuch die todo abzuarbeiten wird sie als "verboten" markiert und bleibt ohne Desc oder verschwiemdet vielleicht auch wieder

warum kommt sie ertmal in die todo und site:
warum merkst du das die Milch sauer ist, erst wenn du sie im Mund hast .... weil du nicht alles was du aus dem Schrank nimmst prüfst ob du es auf den Tisch oder Mülleimer packen sollst .... zu 99,99% ist Ergebniss der Prüfung "OK"=Tisch ... also Resourcenverschwendung die Prüfung durchzuführen


Gruß
Andy 800XE Zmuda

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

marky
PostRank 3
PostRank 3
Beiträge: 88
Registriert: 24.07.2005, 09:12

Beitrag von marky » 23.06.2008, 00:26

Hallo,

danke für die Antworten, ich schliesse mit der robots, halt ein oder zwei Verzeichnsse aus und die haben zudem noch noindex. Tauchen aber trotzdem auf, auch bei älteren Pages. Das ist unlogisch, finde ich zumindest, es hat auch seinen Grund warum ich mache, das ist echt Käse.

Naja, mal sehen, wie es weitergeht.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag