Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Google indexiert obwohl in robots.txt ausgeschlossen

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
sean
PostRank 10
PostRank 10
Beiträge: 3396
Registriert: 05.01.2004, 20:26
Wohnort: Leipzig/Karlsruhe

Beitrag von sean » 13.04.2004, 10:12

das Thema war glaub ich schon mal hier, hab aber über die Suche nichts finden können.

Habe für ein Projekt folgende Infos in der Robots.txt.

User-agent: *
Disallow: /red.php
Disallow: /print.php
Disallow: /mailto.php

Jetzt sehe ich heute morgen, dass alle print.php und mailto.php Dokumente indexiert wurden. Das sind praktisch nur doubletten über eine dyn. funktion zum drucken und weiterleiten. Also doppel Content.

Meine Frage: Ich hab die Robots.txt auf windows erstellt. Ich hörte mal, dass es da Probleme gegben kann mit dem Zeilenumbruch wenn die Datei danach auf einen Linux Rechner gespielt wird. Kann es daran liegen, oder muß ich damit leben dass Google sich nicht dran hällt.

sean

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

viggen
PostRank 10
PostRank 10
Beiträge: 6249
Registriert: 12.05.2003, 14:44

Beitrag von viggen » 13.04.2004, 10:41

Seit wann hast du die robots.txt in dieser Form?
Bedenken Sie jedoch, dass die Änderung der Datei robots.txt auf dem Server oder das Hinzufügen von "META"-Elementen nicht sofort in den Suchergebnissen von Google berücksichtigt werden. Wahrscheinlich wirken sich die von Ihnen vorgenommenen Änderungen erst nach einer Weile auf den Web-Index von Google aus.
via Google

mfg
viggen

IT-Knecht
PostRank 8
PostRank 8
Beiträge: 772
Registriert: 13.02.2004, 09:04
Wohnort: ~ Düsseldorf

Beitrag von IT-Knecht » 13.04.2004, 10:42

sean hat geschrieben: Jetzt sehe ich heute morgen, dass alle print.php und mailto.php Dokumente indexiert wurden.
Hast Du das gesehen im Logfile oder in den Serps?

Werden die Docs in den Serps mit Beschreibung und Cache angezeigt?
Wenn in den Serps nur der Link steht, dann kann es sich um die Information aus einen Link von nicht gesperrten Seiten handeln.

Grüße,
Martin

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

sean
PostRank 10
PostRank 10
Beiträge: 3396
Registriert: 05.01.2004, 20:26
Wohnort: Leipzig/Karlsruhe

Beitrag von sean » 13.04.2004, 12:06

@viggen

bevor das Web online war hab ich die Robots dort abgelegt. Also von Anfang an.

@it-knecht
beides. Heute Nacht war Google da zum crawlen, heute morgen war das bei Google.de online. Die Beschreibungen werden nicht angezeigt, nur ein Link.

sean

bugscout
PostRank 9
PostRank 9
Beiträge: 2602
Registriert: 23.06.2003, 12:24

Beitrag von bugscout » 13.04.2004, 12:13

moin moin

sowas baut man am besten mit <A HREF="#" onClick="window.open.... ein
sonst passiert das

grund:
IT-Knecht,
Wenn in den Serps nur der Link steht, dann kann es sich um die Information aus einen Link von nicht gesperrten Seiten handeln.
grüsse

IT-Knecht
PostRank 8
PostRank 8
Beiträge: 772
Registriert: 13.02.2004, 09:04
Wohnort: ~ Düsseldorf

Beitrag von IT-Knecht » 13.04.2004, 12:16

sean hat geschrieben: @it-knecht
beides. Heute Nacht war Google da zum crawlen, heute morgen war das bei Google.de online. Die Beschreibungen werden nicht angezeigt, nur ein Link.
Hat der Bot wohl die Seiten der ersten gesperrten Ebene noch gelesen,
aber nicht mit in den Index aufgenommen.
Die URL der Seiten kann ja aufgenommen werden,
da sie auch auf freigegebenen Seiten steht.

Grüße,
Martin

sean
PostRank 10
PostRank 10
Beiträge: 3396
Registriert: 05.01.2004, 20:26
Wohnort: Leipzig/Karlsruhe

Beitrag von sean » 13.04.2004, 12:24

ah, so hab ich das jetzt nicht gesehen. Also du meinst, dass die URls bei Google erhalten bleiben, aber keinen Inhalten zugeordnet werden?

sean

manute
PostRank 10
PostRank 10
Beiträge: 3010
Registriert: 22.07.2003, 11:02
Wohnort: Hamburg

Beitrag von manute » 13.04.2004, 12:29

ja das meint er. die urls sind im index, aber ohne inhalt, also werden sie auch nicht gefunden, also kein problem für dich.

IT-Knecht
PostRank 8
PostRank 8
Beiträge: 772
Registriert: 13.02.2004, 09:04
Wohnort: ~ Düsseldorf

Beitrag von IT-Knecht » 13.04.2004, 12:31

sean hat geschrieben:Also du meinst, dass die URls bei Google erhalten bleiben, aber keinen Inhalten zugeordnet werden?
Exakt. So ist es zumindest bei mir. Teste das einfach anhand von Sitename und spezifischer Suchworte aus den gesperrten Seiten.

Grüße,
Martin

sean
PostRank 10
PostRank 10
Beiträge: 3396
Registriert: 05.01.2004, 20:26
Wohnort: Leipzig/Karlsruhe

Beitrag von sean » 13.04.2004, 12:51

die Seiten enthalten die Inhalte ohne Navigation zum drucken und vermailen. Ich hoffe dass Du recht hast und die Inhalte nicht indexiert werden, weil es ja doubletten wären.

Allerdings hat sich dadurch die Anzahl meiner indexierten Seiten verdoppelt. Das könnte evtl. positiv sein :-) Mal sehn ob die drin bleiben.

sean

symantec
PostRank 7
PostRank 7
Beiträge: 543
Registriert: 26.11.2003, 23:13

Beitrag von symantec » 14.04.2004, 01:16

Wenn Suchmaschinen in der Datei Dinge finden die sie nicht interpretieren können...dann haut der Spider ab und Deine Angaben sind nun ja wirklich lächerich.

sean
PostRank 10
PostRank 10
Beiträge: 3396
Registriert: 05.01.2004, 20:26
Wohnort: Leipzig/Karlsruhe

Beitrag von sean » 14.04.2004, 08:03

@symantec

was ist lächerlich?

sean

sean
PostRank 10
PostRank 10
Beiträge: 3396
Registriert: 05.01.2004, 20:26
Wohnort: Leipzig/Karlsruhe

Beitrag von sean » 15.04.2004, 08:37

so, Google hat die Seiten die ich gesperrt hatte ind er robots.txt wieder aus dem Index verbannt. das ging aber flott.

sean

sean
PostRank 10
PostRank 10
Beiträge: 3396
Registriert: 05.01.2004, 20:26
Wohnort: Leipzig/Karlsruhe

Beitrag von sean » 15.04.2004, 23:40

das ist ja fürhcterlich im Moment. Alle 5 Studen sin die Seietn wieder dri n, dann wieder raus. Ebenso mit den Backlinks? Den ganzen Tag heute. Scheint noch wa sim gange.

sean

[Gott bin ich müde]

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag