Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Unerwünschte Suchergebnisse bei Google

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
pblack
PostRank 3
PostRank 3
Beiträge: 73
Registriert: 12.06.2012, 14:58

Beitrag von pblack » 03.08.2012, 17:46

das mit dem Plugin -> nofollow und noindex, reicht völlig.
Wenn es nicht soviele Seiten sind, kannst du es ja sicherheitshalber
noch in die robots.txt mit aufnehmen. Doppelt hält besser. :)

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Expression
PostRank 1
PostRank 1
Beiträge: 8
Registriert: 02.08.2012, 13:27

Beitrag von Expression » 07.08.2012, 08:45

Hmmm..irgendwie funktioniert das nicht so..

Ich habe drei Tage gewartet, doch die Ergebnisse werden noch immer angezeigt. Ich habe sie sogar aus dem Google Index erfolgreich entfernen lassen, die Seiten stehen in der robots.txt und haben zusätzlich einen no-index eintrag.

Trotz allem gibt es folgende Ergebnisse:

Bild

Was kann das sein?

thomas_x3
PostRank 5
PostRank 5
Beiträge: 214
Registriert: 09.03.2012, 08:41

Beitrag von thomas_x3 » 07.08.2012, 09:58

kanuddel hat geschrieben:Von Text in Form von Grafiken würde ich abraten. Gibt ja tatsächlich Leute die während dem lesen immer das bisher gelesene markieren. Die merken das dann schon und findens bestimmt uncool. Ich mache das zB nur wenn ich unterbrochen werde, aber manche fahren mit dem Cursor richtig mit. Warum auch immer, aber man muss sich halt damit arrangieren.
Stimmt, ich bin so einer :D

Ich mach das damit ich die Zeile beim lesen nicht verliere bzw. die Zeile gleich wieder finde, falls ich kurz unterbrechen musste.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Melegrian
PostRank 10
PostRank 10
Beiträge: 3170
Registriert: 30.01.2005, 12:36

Beitrag von Melegrian » 07.08.2012, 10:23

Expression hat geschrieben:Ich habe sie sogar aus dem Google Index erfolgreich entfernen lassen, die Seiten stehen in der robots.txt und haben zusätzlich einen no-index eintrag.
Aus dem Google Index habe ich noch nichts entfernen lassen, da halte ich mich heraus, doch über Meta-Tag noindex geht es halt nur über ein erneutes Crawlen der Seite. Wenn der Bot aber zuerst die robots.txt besucht, dort ein Disallow: /seite.html findet, könnte es theoretisch möglich sein, dass er seite.html nicht mehr besucht, um diese erneut zu crawlen und somit das noindex in der Seite nicht findet.

Du hast dem Bot ja in der robots.txt untersagt, die Seite zu besuchen, somit kann er auch nicht wissen, dass diese Seite ein Meta Tag noindex enthält. Die Ergebnisse von seite.html verschwinden zwar dann auch früher oder später aus dem Index, doch das könnte dann etwas länger dauern. Einiges geht bereits aus der Einleitung hervor, besonders den vierten Absatz solltest Du bedenken:

https://support.google.com/webmasters/b ... wer=156449

Expression
PostRank 1
PostRank 1
Beiträge: 8
Registriert: 02.08.2012, 13:27

Beitrag von Expression » 07.08.2012, 11:45

Also wäre die Entfernung der robots.txt doch ziemlich sinnvoll?

Melegrian
PostRank 10
PostRank 10
Beiträge: 3170
Registriert: 30.01.2005, 12:36

Beitrag von Melegrian » 07.08.2012, 13:07

Sinnvoller wäre es jetzt, einfach Tee trinken und abwarten. Nach dem nächsten Webdurchlauf von Google sollten die Ergebnisse anders aussehen, doch versprechen kann ich Dir das selbstverständlich nicht. Die Seiten, die ich nur über die robots.txt ausschloss, wurden oft anfänglich nur unter ihrer URL gelistet und verschwanden dann nach geschätzten vier Wochen aus dem Index. Ist wirklich nur geschätzt, da ich selten nachsah.

Wesentlich interessanter fand ich es, als ich feststellte, dass Google die URLs (ohne Beschreibung) von 10 Seiten eines kleinen Shops unter den übersprungenen Ergebnissen listet, obwohl diese 10 Seiten meta name="robots" content="noindex,nofollow" enthalten. Da mache ich mir zwar keine großen Gedanken drüber, lasse da kommen was will, ist aber ein Zeichen dafür, dass auch der Meta Tag allein noch nicht verhindert, dass diese URLs nie auftauchen. Mit wichtigen Daten sollte man halt anders umgehen. Mit gesperrten Seiten im iFrame oder mit E-Mail-Adressen in JavaScript, hatte ich bisher eigentlich keine Probleme.

Aber wenn, so sollte man eine derartige Lösung von Anbeginn an in Erwägung ziehen und nicht erst dann, wenn die Katze bereits im Brunnen liegt und Google die Seiten bereits kennt. Reicht doch oftmals schon aus, wenn Du persönliche Daten, Anschriften usw. in eine daten.js packst und in der Seite dann nur mit einem Schnipsel ausgibst:

Code: Alles auswählen

<script src="http&#58;//www.example.com/gesperrte/daten.js" type="text/javascript"></script>
Oder halt mit iFrame ohne JavaScript oder den iFrame in die daten.js und die Seite mit den Daten in eine gesperrte.html, die dann im iFrame geladen wird. Wichtig ist, vorher, nicht nachher.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag