Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Indexierung verhindern

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
corinne
PostRank 1
PostRank 1
Beiträge: 4
Registriert: 07.09.2005, 09:12

Beitrag von corinne » 07.09.2005, 09:27

Hallo zusammen

Ich habe auf einer Website folgendes Problem. Einige Seiten der ganzen Webpräsenz sind in der Navigation inaktiv geschaltet (das heisst, in der Navigation werden die Links zu diesen Seiten nicht angezeigt, die Seite ist aber auf dem Server vorhanden).

Wie kann ich verhindern, dass Suchmaschinen diese inaktiven Seiten indexieren?

(Ist zwar bereits passiert, aber fürs nächste Projekt wäre ich froh, wenn die Kunden nicht auf einer leeren Seite landen wenn eine inaktive Seite in der Suchmaschine gefunden wird.)

Vielen Dank für eure Hilfe...

lg
Corinne

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

fliper
PostRank 4
PostRank 4
Beiträge: 163
Registriert: 09.08.2004, 11:13

Beitrag von fliper » 07.09.2005, 09:52

schau mal bei google unter "alles über google". da gibst einen bereich zum entfernen von seiten aus dem index. du erstellst ne robots.txt und benutzt die konsole zum löschen der seiten. dauert ca. 2-3 tage dann sind die seiten ausem index verschwunden.

war naheliegend, bei google mal nachzuschauen, oder?

liebe leute, gewöhnt euch doch mal an das verdammte manual zu lesen. auch google hat son manual. einfach wie oben beschrieben mal durchklicken und alles lesen, was google euch als webmaster zu sagen hat. ihr werdet staunen, was ihr da alles lernt und müsst nichtmehr posts erstellen und auf antwort hoffen, das ist doch viel einfacher!

sorry klingt hart, aber die hälfte der fragen hier könnten sie leute sich selber beantworten, würden sie nur mal 2 minuten lesen.

corinne
PostRank 1
PostRank 1
Beiträge: 4
Registriert: 07.09.2005, 09:12

Beitrag von corinne » 07.09.2005, 10:18

Mir ist auch klar, dass ich bei Google einzelne Seiten aus dem Index löschen kann, aber ich möchte, dass Sie dort erst gar nicht aufgenommen werden.

Es kann ja nicht sein, dass ich dann jedes mal alle URL's eingeben muss welche ich löschen möchte. Zeit ist Geld... jedenfalls bei der Arbeit.


@ fliper

Finde deine Antwort ziemlich daneben, jedenfalls den Ton den du gebrauchst.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Hobby-SEO
PostRank 5
PostRank 5
Beiträge: 337
Registriert: 04.06.2005, 13:56

Beitrag von Hobby-SEO » 07.09.2005, 11:13

Hallo Corinne,

schreib doch einfach bei den Seiten, die nicht im Index landen sollen, folgende Zeile in den <head>-Bereich:

<meta name="robots" content="noindex, nofollow, noarchive">

Oder sperre die betreffende Seiten gleich einige Tage, bevor sie existieren bzw. bevor Du sie auf den Webspace hochlädst, via robots.txt.

In beiden Fällen werden von den Seiten nur die blanken URLs im Google-Index landen; und kein "normaler" Besucher wird Deine Website dann über diese gesperrten Seiten erreichen.

Wenn Du hingegen irgendwelche echte "Geheimseiten" auf dem Server haben willst, die wirklich nur für authorisierte Benutzer zugänglich sind, legst Du diese Seiten am besten in ein eigenes Verzeichnis und sperrst dieses via .htaccess.

LG, Hobby-SEO

mcchaos
PostRank 9
PostRank 9
Beiträge: 1414
Registriert: 27.07.2004, 19:18

Beitrag von mcchaos » 07.09.2005, 11:27

Das "noindex, nofollow, noarchive" + robots.txt hat bei mir leider nie geholfen. Ich sende jetzt immer zusätzlich noch einen 404er, wenn die Seite nicht in den Index soll, auch wenn für normale Benutzer Text draufsteht.

corinne
PostRank 1
PostRank 1
Beiträge: 4
Registriert: 07.09.2005, 09:12

Beitrag von corinne » 07.09.2005, 12:37

@ Hobby-SEO

Danke für deine Tipps. Weiss zwar noch nicht genau wie ich das umsetzen muss (robots.txt oder .htaccess), aber werd es mal ausprobieren.

Das mit dem Meta-Tag <meta name="robots" content="noindex, nofollow, noarchive"> hat bei mir bis anhin leider auch nicht funktioniert.

Hobby-SEO
PostRank 5
PostRank 5
Beiträge: 337
Registriert: 04.06.2005, 13:56

Beitrag von Hobby-SEO » 07.09.2005, 13:52

@Corinne:

Bitte schreib doch näher, was Du genau möchtest. Wenn es einfach nur leere Seiten sind, die nicht im Index auftauchen sollen, reicht es ja schon aus, wenn die Seiten nirgendwo verlinkt sind.

Hast Du irgendwelche unsichtbaren internen Links auf Deinen Seiten, die zu anderen Seiten führen, auf denen überhaupt kein Text ist? Wenn ja: wozu? In Zukunft diese Seiten halt einfach erst dann verlinken, wenn sie Content haben.

Oder möchtest Du, dass Suchmaschinen und normale Besucher Deiner Website einen Teil derselben nicht zu Gesicht bekommen bzw. sich erst einloggen müssen (was für Suchmaschinen naturgemäß nicht geht)? Dies ließe sich leicht über die .htaccess-Datei erreichen.

Wie gesagt: Ich fürchte, dass mir Dein Problem noch nicht ganz klar ist.

LG, Hobby-SEO

corinne
PostRank 1
PostRank 1
Beiträge: 4
Registriert: 07.09.2005, 09:12

Beitrag von corinne » 08.09.2005, 07:50

Hallo Hobby-SEO

Vielleicht kennst du das CMS Weblication?! Mit diesem CMS kann man einzelne Navigationspunkte inaktiv schalten, das heisst sie werden in der Navigation nicht angezeigt, die Seiten bestehen jedoch bereits, sie sind nur über die Navigation nicht erreichbar.

Beispiel: wenn du bei google nach "berinfor ag organisationsberatung" suchst und auf den ersten Eintrag klickst kommst du auf eine Seite, die in der Navigation inaktiv geschaltet ist (der Nav-Punkt Organisationberatung wird nicht angzeiget in der Navigation). Die Seite ist jedoch bereits auf dem Server (aber nirgens verlinkt). Ich kann die Seite nicht einfach auf dem Server löschen, da der Kunde darauf zugreifen können muss um Text einzufüllen.

Mein Problem ist jetzt, dass Google diese Seite Organisationsberatung findet. Wenn ich jetzt bei Google den genauen URL aus dem Index lösche, wird die Seite dann später, wenn sie dann Inhalt hat und verlinkt ist in der Navigation, trotzdem wieder im Google-Index aufgenommen oder wird Sie für immer ignoriert?!

Weil wenn sie wieder aufgenommen wird werde ich das evtl. so lösen.

lg
Corinne

Hobby-SEO
PostRank 5
PostRank 5
Beiträge: 337
Registriert: 04.06.2005, 13:56

Beitrag von Hobby-SEO » 08.09.2005, 13:26

Hallo Corinne,

mit CMS kenne ich mich leider überhaupt nicht aus - vielleicht kann ja ein Kollege / eine Kollegin helfen. So wie es aussieht, muss wohl die Software ein bisschen umgeschrieben werden. (?)

Was ich trotzdem nicht verstehe: Wenn die Seiten nirgendwo verlinkt sind, woher weiß Google dann überhaupt von ihnen?

Zum Punkt Seiten bei Google ausschließen: Ich empfehle Dir, vorsichtig zu sein! Google verbannt die Seiten zwar nicht für immer aus dem Index, es kann sich aber über Monate hinziehen, die Seiten wieder hinein zu bekommen!

Ich persönlich habe da noch recht gute Erfahrungen mit dem Ausschluss von Seiten via robots.txt gemacht: Aus Frust habe ich mal ein paar Seiten für Google via robots.txt gesperrt; und die Seiten wurden auch sehr schnell nur noch mit blanker URL gelistet. Sind dann halt auch entsprechend weniger Besucher über Google gekommen.
Als ich diese Sperrungen dann in der robots.txt wieder entfernt habe, hat es ungefähr zwei bis drei Wochen gedauert, bis die Seiten wieder korrekt im Google-Index waren und auch wieder mehr Besucher über Google gekommen sind.

Das soll jetzt aber keine Empfehlung darstellen, dass Du es auch so machen sollst! Wie gesagt: Vorsicht ist angebracht!

Die Meinung anderer zu diesem Thema würde übrigens auch mich interessieren.

LG, Hobby-SEO

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag