Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Google spinnt - nimmt noindex nofollow Seiten auf

Ajax, Hijax, Microformats, RDF, Markup, HTML, PHP, CSS, MySQL, htaccess, robots.txt, CGI, Java, Javascript usw.
Neues Thema Antworten
bodomalo
PostRank 4
PostRank 4
Beiträge: 124
Registriert: 27.01.2004, 15:08

Beitrag von bodomalo » 31.03.2010, 17:06

Hallo

Vor einigen Tagen habe ich auf mehreren Seite die nicht in den google Index müssen da es sich nur um login plus Parametern handelt ein
<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">

in den header geschrieben. Es waren etwa 10-15 solcher Seiten über google zu finden, und ich wollte dass die da rausfallen.

Seit diesem Zeitpunkt hat google nun mehr als 200 solcher Seiten "Zusätzlich" in den Index aufgenommen. !!

Spinnt der Algoryhtmus von google total, oder was mache ich falsch? Ist das Tag falsch?

Gleichzeitig ignoriert google Unterseiten mit viel mehr Inhalt! Indiziert dafür aber 100te mal Seiten mit absolut dem gleichen Titel und einem nur ganz geringem Unterschied im Text (Ein Hinweis wohin man nach dem login gelangt).
Warum macht es das?

Ich habe auch eine xml sitemap (schon seit 2 Jahren) bei google eingereicht, dort scheinen diese login Seiten natürlich NICHT auf.

Das ist doch echt sinnlos alles was man dem google sagt oder wie?

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Beloe007
PostRank 10
PostRank 10
Beiträge: 2928
Registriert: 05.03.2009, 10:31

Beitrag von Beloe007 » 31.03.2010, 17:16

-selbst gelöscht-
Zuletzt geändert von Beloe007 am 29.12.2010, 14:16, insgesamt 1-mal geändert.

Alda
PostRank 10
PostRank 10
Beiträge: 4584
Registriert: 27.01.2009, 20:19
Wohnort: Kaiserslautern

Beitrag von Alda » 31.03.2010, 18:06

Mach mal die Funktion über die robots.txt zu.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


mgutt
PostRank 10
PostRank 10
Beiträge: 3206
Registriert: 08.03.2005, 13:13

Beitrag von mgutt » 01.04.2010, 08:53

Über robots.txt ist wesentlich schneller, da Google nicht erst noch mal die jeweilige Seite aufrufen muss, was mitunter Monate dauern kann, je nachdem wie oft diese verlinkt ist.
Ich kaufe Dein Forum!
Kontaktdaten

Pheidippides
PostRank 8
PostRank 8
Beiträge: 690
Registriert: 29.08.2007, 07:58
Wohnort: Marathon

Beitrag von Pheidippides » 01.04.2010, 09:21

Auch über robots.txt kann es Monate dauern bis die Seiten wieder raus sind.

800XE
PostRank 10
PostRank 10
Beiträge: 5223
Registriert: 02.12.2004, 03:03

Beitrag von 800XE » 01.04.2010, 11:03

Beloe007 hat geschrieben:Musst Google halt ein bisschen Zeit lassen.

Ich denke Google sammelt ständig Daten... verarbeitet sie aber erst später.
(A) Google sammelt Daten ->
(B) Du hast den Metatag eingefügt ->
(C) Google verarbeitet die Daten aus (A)

Kann natürlich sein das ich falsch liege, vermute aber das es so ist.
auch genau meine (logisch angenommene) Vermutung


betr
der Posts der Anderen
"kann dauern bis sie raus ist"
einfach irgendwo nen Link auf die URL die nicht geindexiert werden soll ..... und wenn Google diesem "Vorgeworfenen" LInk folgt, einen 301 (oder 404?) ....
Problem hier ... die URL existiert ja eigentlich noch, ich hatte das mal früher für URLs gemacht die eben deletet waren .... darum müßte man für den 301oder404 Cloacken

@Google&Co
füührt doch eineen SitemapBereich ein wo man euch "veraltete" URLs melden kann

bodomalo
PostRank 4
PostRank 4
Beiträge: 124
Registriert: 27.01.2004, 15:08

Beitrag von bodomalo » 02.04.2010, 09:29

Hi nochmal

Ja stimmt, die Seiten wurden tatsächlich schon 2 Wochen vorher gecachet, aber erst viel später in den google index aufgenommen.

Eine andere Frage (und eigentlich der Grund warum ich das ganze jetzt beobachtet habe), bei mir hat google eben vor 2-3 Wochen fast alle Seiten aus dem Index geworfen(damals waren etwa 1000 aufgenommen), es ging runter auf 280 innerhalb weniger Tage, und jetzt kommen täglich wieder 20-30 hinzu. Warum wird das gemacht? Ist das eine Art Penalty? (aber für was)
An den Besucherzahlen hat sich übrigens gar nichts geändert, was mich fast noch mehr verwundert.

mgutt
PostRank 10
PostRank 10
Beiträge: 3206
Registriert: 08.03.2005, 13:13

Beitrag von mgutt » 03.04.2010, 14:27

Ich kaufe Dein Forum!
Kontaktdaten

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag