Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Abstrafung - Google Minus-30 penalty- oder?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
sevenup
PostRank 1
PostRank 1
Beiträge: 20
Registriert: 25.05.2007, 23:18

Beitrag von sevenup » 26.05.2007, 08:40

Hallo MrLUKE
Schon mal darüber nachgedacht – wenn es sich um eine Deutsche Seite handelt – das 80% der User über Pfingsten wegfahren... Ich würde erst bis Mittwoch nächste Woche abwarten und Tee trinken
Wir würden auch keine Ruhe haben, falls 100% in die Ferien fahren und wir alleine auf den Contentseiten sind. Irgenwann kommen fast alle Urlauber wieder an den Computer.

Schöne Pfingsten.

Grüße ...

P.S. Für Pfingstfreien Erfahrungsaustausch wäre ich weiterhin sehr dankbar.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Inteliplus
PostRank 8
PostRank 8
Beiträge: 959
Registriert: 19.12.2004, 22:02

Beitrag von Inteliplus » 26.05.2007, 09:46

ich würde auch erstmal abwarten....ansonsten optimierst du was und es geht nach hinten los und dann weißt du erst recht nicht mehr was wichtig ist..

MonikaTS
PostRank 10
PostRank 10
Beiträge: 3582
Registriert: 07.10.2005, 09:05

Beitrag von MonikaTS » 26.05.2007, 10:22

sevenup

Google hat die Spielregeln geändert

absolut verkürzt gesagt:
vorher:Schleudere tausende gleiche Seiten in den Index =>Du bist the King

jetzt: reduziere Deine Seiten im Index ==>Leite die Besucher weiter==>Du bist the King


Suchlisten für die Besucher habe im Index von Google nix zu suchen --wozu denn auch

dem Besucher anbieten, aber noindex follow


"""das haben andere auch"

ich weiß, jede Woche melden sich hier mindestens drei von denen mit demselben Problem wie Du und jede Woche hat das alles NIX nie net niemals nicht mit dem
supplemental Index zu tun

sollen die Redakteure doppelten COntent produzieren bis zum Excess, der Programmierer hat zu sorgen, dass jeder COntent nur einmal in den Index kommt,

supplemental macht eine Website *krank*


das mag jetzt überheblich klingen, aber ich diskutier nicht mehr daürber wieso warum weshalb: es ist momentan so

lg

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

v-maxx
PostRank 4
PostRank 4
Beiträge: 122
Registriert: 07.02.2007, 13:57

Beitrag von v-maxx » 26.05.2007, 10:29

sevenup hat geschrieben:
Wie ist (ungefähr) das Verhältnis von indexierten Suchabfragen zu Content-Seiten? 1/100, 1/10 oder womöglich 10/1?
Nach 2 Stunden-Analyse ist das Verhältnis etwa 5 zu 3. Auf drei vernünftige Contentseiten komme Suchergebnisseiten oder PDF-Kram usw.
Ich glaube, hier liegt der Hase im Pfeffer!

Aufschlussreich ist auch die Gestaltung der Suchergebnisseiten:
Ja, BUSH ergibt 4 Seiten mit a 20 Links zu unterschiedlichen Artikeln. In einigen Ergebnissen ist ein wenig Text enthalten, in anderen nicht. Text hat keinen Zusammenhang und gibt nur Schnippsel aus, die BUSH als Inhalt haben.
Also hauptsächlich Links.

Wie sieht es mit Title und Description der generierten Seiten aus?
Title = "Ihr Suchergebnis für XXX"? (sinngemäß)
Description ähnlich stereotyp oder sogar leer?

M.E. greift schlagartig ein Filter ab einem bestimmten Verhältnis Content/Müll (aus Sicht der Suma).
Nachdem ich einen Großteil der Müllseiten "rausgegoogelt" hatte, waren alle Seiten genauso schlagartig wieder da.
Das Abrutschen ans Ende des Index betraf bei mir aber ALLE Seiten (incl. Subdomains).

Generell habe ich die Erfahrung gemacht, Klasse geht über Masse!
(Ok, ok - ich stecke direkt 5 EUR in das Phrasenschwein... :wink: )

Unter dem Aspekt würde ich mal bei Euch intern zur Diskussion stellen, WEM die Indexierung von Onpage-Suchergebnissen eigentlich nützt.
Hat der User beim Finden einer solchen Seite einen Benefit gegenüber einer Content-Seite mit dem Keyword?
Mich persönlich würde im Rahmen einer G.-Suche eine solche Seite (20 Links, hier und da ein paar Text-Schnippsel, aber top bei G. gelistet), eher abschrecken und ich würde mal wieder über die Qualität der SERPs schimpfen.
Wo wurden diese Sucherg.-Seiten überhaupt gelistet - kann man die überhaupt finden, wenn man sich nicht bis Seite 167+ durchklickt?
Ich denke, bei Betrachtung dieser Aspekte ist, auch aus Sicht der Konzeptveranwortlichen, die Indexierung dieser Seiten überflüssig.

Wenn Ihr das auch so seht, dann raus damit!
Verdirbt nur (aus Sicht der Sumas) die Qualität des Auftritts.

Die PDFs würde ich über einen Link auf der HTML-Seite bereitstellen (habt Ihr auch bestimmt so eingerichtet) und die Indexierung (der PDFs) per robots.txt verbieten.

So - und jetzt ist erst mal Pfingsten...
:wink:

Beste Grüße

sevenup
PostRank 1
PostRank 1
Beiträge: 20
Registriert: 25.05.2007, 23:18

Beitrag von sevenup » 26.05.2007, 12:41

Hallo
Danke für alle Antworten.
Wir haben nun die Suchergebnisseiten so verändert, dass Google und andere Bots diese nicht in den Index aufnehmen.
Die PDFs würde ich über einen Link auf der HTML-Seite bereitstellen (habt Ihr auch bestimmt so eingerichtet) und die Indexierung (der PDFs) per robots.txt verbieten.
Dies hatten wir so , ja. Die robots.txt wurde schon gegen 7:00 geändert. Die Bots sollten die PDF's nun auch links liegen lassen.
Wie sieht es mit Title und Description der generierten Seiten aus?
Title = "Ihr Suchergebnis für XXX"? (sinngemäß)
Description ähnlich stereotyp oder sogar leer?
Nichts weiter als der Suchbegriff selbst. Als Titel und in der Description "Ihre Suche nach **** ergab *** Treffer. Genau!
Mich persönlich würde im Rahmen einer G.-Suche eine solche Seite (20 Links, hier und da ein paar Text-Schnippsel, aber top bei G. gelistet), eher abschrecken und ich würde mal wieder über die Qualität der SERPs schimpfen.
Natürlich ist es so, dass hinter den Link der komplette Content steckt, plus Zusatzinfos zu den Personen und Ereignissen. Ab sofort halt nur noch für die Besucher auf der Seite. Oder die, die das Such-Tool auf ihren Sites eingebaut haben. Wir hatten mit der Vorgehensweise vor, dass alle Contents untereinandere Verlinkt sind. Wir erreichen dies aber eigentlich schon durch weitere Contentangebote im Content selbst. Dort werden wichtige Überschriften angezeigt, die zum Thema passen.

Wir warten nun ab, was in den nächsten Tagen passiert. Im übrigen haben wir gegen 12:00 erfahren, dass ein weiteres Projekt, welches wir betreuen, davon betroffen ist. Natürlich mit ähnlicher Geschichte.

Ich denke, es ist, war keine Abstrafung gewesen. Irgendwann war halt der Rand voll.
Klasse geht über Masse!

So denken wir auch. Wir sind eigentlich keine großen Optimierer und sind mit dieser Vorgehensweise einige Jahre gut gefahren.

Danke an alle. Der Thread dürfte damit erledigt sein. Erstmal.

Allen ein paar schöne Feiertage...

MonikaTS
PostRank 10
PostRank 10
Beiträge: 3582
Registriert: 07.10.2005, 09:05

Beitrag von MonikaTS » 26.05.2007, 13:12

es kann bis zu zwei Monate dauern bis ihr irgendwelche Ergebnisse seht,

Mal ne große Kanne Tee hinstell

8)

seonewbie
PostRank 9
PostRank 9
Beiträge: 1939
Registriert: 21.10.2006, 20:50

Beitrag von seonewbie » 26.05.2007, 15:14

Hatte ja vor ein paar Tagen ein ähnliches Problem ...

G war aufeinmal meine KEYworddicht zu hoch ...

War Sie wirklich H Tag 19% ;-)
aber über ein Jahr hat der blöde Robot das brav gefuttert ...
und auf einmal weg unter 200 ...

also Keyworddichte ?... kann es sein da durch das ihr
Suchfunktionen habt oder random n*ws ausgebt das ihr in
den letzen Tagen ein sehr hohe Key Dichte hattet z.b. N*ws
irgend etwas was bei der Site auch im Title vorkommt?

WIe gesagt im Moment reagiert der süße crawler da
sehr verschnupft ...

Bei mir habe Dichte runter gefahren und drei Tage später
alles wieder dufte.

Will sagen nicht das du etwas jagst was du gar nicht
mehr sehen kannst. Wenn ihr dynamischen content
habt oder xml rsss e.t.c. versuch das mal zu rekonstruieren.


Gruß

Micha
Suche Linktausch zum Thema Mode. Bitte PM
Backlink-Generator | Artikelverzeichnis | PageRank | SEnuke X
Don't smoke, don't fight, don't light no cigarettes,
Or else you'll wind up in the can!
No jokes, no rights, sit tight, don't fool around,
You are a guest of Uncle Sam!
AC/DC "I'll be damned"

sevenup
PostRank 1
PostRank 1
Beiträge: 20
Registriert: 25.05.2007, 23:18

Beitrag von sevenup » 28.05.2007, 14:39

Hallo
Eigentlich ist das Unfassbar. Seit Montag 10:00 steigen die Besucherzahlen stätig. Eine Abfrage des Supplemental-Indexes um 13:00 ergab jedoch keine Veränderungen. Klickrate Adsense und Banner erreichen wieder ihre 0,8-1,3 %. Je nach Bereich und Geschehen. Domain.tld mit und ohne Hochkomma wird wieder an erster Stelle gelistet. Keywords und WortPhrasen erreichen den aktuellen Stand. Sites mit Links zu uns, tauchen wieder unterhalb des Projekts auf.

Bots sind zwar ständig auf der Site. Google schaut jetzt trotz anderer Einstellung im Minutentakt vorbei. Artikel von heute sind bei Googlenews wieder im Mittefeld. Ein Artikel der bewusst für Googlenews geschrieben wurde, da ein Ereigniss vorschaubar war, wurde nach Onlinstellung nach oben gesetzt. Dies zwar nur für 30 Minuten. Andere wie Spiegel usw rückten nach, wir rutschen ab. War schon immer so. Aber, die Artikel waren wieder da.

Das sich das so schnell ändert!? Das Problem hatte bestimmt eine andere Ursache!?

Wir werden es weiter beobachten. Falls jemand Intersse hat, was wir gemacht hatten ...???
1.) Bots wurden erstmal angewiesen nur noch alle 4 Tage zu indexieren. (Hat sich Google nicht drum gekümmert)
2.) PDF's (Es sind 21.000 PDF's gelistet) wurden durch Robots.txt von der Indexierung ausgeschlossen.
3.) Da 16.000 Suchbegriffe und WortPhrasen gelistet sind , die nur auf eine interne Suche verwiesen, wurde diese Site auf NoIndex gesetzt. (Google war trotzem in der Suche. Ca. 250 mal am Tag.
4.) Interne verlinkung aller Artikel durch Buchstabensuche und Linksetzung im Text wurde zu 95 % erreicht. Wurde von Google erkannt. Jedoch nur 2 mal besucht. Bisher sind auch nur ein Teil der Sites im Index, die vorher nicht dort waren.
5.) Webservices welche angeboten werden. News auf Sites einzubinden usw., haben wir erstmal auf nofollow gesetzt. Ausgehende und interne Links etc.) Bei einigen Sites haben wir die Anzeige des Services unterbunden.
Uns war am Wochenende aufgefallen, dass nicht alle Sites, die den Service einsetzten, gute Nachbarn waren.
6.) Ein neues Projekt (Service) mit anderen Domain wurde auf einen anderen Server verlegt. Die interne Verlinkung wurde jedoch behalten. Die News, welche auf beiden Sites zu lesen waren, wurden bei einem Projekt gelöscht.
7.) Alle ausgehende Links wurden überprüft und reduziert. Site nicht mehr vorhanden oder anderer Inhalt. Vorher 1278 ausgehenden Links auf allen Contentseiten. Nun 321 Links.
8.) 11 Projektlinks auf 404 wurden geändert und auf 0 reduziert.


In anderen Foren und in Groups wurde von ähnliche Probleme berichtet.
Es waren alles Sites, die sich mit News befassen und mehrere Updates täglich erfahren. Auch war zu beobachten, das bis auf eine Site, alle bei Googlenews gelistet sind. Bei den Sites, von denen ich private Messages erhielt, war dies auch so. Im Zuge dessen wurde auch erfahren, dass nur Sites betroffen waren, die beim letzten Rankupdate keine Erhöhung oder Abstufung erfahren hatten (Hauptseite).

In der Redaktion und einer Gruppe gab es eine Diskussion darüber, ob eine kritische Berichterstattung Suchmaschinen Google, Yahoo (China, Journalistenverrat, Monopolstellungen usw.) zur Abstrafung geführt hatten.
Es wurden und werden alle Artikel behalten. Alle Artikel sind wieder normal abfragbar.

Andere haben behauptet, es läge am G8.

Konnte alles nicht bestätigt werden und glaube persönlich auch nicht an sowas.

Bleibt zu sagen: Es bleibt bedenklich. Wir hoffen alles richtig gemacht zu haben. Mal sehen.

Grüße ...

v-maxx
PostRank 4
PostRank 4
Beiträge: 122
Registriert: 07.02.2007, 13:57

Beitrag von v-maxx » 28.05.2007, 17:07

Hallo Sevenup!

Na, dann kannst Du Dir ja jetzt den Schweiß von der Stirn wischen und heute Abend den Tee gegen ein kühles Bier tauschen!
:D
Drücke die Daumen, dass das Ergebnis anhält...

Wieviele Seiten sind denn nach dem Aussperren der Bots von Onpage-Suche und PDFs noch im Index bzw. inzwischen aus dem Index raus?
Wenn der Bot bei Euch so oft vorbeischaut und Ihr die Änderungen am Sa. durchgeführt habt, dann müßte doch schon einiges verschwunden sein...

Beste Grüße

skype
PostRank 7
PostRank 7
Beiträge: 565
Registriert: 05.11.2006, 13:19

Beitrag von skype » 13.09.2007, 19:50

woher kann ich wissen, ob meine seite von diesem -3o penalty betroffen ist?? wirkt sich dieser auf alle keys aus?? wie kommt man da wieder schnell raus??

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag