Seite 1 von 2

Abgestraft?

Verfasst: 24.01.2012, 17:22
von kpl51
Hallo, zusammen,

ich betreibe ein Presseportal, über das täglich mehrere hundert Meldungen verbreitet werden. Google schaut alle paar Minuten vorbei, um nachzusehen, was es Neues gibt.

Seit ein paar Tagen beobachte ich nun, dass meine neuen Artikel nicht mehr in den Suchergebnissen auftauchen. Ich kontrolliere das immer schon unregelmäßig, indem ich einfach ein paar der Titel von Artikeln des gleichen Tages als Suchbegriff verwende.

Wie gesagt: Auf einmal ist Schluss damit, und das erfreut mich nicht sonderlich. Ich vermute hier einen Zusammenhang mit dem Update, von dem schon mehrfach die Rede war. Darum habe ich auch die Werbung etwas umsortiert, so dass zuerst der Content sichtbar wird; müsste eigentlich den offenbar gestiegenen Ansprüchen von Google genügen.

Drauf bekam ich auch gleich Post von der Adsense-Abteilung, die meinte, dass ich Geld verschenke. Prima.

Nützt aber nix: Meine Artikel werden von der Google-Suche ignoriert. Die Google-Suchlinge wissen wohl nichts davon, was ihre Adsense-Brüder so machen. Womöglich hatte das Update noch andere Tücken?

Hat jemand ähnliche Erfahrungen und, das Wichtigste, weiß jemand Rat, wie das zu ändern ist? Oder kennt jemand einen Experten, der da helfen kann?

Klaus

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Verfasst: 24.01.2012, 17:31
von werbe-muffel
Hallo

Das würde ich mir gerne ansehen und testen.
Bitte senden Sie mir Ihre Url als PM.

Grüße

Verfasst: 24.01.2012, 17:36
von kpl51
Die Website ist www.fair-news.de.

Es geht allerdings nicht in erster Linie um die Homepage, sondern um die einzelnen Artikel.

Die Site-Suche bei Google bringt derzeit vor allem die PDF-Versionen der Beiträge.

MfG
Klaus

Verfasst:
von

Verfasst: 24.01.2012, 17:45
von om-labs
mit ner URL kann man mehr sagen. schick mal per PN.

Verfasst: 24.01.2012, 18:06
von om-labs
sorry, hat sich zeitlich überschnitten. hatte ein telefonat dazwischen.

Sollte gelöst sein. Canonical ist falsch.

Verfasst: 24.01.2012, 19:12
von kpl51
om-labs hat geschrieben:Sollte gelöst sein. Canonical ist falsch.
Leider doch nicht. Das Problem war nur ein temporäres und hatte mit dem eignetlichen nichts zu tun.

Gruß Klaus

Verfasst: 24.01.2012, 19:55
von MatthiasHuehr
Du hast täglich mehrere hundert Meldungen, die die Firmen auch auf anderen Portalen reinstellen. Dann kommen zig Seitenbetreiber die nichts anderes machen als die Pressemitteilungen als eigenen Kontent auszugeben. Unterm Strich können da locker tausend Kopien einer Pressemitteilung zusammenkommen. Und warum sollte Google tausend Kopien in den Index aufnehmen? Das ist dein Problem. Google bevorzugt meiner Erfahrung nach die stärkeren Seiten und daher würde ich ehe dafür sorgen dass die Texte für die bessere Indizierung besser verlinkt werden ...

Verfasst: 24.01.2012, 19:59
von web_worker
hmm, auf Googles Webmasterblog hab ich gelesen, dass es bis zu mehreren Wochen dauern kann, bis die Penalty-Effekte des Layout Algo korrigiert werden. Von daher kann es schon sein, dass Dein Problem genau hier liegt, Du wahrscheinlich aber etwas Geduld brauchst.

ww

Verfasst: 24.01.2012, 20:44
von om-labs
Zunächst mal werden die Artikeln alle nur aggregiert. Das ist schon problematisch. Zusätzlich fällt auf das viele Rankings mit den PDF Versionen erzeugt werden.
Wenn du 309.208 Artikel online hast, warum sind dan 2,4 Mio Seiten im Index?
Passt nicht zusammen.

Glaube nicht das es am Layout liegt und den neuen Algo Änderungen. Kein Absturz zu sehen in den letzten Sistrix zahlen.
Würde mal die Struktur aufräumen und eruieren warum du ein vielfaches an Seiten im Index hast, als überhaupt Artikel online.

Verfasst: 24.01.2012, 22:55
von kpl51
Zunächst mal vielen Dank für die Hinweise und Tipps.
om-labs hat geschrieben:Zunächst mal werden die Artikeln alle nur aggregiert. Das ist schon problematisch.
Das verstehe ich nicht so richtig. Die Artikel sind in einer Datenbank gespeichert und werden als Webseiten dargestellt. Jedes WordPress-Blog macht ja dasselbe.

Die vielen PDFs in den Suchergebnissen gibt es erst seit kurzem, das gehört zu meinem Problem. Denn scheinbar sind HTML-Seiten rausgefallen, die früher davor gelistet waren, weshalb man die PDFs nicht gesehen hat.

Jede Artikelseite hat eine Tag-Wolke mit Links zu den Seiten mit den Suchergebnissen für die Tags. Dadurch gibt es insgesamt viele Seiten. Ich habe jetzt mal die Links in der Blätter-Funktion der Suchergebnisseiten auf "nofollow" gesetzt, damit es nicht so viele Seiten zu jedem Stichwort (Suchbegriff) gibt.
MatthiasHuehr hat geschrieben:Du hast täglich mehrere hundert Meldungen, die die Firmen auch auf anderen Portalen reinstellen. Dann kommen zig Seitenbetreiber die nichts anderes machen als die Pressemitteilungen als eigenen Kontent auszugeben.
Klar. Es gibt bestimmt 300 kostenfrei nutzbare Presseportale. Relevant sind eigentlich nur etwa 10 - 20 davon, und meines hat da immer gut mitgespielt. Genau das ist ja die von mir beobachtete Veränderung, dass nämlich seit wenigen Tagen die neuen Meldungen nicht mehr gerankt werden.
MatthiasHuehr hat geschrieben:Google bevorzugt meiner Erfahrung nach die stärkeren Seiten und daher würde ich ehe dafür sorgen dass die Texte für die bessere Indizierung besser verlinkt werden.
Wie gesagt, zu den "stärkeren" in diesem Segment gehört eigentlich mein Portal. Was die Verlinkung angeht, sind meine Möglichkeiten der Einflussnahme recht beschränkt - dafür sind es einfach zu viele Artikel.

Im Übrigen ist es auch so, dass jeder Artikel mehrere Webseiten erzeugt: Eine "normale", eine Druckversion, eine in PDF - macht schon mal rund eine Million, plus die Suchergebnisse. Dann gibt es noch Kategorien und das Archiv. Ich muss noch ein wenig aufräumen und "Nofollows" setzen, wo es zu Mehrfach-Verweisen kommt.
om-labs hat geschrieben:Glaube nicht das es am Layout liegt und den neuen Algo Änderungen. Kein Absturz zu sehen in den letzten Sistrix zahlen.
Na, das wäre doch immerhin schon etwas.

Gruß Klaus

Verfasst: 25.01.2012, 11:49
von seekXL
kpl51 hat geschrieben:Jede Artikelseite hat eine Tag-Wolke mit Links zu den Seiten mit den Suchergebnissen für die Tags. Dadurch gibt es insgesamt viele Seiten. Ich habe jetzt mal die Links in der Blätter-Funktion der Suchergebnisseiten auf "nofollow" gesetzt, damit es nicht so viele Seiten zu jedem Stichwort (Suchbegriff) gibt.

Im Übrigen ist es auch so, dass jeder Artikel mehrere Webseiten erzeugt: Eine "normale", eine Druckversion, eine in PDF - macht schon mal rund eine Million, plus die Suchergebnisse. Dann gibt es noch Kategorien und das Archiv. Ich muss noch ein wenig aufräumen und "Nofollows" setzen, wo es zu Mehrfach-Verweisen kommt.

Gruß Klaus
Hi Klaus :)

wieso setzt Du die Seiten auf nofollow? Wäre es nicht sinnvoller, die Pager-Seiten auf noindex,follow zu setzen? Also das diese a) nicht in den Index aufgenommen werden, aber b) dennoch für die interne Verlinkung der auf den Pager-Seiten angelinkten Seiten weiterhin zählen?

Ist es Dir denn wichtig, die PDF-Dateien im Index zu haben? Wenn Nein, wieso sperrst Du diese nicht generell über die robots.txt aus?

Was waren denn die letzten Änderungen die Du an der Seite vorgenommen hast?

Ich glaube das om-labs mit seiner Vermutung Recht hat, das es nix mit dem letzte Google-Layout/Algo Update zu tun hat, sondern andere Gründe bei Dir die Ursache dafür sind.

Gruss
seekXL :)

Verfasst: 25.01.2012, 12:47
von Beloe007
kpl51 hat geschrieben:Die vielen PDFs in den Suchergebnissen gibt es erst seit kurzem, das gehört zu meinem Problem. Denn scheinbar sind HTML-Seiten rausgefallen, die früher davor gelistet waren, weshalb man die PDFs nicht gesehen hat.
https://www.internetkapitaene.de/2011/0 ... l-dateien/

Verfasst: 25.01.2012, 13:12
von om-labs
Ich würde die PDF's alle per Robots.txt sperren.

Ich glaube du must deine Webseitenstruktur mal ordentlich aufräumen / überdenken.
Sieht so aus als ob du ein wenig den Überblick verloren hast und momentan in der Aktionismus Phase bist.

Was für einen Sinn macht es ...

"Im Übrigen ist es auch so, dass jeder Artikel mehrere Webseiten erzeugt: Eine "normale", eine Druckversion, eine in PDF - macht schon mal rund eine Million, plus die Suchergebnisse. Dann gibt es noch Kategorien und das Archiv. Ich muss noch ein wenig aufräumen und "Nofollows" setzen, wo es zu Mehrfach-Verweisen kommt. "

alle drei Version in den Index zu lassen? - Keinen und erst Recht verschenkst du interne Linkpower.
Anstatt ein Nofollow zu setzen würde ich lieber häufiger Noindex setzen und nicht alles sinnlos in den Index lassen. Die Zeiten sind vorbei, in der die Taktik funktioniert hat.

Räume auf und schränke vieles ein, damit du weniger Seiten im Index hast und auf Grund das deine Linkpower sich besser verteilt, werden deine Rankings und Sichtbarkeit auch steigen.

Konkret, mach aus 2,4 Mio Seiten im Index mal nur 600.00 Seiten und deine Sichtbarkeit wird um Faktor 3-4 steigen oder höher, weil du endlich mal ein paar Keys erreichst hinter denen auch Traffik steckt.
Zum Beispiel dein Archiv würde ich auf eine Subdomain ziehen, bischen von der Hauptseite verlinken und ein wenig Linkbuilding drauf. Schon hast du ne Subdomain mit Ziel Longtail und ne saubere Trennung.

Verfasst: 25.01.2012, 13:13
von Lyk
kpl51 hat geschrieben: Die vielen PDFs in den Suchergebnissen gibt es erst seit kurzem, das gehört zu meinem Problem. Denn scheinbar sind HTML-Seiten rausgefallen, die früher davor gelistet waren, weshalb man die PDFs nicht gesehen hat.
pdfs werden nicht als dc erkannt. deine artikel aber schon. sei froh das du die pdfs noch hast^^

ich sehes genau so wie
MatthiasHuehr hat geschrieben: Du hast täglich mehrere hundert Meldungen, die die Firmen auch auf anderen Portalen reinstellen. Dann kommen zig Seitenbetreiber die nichts anderes machen als die Pressemitteilungen als eigenen Kontent auszugeben. Unterm Strich können da locker tausend Kopien einer Pressemitteilung zusammenkommen. Und warum sollte Google tausend Kopien in den Index aufnehmen? Das ist dein Problem. Google bevorzugt meiner Erfahrung nach die stärkeren Seiten und daher würde ich ehe dafür sorgen dass die Texte für die bessere Indizierung besser verlinkt werden ...
nur es gibt ein kleinen denkfehler.
nicht der, der die stärkste homepage hat, ist auch mit dc oben.

Verfasst: 25.01.2012, 14:08
von Baumeister
Vielleicht kommt Google ja auch mal auf die Idee, dass Pressemitteilungen für die Presse (Redakteure und Journalisten mit Presseausweis) gedacht sind (sein sollten) und nicht für die Allgemeinheit. Insofern hätten eigentlich Presseportale in allgemeinen Suchmaschienen wie Google oder Bing ohnehin nichts verloren. Ich halte es für eine Unart, dass Presseportale sich wie allgemeine Nachrichtenportale entwickeln und Endverbraucher direkt ansprechen wollen.