Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Abgestraft?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
kpl51
PostRank 1
PostRank 1
Beiträge: 17
Registriert: 02.12.2005, 09:33
Wohnort: Viersen

Beitrag von kpl51 » 24.01.2012, 17:22

Hallo, zusammen,

ich betreibe ein Presseportal, über das täglich mehrere hundert Meldungen verbreitet werden. Google schaut alle paar Minuten vorbei, um nachzusehen, was es Neues gibt.

Seit ein paar Tagen beobachte ich nun, dass meine neuen Artikel nicht mehr in den Suchergebnissen auftauchen. Ich kontrolliere das immer schon unregelmäßig, indem ich einfach ein paar der Titel von Artikeln des gleichen Tages als Suchbegriff verwende.

Wie gesagt: Auf einmal ist Schluss damit, und das erfreut mich nicht sonderlich. Ich vermute hier einen Zusammenhang mit dem Update, von dem schon mehrfach die Rede war. Darum habe ich auch die Werbung etwas umsortiert, so dass zuerst der Content sichtbar wird; müsste eigentlich den offenbar gestiegenen Ansprüchen von Google genügen.

Drauf bekam ich auch gleich Post von der Adsense-Abteilung, die meinte, dass ich Geld verschenke. Prima.

Nützt aber nix: Meine Artikel werden von der Google-Suche ignoriert. Die Google-Suchlinge wissen wohl nichts davon, was ihre Adsense-Brüder so machen. Womöglich hatte das Update noch andere Tücken?

Hat jemand ähnliche Erfahrungen und, das Wichtigste, weiß jemand Rat, wie das zu ändern ist? Oder kennt jemand einen Experten, der da helfen kann?

Klaus

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

werbe-muffel
PostRank 4
PostRank 4
Beiträge: 182
Registriert: 26.04.2011, 08:42

Beitrag von werbe-muffel » 24.01.2012, 17:31

Hallo

Das würde ich mir gerne ansehen und testen.
Bitte senden Sie mir Ihre Url als PM.

Grüße

kpl51
PostRank 1
PostRank 1
Beiträge: 17
Registriert: 02.12.2005, 09:33
Wohnort: Viersen

Beitrag von kpl51 » 24.01.2012, 17:36

Die Website ist www.fair-news.de.

Es geht allerdings nicht in erster Linie um die Homepage, sondern um die einzelnen Artikel.

Die Site-Suche bei Google bringt derzeit vor allem die PDF-Versionen der Beiträge.

MfG
Klaus

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

om-labs
PostRank 6
PostRank 6
Beiträge: 422
Registriert: 14.12.2011, 12:58
Wohnort: Hannover

Beitrag von om-labs » 24.01.2012, 17:45

mit ner URL kann man mehr sagen. schick mal per PN.

om-labs
PostRank 6
PostRank 6
Beiträge: 422
Registriert: 14.12.2011, 12:58
Wohnort: Hannover

Beitrag von om-labs » 24.01.2012, 18:06

sorry, hat sich zeitlich überschnitten. hatte ein telefonat dazwischen.

Sollte gelöst sein. Canonical ist falsch.

kpl51
PostRank 1
PostRank 1
Beiträge: 17
Registriert: 02.12.2005, 09:33
Wohnort: Viersen

Beitrag von kpl51 » 24.01.2012, 19:12

om-labs hat geschrieben:Sollte gelöst sein. Canonical ist falsch.
Leider doch nicht. Das Problem war nur ein temporäres und hatte mit dem eignetlichen nichts zu tun.

Gruß Klaus

MatthiasHuehr
PostRank 4
PostRank 4
Beiträge: 126
Registriert: 19.07.2010, 19:34
Wohnort: Greifswald

Beitrag von MatthiasHuehr » 24.01.2012, 19:55

Du hast täglich mehrere hundert Meldungen, die die Firmen auch auf anderen Portalen reinstellen. Dann kommen zig Seitenbetreiber die nichts anderes machen als die Pressemitteilungen als eigenen Kontent auszugeben. Unterm Strich können da locker tausend Kopien einer Pressemitteilung zusammenkommen. Und warum sollte Google tausend Kopien in den Index aufnehmen? Das ist dein Problem. Google bevorzugt meiner Erfahrung nach die stärkeren Seiten und daher würde ich ehe dafür sorgen dass die Texte für die bessere Indizierung besser verlinkt werden ...

web_worker
PostRank 8
PostRank 8
Beiträge: 893
Registriert: 12.12.2005, 13:00
Wohnort: Karlsruhe

Beitrag von web_worker » 24.01.2012, 19:59

hmm, auf Googles Webmasterblog hab ich gelesen, dass es bis zu mehreren Wochen dauern kann, bis die Penalty-Effekte des Layout Algo korrigiert werden. Von daher kann es schon sein, dass Dein Problem genau hier liegt, Du wahrscheinlich aber etwas Geduld brauchst.

ww

om-labs
PostRank 6
PostRank 6
Beiträge: 422
Registriert: 14.12.2011, 12:58
Wohnort: Hannover

Beitrag von om-labs » 24.01.2012, 20:44

Zunächst mal werden die Artikeln alle nur aggregiert. Das ist schon problematisch. Zusätzlich fällt auf das viele Rankings mit den PDF Versionen erzeugt werden.
Wenn du 309.208 Artikel online hast, warum sind dan 2,4 Mio Seiten im Index?
Passt nicht zusammen.

Glaube nicht das es am Layout liegt und den neuen Algo Änderungen. Kein Absturz zu sehen in den letzten Sistrix zahlen.
Würde mal die Struktur aufräumen und eruieren warum du ein vielfaches an Seiten im Index hast, als überhaupt Artikel online.

kpl51
PostRank 1
PostRank 1
Beiträge: 17
Registriert: 02.12.2005, 09:33
Wohnort: Viersen

Beitrag von kpl51 » 24.01.2012, 22:55

Zunächst mal vielen Dank für die Hinweise und Tipps.
om-labs hat geschrieben:Zunächst mal werden die Artikeln alle nur aggregiert. Das ist schon problematisch.
Das verstehe ich nicht so richtig. Die Artikel sind in einer Datenbank gespeichert und werden als Webseiten dargestellt. Jedes WordPress-Blog macht ja dasselbe.

Die vielen PDFs in den Suchergebnissen gibt es erst seit kurzem, das gehört zu meinem Problem. Denn scheinbar sind HTML-Seiten rausgefallen, die früher davor gelistet waren, weshalb man die PDFs nicht gesehen hat.

Jede Artikelseite hat eine Tag-Wolke mit Links zu den Seiten mit den Suchergebnissen für die Tags. Dadurch gibt es insgesamt viele Seiten. Ich habe jetzt mal die Links in der Blätter-Funktion der Suchergebnisseiten auf "nofollow" gesetzt, damit es nicht so viele Seiten zu jedem Stichwort (Suchbegriff) gibt.
MatthiasHuehr hat geschrieben:Du hast täglich mehrere hundert Meldungen, die die Firmen auch auf anderen Portalen reinstellen. Dann kommen zig Seitenbetreiber die nichts anderes machen als die Pressemitteilungen als eigenen Kontent auszugeben.
Klar. Es gibt bestimmt 300 kostenfrei nutzbare Presseportale. Relevant sind eigentlich nur etwa 10 - 20 davon, und meines hat da immer gut mitgespielt. Genau das ist ja die von mir beobachtete Veränderung, dass nämlich seit wenigen Tagen die neuen Meldungen nicht mehr gerankt werden.
MatthiasHuehr hat geschrieben:Google bevorzugt meiner Erfahrung nach die stärkeren Seiten und daher würde ich ehe dafür sorgen dass die Texte für die bessere Indizierung besser verlinkt werden.
Wie gesagt, zu den "stärkeren" in diesem Segment gehört eigentlich mein Portal. Was die Verlinkung angeht, sind meine Möglichkeiten der Einflussnahme recht beschränkt - dafür sind es einfach zu viele Artikel.

Im Übrigen ist es auch so, dass jeder Artikel mehrere Webseiten erzeugt: Eine "normale", eine Druckversion, eine in PDF - macht schon mal rund eine Million, plus die Suchergebnisse. Dann gibt es noch Kategorien und das Archiv. Ich muss noch ein wenig aufräumen und "Nofollows" setzen, wo es zu Mehrfach-Verweisen kommt.
om-labs hat geschrieben:Glaube nicht das es am Layout liegt und den neuen Algo Änderungen. Kein Absturz zu sehen in den letzten Sistrix zahlen.
Na, das wäre doch immerhin schon etwas.

Gruß Klaus

seekXL
PostRank 1
PostRank 1
Beiträge: 23
Registriert: 19.02.2006, 13:46
Wohnort: Berlin

Beitrag von seekXL » 25.01.2012, 11:49

kpl51 hat geschrieben:Jede Artikelseite hat eine Tag-Wolke mit Links zu den Seiten mit den Suchergebnissen für die Tags. Dadurch gibt es insgesamt viele Seiten. Ich habe jetzt mal die Links in der Blätter-Funktion der Suchergebnisseiten auf "nofollow" gesetzt, damit es nicht so viele Seiten zu jedem Stichwort (Suchbegriff) gibt.

Im Übrigen ist es auch so, dass jeder Artikel mehrere Webseiten erzeugt: Eine "normale", eine Druckversion, eine in PDF - macht schon mal rund eine Million, plus die Suchergebnisse. Dann gibt es noch Kategorien und das Archiv. Ich muss noch ein wenig aufräumen und "Nofollows" setzen, wo es zu Mehrfach-Verweisen kommt.

Gruß Klaus
Hi Klaus :)

wieso setzt Du die Seiten auf nofollow? Wäre es nicht sinnvoller, die Pager-Seiten auf noindex,follow zu setzen? Also das diese a) nicht in den Index aufgenommen werden, aber b) dennoch für die interne Verlinkung der auf den Pager-Seiten angelinkten Seiten weiterhin zählen?

Ist es Dir denn wichtig, die PDF-Dateien im Index zu haben? Wenn Nein, wieso sperrst Du diese nicht generell über die robots.txt aus?

Was waren denn die letzten Änderungen die Du an der Seite vorgenommen hast?

Ich glaube das om-labs mit seiner Vermutung Recht hat, das es nix mit dem letzte Google-Layout/Algo Update zu tun hat, sondern andere Gründe bei Dir die Ursache dafür sind.

Gruss
seekXL :)

Beloe007
PostRank 10
PostRank 10
Beiträge: 2928
Registriert: 05.03.2009, 10:31

Beitrag von Beloe007 » 25.01.2012, 12:47

kpl51 hat geschrieben:Die vielen PDFs in den Suchergebnissen gibt es erst seit kurzem, das gehört zu meinem Problem. Denn scheinbar sind HTML-Seiten rausgefallen, die früher davor gelistet waren, weshalb man die PDFs nicht gesehen hat.
https://www.internetkapitaene.de/2011/0 ... l-dateien/

om-labs
PostRank 6
PostRank 6
Beiträge: 422
Registriert: 14.12.2011, 12:58
Wohnort: Hannover

Beitrag von om-labs » 25.01.2012, 13:12

Ich würde die PDF's alle per Robots.txt sperren.

Ich glaube du must deine Webseitenstruktur mal ordentlich aufräumen / überdenken.
Sieht so aus als ob du ein wenig den Überblick verloren hast und momentan in der Aktionismus Phase bist.

Was für einen Sinn macht es ...

"Im Übrigen ist es auch so, dass jeder Artikel mehrere Webseiten erzeugt: Eine "normale", eine Druckversion, eine in PDF - macht schon mal rund eine Million, plus die Suchergebnisse. Dann gibt es noch Kategorien und das Archiv. Ich muss noch ein wenig aufräumen und "Nofollows" setzen, wo es zu Mehrfach-Verweisen kommt. "

alle drei Version in den Index zu lassen? - Keinen und erst Recht verschenkst du interne Linkpower.
Anstatt ein Nofollow zu setzen würde ich lieber häufiger Noindex setzen und nicht alles sinnlos in den Index lassen. Die Zeiten sind vorbei, in der die Taktik funktioniert hat.

Räume auf und schränke vieles ein, damit du weniger Seiten im Index hast und auf Grund das deine Linkpower sich besser verteilt, werden deine Rankings und Sichtbarkeit auch steigen.

Konkret, mach aus 2,4 Mio Seiten im Index mal nur 600.00 Seiten und deine Sichtbarkeit wird um Faktor 3-4 steigen oder höher, weil du endlich mal ein paar Keys erreichst hinter denen auch Traffik steckt.
Zum Beispiel dein Archiv würde ich auf eine Subdomain ziehen, bischen von der Hauptseite verlinken und ein wenig Linkbuilding drauf. Schon hast du ne Subdomain mit Ziel Longtail und ne saubere Trennung.

Lyk
PostRank 9
PostRank 9
Beiträge: 2883
Registriert: 10.08.2009, 15:26

Beitrag von Lyk » 25.01.2012, 13:13

kpl51 hat geschrieben: Die vielen PDFs in den Suchergebnissen gibt es erst seit kurzem, das gehört zu meinem Problem. Denn scheinbar sind HTML-Seiten rausgefallen, die früher davor gelistet waren, weshalb man die PDFs nicht gesehen hat.
pdfs werden nicht als dc erkannt. deine artikel aber schon. sei froh das du die pdfs noch hast^^

ich sehes genau so wie
MatthiasHuehr hat geschrieben: Du hast täglich mehrere hundert Meldungen, die die Firmen auch auf anderen Portalen reinstellen. Dann kommen zig Seitenbetreiber die nichts anderes machen als die Pressemitteilungen als eigenen Kontent auszugeben. Unterm Strich können da locker tausend Kopien einer Pressemitteilung zusammenkommen. Und warum sollte Google tausend Kopien in den Index aufnehmen? Das ist dein Problem. Google bevorzugt meiner Erfahrung nach die stärkeren Seiten und daher würde ich ehe dafür sorgen dass die Texte für die bessere Indizierung besser verlinkt werden ...
nur es gibt ein kleinen denkfehler.
nicht der, der die stärkste homepage hat, ist auch mit dc oben.

Baumeister
PostRank 3
PostRank 3
Beiträge: 78
Registriert: 31.12.2006, 09:21

Beitrag von Baumeister » 25.01.2012, 14:08

Vielleicht kommt Google ja auch mal auf die Idee, dass Pressemitteilungen für die Presse (Redakteure und Journalisten mit Presseausweis) gedacht sind (sein sollten) und nicht für die Allgemeinheit. Insofern hätten eigentlich Presseportale in allgemeinen Suchmaschienen wie Google oder Bing ohnehin nichts verloren. Ich halte es für eine Unart, dass Presseportale sich wie allgemeine Nachrichtenportale entwickeln und Endverbraucher direkt ansprechen wollen.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag