Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Abstrafung - Google Minus-30 penalty- oder?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
sevenup
PostRank 1
PostRank 1
Beiträge: 20
Registriert: 25.05.2007, 23:18

Beitrag von sevenup » 25.05.2007, 23:52

Guten Abend

Eine Webseite, für die ich verantwortlich bin, leidet seit Freitag ca. 18:00 Uhr an einem starken Besucherrückgang. Ich hatte um ca 21:00 eine Email darüber erhalten und bin nun auf Ursachensuche.
Aus Diskretionsgründen kann ich leider keine Angaben über die betreffende Webseite machen.

Die Besucherzahlen lagen in den letzten 8 Monaten und täglich bis heute im 5 stelligem Bereich. Rank 6 und 21.000 Seiten im Index von Google. Auf Seomaßnahmen wie Verlinkungen durch Kataloge, gekaufte Links usw. haben wir verzichtet. Einige Kataloge haben uns jedoch in den letzten Jahren in Listen aufgenommmen. Kontakt oder Anfragen dazu gab es nie. Die Site hatte sich in den 5 Jahren durch Links von anderen Sites, die auf unseren Content verweisen, den Rank selbständig erarbeitet. Pro Tag kommen ca. 30-40 News und Contentartikel hinzu. Weiter gibt es seit 2 Jahren ca. 20 neue Foreneinträge pro Tag.


Bei Angabe der Domain "domain.tld" bei Google wird die Seite auf Platz 16 gelistet. Bei Angabe von domain.tld ohne Hochkomma, auf Platz 1. Bei relevanten Textpassagen, die in unserem Content vorkommmen, werden wir nicht mehr auf der ersten Seite gelistet, sondern landen irgendwo im hinterem Feld. Am Donnerstag war dies nicht so. Subdomains werden besser gelistet, als die Hauptdomain. Alle Seiten sind jedoch im Google-Index geblieben. Die einzelnen Ranks von der Haupseite und Unterseiten sind geblieben.

Zu Erklärung. Es werden keine dynamischen Url's verwendet. Keywords und Metangaben werden aus Content ausgelesen und dynamisch erstellt. Mit Brückenseiten, Weiterleitungen, Tricks haben wir niemals gearbeitet.
Wir haben selbsterstellten Content sowie gekauften und Pressecontent auf unseren Seiten. Es gibt also eine Mischung aus Unique und Content welches auch auf anderen Seiten zu finden ist. Dies ist aber schon seit Jahren so und lässt sich bei Pressecontent nicht vermeiden. Google listet unsere News bei ihrem Newsservice. Adsense läuft seit 3 Jahren auf der Seite. Eine Email über Abstrafungen oder Rügen hatten wir von Google nie erhalten.

Frage: Ist das ein Minus-30 penalty? Trotz der 16er Platzierung, bei Domainsuche mit Hochkommastellen!?

Wie können wir erfahren, was für eine Abstrafung das ist und warum? Die Ursache erfahren und abstellen!?

Gibt es Kontaktmöglichkeiten zu Google und wie hattet ihr, mit vielleicht ähnlichen Problemen, reagiert?

Wie war, ist eure Vorgehensweise?

Für Hilfe wäre ich sehr dankbar und beantworte weitere Fragen gerne.


Grüße...
Zuletzt geändert von sevenup am 26.05.2007, 01:28, insgesamt 3-mal geändert.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

rechtlegal
PostRank 9
PostRank 9
Beiträge: 2874
Registriert: 20.04.2005, 17:23
Wohnort: Tespe / Elbe (daneben ist Hamburg)

Beitrag von rechtlegal » 26.05.2007, 00:00

14 Tage abwarten.

sevenup
PostRank 1
PostRank 1
Beiträge: 20
Registriert: 25.05.2007, 23:18

Beitrag von sevenup » 26.05.2007, 00:13

Hallo rechtlegal

Vielen Dank für deine Antwort
14 Tage abwarten.
Mhhh... Wäre es nicht besser zu Wissen, was da abläuft. Vielleicht ist es ja ein Wink von Google und in 7 oder 14 Tagen wird es noch schlimmer!?

Wäre für weitere Kommentare und Webmaster-Post's, die ähnliches erlebt hatten dankbar.

Grüße ...

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

MonikaTS
PostRank 10
PostRank 10
Beiträge: 3582
Registriert: 07.10.2005, 09:05

Beitrag von MonikaTS » 26.05.2007, 00:18

kontrolliere wieviele der seiten im supplemental sind und ändere dies

lg

sevenup
PostRank 1
PostRank 1
Beiträge: 20
Registriert: 25.05.2007, 23:18

Beitrag von sevenup » 26.05.2007, 00:28

Hallo einfach
kontrolliere wieviele der seiten im supplemental sind und ändere dies
site:www.domain.tld ergibt 40.700. Was soll ich daran ändern? Bei jeder größeren Sites werden solche Zahlen ausgegeben. Bei dieser Seite abakus-internet-marketing.de sind es 120.000. Ich muß gestehen, dass ich nicht verstehe, was dies bedeutet. "Das ändern" ?

Nachtrag: Bei site:www.yahoo.de habe ich festgestellt, dass Google nur eine Site ausgibt yahoo.de/yahoo-horoskop.html Bei site:www.gmx.de 8 Seiten. Bei site:www.lycos.de sind es dann wieder 619.000 ???

Erst werden alle Unteordner angezeigt, danach alle Contentseiten. Die meisten Sites haben einen Rank von 2 oder 3. Ältere einen Rank von 4. Wenige Sites eine von 5 oder 6, wie die Hauptdomain. Neuere Contentseiten haben natürlich noch keinen.

Ist mit deinem Post dieses gemeint?
(zum Thema gefunden)
1. Kontrollieren Sie alle Title und META Description und META keyword Tags. Sorgen Sie dafür das jede Seite individuelle Inhalte bekommt.

Die Seiten haben die Contenüberschift als Titel, Keywords aus Text und Datum der Contenterstellung.

2. Sorgen Sie dafür das Ihre Domain mit einer 301 weiterleitung entweder auf nur www. oder nur ohne www. angesprochen wird.

Es gibt eine Domain, die leider im Index aufgenommen wurde, diese wird 301 auf die Hauptdomain geleitet. https://www.domain.tld

3. Entfernen Sie doppelte Inhalte. Sie können das mit copyscape.com sehr gut testen.

Auf der Site selbst gibt es keinen doppelten Content. Wie schon geschrieben, lässt sich das bei gekauften Pressetexten nicht vermeiden, das dieser Im Inet häufiger zu finden ist.

4. Erlangen Sie einen gewissen Grad an Authorität in dem Sie Ihre Seite bei DMOZ oder andern Nischen Domains eintragen/verlinken.

Bei Dmoz sind wir irgendwann mal eingetragen worden.

5. Finden Sie verwaiste Inhaltsseiten und verlinken Sie diese richtig.

Ein Tool welches ich am Abend 3 Stunden durch den Index schickte, zeigte mir 15 Fehlerlinks an. Diese wurden behoben. 13 davon verwiesen aus Content auf Sites, die es leider nicht mehr gab. Der Content war schon älter.


6. Suchen Sie nach sehr langen URL auf Ihrer Website und verkürzen Sie diese mit mod_rewrite

Jede Seite trägt höchstens 4 Worte aus der Überschrift. in etwa "dies-ist-eine-news-22677.html"


7. Erstellen Sie eine Sitemap, damit der Googlebot leicht auf alle Inhaltsseiten zugreifen kann.

Dies haben wir nicht. Wir arbeiten noch mit einer robots-datei


8. Nutzen Sie die Google Sitemap um ein regelmäßiges indexieren zu gewährleisten.

Wie 7

9. Erhöhen Sie Ihre Linkpopularität, indem Sie auf die Unterseiten Ihrer Website verlinken lassen (Deeplink), die sich im Supplemental Index befinden.

Dies geschieht durch eine dynamische Verlinkung von Content. Passend zum Thema und Angabe eine Hauptkeywords wie z.B. BUSH. Alle Berichte mit diesem Hauptkeyword werden angezeigt. Jedoch höchsten 10 Contentseiten. Nach Datum geordnet.



Danke für deine Hilfe.
Zuletzt geändert von sevenup am 26.05.2007, 01:06, insgesamt 2-mal geändert.

pulizer
PostRank 2
PostRank 2
Beiträge: 61
Registriert: 10.03.2005, 13:07

Beitrag von pulizer » 26.05.2007, 01:03

Darf ich mal fragen, wieviele externe links ihr auf der seite habt? Z.B. linktausch etc? ( Hiermit testen: https://www.seochat.com/seo-tools/site-link-analyzer/ )

symantec
PostRank 7
PostRank 7
Beiträge: 543
Registriert: 26.11.2003, 23:13

Beitrag von symantec » 26.05.2007, 01:15

ch bin zwar nicht in der news branche aber solche einbrüche sind eigentlich unbedenklich das kommt wieder in die gänge kann paar tage dauern.

alles schon erlebt und dann darüber gelacht weils so lächerlich war.

sevenup
PostRank 1
PostRank 1
Beiträge: 20
Registriert: 25.05.2007, 23:18

Beitrag von sevenup » 26.05.2007, 01:26

Hallo Pulizer
Darf ich mal fragen, wieviele externe links ihr auf der seite habt? Z.B. linktausch etc?
Es sind 4 ausgehende Links von der Startseite. Seit 3 Jahren. Alle zu Partnern. Die Partner verlinken ebenfalls auf uns. Auf verschiedenen Contentseiten gibt es weiterführende Links. Jedoch sind es nie mehr als 2 und gehen auf die News oder Content ein. Führen zu weiteren Informationen.


Hallo symantec
ich bin zwar nicht in der news branche aber solche einbrüche sind eigentlich unbedenklich das kommt wieder in die gänge kann paar tage dauern.
Wir hoffen es. Die komplette Redaktion und ein weitere Admin kann sich das nicht erklären. Die Livelogfiles sehen verdammt leer aus. Wie viele, kann sich das Projekt nur mit Werbeeinnahmen finanzieren. Leider! Aber vielen Dank für deine Worte.

Gruß ...
Zuletzt geändert von sevenup am 26.05.2007, 01:44, insgesamt 1-mal geändert.

MonikaTS
PostRank 10
PostRank 10
Beiträge: 3582
Registriert: 07.10.2005, 09:05

Beitrag von MonikaTS » 26.05.2007, 01:38

mit site:domain.tld erfährst du nicht gleich den supplemental

kontrolliere mal so

site:domain.tld/ *** -asdoijf

lg

sevenup
PostRank 1
PostRank 1
Beiträge: 20
Registriert: 25.05.2007, 23:18

Beitrag von sevenup » 26.05.2007, 01:51

Hallo Einfach
kontrolliere mal so

site:domain.tld/ *** -asdoijf


Dies führt zu einem fast gleichem Ergebnis. 40.300 - 400 Sites weniger als mit dieser Methode site:www.domain.tld.

Eine Überlegung von mir ist nun diese: Wir haben seit 3 Monaten einen zusätlichen Dienst aufgenommmen. Dieser Service wird von einer anderen Domain abgerufen. Liegt jedoch auf den gleichen Server und verweist lediglich auf einen internen Ordner. Der Inhalt uns das Aussehen ist komplett anders. Es wird von dort auf die Hauptdomain verwiesen. Kann es bei dieser Methode zu solchen Dingen bei Google kommen? Die Domains verweisen auf den gleichen Rechner, haben die gleiche IP. Bei anderen Projekten funktioniert diese Methode bisher immer ohne Probleme. Dies wäre die einzige große Änderung, die in den letzten Monaten auf unserem Projekt durchgeführt wurde. Beim letzten Update hatte diese Domain auch sofort einen Rank von 4 erhalten. Ratlos!?

Danke für weitere Hilfe.

Gruß ...
Zuletzt geändert von sevenup am 26.05.2007, 02:42, insgesamt 1-mal geändert.

Golfbobbie
PostRank 6
PostRank 6
Beiträge: 454
Registriert: 31.01.2006, 23:43
Wohnort: Ising

Beitrag von Golfbobbie » 26.05.2007, 02:09

dann haben sie schon die probleme gefunden wenn 40,000 seiten sind im supp index

sevenup
PostRank 1
PostRank 1
Beiträge: 20
Registriert: 25.05.2007, 23:18

Beitrag von sevenup » 26.05.2007, 02:59

Hallo Golfbobbie
dann haben sie schon die probleme gefunden wenn 40,000 seiten sind im supp index
Das haben andere Seiten nur leider auch.

Liegt es an dem Supplemental?

Mir ist jedoch aufgefallen, dass sehr viele Projekt-Suchbegriffe in diesem Supplemental-Index sind. Die Redaktion arbeitet seit Jahren mit der internen Suchmaschine. z.B. Falls ein Bericht über "BUSH" veröffentlicht wird, tragen Redakteure den Suchbegriff als Link ein. Der Leser kann dann auf diesen Link klicken. Dieser führt zur internen Suchmaschine und gibt alle Artikel mit dem Begriff "Bush" oder "Das Suchwort" aus. Google hat nun einiges an Suchbegriffen indexiert. Einige haben einen Rank von 2. Die meisten jedoch nur einen 1 oder 0. Die Suchmaschinenergebnisse werden nicht Suchmaschinenfreundlich ausgegeben. Sondern wie bei Google selbst. In etwa q=Suchbegriff&seite=1&anzeigen=20.
Die Variablen geben die Seite an usw. Wäre es besser den Bot von dieser Suche auszuschließen. Disallow: oder diese Links auch Suchmaschinenfreundlich zu ändern suchbegriff-1-20.html.


Eine Nichtindexierung der Suchbegriffe wäre Schade. Dies Suche wird sehr oft genutzt und gibt zu vielen Suchbegriffen einige Artikel und Infos aus. Ein Suchbegriff wird nur veröffentlicht, falls mindesten 4 andere Artikel zum Thema auffindbar sind. So können Themen über Jahre recherchiert werden. Dies war damals von den Betreibern so gewollt.

Ein weiterer Gedanke war, von 50 % des Contents lassen sich PDF's erstellen. Diese wurden auch indexiert. Bei XML-Dateien sieht es ähnlich aus. Zählt das dann wohl als doppeltes Content. Wir haben nun den Bot angewiesen, den Ordner der PDF'S nicht mehr auszulesen. Bei den XML-Datein sind wir uns noch nicht im klaren. Manche haben, wie die Hauptseite einen Rank von 6. Manche nur von 2. Neue XML-Datein keinen Rank. Welche Methode eignet sich am günstigsten, viele Seite aus diesen Supplemental-Index zu nehmen?


Leider kann ich aber nicht verstehen, warum die vielen Sites im Hauptindex so schlecht abschneiden. Dies war am Freitag-Mittag noch nicht so. Warum jetzt?

Vielen Dank für eure Hilfe. Für weitere Anregungen oder Hilfstellungen sowie Erfahrungen wäre ich sehr dankbar.

Gruß

v-maxx
PostRank 4
PostRank 4
Beiträge: 122
Registriert: 07.02.2007, 13:57

Beitrag von v-maxx » 26.05.2007, 05:02

Hallo sevenup!
sevenup hat geschrieben:Die Redaktion arbeitet seit Jahren mit der internen Suchmaschine. z.B. Falls ein Bericht über "BUSH" veröffentlicht wird, tragen Redakteure den Suchbegriff als Link ein. Der Leser kann dann auf diesen Link klicken. Dieser führt zur internen Suchmaschine und gibt alle Artikel mit dem Begriff "Bush" oder "Das Suchwort" aus. Google hat nun einiges an Suchbegriffen indexiert.
Werden die Ergebnisse als Linklisten ausgegeben?
z.B. Suchbegriff BUSH => Ergebnisseite mit 50 Links zu Artikeln ohne sonstigem suchmaschinenrelevanten Content?

Wie ist (ungefähr) das Verhältnis von indexierten Suchabfragen zu Content-Seiten? 1/100, 1/10 oder womöglich 10/1?
Die Variablen geben die Seite an usw. Wäre es besser den Bot von dieser Suche auszuschließen. Disallow:
Ja, wenn durch die Suchabfragen stereotype Seiten ohne unique Content entstehen.
Eine Nichtindexierung der Suchbegriffe wäre Schade. Dies Suche wird sehr oft genutzt und gibt zu vielen Suchbegriffen einige Artikel und Infos aus. Ein Suchbegriff wird nur veröffentlicht, falls mindesten 4 andere Artikel zum Thema auffindbar sind. So können Themen über Jahre recherchiert werden. Dies war damals von den Betreibern so gewollt.
Vorausgesetzt, das sind Linkseiten - was ist denn da (aus Sicht der Suchmaschinen) sonst noch an sinnvollem Content drauf? Dieselben Links zu den Artikeln, kombinatorisch neu zusammengewürfelt in X Variationen (je nach interner Suchanfrage)?
Entsteht dadurch sinnvoller Content, der es wert ist, gelistet zu werden?

ABER:
Vielleicht ist das Problem aber auch ein ganz anderes!?
Ursache und Wirkung waren bei mir klar diagnostizierbar, aber ohne URL ist das schwierig zu beurteilen.
Ich würde dazu noch andere Meinungen einholen, bevor ich einen so tiefgreifenden Eingriff durchführe.

Ich hoffe aber, Betrachtung und Ansatz sind hilfreich!

Beste Grüße und trotzdem schöne Feiertage...
Zuletzt geändert von v-maxx am 29.05.2007, 17:23, insgesamt 1-mal geändert.

sevenup
PostRank 1
PostRank 1
Beiträge: 20
Registriert: 25.05.2007, 23:18

Beitrag von sevenup » 26.05.2007, 07:25

Hallo v-maxx
Werden die Ergebnisse als Linklisten ausgegeben?
z.B. Suchbegriff BUSH => Ergebnisseite mit 50 Links zu Artikeln ohne sonstigem suchmaschinenrelevanten Content?
Ja, BUSH ergibt 4 Seiten mit a 20 Links zu unterschiedlichen Artikeln. In einigen Ergebnissen ist ein wenig Text enthalten, in anderen nicht. Text hat keinen Zusammenhang und gibt nur Schnippsel aus, die BUSH als Inhalt haben.

Wie ist (ungefähr) das Verhältnis von indexierten Suchabfragen zu Content-Seiten? 1/100, 1/10 oder womöglich 10/1?
Nach 2 Stunden-Analyse ist das Verhältnis etwa 5 zu 3. Auf drei vernünftige Contentseiten komme Suchergebnisseiten oder PDF-Kram usw.

Hatte sowas auch mal und bin damit bis ans Ende der Suchergebnisse gerutscht.
Habe dann NOINDEX in die Suchergebnisseite reingesetzt => nach einigen Wochen alles wieder OK.
Ich denke nun auch, dass ist die beste Lösung. Ich werde abwarten, was mein Kollege nachher bei Übernahme sagt und werden den Suchdienst dann wohl ausschließen.
Wenn entfernen = kicken:
- In das Template für die Suchergebnisse "noindex" rein
- Auf die Hauptseite einen unauffälligen Link zu einer Seite, die die Links zu den zu kickenden Seiten enthält, so dass der Bot das Corpus Delicti unkompliziert findet.
Wie gesagt - so hatte ich binnen ein paar Wochen das Problem gelöst.
Von über 20000 Seiten runter auf unter 1000.
Meine Nase sagt mir, das dies auch bei uns so laufen könnte. Ich habe nochmals alte Analysen verglichen. Im Vergelich zu 2005 und 2006 generierten wir, ca. 30 Suchwörter am Tag. Jetzt 2007 sind es ca 55 - 70. 2005 und 2006 waren die Suchergebnisse sauberer. Wir hatten in den letzten Monaten ein wenig die Augen verloren. Bis gestern.
Vielleicht ist das Problem aber auch ein ganz anderes!?
Ursache und Wirkung waren bei mir klar diagnostizierbar, aber ohne URL ist das schwierig zu beurteilen.
Ich würde dazu noch andere Meinungen einholen, bevor ich einen so tiefgreifenden Eingriff durchführe.

Wie schon beschrieben, meine Nase sagt, dass ist unsere Problem. Wir bekommen noch andere Meinungen. Ich hatte Dienst und wollte sofort reagieren.
Die Sache mit der Url ist die, ich und die Betreiber sind immer gut damit gefahren, dass Links und Beschreibungen, Lob , Kritik von anderen kommen sollten, als von den Betreibern.

Ich bitte deshalb um Verzeihung. Danke dir aber sehr für deine Antwort.
Falls jemand eine andere Idee hat, oder ähnliche Probleme hatte, würde ich mich über weitere Threads freuen. Danke!

Gruß

MrLUKE
PostRank 5
PostRank 5
Beiträge: 244
Registriert: 12.01.2007, 11:39
Wohnort: NordwestDE

Beitrag von MrLUKE » 26.05.2007, 08:09

Schon mal darüber nachgedacht – wenn es sich um eine Deutsche Seite handelt – das 80% der User über Pfingsten wegfahren... Ich würde erst bis Mittwoch nächste Woche abwarten und Tee trinken :)
www.lukas119.de
Suchmaschine
für Kirche und Religion
---------------------------------------------------
www.pressini.de
Zeitung-Suchmaschine

---------------------------------------------------

TOP10 Suchbegriffe des Jahres 2008
---------------------------------------------------
*** Der Banken Finder
@Lukas119- Twitter
_____________________________________

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag