Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

SERP - Ich dreh am Rad

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Manuel_Butler
PostRank 1
PostRank 1
Beiträge: 28
Registriert: 22.06.2012, 11:31
Wohnort: Lüneburg

Beitrag von Manuel_Butler » 02.07.2012, 16:08

Die Frage ist berechtigt und das würde ich auch gerne einmal selber wissen. Es sind ja 2 verschiedene paar Schuhe:

- MFA Seiten

und wie MonikaTS bereits drauf aufmerksam gemacht hat:
- Werbung above the fold

Bei meinen Projekten die abgestürtzt waren könnte beides die Ursache sein. Wobei auch irgendwie eins zum anderen gehört, präsentiere ich meine Werbung öffentlicher, dann wird sie auch öfter geklickt. Ob Google da jetzt ein Unterschied zu MFA und "above the fold" macht bzw. überhaupt machen kann, dass kann man so schwierig sagen.
1+1 gleich linkbutler 2.0 - jetzt kostenlos testen: www.linkbutler.de

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

MonikaTS
PostRank 10
PostRank 10
Beiträge: 3582
Registriert: 07.10.2005, 09:05

Beitrag von MonikaTS » 02.07.2012, 16:32

Rasputin hat geschrieben:
MonikaTS hat geschrieben: du lieferst ständig wechselnde Artikel auf der Startseite

damit ändert sich ständig der Inhalt derselben
und mal ist dann die Keyworddichte zu hoch => für Google die haben ein anders Maß als sämtliche Tools der Welt
Monika, dieser Punkt würde mich persönlich auch interessieren. Auf einer meiner Seiten (ein Portal, kein Blog) biete ich auf der Startseite wechselnde Teaser zu ausgewählten, gerade passenden Artikeln. Es gibt also einen (festen, nie veränderten) Einleitungstext und darunter vier Teaser.

Ich frage mich schon seit eh und je, wie Google das eigentlich findet, denn auf diese Weise ändert sich tatsächlich der Startseitentext und die Keyworddichte ständig. Bis vor kurzem war das ganz offensichtlich überhaupt kein Problem, aber vielleicht könnten sich Googles Spielregeln auch in diesem Punkt geändert haben...
ich kenne ein Portal (10 jahre alt) eine echte Contentmaschine,
das ist wirklich alles handerarbeitet,
er - weil das macht eine Person- hat Backlinks von Brands , da schleckts dir alle 10 FInger ab,
nicht immer klassisch gut aufgeteilt, aber so verrückt es klingt, wenn dich ein echter Brand auf die Startseite linkt, sagst ja nicht nein ;)


da ist das völlig egal...
Grund: deren Unterseiten sind zum Teil so stark, dass die Startseite einfach halt da ist


das Portal hatte andere Probleme, rasselte in den Panda wie eine Rutschbahn ;) von sistrix rank 32 auf 21 oder 17 oder so ist es runter...
und auch das Problem, dass der Domainname gleichzeitig das Hauptkey ist , da muss sich Google nochwas einfallen lassen,
aber wegen der wechselnden Texte auf der Startseite nie

++++++++++++++++++++

bin ich allerdings noch jugendlich aufgestellt,
habe schlechte oder eher durchschnittlich schlechte Backlinks und eh kaum Power auf die Unterseiten
reißen nicht die wechselnden Texte die Domain runter, sondern das wenige an interner Power wird auch noch verzettelt


ich hoff ich konnt den Unterschied rüberbringen

PapaRatzi
PostRank 6
PostRank 6
Beiträge: 366
Registriert: 02.12.2005, 12:03

Beitrag von PapaRatzi » 02.07.2012, 18:31

Also ich hab mir die Seite kurz angeschaut und halte die "Stichworte-Cloud" unter der Facebook-Fanbox in der rechten Spalte für ein wenig spammig. Dies könnte Google als Keywordstuffing empfinden...

Ich würde weniger "Stichworte" verlinken und dann erstmal nur einen Adsens-Block einsetzten, zusätzlich würde ich prüfen ob die Línktexte stimmen und ggf. da wo es möglich ist (zum Bsp. bei Webkatalogen) den Linktext abändern, so dass nicht immer die gleich Linktexte auf meine Seite zeigen.....

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Morpheus1974
PostRank 9
PostRank 9
Beiträge: 1179
Registriert: 02.01.2009, 08:49

Beitrag von Morpheus1974 » 03.07.2012, 07:18

Hanzo2012 hat geschrieben:Die Frage ist, ob "MFA-Seiten" auch anhand der Klickrate erkannt werden oder nur anhand des Contents/Aufbaus.
Jupp, da sehe ich momentan das größte Problem drin. Denn die Klickraten sind schon je her sehr gut. Entsprechend könnte dies also durchaus so gewertet werden.
PapaRatzi hat geschrieben:Also ich hab mir die Seite kurz angeschaut und halte die "Stichworte-Cloud" unter der Facebook-Fanbox in der rechten Spalte für ein wenig spammig. Dies könnte Google als Keywordstuffing empfinden...
Ob es für den Absturz ursächlich war bezweifle ich zwar, dennoch habe ich die gesamte Tag-Wolke mal rausgenommen.

Jetzt danke ich aber erstmal für die vielen Ratschläge, Infos und Denkanstöße. :wave:

Beauty
PostRank 8
PostRank 8
Beiträge: 681
Registriert: 22.10.2011, 10:39

Beitrag von Beauty » 03.07.2012, 10:31

das interessiert mich auch sehr..habe nämlich auch eine Unterseite die kontinuierlich ne Klickrate von 20% und einen Seiten RPM von 60€+ hat, die ist jetzt auch von Platz 5 auf 19 gefallen. Einfach so!

Morpheus1974
PostRank 9
PostRank 9
Beiträge: 1179
Registriert: 02.01.2009, 08:49

Beitrag von Morpheus1974 » 03.07.2012, 10:38

Beauty hat geschrieben:das interessiert mich auch sehr..habe nämlich auch eine Unterseite die kontinuierlich ne Klickrate von 20% und einen Seiten RPM von 60€+ hat, die ist jetzt auch von Platz 5 auf 19 gefallen. Einfach so!
Ich denke das dürfte durchaus ein Problem sein. Nachdem ich aber mehrere Dinge verändert habe, würde sich das im Falle einer Rückkehr auf alte Positionen (Hoffnung stirbt zuletzt) kaum noch nachvollziehen lassen.

mtx93
PostRank 8
PostRank 8
Beiträge: 809
Registriert: 16.12.2011, 00:35

Beitrag von mtx93 » 03.07.2012, 19:22

Ihr werdet DEN Fehler nicht finden - den das ist der Kern von Penguin & Panda 2012.

Vorher war die Abwertung gleichmäßiger.

Die P&P rechnet nun alle Fehler ein und sagt "hat die Seite mehr als X Fehler oder ist einer oder mehr der Fehler > Z, dann gehts 10 Ranks runter".

Nun könnte man denken, behebt man den einen Fehler ist alles Gut - aber es können ja mehrere sein. ODER die Summe der Einzelfehler.

Es nutzt nichts mehr, 2 Backlinks zu addieren und zu schauen, wieviel Plätze man nun hochgeht. Nicht genug? Noch 2 mehr. Zuviel Keywörter auf der Seite? 2 weg und schauen.

DAS geht nun nicht mehr so einfach - weil man nie weiß WELCHER Wert aus welchem Grund dir die 10 Ranks Abwertung einbringt. Ohne dem würde man wie vorher wohl den Effekt der Änderungen noch sehen - aber mit den Bordermalus nicht.

Damit verhindert Google, das Schlaumeier genau ausrechnen, wieviel Backlinks oder Keywörter auf die Seite gehören, damit es keine Abwertung gibt.

Richtig gut sieht man diesen Effekt bei den Backlinks wenn nicht genug gemischte Anchors dabei sind - da haut dann die Abwertung von X Plätzen von Penguin rein.

Aber das ist wohl nur ein Faktor der Geschichte.
Wie gesagt - das ist grob das Prinzip, was P&P geändert haben - wie es wirklich funzt weiß nur Google.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag