Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Titel + ... scheint keine grosse rolle mehr zu spielen....

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
kekskauer
PostRank 5
PostRank 5
Beiträge: 269
Registriert: 11.12.2006, 14:08

Beitrag von kekskauer » 14.02.2007, 18:38

widersprechen den Google Richtlinien. Die Seiten die es betrifft wurden exakt nach den Google Richtlinien erstellt.
Dafür kann und darf mann nicht bestraft werden.
und ein erneutes Zeichen das Google vor die Hunde geht. Was stimmt da noch? Die eigenen Richtlinien haben die doch selber nicht mehr im Griff! Richtline 1 Wer zahlt steht oben -
Richtlinie 2 Wem das nicht passt hat trotzdem Pech gehabt :idea:

Gar nichts haben die mehr im Griff! Bleibt zu hoffen das bald endlich Schluss ist. So ein Google was nur noch mist baut braucht kein Mensch mehr!

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Gurgelboot
PostRank 8
PostRank 8
Beiträge: 769
Registriert: 22.01.2005, 02:23

Beitrag von Gurgelboot » 14.02.2007, 18:40

Ich benutze Google-sitemaps, habe für mehrere Domains das selbe AdSense-Konto (untereinander verlinkt), habe kürzlich die gleichen Domains auch noch auf den selben eigenen Server gezogen (vorher mehrer Shared-Accounts) und für alle Domains benutze ich auch Google-Analytics...

Habe keine negativen Veränderungen dadurch beobachten können...

Meine Vermutung:

Double-Content, SEO-Monokulturen (gleiche Linktexte+ TITLE + DESCRIPTION + >h1 etc...) werden schärfer rangenommen.

Ich habe ein Forum (phpBB) und hier den üblichen Ärger mit Spam, dieser wird dann sofort gelöscht.

Jetzt ist aber folgendes passiert: Vor dem Löschen hat sich Google z.T. die Spambeiträge geholt, sind also in den Index gewandert. Nach dem Löschen werden nun aber von phpBB nicht existente Beiträge nicht durch 404 beantwortet, sondern es wird eine Fehlerseite ausgegeben, aber der Responsesode ist 200. Folge: Alle gelöschten Seiten liefern den gleichen Inhalt unter verschiedenen URLs !!!

Zugleich war durch externe Links die Foren-Startseite uunter zwei verschiedenen URLs erreichbar (habe mod_rewrite am Start).

Ich konnte viele der hier beobachteten Phänomene ebenfalls bei mir sehen. (Immer weniger Seiten bei der site:--Abfrage, immer mehr als "zusätzliches Ergebniss", Abrutschen in den SERPS für vorher top-gelistete Topics usw...).

Konsequentes ausmisten dieser Fehler, sorgfältigeres Einsetzen von mod_rewrite usw. hat innerhalb von ca. 6-8 Wochen jetzt das Forum wieder gut dastehen lassen und ist seitdem auch stabil, trotzt allen Google-Blähungen seit der Zeit...

Mein Tipp: schärfer auf Double-Content prüfen, im Zweifel leicht "deoptimieren" wirkt manchmal wunder
:wink:



Grüße :D

ecommerce
PostRank 5
PostRank 5
Beiträge: 251
Registriert: 19.11.2004, 08:58

Beitrag von ecommerce » 14.02.2007, 18:52

Double-Content, SEO-Monokulturen (gleiche Linktexte+ TITLE + DESCRIPTION + >h1 etc...) werden schärfer rangenommen.
Dass darf nicht sein!

Wenn ich nur blaue Waschlappen verkaufe, dann kann ich nicht mit "hinter den Ohren putzen" linken , ich muss ja mit dem KW arbeiten. Das soll nicht heissen dass die Landing-Page dann nur aus dem Begriff Waschlappen besteht! Das ist schon klar!

Wenn deine Theorie stimmt müssten alle Webkataloge und Linklisten in den Top Ten sein! Zig Texte (kein Content) Irgendwo das Wort blauer Waschlappen in der Seite und fertig ist der Eintrag für die Top Ten.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Tomasso
PostRank 8
PostRank 8
Beiträge: 864
Registriert: 17.11.2006, 17:31
Wohnort: Augsburg

Beitrag von Tomasso » 14.02.2007, 19:16

Hab das gleiche festgestellt.
Habe auf meiner Seite Tourismusnews die fast immer unter den Top-Ten bei Google waren. Seit ca. zwei Woche werden die neuen News bei Google überhaupt nicht mehr angezeigt obwohl der Googlebot sich die Seiten angeschaut hat und auch kurzfristig im Index hatte. Danach verschwinden die News wieder und tauchen auch nicht mehr auf.

Meine Seiten springen auch laufend bei Google. In der Früh bin ich auf Platz 1, dann am Abend wieder auf Platz 4. Ist ja nicht sooooo schlimm. Nervt aber irgendwie.

Hoffe Google kriegt sich wieder ein. :-?

Gurgelboot
PostRank 8
PostRank 8
Beiträge: 769
Registriert: 22.01.2005, 02:23

Beitrag von Gurgelboot » 14.02.2007, 19:27

Es ist nicht wirklich eine Theorie, sondern nur eine Wiedergabe meiner Beobachtungen...
Was zuviel an Monokultur ist kann ich nicht sagen, nur dass es sich bei meinem Forum eben so wie oben geschildert zugetragen hat.

Auf jeden Fall scheint mir zumindest der Zusammenhang zwischen Double-Content <-> Anzahl der Seiten in den "zusätzlichen Ergebnissen" als relativ sicher....

Und ich vermute eben auch einen Zusammenhang zwischen dem hier beobachteten...

Grüße :D

google_hupf
PostRank 2
PostRank 2
Beiträge: 47
Registriert: 06.01.2006, 12:28

Beitrag von google_hupf » 15.02.2007, 00:24

[quote="Tomasso"]Habe auf meiner Seite Tourismusnews die fast immer unter den Top-Ten bei Google waren. Seit ca. zwei Woche werden die neuen News bei Google überhaupt nicht mehr angezeigt obwohl der Googlebot sich die Seiten angeschaut hat und auch kurzfristig im Index hatte. Danach verschwinden die News wieder und tauchen auch nicht mehr auf.[/quote]

Hallo Tomasso,

ich beobachte ein nahezu identisches Phänomen:
- seit 01. oder 03.02.
- Seiten werden ca. 1 Woche nach Erstellung in den Index aufgenommen - Top-Platzierungen
- Seiten sind genau 48 Stunden später wieder verschwunden.

Ob sie wiederkommen kann ich noch nicht sagen, da der "Spuk" bei mir erst seit 4 Tagen läuft. Seit wann ist es bei Dir? Ist bei Dir das selbe "Muster" zu beobachten?

Thomas B
PostRank 9
PostRank 9
Beiträge: 1810
Registriert: 04.12.2005, 12:50

Beitrag von Thomas B » 15.02.2007, 01:09

Meine index ist auf meine 2 Hauptkeys optimiert, fast alle externen Links gehen auf sie und das sind garnicht so wenig. Damit bin ich nach wie vor gut gerankt. Jetzt sehe ich gerade, das eine Unterseite zu einem von den Keys ohne eingehende Links aber mit mehr Content gerade mal 10 Positionen dahinter steht. Das hatte ich mit der Seite noch nicht.

Falls das so bleiben sollte kann das nur bedeuten, das Links abgewertet werden und Content aufgewertet wird. Bin ja mal gespannt ob man sich in naher Zukunft die ganzen Linktausch-Geschichten sparen kann...

Tomasso
PostRank 8
PostRank 8
Beiträge: 864
Registriert: 17.11.2006, 17:31
Wohnort: Augsburg

Beitrag von Tomasso » 15.02.2007, 08:09

@google_hupf bei mir ist es seit ca. 2 Wochen genau das Selbe. Neue News erscheinen für ca. 2 Tage unter den Top 4, danach verschwinden sie komplett und bis jetzt bleiben sie auch verschwunden.

Dies ist bei News die ich innerhalb der letzten 14 Tage erstellt habe zu beobachten.

Habe aber auch festgestellt das der Googlebot in den letzten 7 Tagen fast rund um die Uhr meine Seiten besucht. War vorher nicht ganz so extrem.

Habe aber in den letzten 10 Tagen ziemlich viele neue News und Infos auf meiner Seite aufgenommen. Vielleicht liegt es einfach an der Masse von von neuen Seiten (ca. 200).

Hoffe auf jeden Fall das sich dies sehr schnell wieder ändert.

google_hupf
PostRank 2
PostRank 2
Beiträge: 47
Registriert: 06.01.2006, 12:28

Beitrag von google_hupf » 15.02.2007, 08:50

@Tomasso:
Das ist ja vielleicht ganz praktisch wenn (wir) zwei das selbe Problem haben, finden wir vielleicht Gemeinsamkeiten oder eine Erklärung...

An der Menge der Seiten kann es in meinem Fall nicht liegen - max. 2 neue Seiten pro Tag, meist nur eine, also < 10 Seiten in der vergangenen Woche.

Verwendest Du in Deinen Infos Pressetexte? Wenn ja, in welchem Maße? Ich verwende teilweise Presseinformationen. Ich will darauf hinaus, dass ich mir eine "neue Form von Double Content" vorstellen könnte. Das würde aber bedeuten, dass der Googlebot die Seiten zuerst in den Index aufnimmt, nach 2 Tagen überprüft, in irgendeiner Form DC feststellt und sie - statt abzuwerten KOMPLETT entsorgt?
Wäre mir neu, bisher habe ich immer nur gelesen, dass es im Falle von DC eine deutliche Abwertung gibt oder ein Listen unter "zusätzliche Ergebnisse"... Spannend.

Tomasso
PostRank 8
PostRank 8
Beiträge: 864
Registriert: 17.11.2006, 17:31
Wohnort: Augsburg

Beitrag von Tomasso » 15.02.2007, 09:49

@gugel_hupf verwende keinen Hinweis wie Pressetext oder ähnliches. Double Content kann ich mir eigentlich nicht vorstellen, da ich teilweise die News ändere oder ergänze. Dann hätten ja die News die älter sind als 10 Tage auch raus fliegen müssen. Oder sie müssten dann zumindest abgewertet werden. Das ist aber bei mir nicht der Fall.

Vermute eher das Google etwas geändert hat und es einfach länger dauert bis die News endgültig aufgenommen werden. Hoffe ich zumindest :wink:

Werde einfach mal diese Woche abwarten, dann sehen wir schon was passiert.

advisor
PostRank 9
PostRank 9
Beiträge: 1120
Registriert: 09.08.2006, 16:31
Wohnort: Schweiz

Beitrag von advisor » 15.02.2007, 11:09

Die meisten in diesem Thread haben wahrscheinlich dynamische Seiten?

Wäre ein interessanter Anhaltspunkt.

Tomasso
PostRank 8
PostRank 8
Beiträge: 864
Registriert: 17.11.2006, 17:31
Wohnort: Augsburg

Beitrag von Tomasso » 15.02.2007, 12:24

Denke mal das hat mit dynamischen Seiten nichts zu tun. Habe jede Menge dynamische Seiten die alle Top-Platzierungen bei Google haben. Oft besser als ähnliche Seiten die nicht dynamisch sind.

google_hupf
PostRank 2
PostRank 2
Beiträge: 47
Registriert: 06.01.2006, 12:28

Beitrag von google_hupf » 15.02.2007, 12:28

[quote="advisor"]Die meisten in diesem Thread haben wahrscheinlich dynamische Seiten? Wäre ein interessanter Anhaltspunkt.[/quote]

Hallo advisor,
Willkommen in der Diskussion und Danke für die Idee.
Auf dem Server SIND es dynamische Seiten (*.php?id=xxx), die aber per mod_rewrite in *.htm umgewandelt werden. Glaube also nicht, dass google sie als "dynamisch" erkennt... !?

Weitere Info:
EINE Seite ist wieder da
- am 05.02. erstellt
- am 12.02. (abends) neu im Index
- am 14.02. (abends) aus dem Index
- am 15.02. (mittags) wieder da

5 andere Seiten zwischen 01. und 05.02. bleiben "weg".

Vielleicht temporärers Google-Problem mit neuen Seiten...?

seonewbie
PostRank 9
PostRank 9
Beiträge: 1939
Registriert: 21.10.2006, 20:50

Beitrag von seonewbie » 15.02.2007, 12:34

Hallo,

Ich möchte jetzt nicht gleich als Verschwöhrungstheortiker
gelten aber es gab ja schon Versuche im Forum.

Benutzt ihr die G**gle Tolbar?

Es wäre doch durchaus möglich das Leute
die regelmässig ihre Domains abfragen mit
Online SEO Tools die Domain direkt mal negativ
zählt ...

Das selbe gilt für die Webmaster Tools wer da
die Domain autentifiziert und dann täglich über
den api key bei digital point zig keyword abfragt ...

Nur mal so als Denkanstoss da ich einen zu stramm
angezogenen Filter auch für möglich halte, ich aber
auch einen gewissen Haß von seiten G auf Seo´s
spühre. Immerhin sollen wir uns ja gegenseitig
denunzieren und es wird bei einer Wiederaufnahme
ja auch nach dem Optimierungsunternehmen gefragt.

Mich wundert ja sehr das von Seiten der SEO Firmen
da gar nichts zu gesagt wird?

Klingt alles ziemlich duster aber wenn nicht bald
jemand etwas plausibleres auf den Tisch legt
würde ich das enrsthaft zur Diskussion stellen.

Gruß

Micha
Suche Linktausch zum Thema Mode. Bitte PM
Backlink-Generator | Artikelverzeichnis | PageRank | SEnuke X
Don't smoke, don't fight, don't light no cigarettes,
Or else you'll wind up in the can!
No jokes, no rights, sit tight, don't fool around,
You are a guest of Uncle Sam!
AC/DC "I'll be damned"

huhu22
PostRank 2
PostRank 2
Beiträge: 57
Registriert: 20.01.2007, 02:51

Beitrag von huhu22 » 15.02.2007, 21:10

google_hupf hat geschrieben:

Hallo advisor,
Willkommen in der Diskussion und Danke für die Idee.
Auf dem Server SIND es dynamische Seiten (*.php?id=xxx), die aber per mod_rewrite in *.htm umgewandelt werden. Glaube also nicht, dass google sie als "dynamisch" erkennt... !?
am Rande: bliebe das Problem mit dem Datum im Header, Html datei immer mit aktuellem Datum wäre ja noch verdächtiger. (Hab mit meinem durch den Parser geschiketen HTML Dateien aber keine Probs)

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag