Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Gibt es gesicherte Erkenntnisse über den Google-Filter?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
SeventhSon
PostRank 2
PostRank 2
Beiträge: 54
Registriert: 14.05.2004, 14:24

Beitrag von SeventhSon » 10.06.2004, 10:30

IT-Knecht hat geschrieben: Es gibt zu ganz trivialen Fragen, etwa wie wird heutzutage der Pagerank berechnet, keine fundierten Erkenntnisse. Ich habe keine Hoffnung, dass es irgendwas Belastbares zu den (anscheinend) komplexen Filtern geben wird.

Grüße,
Martin
Zu PageRank womöglich schon?
https://pr.efactory.de/d-index.shtml

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

spoddig
PostRank 5
PostRank 5
Beiträge: 267
Registriert: 05.01.2004, 14:15

Beitrag von spoddig » 10.06.2004, 10:31

das gleiche hatte ich auch bei andere einzel wörtern ohne kombi.
dass dies eine Wort-Kombination ist, und kein Suchwort
Ich denke der Filter greift bei vielen Kombis genauso.

Wieviele es sind weiß ich auch nicht irgendwo hatte ich mal ne Liste gesehen mit den Top Words bei denen die Filter greifen. Ich denke im Endefekt ist das ne Frage der Rechen kapazitäten von Google. Mir sools recht sein um so besser die Filter arbeiten um so einfacher wird es langfristig eine gute Seite für die Sumas und den User zu erstellen.

SeventhSon
PostRank 2
PostRank 2
Beiträge: 54
Registriert: 14.05.2004, 14:24

Beitrag von SeventhSon » 10.06.2004, 10:32

berndschmidt hat geschrieben:Über Scroogle konnte ich erkennen, daß es sich plötzlich um Keyword-Spam handelt, da nun auch Teile eines Wortes gelesen wurden
Fotografie, Naturfotografie, Reisefotografie und Sportfotografie
Hallo Bernd,

Heißt das, dass die Scroogle-Ergebnisse stimmen und man den Filter dort immer noch korrekt sieht? Hier gibt es gegensätzliche Meinungen. Wäre schön, wenn Du kurz erläutern könntest, warum es geklappt hat :-)

Liebe Grüße
Seventh Son

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


SeventhSon
PostRank 2
PostRank 2
Beiträge: 54
Registriert: 14.05.2004, 14:24

Beitrag von SeventhSon » 10.06.2004, 10:35

spoddig hat geschrieben:Ich denke je stärker umkämpft ein Keyword ist, desto härter der Filter.
bei meinem Thema ist das wohl sehr hart ein wort mehr und schwups weg bin ich.
Wird auch im scroogle Tool gleich angezeigt. Auch wenn ich dann manuel suche das gleiche ergebnis. Nur ein Glück das der Spider jede Stunde vorbeischaut und ich so schnell wieder umbauen kann.
Hallo Spodding,

Hast Du denn gezielte Erkenntnisse, dass es "verschieden harte" Filter gibt... oder auch die Frage an alle, gehen die Erkenntnisse in Richtung FIlter ja/nein - keine Abstufungen?

Gruß
SeventhSon

SeventhSon
PostRank 2
PostRank 2
Beiträge: 54
Registriert: 14.05.2004, 14:24

Beitrag von SeventhSon » 10.06.2004, 10:38

Hallo Bernd,
berndschmidt hat geschrieben: Fotografie, Naturfotografie, Reisefotografie und Sportfotografie

Mit dem ersten Keyword war ich damals so um Platz 200-300 gelegen. Und plötzlich war ich raus aus den ersten 1000.
Ich habe noch eine Frage... griff der Filter dann nur bei diesen Begriffen und bei Fotographie oder allgemein?

Also wird man dann jeweils nur bei den zu extrem beworbenen Suchwörter der Seite bestraft oder kann man dann auch bei allen anderen Suchbegriffen nicht mehr oder nur noch weit hinten gefunden werden?

Lieber Gruß
Seventh Son

spoddig
PostRank 5
PostRank 5
Beiträge: 267
Registriert: 05.01.2004, 14:15

Beitrag von spoddig » 10.06.2004, 10:50

Also meine Efahrung ist das Filter nur für das eine Keyword greift. Habe aber auch schon gelesen das Seiten ganz aus dem Index fliegen wenns zu extrem war mit den Keys. Wird wohl daran liegen wie und was man macht und wie stark sich Goggle auf die Füße getreten fühlt.

viggen
PostRank 10
PostRank 10
Beiträge: 6249
Registriert: 12.05.2003, 14:44

Beitrag von viggen » 10.06.2004, 10:52

Bevor das Kaffeesudlesen hier weitergeht ;-)

Kann hier jemand mal, zum Wohle der Allgemeinheit" eine Definition des "sogenannten" Googlefilters geben.

mfg
viggen

SeventhSon
PostRank 2
PostRank 2
Beiträge: 54
Registriert: 14.05.2004, 14:24

Beitrag von SeventhSon » 10.06.2004, 10:54

spoddig hat geschrieben:Also meine Efahrung ist das Filter nur für das eine Keyword greift. Habe aber auch schon gelesen das Seiten ganz aus dem Index fliegen wenns zu extrem war mit den Keys. Wird wohl daran liegen wie und was man macht und wie stark sich Goggle auf die Füße getreten fühlt.
Hallo Spodding,

Danke, das ist ein wichtiges Thema. Vielleicht hat ja jemand schon die Erfahrung gemacht, dass durch kleine Änderungen seine komplette Webseite rausflog und wieder zurückkehrte. Es könnte auch sein, dass jeder Filter eine eigene Wirkung hat.

Keyword-Überoptimierung -> Abstrafung nur bei dem Keyword
doppelter Content -> Komplette Seite raus

usw?

Liebe Grüße
Seventh Son

spoddig
PostRank 5
PostRank 5
Beiträge: 267
Registriert: 05.01.2004, 14:15

Beitrag von spoddig » 10.06.2004, 11:03

doppelter Content -> Komplette Seite raus
Ich hatte zwei identische Seiten einmal .com einmal .de
Erst war die .de weg dann die .com und dafür die .de wieder da.
Inhalt geändert beide da

SeventhSon
PostRank 2
PostRank 2
Beiträge: 54
Registriert: 14.05.2004, 14:24

Beitrag von SeventhSon » 10.06.2004, 11:16

Hallo Spodding,

Gut, dann können wir mal festhalten, Google Patent
https://patft.uspto.gov/netacgi/nph-Par ... PN/6658423
greift bei komplett gleichen Seiten und wirft eine raus (was auch als Slow Death beschrieben wird und auch mal einen Beitrag hier im Forum hatte).

Hat ein User auch schon Erfahrungen mit nur identischen Unterseiten gemacht und wie sich der Filter dort verhält?

Lieber Gruß
SeventhSon

danebro
PostRank 1
PostRank 1
Beiträge: 4
Registriert: 02.04.2004, 13:05
Wohnort: im Norden

Beitrag von danebro » 10.06.2004, 11:38

Ich habe zwar die Suche bemüht, aber kein gebundenes Kompenidum über den Google-Filter gefunden.
Das wird es auch niemals geben!
- Filter bedeutet entweder, dass die Seite komplett aus dem Index verschwindet oder zumindest einige wenige bis zu tausenden Plätzen abgestraft wird
Stimmt beides nicht, der neue Filter benachteiligt nur.
- es gibt einen doppelten Content-Filter (man muß aufpassen, dass Link-Partner nicht zuviel des eigenen Contents übernehmen, sonst droht der Verlust der eigenen Seite im Index)
Das gab es schon immer.
- es gibt einen "schönen HTML"-Filter. Seiten mit schlechtem HTML, die auch für einen Robot offensichtlich fehlerhaft sind, werden abgestraft.


Stimmt nicht.
- es gibt einen "manipulierte Link-Popularität"-Filter, der greift, wenn die Link-Popularität auffällig einseitig und offensichtlich manipuliert ist (Link-Text immer mit dem gleichen Keyword)
Stimmt.
- Die Seite scroogle.org beschreibt den Filter in englischer Sprache teilweise, das Test-Tool dort funktioniert aber nicht mehr.
Analysiert nur Teilaspekte.
- Den Filter (gerüchteweise aber auch das Expertenseiten-Plus - so hörte ich hier eine Stimme) kann ich ausschalten über "Suchbegriff -asdf -asdf -asdf -asdf -asdf -asdf -asdf", die Platzierungen variieren dann jeweils, auch je nach Anzahl der Parameter.


und was soll das bringen?
- gerüchtweise (hiermit habe ich keine Erfahrungen gemacht) sollen nicht alle Wörter gefiltert sein, aber monatlich 15000 Wörter dazukommen, begonnen bei kommerziell interessanten Begriffen (AdWords) oder populären Begriffen (vielen Treffer) zu den uninteressanten. (wenn das stimmen würde, ließe es sich beweisen... 5 AdWords-Kampagnen bei einem Schwachsinn-Keyword schalten, ändern sich die Platzierungen, dann gibt es diese Neufilterung)


Es gibt einen Keyword-Filter. Hat aber nichts mit AdWords zu tun.
- gerüchteweise (und das kann ich nicht bestätigen - scheint nicht aktiv zu sein) gibt es einen Filter, der prüft, ob die Keyword-Dichte eines bestimmten Suchwortes zu hoch ist (z.B. 30 maliges vorkommen unter 100 Wörtern).
Das ist auch nicht neu.
- dagegen vorstellen kann ich mir vorstellen, dass es einen semantischen Filter gibt, oder das er kommt, der prüft ob die Wörter, die auf der Seite gemeinsam stehen Sinn oder Unsinn machen.


So intelligent ist Goxgle nun auch wieder nicht.


danebro

inso
PostRank 4
PostRank 4
Beiträge: 114
Registriert: 15.02.2004, 14:54
Wohnort: Furtwangen

Beitrag von inso » 10.06.2004, 11:40

vielleicht werden die filter durch einen spam report aktiviert:

ich habe einmal einen report für "heiraten im leuchtturm" ausgefüllt - ein paar wochen später waren die ergebnisse total anders für diese phrase.
(kaum noch spam)

und es wäre imho auch logisch den filter für keys zu aktivieren für die spam reports ausgefüllt wurden.

mfg
inso

memphiz
PostRank 1
PostRank 1
Beiträge: 24
Registriert: 25.03.2004, 01:21
Wohnort: London, United Kingdom

Beitrag von memphiz » 17.06.2004, 15:13

SeventhSon hat geschrieben:
bull hat geschrieben:
es gibt einen "schönen HTML"-Filter. Seiten mit schlechtem HTML, die auch für einen Robot offensichtlich fehlerhaft sind, werden abgestraft
Dies ist bedauerlicherweise nicht der Fall, wie eine regelmäßig von mir besuchte und gutgerankte glaubhaft zu belegen vermag.
Hast Du eine URL? Weißt Du, auch wenn eine Seite nicht "schön" für uns aussieht, kann sie trotzdem für ein Computer-Programm noch ausreichend sein. Ich habe mindestens 5 mal von einem schönen HTML-Filter gehört und Du hast die erste Gegenmeinung (was nicht schlimm ist, denn wir suchen ja alle die Wahrheit, und vielleicht gibt es ja keinen)
Was Dir passieren kann, ist, dass aufgrund von fehlerhaftem (also nicht validiertem) Coding der Spider Deine Seite nicht gemaess des Algos auswerten kann. Deshalb ist es wichtig, dass Du Deine HTML validierst, um sicher zu gehen IMO.

Ein Beispiel was ich haeufig gesehen habe ist das ein Designer zwar den <p> setzt, dann aber den endtag - also </p> auslaesst. In Google fiel mir schonmal auf - dass in diesem Fall der betreffende text nicht gewichtet wurde, wenn Du nach 'allintext:' suchst...

8)
cypanda.com - link exchange gerne mit anderen SMO, web design und ecommerce consultancies.
PR5/ neue seite - daher alle partner outbounds von meiner homepage! 7 max.

debers
PostRank 1
PostRank 1
Beiträge: 12
Registriert: 23.02.2004, 11:02
Wohnort: Darmstadt

Beitrag von debers » 18.06.2004, 11:32

Hallo,

mit "schön" ist hier ja wohl "HTML-valid" gemeint. Und da kann ich sagen, dass eine neue Seite von mir bei Google lange Zeit nicht zu finden war, obwohl ich einen Link von einem gut platzieren Projekt gesetz hatte. Erst nachdem ich mit dem W3C Validator alle Bugs korrigiert hatte, taucht Sie schon wenige Tage später auf.

https://validator.w3.org

Ralf Dingeldey
PostRank 2
PostRank 2
Beiträge: 30
Registriert: 15.06.2004, 12:08

Beitrag von Ralf Dingeldey » 22.07.2004, 14:02

Hallo,

weiß jemand wie hoch die maximale Keyworddichte in % sein darf, um bei Google nicht rauszufliegen?

Gruß Ralf

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag