Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Wie kommt man aus einer Bestrafung wieder raus?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
lool
PostRank 2
PostRank 2
Beiträge: 37
Registriert: 16.09.2004, 13:27
Wohnort: Aufm Berg in Austria

Beitrag von lool » 19.01.2007, 19:59

Meine Seite ist zwar im Index, aber in der Listung ganz heftig abgeschmiert.
Vom berühmten 31er plötzlich ganz ins Nirvana.
Selbst wenn ich nach meinem Domainnamen suche bin ich nur an 42. Stelle hinter allen Seiten, die mich irgendwie verlinkt haben.

Eigentlich hab ich ganz sauber gearbeitet.

Kann man da ausser warten noch irgendwas tun?
Hab auch schon gehört, dass in solchen Fällen ein Wiederaufnahmeantrag Sinn machen könnte - Was haltet Ihr davon?

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Italia Sun Tours
PostRank 6
PostRank 6
Beiträge: 346
Registriert: 16.11.2006, 14:53
Wohnort: Italien

Beitrag von Italia Sun Tours » 19.01.2007, 20:06

ab auch schon gehört, dass in solchen Fällen ein Wiederaufnahmeantrag Sinn machen könnte - Was haltet Ihr davon?

AUF KEINEN FALL! NUR WENN DIE GANZE DOMAINE NICHT MEHR IM INDEX IST UND VERBANNT WURDE!

Dragobert
PostRank 9
PostRank 9
Beiträge: 1246
Registriert: 08.02.2006, 20:40
Wohnort: Nürnberg

Beitrag von Dragobert » 19.01.2007, 21:12

Wie kommst du darauf, dass du abgestraft worden bist ?
Vielleicht hat nur deine Arbeit nicht die Früchte getragen die du erwartet hast.
Oder du hast zuwenig gemacht, oder sonstwas.
Aus deiner Schilderung kann man nix schliessen, da keine Informationen gebracht worden sind.

Wieso willst du einen Wiederaufnahmeantrag stellen ? Du bist doch drin.... An 42. Stelle.
Vor Allem, einen Antrag auf was ? Auf Platz 1 ?

Jawoll, mach ich gleich mit, gleich überall bitte auf Platz 1...

Aber zur Lösung:
Alles beseitigen was Google beanstandet, und danach warten.

Was heisst übrigens "...Eigentlich hab ich ganz sauber gearbeitet..."

Was heißt "eigentlich" ? Von paar "Kleinigkeiten" abgesehen ?
Es hat auf jeden Fall ausgereicht um dir einen Denkzettel zu verpassen.
Falls du überhaupt abgestraft worden bist. Wenn ja, sollte es dir zu denken geben.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Italia Sun Tours
PostRank 6
PostRank 6
Beiträge: 346
Registriert: 16.11.2006, 14:53
Wohnort: Italien

Beitrag von Italia Sun Tours » 19.01.2007, 21:16

... und so etwas sagt eine Wildsau mit Krawatte...

Spass beiseite! Gutes Statement!

lool
PostRank 2
PostRank 2
Beiträge: 37
Registriert: 16.09.2004, 13:27
Wohnort: Aufm Berg in Austria

Beitrag von lool » 19.01.2007, 21:46

Dragobert hat geschrieben:Du bist doch drin.... An 42. Stelle.
Vor Allem, einen Antrag auf was ? Auf Platz 1 ?
Klar auf Platz 1!
Zumindest, wenn ich nach meinem Domainnamen suche. Das dürfte dann schon sowas wie eine "Bestrafung" sein, oder?
Ich war halt vorher mit einigen Keywords auf der 1. Seite. Mit den selben Keywords findet mich inzwischen niemand mehr :cry:

Pompom
PostRank 10
PostRank 10
Beiträge: 3751
Registriert: 10.09.2004, 16:38

Beitrag von Pompom » 19.01.2007, 22:02

Wäre ich Goggele und du würdest mir meinen Index so vollschmieren

https://www.google.de/search?sourceid=n ... l%2eat+odp

wärst du nicht auf platz 31, sondern mindestens auf platz 1031.
Das nächste wären dann die schwachsinnig integrierten Amazon-Links usw...

Also: Zeit mit bringen, vielleicht schaffst du es wieder in den ersten Index.

Anonymous

Beitrag von Anonymous » 19.01.2007, 22:02

Du hast einen Webkatalog - guck mal in den Webmastertools ob sich die Suchworte geändert haben.

lool
PostRank 2
PostRank 2
Beiträge: 37
Registriert: 16.09.2004, 13:27
Wohnort: Aufm Berg in Austria

Beitrag von lool » 19.01.2007, 23:33

Pompom hat geschrieben:Wäre ich Goggele und du würdest mir meinen Index so vollschmieren
https://www.google.de/search?sourceid=n ... l%2eat+odp
Das ist aber alles noch aus der guten alten Zeit! (Älter als 1 Jahr)
Damals war ich noch ganz vorne. Wie Du siehst ist da überall ein 410er drauf und Tante Google ist aus dem neuen Odp mit allen möglichen Mitteln ausgeschlossen. Das soll nur ein zusätzlicher Service für Besucher sein...

Pompom
PostRank 10
PostRank 10
Beiträge: 3751
Registriert: 10.09.2004, 16:38

Beitrag von Pompom » 20.01.2007, 00:18

guten alten Zeit! (Älter als 1 Jahr)

Kurzes Jahr, 23.06.2006 - aber - mehr gibts morgen, muss mich nun um andere Sachen kümmern...

Pompom
PostRank 10
PostRank 10
Beiträge: 3751
Registriert: 10.09.2004, 16:38

Beitrag von Pompom » 20.01.2007, 20:32

Ich habe mir mal deine Seiten angesehen.
Meines Erachtens hast du einfach zu viel gewollt, zu viel gemacht und dabei zu viel Duplicate Content erzeugt.

Nur mal paar kleine Beispiele:
odp - Österreich, alles schön, gibt es aber schon zu oft.
Deine Flash-Games: Nicht so der Brüller, siehe:

https://www.google.de/search?sourceid=n ... +the+arena+

Dein Webverzeichnis erweckt in Teilen den Eindruck, dass du da automatisiert Content reingedrückt hast, auf Teufel komm raus.
Deine Wiki-Definitionen auf den Seiten stellen auch nicht so sehr ein Alleinstellungsmerkmal dar, genau so wenig, wie die Integration von openholidayguide.

Deine Basis Myengines ist nun auch nicht so der Brüller.
Aber, das Schlimmste, was Du machst, sind Seiten in der Art:
https://lool.at/cgi-bin/suchen.pl?actio ... griffe=NTA

Das nennt sich dann wohl Cloaking, genau so wie Seiten in der Art
https://www.lool.at/-8190-391-index.htm

Nun überlege mal, was du so machen müsstest, um eventuelle Bestrafungen wieder los werden zu können. Ich glaube, da fallen Dir selbst einige Sachen ein.

highflyer
PostRank 5
PostRank 5
Beiträge: 292
Registriert: 08.08.2005, 18:40

Beitrag von highflyer » 20.01.2007, 21:49

hi lool,
weiß natürlich nicht ob bei dir im moment dasselbe ist. aber so eine abstrafung habe ich und viele andere hier letztes jahr erlebt. es waren die berühmten data refreshs, ende juni, ende juli, mitte august usw. ich gehörte mitte august dazu. es war jedenfalls so, dass ich machen konnte was ich wollte, es war einfach eine abstrafung vorhanden. ich wurde nur noch unter ganz ganz wenigen keys gefunden. also irgendwelche dinge, die normalerweise kein mensch sucht und wo es keine anderen seiten gibt und meine seite irgendeine phrase vom gesuchten hatte. ich habe gewartet und gewartet, es passierte nichts. über 4 monate lang.

im grunde habe ich gegen keinerlei richtlinien verstoßen. konnte daher auch nicht erklären woran ich nun arbeiten sollte damit die situation wieder besser wird. also hab ich mich an die arbeit gemacht und wirklich alles haargenau kontrolliert und geändert, was auch nur ein bisschen gegen die richtlinien verstoßen konnte. an den seiten gab es nicht viel zu machen. da war bis auf wirklich minimale dinge nichts zu machen. also habe ich mich an die offpage arbeit rangemacht. ich habe alle links löschen lassen, die gekauft wurden und man auch erkennen konnte dass sie gekauft waren. war haufen arbeit. danach habe ich eine reinclusion request gestellt. 2 wochen später war es so, als ob plötzlich ein schalter umgelegt wurde. die alten positionen habe ich noch nicht wieder. ich merke aber dass da dieser schalter weg ist und bekomme auch mehr besucher von gurgle. ich bin mit vielen keywords in der nähe der alten positionen. also wenn ich früher auf der ersten seite war, bin ich nun auf der zweiten oder dritten seite.

ein reinclusion request macht also durchaus sinn. wenn man aber wirklich vorher alles bereinigt hat. und natürlich musst du auch reue zeigen und einsehen nach dem motto: ja, ich war böse und habe dies und jenes gemacht. aber ich dachte dass es erlaubt war und sehe ein dass das der falsche weg ist. niemals würde ich den allmächtigen versuchen zu manipulieren und ich habe auch alles bereinigt was gegen die richtlinien verstoßen konnte.

ob meine wiederkehr damit zu tun hat, weiß ich natürlich nicht 100%. denn gurgle schweigt ja dazu. die wahrscheinlichkeit ist jedoch sehr hoch warum seiten plötzlich verschwinden. da gibt es verschiedene theorien. einer der wahrscheinlicheren ist, dass irgendjemand die seite anschwärzt, ein gurgle mitarbeiter mal flüchtig vorbeischaut und auf den knopf drückt. eine andere ist, dass man die seiten per zufall auswählt. oder der bot meldet verdächtige seiten die einfach erstmal gesperrt werden. sind natürlich alles spekulationen.

lool
PostRank 2
PostRank 2
Beiträge: 37
Registriert: 16.09.2004, 13:27
Wohnort: Aufm Berg in Austria

Beitrag von lool » 21.01.2007, 10:01

Pompom hat geschrieben: Aber, das Schlimmste, was Du machst, sind Seiten in der Art:
https://lool.at/cgi-bin/suchen.pl?actio ... griffe=NTA

Das nennt sich dann wohl Cloaking, genau so wie Seiten in der Art
https://www.lool.at/-8190-391-index.htm
Hallo Pompom!
Danke für Deine Mühe.

Das zitierte Problem hab ich schon erkannt. Das ist nicht beabsichtigt und ich kämpfe schon eine Weile damit, finde aber keine Lösung.
Ich hab Tante G. zwar mit robots.txt aus dem ganzen cgi-bin Verzeichnis ausgesperrt, aber ich denke daß das nicht wirklich den gewünschten Effekt hat. Beim 2. Urlbeispiel hab ichs ja geschafft, einen 410 zu setzen. Beim 1. Beispiel schaff ichs einfach nicht. Da steh ich wie vor einer Mauer.

Der Tip mit den Spielen war gut, die werde ich erstmal rauswerfen oder umschreiben.

Naja, viiiiel Arbeit nach der wahrschinlich immer noch viiiiel Geduld gefragt ist.

Pompom
PostRank 10
PostRank 10
Beiträge: 3751
Registriert: 10.09.2004, 16:38

Beitrag von Pompom » 21.01.2007, 10:30

Hi lool,

warum lässt du nicht die Seite, wie sie von der Suche zurückkommt, bzw. wie der User sie sieht.
Deine Suche über action=search bringt für die Sumas eine Seite, die scheinbar kein User zu Gesicht bekommt mit einem Errorcode 200. Es würde schon reichen, wenn du User und Robot die gleiche Seite servieren würdest, dann wäre es schon kein Cloaking mehr. Desweiteren würde ich die Verlinkungen der (nicht sichtbaren) Seite überdenken.



Zu deiner Robot:
der Block
User-agent: wget
User-agent: webzip
User-agent: webmirror
User-agent: webcopy
Disallow: /
hat keinen Effekt, da z.B. wget und webzip keine Robots sind, die sich an irgendwelche Regeln halten. Willst du diese also sperren, musst du dies schon serverseitig über die .htaccess oder über dein Programm machen.

alpenlinker
PostRank 5
PostRank 5
Beiträge: 230
Registriert: 23.12.2005, 09:45

Beitrag von alpenlinker » 21.01.2007, 11:00

Das nächste wären dann die schwachsinnig integrierten Amazon-Links usw...
Pompon: Warum ist das Deines Erachtens "schwachsinnig"?

Pompom
PostRank 10
PostRank 10
Beiträge: 3751
Registriert: 10.09.2004, 16:38

Beitrag von Pompom » 21.01.2007, 11:13

alpenlinker, ich weiss nicht, ob du dir mal die Seite, um die es geht, angesehen hast.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag