Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Google Penguin Algorithm Update 1.1 (Data Refresh)

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Hover
PostRank 1
PostRank 1
Beiträge: 7
Registriert: 16.12.2009, 15:12
Wohnort: Niedersachsen

Beitrag von Hover » 12.06.2012, 14:45

@nosesearchscores. Die Frage ist ja nicht, ´´ warum erholen sich seiten nicht...

viele gründe... ´´ sondern: Warum erholt sich keine Seite! Es sollte doch einen gewissen Prozentsatz geben. Da muss einfach ein grundsätzlicher Stopp für alle Seiten gegeben sein. Argumente dagegen?

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

LordOfPage
PostRank 6
PostRank 6
Beiträge: 374
Registriert: 11.05.2009, 21:36

Beitrag von LordOfPage » 12.06.2012, 14:46

marc77 hat geschrieben:Das Problem ist immer der Zwang zum Wachstum...und das ist begrenzt ohne neue Betätigungsfelder.
Genau!

Deswegen glaube ich auch, dass solche Unternehmen wie Google im Grunde besser fahren, wenn sie von einem charismatischen Autokraten (wie z. B. Steve Jobs) gelenkt werden, der sagt: Das wird gemacht, und das lassen wir sein.

Sobald da ein Gremium von farblosen Managern sitzt, hat jeder vorm anderen Angst, dass er ihm die "verpasste Marktchance" in die Schuhe schiebt.

mtx93
PostRank 8
PostRank 8
Beiträge: 809
Registriert: 16.12.2011, 00:35

Beitrag von mtx93 » 12.06.2012, 15:14

@DosenSuppe:

Die Ratschläge von Internetworld.de sind doch für Blöde...

Als wenn nach Gebrauch des Browsers sowas wie unsichtbarer Schmutz haften bleibt.

Es gibt genau 3 Arten von Trackings - Cookies, Browsercache & Flashcookies.

Und alle kann ich mit modernen Browsern ausschalten, etc.

Das ist außerdem am linken Rand der Suche der Punkt "Standort ändern" - damit kann man
die lokale Suche verändern.

Das alles fehlt in diesen tollen Artikel.

Genau dieses Halbwissen ist es, womit die Leute schreiend durch die Gegend laufen.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Melegrian
PostRank 10
PostRank 10
Beiträge: 3170
Registriert: 30.01.2005, 12:36

Beitrag von Melegrian » 12.06.2012, 15:58

mtx93 hat geschrieben:Die Ratschläge von Internetworld.de sind doch für Blöde...
Na ja, nicht ganz, es gibt da noch so etwas wie einen digitalen Fingerabdruck und der lässt sich halt mit den geschilderten Methoden am sichersten unkenntlich machen.

https://www.heise.de/newsticker/meldung ... 18262.html

mtx93
PostRank 8
PostRank 8
Beiträge: 809
Registriert: 16.12.2011, 00:35

Beitrag von mtx93 » 12.06.2012, 16:15

Sigh... Und du glaubst Google benutzt das für die lokale Suche?

Genau das ist es doch - möglich ist vieles - schon bei der Aktivierung des Windows sendet
dein System einen vollen Status an Microsoft.

Du weißt schon, das dein Computer einige fest eingebaute, in die "Chips eingebrannte" IDs hat?
Microsoft kennt die - in welchen Umfang auch immer. Und von wem ist Bing?

Da nutzt dir in der Theorie selbst das Booten von Linux ala Knopix nichts, weil die ID von deiner Netzwerkkarte, bzw. dem Chip darauf kommt.

Aber das ist doch alles Blabla - Google & Co. benutzen bekannte Trackingmöglichkeiten, die sind bekannt und man die auch manipulieren.

Wenn ihr hier SEO mit irgendwelchen Halbwissen und Verschwörungstheorien vermischt, schießt ihr euch doch nur selbst ins Bein.

Euren Seiten kommt sowas bestimmt nicht zugute.

Hier mal ein brauchbarer Artikel - der ist übrigens vom März.
https://www.seomoz.org/blog/understand- ... ice-update

Melegrian
PostRank 10
PostRank 10
Beiträge: 3170
Registriert: 30.01.2005, 12:36

Beitrag von Melegrian » 12.06.2012, 16:33

mtx93 hat geschrieben:Und du glaubst Google benutzt das für die lokale Suche?
Nein, glaube ich nicht, da Google für die Bestimmung des Standortes die IP-Adresse auswertet. Doch es ging in dem Artikel ja mit um die Verwischung von Spuren, die ein Browser hinterlässt.

mtx93
PostRank 8
PostRank 8
Beiträge: 809
Registriert: 16.12.2011, 00:35

Beitrag von mtx93 » 12.06.2012, 16:47

Ehm - es ging um die Verwischung von Spuren für die lokale Suche.

Melegrian
PostRank 10
PostRank 10
Beiträge: 3170
Registriert: 30.01.2005, 12:36

Beitrag von Melegrian » 12.06.2012, 17:12

mtx93 hat geschrieben:Ehm - es ging um die Verwischung von Spuren für die lokale Suche.
Ja, was die "Venice"-Falle anbelangt, da hast Du ja recht, ob gesäubert oder Stick, wer dann doch über seinen Provider ins Netzt geht, ist ja lokalisierbar, auch wenn als Standort dann erst einmal der des Providers oder Proxys auftaucht.

Ich meinte ja nur, nach dem Gebrauch des Browsers bleibt schon so etwas wie unsichtbarer Schmutz haften, da haben die nicht ganz Unrecht.

DosenSuppe
PostRank 4
PostRank 4
Beiträge: 102
Registriert: 27.10.2007, 20:43

Beitrag von DosenSuppe » 12.06.2012, 17:14

@mtx93 Was interessiert mich der Artikel der Internet World? Er bestätigt nur meinen Verdacht, den ich bereits vor diesem Artikel hatte, vermischte Ergebnisse via IP und Lokalisierung. Der Rest interessiert mich nicht, auch nicht die "schnellen" Ratschläge von Leuten, die jetzt Blog Postings ins Netz schiessen. Erst mal abwarten, welche Methoden sich tatsächlich als effektiv gegen das neue Update zeigen.

DosenSuppe
PostRank 4
PostRank 4
Beiträge: 102
Registriert: 27.10.2007, 20:43

Beitrag von DosenSuppe » 12.06.2012, 17:37

@LordOfPage
Sehe ich genau so. Für Google ist dieses Update finanziell sehr sinnvoll. Ich will aber erst mal weiter analysieren, beobachten, lesen und dann schauen - wie es weiter geht. Da wird es bestimmt einige Versuche geben, diese Geschichte in den Griff zu bekommen. Schauen wir mal, wenn der Rest mit Sat-Seiten und Versuchen die Parameter des Algorithmus genauer kennt. Jedenfalls scheint es tatsächlich so zu sein, dass Content, der auf bestimmte Städte bezogen ist, wieder zum Ranking in der entsprechenden Region verhilft. Ich hatte zum Glück ein paar entsprechende Seiten drin und im ersten Test kann ich das bestätigen.

nosearchscores
PostRank 7
PostRank 7
Beiträge: 518
Registriert: 12.08.2003, 19:09

Beitrag von nosearchscores » 12.06.2012, 17:57

na..

wenn bestrafte seiten in einem pool liegen, dann kann sich keine wirklich vom update bestrafte seite erholen.

an diese 3 % aussage glaube ich nicht..es sind aus meiner sicht mehr seiten...wobei man das auch in relation sehen muss...vielleicht müsste man eher fragen, wie viel der ehemals top 20 seiten sind betroffen, und da liegen wir dann vermutlich eher bei 10-20 % wenn nicht noch höher.

google kann sich um seiten im pool nicht kommen...das würde google überfordern..man muss ohne pool eine sortierung hinbekommen, was man offensichtlich aber nicht schafft...

interessat wird sein, was mit seiten nach 6 monaten in diesem pool passiert ist...bzw wann google insgesamt wieder sinnvolle ergebnisse liefern kann....

traurig ist, dass die konkurrenz dies alles vermutlich nicht nutzen kann.

LordOfPage
PostRank 6
PostRank 6
Beiträge: 374
Registriert: 11.05.2009, 21:36

Beitrag von LordOfPage » 12.06.2012, 19:00

DosenSuppe hat geschrieben:Jedenfalls scheint es tatsächlich so zu sein, dass Content, der auf bestimmte Städte bezogen ist, wieder zum Ranking in der entsprechenden Region verhilft. Ich hatte zum Glück ein paar entsprechende Seiten drin und im ersten Test kann ich das bestätigen.
Interessant, dass das jetzt plötzlich mit Content funktioniert.

Ich fand es früher enorm schwer, mit "Städte-Content" in bestimmten Regionen zu ranken, so als ob da seinerseits ein Filter im Algo war, weil natürlich durchschaubarer Trick.

CitizenX
PostRank 5
PostRank 5
Beiträge: 289
Registriert: 01.07.2009, 18:47

Beitrag von CitizenX » 12.06.2012, 19:17

Beispiel: Gerade gesucht nach "Facebook Free Contest App".
Ergebnis: Beiträge von Februar 2011 & August 2010. Nix brauchbares natürlich, weil sich seither in FB einiges getan hat.

Google kotzt an, das Schlimmste für mich ist die Tatsache, dass es mittlerweile völlig undurchschaubar ist, WAS eine Seite zum Absturz bringt, weil zum einen sowohl fragwürdige Blackhat-Seiten als auch völlig saubere Seiten mit regelmässigem Content und freiwilligen Links betroffen sind. Naja, hilft wohl nur abwarten...

Ach ja, wenn jemand eine gute Facebook Gewinnspiel App (nicht Halalati oder SQ) kennt, würde ich mich sehr über eine PN freuen.

Offi
PostRank 2
PostRank 2
Beiträge: 48
Registriert: 26.04.2012, 07:33

Beitrag von Offi » 12.06.2012, 20:45

nosearchscores hat geschrieben: nach wie vor ist das ergebnis der updates mieserabel. also sehe ich wenig grund darin, etwas zu ändern. links abbauen ist definitv der falsche weg.
links aufbauen evtl auch:-)) auch wenn man damit noch erfolg hat...
Hab ein Beispiel wo viele minderwertige Links abbauen Erfolg hatte. Ziemlich starke Recover, fast wie vorher.

ff-webdesigner
PostRank 6
PostRank 6
Beiträge: 433
Registriert: 30.01.2004, 07:34
Wohnort: Regensburg

Beitrag von ff-webdesigner » 12.06.2012, 21:39

viel lesen musste man schon immer hier, viel filtern auch. aber soviel wie in diesem thread noch nie...
ff-webdesigner.de: Webdesign aus Regensburg und München

Suche keine Linkpartner oder indische SEOs!

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag