Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Google-Spekulationen: Whats next?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
wuschba
PostRank 8
PostRank 8
Beiträge: 655
Registriert: 16.06.2006, 16:37

Beitrag von wuschba » 29.02.2008, 12:09

Ich würde gerne einmal etwas darüber spekulieren, was bei Google als nächstes kommt. Jetzt tut sich seit den letzen 3 sog. PR-Updates einiges am sichtbaren PR, aber den SERPs scheint es bisher noch nicht geschadet zu haben: Es gab schon lange kein großes Update mehr, was wirklich etwas in den SERPs verändert hätte. Kleinere Sachen und Penalties ja, aber nichts so wie Jagger oder Big Daddy.

Dabei wirft sich natürlich die Frage auf, was KÖNNTE Tante G denn als nächstes machen? Die meisten von uns werden schon die Links aus unique Text setzen, ob der Text wirklich "qualitativ hochwertig" ist oder nicht, wird Google mit der heutig verfügbaren Technik wohl schwer erkennen können - da tun sich ja schon Menschen schwer ;-)

Was meint Ihr denn: Was könnte Google noch tun? Es geht hier natürlich um Spekulationen - es sei denn, jemand kann mal schnell in Mountain View anrufen 8)

Ich dachte immer, dass als nächstes sowas wie eine semantische Erkennung kommt: Das Google den Text um einen Link zumindest teilweise auf seine Bedeutung hin auswerten kann. Ich habe jetzt aber nichts gehört, dass auf Patente oder Aufkäufe in dieser Richtung schließen läßt - Google hat da glaube ich sogar eine israelische Firma nicht gekauft, die so ne Technik im Angebot hatte.

Was könnte noch auf uns zukommen?

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

mcchaos
PostRank 9
PostRank 9
Beiträge: 1414
Registriert: 27.07.2004, 19:18

Beitrag von mcchaos » 29.02.2008, 12:27

Ich dachte immer, dass als nächstes so was wie eine bessere Link-Netzwerk-Erkennung kommt und das auch die Infos anderer Quellen, über die Google verfügt, mit in die Stärke eines Links einfließen. Es wundert mich bis heute, dass Google (die ja ein Domain-Registrar sind) z.B. die Whois-Infos nicht auszuwerten scheint, um Seiten gleicher Betreiber ausfindig zu machen. Auch scheinen die AdSense-Kontodaten, über die man ja feststellen könnte, welche Seiten zusammengehören, hier kaum eine Rolle zu spielen - so jedenfalls meine bisherigen Erfahrungen. Kann sich natürlich ändern ;-)

Auch könnte es sein, dass bald eine Art "Auswertung nach Klicks/Traffic" von Seiten kommen wird: Wird eine Seite in den SERPs öfters angeklickt, als der Durchschnitt dieser Position vermuten läßt, wandert sie nach oben. Oder sowas auf Social-Basis. Obwohl Google das bisher abstreitet, weil sie wohl Angst vor zuviel künstlichem Traffic/Klickbots haben.

Pegasus
PostRank 7
PostRank 7
Beiträge: 537
Registriert: 13.07.2004, 20:53

Beitrag von Pegasus » 29.02.2008, 12:33

mcchaos hat geschrieben:Ich dachte immer, dass als nächstes so was wie eine bessere Link-Netzwerk-Erkennung kommt und das auch die Infos anderer Quellen, über die Google verfügt, mit in die Stärke eines Links einfließen. Es wundert mich bis heute, dass Google (die ja ein Domain-Registrar sind) z.B. die Whois-Infos nicht auszuwerten scheint, um Seiten gleicher Betreiber ausfindig zu machen. Auch scheinen die AdSense-Kontodaten, über die man ja feststellen könnte, welche Seiten zusammengehören, hier kaum eine Rolle zu spielen - so jedenfalls meine bisherigen Erfahrungen. Kann sich natürlich ändern ;-)
ohh ha... das kann google bereits. ;-) und wendet das auch an.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

mcchaos
PostRank 9
PostRank 9
Beiträge: 1414
Registriert: 27.07.2004, 19:18

Beitrag von mcchaos » 29.02.2008, 12:36

Da konnte ich bisher nur Probleme feststellen, wenn man seine Seiten auch massiv untereinander verlinkt - und das gilt auch so ;-) Mit sauberen Unique-Content-Seiten ist bei mir alles ok. Aber Du scheinst andere Erfahrungen gemacht zu haben?!

Pegasus
PostRank 7
PostRank 7
Beiträge: 537
Registriert: 13.07.2004, 20:53

Beitrag von Pegasus » 29.02.2008, 12:46

oh ja das hab ich.

kammerjaeger
PostRank 6
PostRank 6
Beiträge: 395
Registriert: 18.09.2006, 21:21
Wohnort: Köln

Beitrag von kammerjaeger » 29.02.2008, 12:49

Social Bookmark haben sehr hohes Potential, weil SEO Aktivitäten entgegen den Meinungen einiger "SEOS" ziemlich einfach zu erkennen sind und rauszufiltern sind.

Qualität von Content ist mit LSI und "time spent on" auch immer genauer zu bestimmen.

Langfristig wird die Qualität einer Seite entscheidend für eine gute Platzierung sein, und irgendwann werden sich auch die SEOs wieder mehr auf den Besucher konzentrieren, die sich zur Zeit fast ausschließlich mit dem nach Links hausieren beschäftigen....

jackwiesel
PostRank 10
PostRank 10
Beiträge: 5820
Registriert: 09.09.2007, 09:44
Wohnort: Bochum

Beitrag von jackwiesel » 29.02.2008, 13:49

Mahlzeit,

ein Blick in die Glaskugel? Qualität ist doch subjektiv, oder nicht? Wenn ich eine Kiste Bleistifte kaufen möchte, interessiert mich doch die Geschichte des Bleistiftes nicht - sondern eher, wie ich zügig an einen Lieferanten komme, der gute Qualität zu einem adäquaten Preis-Leistungs-Verhältnis anbietet. Das Ganze noch auf einer fehlerfreien HP, auf der ich mich gut zurecht finde. Manche (derzeit) hoch gerankten (nicht PR!) Seiten sehen aus, als hätte ein Esel auf den Monitor gekotzt!

Gruß,
jw

do1emu
PostRank 4
PostRank 4
Beiträge: 149
Registriert: 21.01.2008, 14:27
Wohnort: Gütersloh

Beitrag von do1emu » 29.02.2008, 14:04

Also ich weiß nicht ob google das bereits macht, aber sinnvoll wäre es doch bei bestimmten Suchanfragen zu gucken wie oft auf welches Ergebnis geklickt wird... Oftmals sind auf Platz eins völlig unsinnige Ergebnisse und anhand der Description wird dieses Ergebnis auch oft ausgelassen... Wenn jedoch Platz eins geklickt wird, aber kurze Zeit später noch platz 2 und 3 und 4 dann sollte google doch in der Lage sein zu erkennen welchen Beitrag der User/IP zuletzt angeklickt hat man kann dann ja davon ausgehen, dass das der beste beitrag ist sollte danach nicht eine weitere Suche gestartet werden. Klar sind es viele Daten die der Gockel auswerten muss aber das ist meiner Meinung sinnvoll. Wobei dieses auch leicht zu manipolieren wäre, da SEOs dann sich den ganzen Tag neue IPs geben lassen und ihre eigenen Suchergebnisse anklicken :D

Hammer-Schwerin
PostRank 5
PostRank 5
Beiträge: 287
Registriert: 05.05.2006, 07:52
Wohnort: Schwerin

Beitrag von Hammer-Schwerin » 29.02.2008, 14:09

Fragen über Fragen,

auf die Ihr nie Antworten erhalten werdet und auch nie was dran ändern könnt.

An den User denken und dann passt das schon alles!

MFG
Hammer

dadawowo
PostRank 8
PostRank 8
Beiträge: 784
Registriert: 17.12.2007, 10:55

Beitrag von dadawowo » 29.02.2008, 14:10

Du kannst Dich auch heute schon selbst sehr effektiv hochklicken, wenn Du bei einem
g00gle Service angemeldet bist.

Von daher denke ich, dass auch heute schon solche Klickmuster ein wenig in die
SERPs einfliessen.

nin
PostRank 4
PostRank 4
Beiträge: 156
Registriert: 17.08.2004, 10:05
Wohnort: Spanien

Beitrag von nin » 29.02.2008, 15:04

Bei dieser Frage kann man eh nur spekulieren.
Daß Google die Klickhäufigkeit groß bewerten wird, nehme ich fast nicht an.
Da hätten Seiten, die weiter hinten angesiedelt sind, immer das Nachsehen, obwohl sie vielleicht viel treffender wären.

Ich habe in den letzten Wochen/Monaten verstärkt gemerkt, daß die Semantik eine große Rolle zu haben schein. Natürlich noch mit vielen Fehlern behaftet. So wird eine meiner Seiten gefunden mit dem Wort Wörterbuch, obwohl dies Wort auf keiner meiner Seiten vorkommt. Ich habe nur die Worte Wort bzw. Worte oder Wörter im Text. Google macht daraus dann einfach ein Suchergebnis für Wörterbuch.
Allein schon daraus erkennt man, daß die Texterfassung oder Textbewertung noch nicht sehr intelligent ist. Auch würden sie nicht so wehemend gegen Keyword-Spamming vorgehen. Manchmal reicht ja schon ein Einzel-Keyword aus, um gefunden zu werden.

Zeitweise findet Google nicht mal genaue Wortphrasen. Ein System dahinter, was ja oder was nein, konnte ich noch nicht feststellen. Denke, da ist im Moment ziemlich der Wurm drin. Daher habe ich Ende 2007 einige Testseiten erstellt, total ohne Text im Body, nur mit wichtigem Keyword-Kombi im Titel, Description und Dateinamen. Diese Testseiten hatten keine Verlinkung von außen, sondern nur in einer speziell dafür erstellten Sitemap. Anfang des Jahres bekam ich sogar einige Besucher über diese textlosen Testseiten. Inzwischen nicht mehr. Google hat wohl wieder was umgestellt.

garfredo
PostRank 4
PostRank 4
Beiträge: 123
Registriert: 17.12.2006, 11:29

Beitrag von garfredo » 01.03.2008, 18:23

Ich beobachte die erste Ergebnisseite des für uns relevanten Keywords sehr genau und bin davon überzeugt, dass Google nicht nur trackt (siehe Quellcode) sondern ein Muster benutzt und die Positionen der jeweiligen Seiten ändert, um so die Attraktivität der Seiten ausfindig zu machen und entsprechend zu raten.

MeNoZony
PostRank 6
PostRank 6
Beiträge: 476
Registriert: 26.08.2004, 01:59
Wohnort: Ruhrgebiet

Beitrag von MeNoZony » 02.03.2008, 06:44

What's next?
Naja, Google hat seine Halbwertszeit im Netz eigentlich schon mehr als überschritten und die Nerven seiner Nutzer schon mehr als überstrapaziert.
Ich stelle das an mir, einem eigentlich über Jahre hinweg beinharten Google-Nutzer, fest, der immer mehr fremdgeht und da erstaunlicherweise (oder auch nicht) auch immer mehr bessere Suchergebnisse als bei Google findet.
Ich stelle das auch fest bei der Nutzung von Suchmaschinen und Katalogen, die ich verkauft habe und/oder selbst betreibe: die Nutzerzahlen steigen kontinuierlich seit rd. 9 Monaten an.
What's next könnte auch bedeuten, daß wir in nicht allzu langer Zeit nicht mehr über Google reden in der Form, wie das hier in diesem Forum noch gemacht wird.

Geo
PostRank 6
PostRank 6
Beiträge: 354
Registriert: 13.02.2004, 13:18

Beitrag von Geo » 02.03.2008, 14:54

Muster benutzt und die Positionen der jeweiligen Seiten ändert, um so die Attraktivität der Seiten ausfindig zu machen und entsprechend zu raten.
Ähnliches kann ich auch schon seit einiger Zeit und verstärkt seit einer Woche beobachten.

Geo

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag