Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Google Bot folgt meinen Schritten

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
DbDdhkP07
PostRank 4
PostRank 4
Beiträge: 192
Registriert: 13.07.2007, 14:07

Beitrag von DbDdhkP07 » 04.09.2007, 17:41

Also, ich hab heute so einen komischen Effekt der Personalisierung gehabt, ohne der personalisierte Suche aktiv gehabt zu haben.

Wenn man mal drüber nachdenkt, ist die tiefergehende Analyse der Nutzerwege und des Klickverhaltens einer der wenigen von SEO und Konsorten fast nicht zu beeinflussende Parameter zur Bestimmung der Relevanz einer Webseite für bestimmte Themen.

Viele Besucher, die nur kurz reinklicken und gleich wieder flüchten oder sonstwie von der Seite verschwinden: Irrelevant.
Affiliate-Seiten die nur eine mehr oder weniger gute Hülle darstellen um mit Deep-Links oder sonstigem Syndication-Kram auf die Merchant-Seiten zu verweisen -> Ab in die 2. Klasse damit.

Seiten bei denen eine überdurchschnittliche Seiten pro Besuch Ratio festgestellt wird -> Aufwertung.
Seiten bei denen die Zahl der wiederholten Besuche hoch ist -> Aufwertung.

Das lässt sich über das normale Pagerank Analyse Verfahren (also die reine Verlinkung einer Seite, meine ich) so nicht ermitteln, da hauptsächlich von der Publisher Seite her Ansatz genommen wird.
Effektiver - und auch G! entsprechender - ist der Ansatz "vom User her". Schau was der User macht und nehme das Verhalten mit als einen Wertmassstab.

Getreu dem Motto: Eine volle Spelunke in der man für das Essen reservieren muss, muss besser sein als das gestylte und beworbene Restaurant daneben, wo aber die Leute nur einmal hingehen und nicht lange bleiben. Da können in der Stadt noch so viele Flyer verteilt werden und Plakate an der Wand kleben, ein guter Reiseführer (G!) wird die Spelunke empfehlen.

Ich hab den Verdacht, als wenn wir uns auf sowas in der Richtung gefasst machen dürfen. :crazyeyes:

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

luzie
PostRank 10
PostRank 10
Beiträge: 4228
Registriert: 12.07.2007, 13:43
Wohnort: Hannover, Linden-Nord

Beitrag von luzie » 04.09.2007, 18:15

>>> Viele Besucher, die nur kurz reinklicken und gleich wieder
>>> flüchten oder sonstwie von der Seite verschwinden: Irrelevant

ich will nicht abstreiten, dass sie das glauben mögen, trotzdem ist es quark! es kann genügend seiten geben, bei der die notwendige info binnen sekunden erfasst ist. es kann seiten geben, die die info enthalten, die gesucht wurde, nicht aber die die durch die suche erhofft wurde (der user ist nu ma im durchschnitt recht blöde, leider *G*), es kann seiten geben, die, weil sie die info so super aufbereitet haben, kürzere verweilzeiten aufweisen, als entsprechende, in denen der user erstmal rumsuchen muss ... und dergleichen ewig mehr.

ein feines beispiel ist die astronomie. astronomieseiten werden millionen von besuchern haben, deren verweildauer minimal ist, weil die blödmänner astrologische "information" gesucht haben, nicht astronomische ...

>>> Das lässt sich über das normale Pagerank Analyse Verfahren
>>> ... nicht ermitteln

natürlich nicht. dem war auch noch nie so und dieses verfahren war ein irrweg. genauso ein irrweg wäre es, das userVERHALTEN als massstab für die inhaltliche relevanz von texten in bezug auf suchanfragen heranzuziehen. das einzige verfahren, relevanz zu prüfen wäre es eben die relevanz zu prüfen :lol: und da sie das aber nicht können (ihre knete verwenden sie, um das netz zusammenzukaufen) läuten sie (womöglich) jetzt die nächste runde schwachsinn ein.
Bilduzie - [url=httpss://plus.google.com/+HerbertSulzer/about]Google Official Bionic Top Contributor on Google Webmaster Central[/url]

seonewbie
PostRank 9
PostRank 9
Beiträge: 1939
Registriert: 21.10.2006, 20:50

Beitrag von seonewbie » 04.09.2007, 19:44

Hallo,

optimal ist wohl eine Mischung aus PR und Userverhalten.


Gruß

Micha
Suche Linktausch zum Thema Mode. Bitte PM
Backlink-Generator | Artikelverzeichnis | PageRank | SEnuke X
Don't smoke, don't fight, don't light no cigarettes,
Or else you'll wind up in the can!
No jokes, no rights, sit tight, don't fool around,
You are a guest of Uncle Sam!
AC/DC "I'll be damned"

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

SISTRIX
PostRank 9
PostRank 9
Beiträge: 1255
Registriert: 01.09.2003, 20:57
Wohnort: Bonn

Beitrag von SISTRIX » 04.09.2007, 21:55

luzie hat geschrieben:öhm ... ob sowas ein fall für den staatsanwalt is?
Ja, Sammelklage, diverse!
SISTRIX Suchmaschinen Blog
SEO- und SEM-Tools: [url=httpss://tools.sistrix.de/toolbox/?tid=lnk_foren_abk]SISTRIX Toolbox[/url]
Linktausch für PR9 und 10 gesucht!

Seo
PostRank 9
PostRank 9
Beiträge: 1709
Registriert: 19.07.2005, 17:14

Beitrag von Seo » 04.09.2007, 22:11

luzie hat geschrieben: das einzige verfahren, relevanz zu prüfen wäre es eben die relevanz zu prüfen :lol: und da sie das aber nicht können (ihre knete verwenden sie, um das netz zusammenzukaufen) läuten sie (womöglich) jetzt die nächste runde schwachsinn ein.
:lol:

FrauHolle
PostRank 9
PostRank 9
Beiträge: 2044
Registriert: 04.11.2004, 20:25

Beitrag von FrauHolle » 04.09.2007, 22:14

Viele Besucher, die nur kurz reinklicken und gleich wieder flüchten oder sonstwie von der Seite verschwinden: Irrelevant.
Genau ;-) Google selbst ist Irrelevant also ab in die 2te Klasse :-)

DbDdhkP07
PostRank 4
PostRank 4
Beiträge: 192
Registriert: 13.07.2007, 14:07

Beitrag von DbDdhkP07 » 05.09.2007, 07:49

:roll: Naja... Mag ja sein, das Du G! als irrelevant empfindest...

Das Problem ist nur, das wenn G! mich (b.z.w. meine Elaborate) irgendwann mal als irrelevant einstuft, ich den für mich zuständigen Sachbearbeiter beim Arbeitsamt kennenlerne.

Eine Bekanntschaft, auf die ich eigentlich gut verzichten kann.
ich will nicht abstreiten, dass sie das glauben mögen, trotzdem ist es quark! es kann genügend seiten geben, bei der die notwendige info binnen sekunden erfasst ist. es kann seiten geben, die die info enthalten, die gesucht wurde, nicht aber die die durch die suche erhofft wurde (der user ist nu ma im durchschnitt recht blöde, leider *G*), es kann seiten geben, die, weil sie die info so super aufbereitet haben, kürzere verweilzeiten aufweisen, als entsprechende, in denen der user erstmal rumsuchen muss ... und dergleichen ewig mehr.
Wenn man dann schaut, wie die Seiten verlinkt sind kann man das eigentlich schon. Dann machen so Sachen wie Newbie-Bonus etc. auch wieder mehr Sinn.

Und die "paar" Fälle, in denen das neue System danebengreift, sind doch nur "zivile Kollateralschäden" - Meldung über die Webmaster-Zentrale und dann kommt der ominöse Besucher aus Mountain-View für ein manuelles Review.
Wetten, das es dann plötzlich ein Qualitäts-Verbesserungs Formular geben wird?

Wieso sucht G! denn grade jetzt QA-Mitarbeiter? Das sind die Jungs und Mädels, die diese seltsamen Einträge im Log hinterlassen, die i.d.R. einem Absturz in den SERPS unmittelbar vorausgehen... Vielleicht weil die Erwarten in ->naher<- Zukunft mehr in dem Sektor zu tun zu bekommen?

Naja, ich bin mal gespannt, was mit den ganzen Webkatalogen, Artikelverzeichnissen, MfA's und Affiliate-Syndies so passiert...

Margin
PostRank 10
PostRank 10
Beiträge: 4646
Registriert: 09.09.2005, 08:25

Beitrag von Margin » 05.09.2007, 09:51

... Gemischtes ...

Erstmal ganz vorab, wenn der Kaufmann in mir mal spontan den Sinn des ganzen "glaskugeln" sollte, wäre die Antwort eine etwas simple: Knete.
Personalisierte Werbung.

Zum Thema Verweildauer und Seitenrelevanz:
Das ist ein verdammt zweischneidiges Schwert. So habe ich z.B. diverse Unterseiten, auf denen eine einzige Zahl, am besten groß und fett, ausreichen würde. Der User kommt rein, sieht seine Antwort und ist wieder weg. Absprungrate 100 %, Verweildauer 1 sec., Themenrelevanz 100 %.

DbDdhkP07, nennt man sowas nicht Arbeitsplatzsicherungsmaßnahme? :lol:

ts
PostRank 7
PostRank 7
Beiträge: 551
Registriert: 06.08.2005, 01:55
Wohnort: München

Beitrag von ts » 05.09.2007, 10:42

Margin hat geschrieben: Erstmal ganz vorab, wenn der Kaufmann in mir mal spontan den Sinn des ganzen "glaskugeln" sollte, wäre die Antwort eine etwas simple: Knete.
Personalisierte Werbung.
Bessere Suchergebnisse sind noch viel mehr Knete, weil viel mehr Vorsprung vor dem Rest der Konkurrenz um so entsprechend den Platz an der Sonne zu sichern.
Zum Thema Verweildauer und Seitenrelevanz:
Das ist ein verdammt zweischneidiges Schwert. So habe ich z.B. diverse Unterseiten, auf denen eine einzige Zahl, am besten groß und fett, ausreichen würde. Der User kommt rein, sieht seine Antwort und ist wieder weg. Absprungrate 100 %, Verweildauer 1 sec., Themenrelevanz 100 %.
Schon mal dran gedacht, dass der Bot dem Surfer auf dritte Homepages weiter folgt und so feststellen kann ob er seine Antwort bekommen hat? Wenn nicht wäre eine längere Verweildauer auf einer anderen Homepage zum gleichen Thema oder eine abgewandelte Suchanfrage die Konsequenz im Extremfall besucht der Surfer eine andere Suchmaschine. :idea:

Margin
PostRank 10
PostRank 10
Beiträge: 4646
Registriert: 09.09.2005, 08:25

Beitrag von Margin » 05.09.2007, 10:59

Bessere Suchergebnisse sind noch viel mehr Knete, weil viel mehr Vorsprung vor dem Rest der Konkurrenz um so entsprechend den Platz an der Sonne zu sichern.
Niemand kauft einen Sack Kohle, nur um ihn zu kaufen.
Bedarf und Nutzen fehlen.
Genauso verhält es sich mit dem Vorsprung vor der Konkurrenz.
Aber ot und von daher auch egal.
Schon mal dran gedacht, dass der Bot dem Surfer auf dritte Homepages weiter folgt und so feststellen kann ob er seine Antwort bekommen hat?
Nö.

DbDdhkP07
PostRank 4
PostRank 4
Beiträge: 192
Registriert: 13.07.2007, 14:07

Beitrag von DbDdhkP07 » 05.09.2007, 11:05

DbDdhkP07, nennt man sowas nicht Arbeitsplatzsicherungsmaßnahme?
Doch. Klar.

Aber erstmal muss man jammern, dann durch das Jammertal und schliesslich wird die Kreativität siegen. Wie immer :)
So habe ich z.B. diverse Unterseiten, auf denen eine einzige Zahl, am besten groß und fett, ausreichen würde. Der User kommt rein, sieht seine Antwort und ist wieder weg. Absprungrate 100 %, Verweildauer 1 sec., Themenrelevanz 100 %.
Hmmm... Ist aber doch eher die Ausnahme, oder?
Wenn man mal von Webkatalogen und MfA absieht, sollte eine Seite neben User-Experience auch Mehrwert für den Besucher bringen.

Da kann es schon sein das eine Absprungrate von 100% völlig okay ist -

Wenn ich nach einem Kochrezept google, gehe ich normal auch "Deep" über ein G!-Result rein und bin wieder weg.
Oder einen Cheat für ein Game... The same..

Aber: Das schaff ich nicht in einer Sekunde.
Und wenn ich meinen Browser dann einfach nur schliesse, kann G! die Aufenthaltsdauer gar nicht messen.
Das sind dann die 00:00 Besuchsdauer Einträge in Analytics? Also eigentlich ein Q+ Kriterium?

Aber wehe, ich klicke in 00:01 wieder zurück ins Suchergebnis oder gar auf einen Adsense...

Ich denke die Googleheads können das schon differenzieren und haben mittlerweile auch entsprechende Datenbasis zum testen...

ts
PostRank 7
PostRank 7
Beiträge: 551
Registriert: 06.08.2005, 01:55
Wohnort: München

Beitrag von ts » 05.09.2007, 11:25

Margin hat geschrieben: Niemand kauft einen Sack Kohle, nur um ihn zu kaufen.
Bedarf und Nutzen fehlen.
Genauso verhält es sich mit dem Vorsprung vor der Konkurrenz.
Aber ot und von daher auch egal.
Wirtschaft (Börse) basiert in weiten Teilen auf Vertrauen und wenn Google sein Kerngeschäft nicht im Griff hat, bröckelt das Vertrauen und das hat fatale Folgen.

DbDdhkP07
PostRank 4
PostRank 4
Beiträge: 192
Registriert: 13.07.2007, 14:07

Beitrag von DbDdhkP07 » 05.09.2007, 12:42

Wirtschaft (Börse) basiert in weiten Teilen auf Vertrauen
und Visionen, Begehrlichkeit, Gier, Illusionen...
und wenn Google sein Kerngeschäft nicht im Griff hat, bröckelt das Vertrauen und das hat fatale Folgen.
Wenn es G! gelingt, die Sichtweise und Verhaltensweisen der User relevant in die SERPs zu bringen, am besten noch differenziert auf den einzelnen Suchenden, kann der primäre Approach, nämlich die Suche für den User effektiver und relevanter zu gestalten, dazu führen eben dieses Vertrauen noch weiter auszubauen.

Daraus können dann wieder neue Visionen entstehen, die halt über die Gier der Anleger im Endeffekt zu Kohle wird.

Und so ganz nebenbei bremst G! die Konkurrenz schon allein durch die unglaubliche verfügbare Datenbasis dann noch mehr aus.

Wir alle werfen dem "Moloch" G! doch alles gratis und franko in den Rachen.
Sollen wir uns also auch nicht wundern, wenn der Drache mal rülpst.

Wäre sehr interessant zu erfahren, was passieren würde, wenn sich ein Datenschützer irgendeiner noch rechtsstaatlich funktionierenden Regierung mal genau ansehen würde, was die von G! da treiben.
Normal ist das nicht mehr!

luzie
PostRank 10
PostRank 10
Beiträge: 4228
Registriert: 12.07.2007, 13:43
Wohnort: Hannover, Linden-Nord

Beitrag von luzie » 05.09.2007, 19:07

"Moloch"
nimm die anführungszeichen weg da
Bilduzie - [url=httpss://plus.google.com/+HerbertSulzer/about]Google Official Bionic Top Contributor on Google Webmaster Central[/url]

chinsurah
PostRank 3
PostRank 3
Beiträge: 74
Registriert: 26.06.2007, 10:09

Beitrag von chinsurah » 05.09.2007, 19:36

das einzige verfahren, relevanz zu prüfen wäre es eben die relevanz zu prüfen und da sie das aber nicht können (ihre knete verwenden sie, um das netz zusammenzukaufen) läuten sie (womöglich) jetzt die nächste runde schwachsinn ein.
Das ist allerdings goldrichtig. Google hat mit Relevanz noch nie etwas am Hut gehabt. Es wird lieber der bestehende Schwachsinn ausgebaut, ist ja auch viel einfacher als sich was anderes zu überlegen und Schwachsinn ist großzügig skalierbar. :evil:

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag