Seite 1 von 2

Neu: AdsBot-Google begutachtet Ziel-URLs

Verfasst: 26.05.2006, 14:33
von Southmedia
Google's rolling out a new system where ad landing pages will be automatically spidered by a new AdsBot. The content of landing pages will help determine the quality of an ad campaign. That quality score, along with the amount you are willing to pay, is then used to determine an ad's AdRank, the position where an ad will appear in the results. A high quality score means you can rank higher even if you pay less than others. And not participating in the new spidering system can hurt your AdRank.
Weiterlesen: https://blog.searchenginewatch.com/blog/060526-072126

Infoseite in den Adwords-Hilfeseiten: https://adwords.google.com/support/bin/ ... swer=38197

Nettes Detail daraus:
Hinweis: Damit sich bei Kunden, die den AdWords-Zugriff auf ihre Seiten nicht einschränken, die CPCs nicht erhöhen, ignoriert das System Ausschlüsse mit globalen Zeichen (User-agent: * in den Dateien robots.txt).

Verfasst:
von

Verfasst: 26.05.2006, 15:49
von MaWo
Zielseiten mit nützlichen und informativen Inhalten sowie einem klaren Bezug zu den Keywords und zum Anzeigentext werden in diesem Zusammenhang als qualitativ hochwertiger eingestuft. Es wird ihnen daher ein höherer Qualitätsfaktor zugewiesen.
Also auch wenn der Algorithmus zur Erkennung des "klaren Bezug" schlecht ist zahlt der AdWordsnutzer mehr?

Verfasst: 26.05.2006, 18:18
von Southmedia
Natürlich. Google bringt uns nun nämlich bei, was gute Landingpages sind. Und wie ich meine Seiten zu designen habe dadurch natürlich auch. Denn Landingpages nur aus Grafiken, sind natürlich schlecht...

:bad-words:

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Verfasst: 26.05.2006, 18:30
von Jojo
@Southmedia
Naja, wenn die Seiten nur als Landing-Pages für AdWords gedacht sind, kann man ja beliebig Cloaking betreiben. :evil:

Verfasst: 26.05.2006, 23:06
von MaWo
Ich seh das ziemlich kritisch. Ich schätze das Google nur auf statistischer Ebene das Thema erschlägt und keine oder nur wenig semantische Analyse nutzt. Die Ontologie müsste bei einem semantischen Ansatz gigantisch sein, ebenso die Rechenkapazitäten die man braucht um jede Seite zu analysieren. Semantische Analyse von Volltexten ist mit das Schwierigste und Aufwendigste was man heute versuchen kann. In einem eng definiertem Umfeld geht sowas gerade so aber beim Internet seh ich da dunkel-schwarz. Google kocht auch nur mit Wasser!

AdWords wird imho immer intransparenter und der Einstieg damit immer schwieriger.
Wenn der Algorithmus der SERP's schlecht ist gibt es viel Spam und/oder qualitativ schlechte Seiten in den SERP's.
Wenn der Qualitätsfaktor der Zielseite schlecht ist weiß man nicht ob es am Algorithmus liegt oder an wirklich schlechten Zielseiten. Wobei "schlecht" ist natürlich relativ. Vielleicht mag meine Zielgruppe meine Seite, nur der Google-Algorithmus erkennt es nicht weil es halt nur ein Algorithmus ist...

Und woher weiß ich das es an der Zielseite liegt?

@google
Gibt es bald eine Anzeige der Hauptfaktoren des Qualitätsfaktors mit entsprechender Angabe welcher Faktor gerade den QF nach unten bzw. den CPC nach oben zieht
z.B.:
Anzeigentext: 5/10
Keywort-History:8/10
Anzeigen-History:3/10
Zielseite: 1/10

oder muss ich weiter raten? Obwohl ist ja eigentlich nicht schlimm wird für mich ja nur teurer und für Google gibt es mehr Gewinn.

Wirtschaftlich macht der Algorithmus imho mal wieder nur für Google einen Sinn. Wenn ich schlechte Zielseiten habe und der Kunde nichts bei mir kauft dann werde ich das merken. Es gibt ROI-Tracking und der Markt regelt den Rest.

Wenn es Google wirklich um die Qualität ginge dann könnte man mit Geld keinen schlechteren Qualitätsfaktor kompensieren!

Verfasst: 27.05.2006, 02:54
von Southmedia
Dem stimme ich voll und ganz zu MaWo. Leider wird es dazu wohl wieder keine sinnvolle Auseinandersetzung mit unseren Argumenten und Bedenken seitens Google geben. "Friss, oder stirb..."

Verfasst: 27.05.2006, 09:34
von slinky
Also ich find das gut. :-)

Immerhin war jetzt seit 18 Monaten, seitdem wir aus dem Index geflogen sind, kein Bot von Google mehr bei uns.

SCHATZ, RÄUM AUF, WIR BEKOMMEN BESUCH. :D

Verfasst: 27.05.2006, 15:50
von MaWo
Leider wird es dazu wohl wieder keine sinnvolle Auseinandersetzung mit unseren Argumenten und Bedenken seitens Google geben. "Friss, oder stirb..."
Ich hoffe das Microsoft sich wenigstens 1/3 des Marktes holt dann kann man das Budget etwas umschichten.
Zur Zeit fühle ich mich eher wie eine Kuh die gemolken wird anstatt als Kunde der gepflegt wird. Mit Kunden konnte Google noch nie so richtig umgehen.

Verfasst: 29.05.2006, 16:36
von Ranking-Check
Das kanns echt nicht sein. Ich habe viele AdWords kunde die zielseiten haben die zwar 100% zum Suchbegriff passen, aber nur für einen echten BEsucher und nicht für den Google robot. Also ganze Thema rund um Frameseite etc. Wenn es der normale Google-Bot nicht begreift, dann kann es der AbBot doch auch nicht begreifen. Und genau dass ist doch für viele der Grund AdWords zu schalten.

Beispiel lange zeit war zum Suchbegriff "otto" die Webseite www.otto.de nicht vertreten, weil die nen unoptimierten intershop hatten. Warum sollte denn otto.de für den Suchbegriff "otto" dann mehr zahlen???

Oh ich rege mich echt selten auf, aber soviel ..... kann mich echt aufregen :-)

Verfasst: 29.05.2006, 22:04
von Southmedia
Naja, bisher wissen wir ja nicht wie das Ding funktioniert. Vielleicht ist der Bot ja auch absolut toll. Irgendwie habe ich da jedoch meine Zweifel. Das ist dann auch mal wieder das Problem: Google sagt uns nicht was die Kriterien sind. Es gibt keine Aussage dazu, woran die Relevanz festgemacht wird. Ausprobieren wird auch nicht einfach, da eine ganze Menge anderer unbekannte Faktoren mitspielen.

Verfasst: 08.06.2006, 16:19
von Asia-Zone
Seht es doch mal positiv, jeder neue Algorithmus, jedes neue Tool, jeder neue Bot bringt neue Chancen Landing Pages oder sonstige Seiten zu optimieren, rein theoretisch klingt es doch erst mal ganz gut, wenn ausser der Historie, dem max. CPC nun ein weiterer Faktor den Ad Rank bestimmt, denn Neulinge hätten ohne diesen Faktor es noch schwerer gute Positionen zu erreichen oder? Keine Historie, und einen hohen CPC kann sich auch nciht jeder leisten. Aber gute Landingpages zu schreiben sollte jeder können, der sich richtig informiert, und vor allem, der brav die Regeln von Google befolgt :P.

By the way, weiss jemand nun genaueres, was der Bot mag und was nicht? Möchte mal gerne eine Optimized for AdsBot Landing Page sehen.

Verfasst: 08.06.2006, 16:36
von MaWo
Asia-Zone hat geschrieben:Seht es doch mal positiv
Wieso?
Solange keine unabhängige Stelle (am besten ich) sich das Ding angeschaut hat und es bei allen (meinen) Seiten zu 100% funktioniert ist alles nur Glaube, Hoffnungen, Erwartungen, Illusion, Phantasie ...
Asia-Zone hat geschrieben:By the way, weiss jemand nun genaueres, was der Bot mag und was nicht?
Nein, aber seh es doch einfach positiv! Wenn du einfach "brav die Regeln von Google befolgst" wirst du schon richtig liegen, glaube ich!
8)

Verfasst: 08.06.2006, 16:50
von Asia-Zone
Nein, aber seh es doch einfach positiv! Wenn du einfach "brav die Regeln von Google befolgst" wirst du schon richtig liegen, glaube ich!
Würd ich ja gerne, aber anscheinend gibt es noch nirgends die "Google Richtlinien" zu lesen. Und sei doch mal realistisch. Ich bin nicht unbedingt der Google Fan, aber Google bestimmt die Realität im Web. Ob das gut oder schlecht ist sei dahingestellt. Wer aber erfolg mit Google Anzeigen haben möchte, der kann dies nur, in dem er die Richtlinien befolgt, oder sehe ich das falsch?

Verfasst: 08.06.2006, 17:28
von MaWo
Google definiert mit einem Algorithmus die Relevance, die Qualtät und wie eine Landingpage auszusehen hat. Nicht Google bestimmt was gut ist sondern ein Algorithmus der von Google geschrieben wurde.
Darum geht es hier, imho.
Das die Landingpages begutachtet werden ist eine gute Idee. Das dies kein Mensch tut ist schlecht. Das das Bewertungssystem nich transparent ist ist noch schlechter.
Es gibt keine Kontrollmöglichkeiten. Wenn ich hohes Mindestgebot habe weiß ich nicht woran es liegt und kann nur im dunkeln stochern. Das dies für Neukunden dienlich sein soll bezweifle ich stark. Es gibt jetzt einen weiteren Faktor der das Mindestgebot und den CPC beeinflußt aber keiner weiß wie, keiner sieht wie.

Beispiel:
Ich hab ein hohes Mindestgebot und will den durch Massnahmen verringern.
Wo fange ich an?
Keyworte?
Anzeigentext?
Landingpage?

Ok nehme ich mal die Landingpage weil ich vermute es liegt an der Landingpage.
Ich erstelle ein total neues Layout mit Flash, dynamischer CSS Navigation oder ein paar absolut tollen JavaScript Gimmicks. Die Landingpage ist für einen Menschen sichtlich aufgewertet.
Der Google-Bot kommt und versteht nur Bahnhof. Dein Mindestgebot schnellt Richtung 5-10Euro pro Klick weil deine alte Landingpage als einziger Faktor den QF positiv beeinflußt hat.

Herzlichen Glückwunsch!

Verfasst: 08.06.2006, 19:28
von Asia-Zone
Nicht Google bestimmt was gut ist sondern ein Algorithmus der von Google geschrieben wurde.
ähmm, also DOCH Google?!?

Das die Landingpages begutachtet werden ist eine gute Idee. Das dies kein Mensch tut ist schlecht.
Ich denke wenn eine Landingpage von Menschen begutachtet wird, dann wird es noch wesentlich mehr Leute gehen, die sich beschweren, Menschen gehen bekanntlich nicht neutral an eine Sache ran. Von daher ist ein neutraler Algorithmus schon nicht schlecht, der für ALLE gilt. Keine Sorge, die menschliche Komponente bekommst du schon. Schliesslich sind die Besucher deiner Landing Page letztendlich diejenigen die entscheiden. Und wenn die Landing Page Ihren Nutzen erfüllt, dann steigen deine Verkäufe. Dein ROI steigt, Du erhöhst dein Budget. Google bringt dir noch mehr Kunden, und alle haben was davon.

Und dass es keine Kontrollmöglichkeiten gibt, ist auch nicht richtig. Du kannst für fast alle Faktoren sogenannte A/B Tests durchführen und somit Licht ins Dunkel bringen. Es wäre natürlich schön, wenn Google einige Hinweise gibt, welche Kriterien für den Adbot gelten, villeicht kommt es ja noch, aber ständig zu kritisieren und schwarzzusehen, bevor überhaupt jemand die Auswirkungen kennt, halte ich für unangebracht.

Um auf dein Beispiel noch kurz einzugehen,
Werbeanzeigen zu optimieren bedeutet schon immer viel Zeitaufwand, viele Faktoren berücksichtigen, es gibt so viele Stellschrauben, sowohl an der Anzeige selbst, als auch auf der Landing Page. Dabei spielt es keine Rolle, ob Google die Ziel URL begutachtet oder nicht. Wenn deine ZielURL schlecht ist, verkaufst du nichts. Was bringen dir viele günstige Klicks, wenn du nichts verkaufst?

Dein Beispiel ist einfach viel zu negativ,
man könnte ein Gegenbeispiel nennen, welches gerade AUFGRUND der Berücksichtigung der Landing Page zu höherem ROI führt, zu einem höherem Werbebudget, zu einer höheren CTR und somit zu fallenden CPC führt (Historie).

Abwarten und Tee trinken,
noch ist mein Glas eher halbvoll als halbleer.
Ich bin vorsichtig optimistisch.