Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

"Das Ende der SEO-Tools"

Suchmaschinenmarketing bzw. Suchmaschinenoptimierung Infos und News
Vegas
PostRank 10
PostRank 10
Beiträge: 5063
Registriert: 27.10.2007, 13:07

Beitrag von Vegas » 13.12.2012, 10:23

swiat hat geschrieben:Wenn jemand Seo für Kunden betreibt, sehe ichd as noch eher ein mit Tools.
Es ist eigentlich egal ob für Kunden oder eigene Projekte, je mehr Daten und Statistiken Du hast, auf deren Basis Du Entscheidungen treffen kannst, desto besser die Entscheidungen. Es geht einfach darum die Arbeit möglichst effektiv zu gestalten.

Natürlich kann man im Zweifelsfall eigene Tools schaffen, sollte der eine oder andere Drittanbieter wegfallen. Es gibt aber viele Teilbereiche in denen Du damit schnell an Grenzen stößt, schlicht weil die erforderliche Datenbasis und Aktualität die Du brauchst so groß sind, daß der Aufwand und die Kosten viel zu hoch sind, auch für eine größere Agentur.

Das ist ja auch der eigentliche Vorteil der SEO Online Tools gegenüber Desktopsoftware: Gigantische möglichst aktuelle Datenbanken, statt Datenabfrage nach Vorgabe.
Forward Up >> Suchmaschinenoptimierung >> SEO Notaufnahme >> SEO Audits >> SEM >> ORM

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

BillyDesign
PostRank 4
PostRank 4
Beiträge: 104
Registriert: 02.11.2012, 11:20

Beitrag von BillyDesign » 13.12.2012, 10:53

Mal ganz ehrlich machen wir da nicht einen Schritt zurück?
Jeder kämpft hier um seine Seite und ich finde der bessere sollte Gewinnen oder an was wollen die das dann fest machen?

Expirado
PostRank 4
PostRank 4
Beiträge: 106
Registriert: 02.05.2012, 15:48
Wohnort: Hamburg

Beitrag von Expirado » 13.12.2012, 11:34

Vegas hat geschrieben: Natürlich kann man im Zweifelsfall eigene Tools schaffen, sollte der eine oder andere Drittanbieter wegfallen.
Absolut, und nicht erst beim Wegfall des Drittanbieters, denn dann ist es für die eigenen Projekte und die der Kunden längst zu spät. Außerdem ergeben sich durch den Einsatz eigener, unabhängiger Tools auch viele zusätzliche Vorteile, siehe https://www.abakus-internet-marketing.d ... tml#889871
Es gibt aber viele Teilbereiche in denen Du damit schnell an Grenzen stößt, schlicht weil die erforderliche Datenbasis und Aktualität die Du brauchst so groß sind, daß der Aufwand und die Kosten viel zu hoch sind, auch für eine größere Agentur.
Welche Teilbereiche und welche Grenzen sollen das sein?

Ein tägliches Erfassen aller benötigten Daten stellt doch heutzutage kein Problem mehr dar. Immerhin können sogar alle für die Agentur/das Unternehmen und dessen Kunden unwichtigen Daten weggelassen werden, um Aufwand und Kosten zu sparen.
Das ist ja auch der eigentliche Vorteil der SEO Online Tools gegenüber Desktopsoftware: Gigantische möglichst aktuelle Datenbanken, statt Datenabfrage nach Vorgabe.
Ein eigenes Tool muss ja nicht unbedingt bedeuten, dass man Desktopsoftware einsetzt. Denn wessen Desktop ist schon 24 Stunden pro Tag, 7 Tage die Woche, eingeschaltet, während dieser Zeit überwiegend ungenutzt, verfügt über skalierbare Ressourcen, verteilte Datenbankstrukturen und eine RZ-ähnliche Anbindung? Wie oft hört man außerdem, dass Abfragelimits von Desktoptools erschöpft seien (trotz Einsatz von Proxy-Servern).

Noch nie waren Bandbreite, dedizierte Server und Festplatten so günstig wie jetzt. Die Voraussetzungen sind perfekt für eigene webbasierte SEO- und SEM-Tools.

Und wer personell oder vom Know-How nicht in der Lage sein sollte, eigene Tools zu entwickeln, wird sicherlich geeignete Lieferanten finden, um seine eigenen Tools betreiben zu können.
Domains: seotools.de suchmaschinen-optimierungen.de backlinkspider.de managedserver.de

Expired Domains: automatische Registrierung beim Freiwerden, auch SERP- und Keyword-gesteuert (Datenbasis: über 14 Millionen registrierte .de-Domains)

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Beloe007
PostRank 10
PostRank 10
Beiträge: 2928
Registriert: 05.03.2009, 10:31

Beitrag von Beloe007 » 13.12.2012, 12:45

Expirado hat geschrieben:Noch nie waren Bandbreite, dedizierte Server und Festplatten so günstig wie jetzt. Die Voraussetzungen sind perfekt für eigene webbasierte SEO- und SEM-Tools.
Hauptsache man fährt ein Elektroauto und gleicht so seine Umweltbilanz wieder aus ;)


Die Tools sind klasse, auch wenn man gute Inhalte schafft kann man mit den Tools übersehene Begriffe nacharbeiten. Was die WMT leider nicht hergeben.

Vielleicht findet sich ein Kompromiss, z.B. nur noch 1* im Monat aktuelle Daten o.ä. verstehe eh nicht wen sein wöchentliches Ranking interessiert... viele schauen sogar täglich nach. Das kostet nicht nur Googlerechenleistung, sondern den Seo auch unnötige Zeit die man in bessere Inhalte stecken könnte.

Vegas
PostRank 10
PostRank 10
Beiträge: 5063
Registriert: 27.10.2007, 13:07

Beitrag von Vegas » 13.12.2012, 14:24

Expirado hat geschrieben:Welche Teilbereiche und welche Grenzen sollen das sein?
Nehmen wir mal als Beispiel den Bereich Konkurrenzanalyse. Neuer Kunde, Branche die Du vorher noch nicht unter der Lupe hattest. Zu welchen Begriffen ranken die Wettbewerber, zu welchen Begriffen schalten die Wettbewerber Adwords, welches Suchvolumen haben die Begriffe, wie hat sich das Ranking der Wettbewerber in den letzten 6 Monaten verändert. Nehmen wir mal weiter an, das sind alles Onlineshops, mit hunderten oder tausenden Produkten/Unterseiten.

Sowas kannst Du nur analysieren mit einer großen Datenbank die sowohl historische Daten speichert, als auch aktuelle Daten liefert. Ohne Google dauerhaft im großen Stil zu Scrapen kommst Du an diese Daten nicht ran, denn nur Daten zu sammeln von denen Du aktuell weißt, daß Du sie brauchst, etwa zur Kontrolle von Rankings selbst vorgegebener Keywords, ist ja witzlos.

Technisch alles kein Problem, nur ist es mit einer Hand voll Server dann nicht getan, Du kommst da schnell in Dimensionen wo der Aufwand erheblich wird, denn im Optimalfall willst Du ja das gesamte deutschsprachige Web abbilden. Als Agentur kannst Du nicht voraussehen, ob der nächste Kunde eine Maschinenbauer, Pharmavertrieb, Finanzdienstleister oder was auch immer ist.
Forward Up >> Suchmaschinenoptimierung >> SEO Notaufnahme >> SEO Audits >> SEM >> ORM

Barthel
PostRank 9
PostRank 9
Beiträge: 1578
Registriert: 13.10.2010, 21:18

Beitrag von Barthel » 13.12.2012, 16:21

Melegrian hat geschrieben: Nach Deiner Argumentation brauchte Google dann auch keine eigenen Tools wie WMT oder Analytics mehr zur Verfügung stellen. Und wenn ich es ganz genau nehme, brauchte ja Google dann auch keine Daten mehr zu sammeln, sondern könnte sich einfach darauf beschränken, gute Suchergebnisse auszuliefern.
Das ist nicht meine Argumentation, das ist die von Matt Cutts. Möchte ich nur mal hervorheben, bevor mir einer wieder unterstellt, ich würde bei denen Arbeiten :P

Ohne die Daten kann Google keine guten Suchergebnisse ausliefern, deswegen haben die Datensammeltools schon ihren Sinn. Und mit den Daten aus den Tools kann man ja auch SEO machen, man hat aber nur seine eigenen Daten. Alles was z.B. Vegas beschreibt, fehlt dann, aber vielleicht will Google ja genau das.

Lyk
PostRank 9
PostRank 9
Beiträge: 2883
Registriert: 10.08.2009, 15:26

Beitrag von Lyk » 13.12.2012, 16:48

solang dieser sichtbarkeitsindex verschwindet ist mir alles andere egal.

Vegas
PostRank 10
PostRank 10
Beiträge: 5063
Registriert: 27.10.2007, 13:07

Beitrag von Vegas » 13.12.2012, 17:00

Lyk hat geschrieben:solang dieser sichtbarkeitsindex verschwindet ist mir alles andere egal.
Der Sichtbarkeitsindex (egal von welchem Anbieter und wie man das Kind nun nennen möchte) ist alles andere als perfekt, aber zumindest der Versuch sehr komplexe Sachverhalte vereinfacht darzustellen. Der Preis der Vereinfachung ist immer eine gewisse Ungenauigkeit.

Abseits von Besucherzahlen und Conversions ist die Sichtbarkeit gerade am Anfang ein schöner Indikator, der zeigt, daß SEO Maßnahmen greifen, noch ehe auf der Seite selbst eindeutig meßbare Ergebnisse sichtbar werden. Kunden für die SEO ein Buch mit sieben Siegeln ist geben solche einfachen, vergleichbaren Werte etwas Sicherheit. Kurve hoch, alles gut, Kurve runter, aufgepasst.

Ähnlich wie der PR wird er sicher teils stark überbewertet, trotzdem ein liebgewonnener Wert, auf den viele ungern verzichten würden. Einfachheit hat ihren Charme.
Forward Up >> Suchmaschinenoptimierung >> SEO Notaufnahme >> SEO Audits >> SEM >> ORM

Lyk
PostRank 9
PostRank 9
Beiträge: 2883
Registriert: 10.08.2009, 15:26

Beitrag von Lyk » 13.12.2012, 17:18

dieses tool war mehr als nur ungenau.

hat ne ganze branche lahmgelegt. könnte wieder interessant werden :)

thaiseo
PostRank 5
PostRank 5
Beiträge: 308
Registriert: 13.03.2012, 08:26

Beitrag von thaiseo » 25.12.2012, 03:20

jabbadu hat geschrieben:
Die meisten SEO-Tool Anbieter benutzen doch ihren eigenen Crawler.
dann müssten sie auch fast die gleiche Rechenleistung haben wie Google, zb um die Backlinks zu erfassen.
Auch denke ich sind viele dieser Crawler per robots.txt ausgeschlossen, denn die verursachen auch massenhaft Traffic.
Barthel hat geschrieben:
Dass es Toolanbietern verbieten will die Ergebnisseiten zu scrapen? Es missfällt auch vielen Webseitenbetreibern (auch welchen hier im Forum), das Sistrix et al ihre Webseiten durchspidern und dabei Ressourcen verbrauchen
ja so einer bin ich auch, denn was bringt mir das? Wenn Google spidert das bringt Besucher, wenn sistrix spidert bringt nur Kosten
Tippi hat geschrieben:
Es ist eingach nur schlimm was der Konzern derzeit alles veranstalltet und niemand gebitet dem Einhalt!
was würdest du tun wenn sich einer mit an deinen Stromnetz anschließt und bezahlst aber alle Kosten?
Das es auch einige Dinge gibt bei Google die mich stören, ok, aber durch diese massenhaften Abfragen automatisiert entstehen nun mal enorme Kosten für Google, und glaube mir du würdest dir das auch nicht gefallen lassen

MeNoZony
PostRank 6
PostRank 6
Beiträge: 476
Registriert: 26.08.2004, 01:59
Wohnort: Ruhrgebiet

Beitrag von MeNoZony » 26.12.2012, 01:40

Das ist relativ romantisch gedacht.
Wer sein Geschäftsmodell auf dieser, zugegebenermassen, letztendlich recht sinnfreien Datensammelei aufgebaut hat, der hat natürlich auch Möglichkeiten, den Index weiterhin durchzufräsen wie er es gerade braucht um den Geldfluß von Statistikfetischisten aufrecht zu erhalten.
Wer mal ein paar DNS-Attacken am eigenen Server miterleben durfte, der weiß, wovon ich rede- alles eine Frage des Geldes.
Google kann effektiv nur die ganz einfach gestrickten Versuche abwehren; sobald eine gewisse Infrastruktur eingesetzt wird, werden sie entweder die Segel streichen oder Kollateralschäden hinnehmen müssen, die in keinem Verhältnis zum Ertrag stehen.
Letztendlich aber die Auswirkung eines Problems, das Google erst selbst geschaffen hat.
Geschieht ihnen recht.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag