Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Konkurrenz aus dem Index fliegen lassen?

Ein wichtiges Thema für einige Suchmaschinen. Dieses Unterforum dient zur Beantwortung von Fragen rund um das Thema Link-Marketing, Linkbaits, Widgets, Ideen die Linkerati zu finden und wecken!

(Kein Link Farm / Linktausch Börse usw.)
SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 26.10.2013, 21:36

hanneswobus hat geschrieben:um einen schutz vorschlagen zu koennen, brauchst du entweder haufenweise erfahrung und / oder einen relativ stabilen und relativ lueckenlosen beobachtungsalgo.
Man braucht keine lückenlose Beobachtung, sondern nur einen Alarmmechanismus (regelmäßige Backlinkkontrolle mit Standard-Tools) und etwas Sachverstand. Es gibt gute Linkressearch-Tools, die man falls nötig einkaufen kann, sobald ein Angriff stattfindet. Bis dahin genügen die normalen Tools (Majestics, Ahrefs etc.) um den Notfall zu erkennen. Einfach Augen auf...

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

hanneswobus
PostRank 10
PostRank 10
Beiträge: 6386
Registriert: 16.03.2008, 01:39

Beitrag von hanneswobus » 27.10.2013, 09:46

slomo,

welcher von diesen tools ist denn deiner meinung nach in der lage, links zu finden, welche z.b. 1/2 woche oder einen tag vor den eigentlichen "angriff" gesetzt wurden?

eigentlich muesste man sich eine art katalog mit saemtlichen klassikern der "deindexierungsgruende" organisieren und ausgehend hiervon die beobachtungsmaßnahmen laufen lassen.

gruß

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 27.10.2013, 14:56

Hannes, ich glaube nicht, dass Dein Tool sich in Sachen Crawling mit Google messen kann. Wenn Du das kannst, verkaufe es, denn es wird schier unbezahlbar sein. So einfach ist es doch.
welcher von diesen tools ist denn deiner meinung nach in der lage, links zu finden, welche z.b. 1/2 woche oder einen tag vor den eigentlichen "angriff" gesetzt wurden?
Ich glaube, dass es gar nicht notwendig ist und kein Toolanbieter das kann. Wenn es notwendig ist, belege es. Wenn Du es kannst, belege es. Ich sehe mich gerade eigentlich gar nicht in der Bringschuld und finde es etwas schade, dass Du Dich so weit aus dem Fenster lehnst, denn die Qualität handgestrickter Tools liegt eben in der guten Anpassung auf einen bestimmten Zweck. Solche Werkzeuge sind wertvoll, aber können nicht jedes beliebig komplexe Problem lösen.

Man kann eine Attacke meiner Meinung nach auch erkennen, wenn man deutlich weniger Daten als Google hat. Denn solche Attacken sind massiv und nicht sehr wählerisch. Wenn jemand ein paar tausend Links setzt, wird man mit Standardtools schon ein paar hundert davon sehen, also den Anstieg erkennen.

Ich wollte eigentlich keine Tools nennen und schon gar nicht bewerben. Aber da Du fragst: für die Backlinkanalyse ist man dann im Notfall z.B. mit Cempers LinkResearchTools mit 93 Datenquellen ziemlich gut bedient, sofern man es vor allem als Research Tool nimmt und nicht als Detox Wizzard, was IMHO ziemlicher Unfug ist.

Was bringt Dir denn den Wettbewerbsvorteil, von dem Du so fest überzeugt bist? Welche Datenquelle besitzt Du, die so vollständige Linkdaten liefert?

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

hanneswobus
PostRank 10
PostRank 10
Beiträge: 6386
Registriert: 16.03.2008, 01:39

Beitrag von hanneswobus » 27.10.2013, 15:59

slomo,

naja schade ist, dass du mir hier eine gewisse form von arroganz unterstellst. ich behaupt bspw. nirgends, eine bessere crawlingfunktion als google geschaffen zu haben. leider beisst sich hier die katze in den schwanz: weil ich keine verkaufsabsicht habe, will und muss ich keinen einblick in konzepte, programmiercodes usw. gewaehren. generell bin ich schon redefreudig, aber halt eben nur im kleinen kreis von persoenlich bekannten. sorry, aber ich bin da etwas eigen.

zum ausgangsproblem:

deine tools sind voellig i.o. und decken einen teil der ueblichen faelle ab, man muss aber trotzdem einen katalog der ueblichen deindexierungstechniken erst einmal aufstellen. ich mache so etwas im internen bereich und tausche mich mit persoenlich bekannten kollegen aus.

Hendrik04
PostRank 1
PostRank 1
Beiträge: 28
Registriert: 31.07.2013, 18:50

Beitrag von Hendrik04 » 31.10.2013, 00:08

hanneswobus hat geschrieben:slomo,

naja schade ist, dass du mir hier eine gewisse form von arroganz unterstellst. ich behaupt bspw. nirgends, eine bessere crawlingfunktion als google geschaffen zu haben. leider beisst sich hier die katze in den schwanz: weil ich keine verkaufsabsicht habe, will und muss ich keinen einblick in konzepte, programmiercodes usw. gewaehren. generell bin ich schon redefreudig, aber halt eben nur im kleinen kreis von persoenlich bekannten. sorry, aber ich bin da etwas eigen.

zum ausgangsproblem:

deine tools sind voellig i.o. und decken einen teil der ueblichen faelle ab, man muss aber trotzdem einen katalog der ueblichen deindexierungstechniken erst einmal aufstellen. ich mache so etwas im internen bereich und tausche mich mit persoenlich bekannten kollegen aus.
Man sollte sowas also vorbeugen durch das regelmäßige kontrollieren einer Seite mit enstprechnden Tools?

hanneswobus
PostRank 10
PostRank 10
Beiträge: 6386
Registriert: 16.03.2008, 01:39

Beitrag von hanneswobus » 31.10.2013, 11:30

hendrik,

das ist korrekt. aber du musst natuerlich die ueblichen abstrafungs- und deindexierungsgruende kennen.

gruß

luzie
PostRank 10
PostRank 10
Beiträge: 4228
Registriert: 12.07.2007, 13:43
Wohnort: Hannover, Linden-Nord

Beitrag von luzie » 31.10.2013, 17:58

Hm ... selber crawlen ...

Die Programmierung solcher Tools ist nicht so schwer, aber du musst eine Halle anmieten, die musst du klimatisieren, dort musst du deine mindestens Hunderte von Maschinen aufstellen, dann brauchst du mehrere armdicke Glasfaserkabel als Anbindung, die Stromrechnung allein macht dich arm ... das wird so nichts.

Ich hab' einen sehr schönen Vortrag von MajesticSEO gehört, wo sie obiges alles fein aufgezählt haben was sie alles benötigen nur um eben MajesticSEO zu sein und selber krabbeln zu können - das sollte man nochmal durchdenken ob das so leicht geht!

Wenn es ein Tool gibt, das sehr schnell, sehr umfangreich Daten zu Backlinks liefert, dann ist es Ahrefs.com - auch die krabbeln selbst. Das dürfte das sein, womit man noch am ehesten an das rankommt, was euch vorschwebt.
Bilduzie - [url=httpss://plus.google.com/+HerbertSulzer/about]Google Official Bionic Top Contributor on Google Webmaster Central[/url]

hanneswobus
PostRank 10
PostRank 10
Beiträge: 6386
Registriert: 16.03.2008, 01:39

Beitrag von hanneswobus » 01.11.2013, 01:31

luzie,

wenn du die links von nur wenigen seiten beobachten willst, haelt sich das ganze in grenzen und ist durchaus machbar. probleme etc. existieren (eigentlich) nur bei der datensammlung und datenauswertung.

gruß

luzie
PostRank 10
PostRank 10
Beiträge: 4228
Registriert: 12.07.2007, 13:43
Wohnort: Hannover, Linden-Nord

Beitrag von luzie » 01.11.2013, 11:49

Ich glaube du machst da einen Denkfehler ... denn wenn du die Seiten bereits kennst, die du beobachten willst, ist es schon zu spät. Das eigene Crawlen macht doch nur dann Sinn, wenn du neu hinzugekommene Links entdecken willst - und dafür müsstest du blind das ganze Netz abkrabbeln (genau wie o.g. Tools und Google das machen)?
Bilduzie - [url=httpss://plus.google.com/+HerbertSulzer/about]Google Official Bionic Top Contributor on Google Webmaster Central[/url]

hanneswobus
PostRank 10
PostRank 10
Beiträge: 6386
Registriert: 16.03.2008, 01:39

Beitrag von hanneswobus » 01.11.2013, 12:10

luzie,

ich meinte mit "seiten die ich bereits kenne" genau die seiten, deren links ich gerne beobachten will.

wenn ich bestimmte "klassische" deindexierungszenarien im kopf habe, kann ich meinen algo natuerlich anpassen und gezielter suchen. wenn ich kritische linkspender kenne, reicht eine html-pruefung per stapelverarbeitung aus.

gruß

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 01.11.2013, 22:41

wenn ich bestimmte "klassische" deindexierungszenarien im kopf habe, kann ich meinen algo natuerlich anpassen und gezielter suchen.
Du nimmst also eine Stichprobe. Google hat 50.000.000.000 Seiten allein im primären Index. Was, wenn Deine Stichprobe doch nicht so relevant ist? Du siehst immer nur einen Bruchteil dessen, was Google sieht (bei 50.000 beobachtete Seiten wäre es z.B. ein Millionstel).

Und wenn Du dann eine Attacke erkennst, wie wehrst Du sie ab?

Sorry, aber wenn jetzt keine coolen Fakten kommen, dann glaub' ich nicht mehr dran. Dann ist es wirklich etwas für den "kleinen Kreis von persönlichen Bekannten", wie Du es oben so schön genannt hast.

hanneswobus
PostRank 10
PostRank 10
Beiträge: 6386
Registriert: 16.03.2008, 01:39

Beitrag von hanneswobus » 01.11.2013, 23:13

slomo,

ich mag mich eigentlich nicht weiter erklaeren und mir ist es jacke wie hose, an was du glaubst oder nicht glaubst. ich werde dir ganz sicher auch keine "coolen fakten" zeigen, denn a) kenne ich dich nicht und b) habe ich keine lust auf diese endlosposts die zu nichts fuehren und c) sehe ich keine praesentationspflicht weil ich schlichtweg keine verkaufsabsicht im hinterkopf habe.

gruß

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 01.11.2013, 23:52

hanneswobus hat geschrieben:ich mag mich eigentlich nicht weiter erklaeren
Sorry, dass es mich mal interessierte! Du hast Dich selbst so weit aus dem Fenster gelehnt, wo es eigentlich gar nicht nötig gewesen wäre. Wenn Du es kannst und nicht verkaufen willst, warum nicht kurz erläutern. Und sei es, um Glaubhaft zu bleiben.

hanneswobus
PostRank 10
PostRank 10
Beiträge: 6386
Registriert: 16.03.2008, 01:39

Beitrag von hanneswobus » 02.11.2013, 00:19

slomo,

der grund, warum ich es nicht verkaufen will, ist recht einfach: ich bin ein sehr schlechter gui-designer und habe keine lust, lange bedienungsanleitungen zu schreiben oder meine zeit mit einweisungen / support zu verschwenden. meine tools sind i.d.r. also fuer mich und mitarbeiter konzipiert.

grundlegende konzepte u. gedankengaenge etc. diskutiere ich selbstverstaendlich mit persoenlich bekannten personen aus, allerdings ausschliesslich privat und vertraulich. waere ich unglaubwuerdig, wuerde man mir das in entsprechenden gespraechen durchaus sehr deutlich mitteilen.

wenn du mit mir also etwas intensiver ueber meine speziellere herangehensweise diskutieren willst, kannst du mich gern persoenlich via telefon kontaktieren.

gruß
Zuletzt geändert von hanneswobus am 02.11.2013, 00:32, insgesamt 1-mal geändert.

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 02.11.2013, 00:24

schon klar, jetzt mal Schluss mit der Dauerwerbesendung ;)

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag