Seite 3 von 4

Verfasst: 26.10.2013, 21:36
von SloMo
hanneswobus hat geschrieben:um einen schutz vorschlagen zu koennen, brauchst du entweder haufenweise erfahrung und / oder einen relativ stabilen und relativ lueckenlosen beobachtungsalgo.
Man braucht keine lückenlose Beobachtung, sondern nur einen Alarmmechanismus (regelmäßige Backlinkkontrolle mit Standard-Tools) und etwas Sachverstand. Es gibt gute Linkressearch-Tools, die man falls nötig einkaufen kann, sobald ein Angriff stattfindet. Bis dahin genügen die normalen Tools (Majestics, Ahrefs etc.) um den Notfall zu erkennen. Einfach Augen auf...

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Verfasst: 27.10.2013, 09:46
von hanneswobus
slomo,

welcher von diesen tools ist denn deiner meinung nach in der lage, links zu finden, welche z.b. 1/2 woche oder einen tag vor den eigentlichen "angriff" gesetzt wurden?

eigentlich muesste man sich eine art katalog mit saemtlichen klassikern der "deindexierungsgruende" organisieren und ausgehend hiervon die beobachtungsmaßnahmen laufen lassen.

gruß

Verfasst: 27.10.2013, 14:56
von SloMo
Hannes, ich glaube nicht, dass Dein Tool sich in Sachen Crawling mit Google messen kann. Wenn Du das kannst, verkaufe es, denn es wird schier unbezahlbar sein. So einfach ist es doch.
welcher von diesen tools ist denn deiner meinung nach in der lage, links zu finden, welche z.b. 1/2 woche oder einen tag vor den eigentlichen "angriff" gesetzt wurden?
Ich glaube, dass es gar nicht notwendig ist und kein Toolanbieter das kann. Wenn es notwendig ist, belege es. Wenn Du es kannst, belege es. Ich sehe mich gerade eigentlich gar nicht in der Bringschuld und finde es etwas schade, dass Du Dich so weit aus dem Fenster lehnst, denn die Qualität handgestrickter Tools liegt eben in der guten Anpassung auf einen bestimmten Zweck. Solche Werkzeuge sind wertvoll, aber können nicht jedes beliebig komplexe Problem lösen.

Man kann eine Attacke meiner Meinung nach auch erkennen, wenn man deutlich weniger Daten als Google hat. Denn solche Attacken sind massiv und nicht sehr wählerisch. Wenn jemand ein paar tausend Links setzt, wird man mit Standardtools schon ein paar hundert davon sehen, also den Anstieg erkennen.

Ich wollte eigentlich keine Tools nennen und schon gar nicht bewerben. Aber da Du fragst: für die Backlinkanalyse ist man dann im Notfall z.B. mit Cempers LinkResearchTools mit 93 Datenquellen ziemlich gut bedient, sofern man es vor allem als Research Tool nimmt und nicht als Detox Wizzard, was IMHO ziemlicher Unfug ist.

Was bringt Dir denn den Wettbewerbsvorteil, von dem Du so fest überzeugt bist? Welche Datenquelle besitzt Du, die so vollständige Linkdaten liefert?

Verfasst:
von

Verfasst: 27.10.2013, 15:59
von hanneswobus
slomo,

naja schade ist, dass du mir hier eine gewisse form von arroganz unterstellst. ich behaupt bspw. nirgends, eine bessere crawlingfunktion als google geschaffen zu haben. leider beisst sich hier die katze in den schwanz: weil ich keine verkaufsabsicht habe, will und muss ich keinen einblick in konzepte, programmiercodes usw. gewaehren. generell bin ich schon redefreudig, aber halt eben nur im kleinen kreis von persoenlich bekannten. sorry, aber ich bin da etwas eigen.

zum ausgangsproblem:

deine tools sind voellig i.o. und decken einen teil der ueblichen faelle ab, man muss aber trotzdem einen katalog der ueblichen deindexierungstechniken erst einmal aufstellen. ich mache so etwas im internen bereich und tausche mich mit persoenlich bekannten kollegen aus.

Verfasst: 31.10.2013, 00:08
von Hendrik04
hanneswobus hat geschrieben:slomo,

naja schade ist, dass du mir hier eine gewisse form von arroganz unterstellst. ich behaupt bspw. nirgends, eine bessere crawlingfunktion als google geschaffen zu haben. leider beisst sich hier die katze in den schwanz: weil ich keine verkaufsabsicht habe, will und muss ich keinen einblick in konzepte, programmiercodes usw. gewaehren. generell bin ich schon redefreudig, aber halt eben nur im kleinen kreis von persoenlich bekannten. sorry, aber ich bin da etwas eigen.

zum ausgangsproblem:

deine tools sind voellig i.o. und decken einen teil der ueblichen faelle ab, man muss aber trotzdem einen katalog der ueblichen deindexierungstechniken erst einmal aufstellen. ich mache so etwas im internen bereich und tausche mich mit persoenlich bekannten kollegen aus.
Man sollte sowas also vorbeugen durch das regelmäßige kontrollieren einer Seite mit enstprechnden Tools?

Verfasst: 31.10.2013, 11:30
von hanneswobus
hendrik,

das ist korrekt. aber du musst natuerlich die ueblichen abstrafungs- und deindexierungsgruende kennen.

gruß

Verfasst: 31.10.2013, 17:58
von luzie
Hm ... selber crawlen ...

Die Programmierung solcher Tools ist nicht so schwer, aber du musst eine Halle anmieten, die musst du klimatisieren, dort musst du deine mindestens Hunderte von Maschinen aufstellen, dann brauchst du mehrere armdicke Glasfaserkabel als Anbindung, die Stromrechnung allein macht dich arm ... das wird so nichts.

Ich hab' einen sehr schönen Vortrag von MajesticSEO gehört, wo sie obiges alles fein aufgezählt haben was sie alles benötigen nur um eben MajesticSEO zu sein und selber krabbeln zu können - das sollte man nochmal durchdenken ob das so leicht geht!

Wenn es ein Tool gibt, das sehr schnell, sehr umfangreich Daten zu Backlinks liefert, dann ist es Ahrefs.com - auch die krabbeln selbst. Das dürfte das sein, womit man noch am ehesten an das rankommt, was euch vorschwebt.

Verfasst: 01.11.2013, 01:31
von hanneswobus
luzie,

wenn du die links von nur wenigen seiten beobachten willst, haelt sich das ganze in grenzen und ist durchaus machbar. probleme etc. existieren (eigentlich) nur bei der datensammlung und datenauswertung.

gruß

Verfasst: 01.11.2013, 11:49
von luzie
Ich glaube du machst da einen Denkfehler ... denn wenn du die Seiten bereits kennst, die du beobachten willst, ist es schon zu spät. Das eigene Crawlen macht doch nur dann Sinn, wenn du neu hinzugekommene Links entdecken willst - und dafür müsstest du blind das ganze Netz abkrabbeln (genau wie o.g. Tools und Google das machen)?

Verfasst: 01.11.2013, 12:10
von hanneswobus
luzie,

ich meinte mit "seiten die ich bereits kenne" genau die seiten, deren links ich gerne beobachten will.

wenn ich bestimmte "klassische" deindexierungszenarien im kopf habe, kann ich meinen algo natuerlich anpassen und gezielter suchen. wenn ich kritische linkspender kenne, reicht eine html-pruefung per stapelverarbeitung aus.

gruß

Verfasst: 01.11.2013, 22:41
von SloMo
wenn ich bestimmte "klassische" deindexierungszenarien im kopf habe, kann ich meinen algo natuerlich anpassen und gezielter suchen.
Du nimmst also eine Stichprobe. Google hat 50.000.000.000 Seiten allein im primären Index. Was, wenn Deine Stichprobe doch nicht so relevant ist? Du siehst immer nur einen Bruchteil dessen, was Google sieht (bei 50.000 beobachtete Seiten wäre es z.B. ein Millionstel).

Und wenn Du dann eine Attacke erkennst, wie wehrst Du sie ab?

Sorry, aber wenn jetzt keine coolen Fakten kommen, dann glaub' ich nicht mehr dran. Dann ist es wirklich etwas für den "kleinen Kreis von persönlichen Bekannten", wie Du es oben so schön genannt hast.

Verfasst: 01.11.2013, 23:13
von hanneswobus
slomo,

ich mag mich eigentlich nicht weiter erklaeren und mir ist es jacke wie hose, an was du glaubst oder nicht glaubst. ich werde dir ganz sicher auch keine "coolen fakten" zeigen, denn a) kenne ich dich nicht und b) habe ich keine lust auf diese endlosposts die zu nichts fuehren und c) sehe ich keine praesentationspflicht weil ich schlichtweg keine verkaufsabsicht im hinterkopf habe.

gruß

Verfasst: 01.11.2013, 23:52
von SloMo
hanneswobus hat geschrieben:ich mag mich eigentlich nicht weiter erklaeren
Sorry, dass es mich mal interessierte! Du hast Dich selbst so weit aus dem Fenster gelehnt, wo es eigentlich gar nicht nötig gewesen wäre. Wenn Du es kannst und nicht verkaufen willst, warum nicht kurz erläutern. Und sei es, um Glaubhaft zu bleiben.

Verfasst: 02.11.2013, 00:19
von hanneswobus
slomo,

der grund, warum ich es nicht verkaufen will, ist recht einfach: ich bin ein sehr schlechter gui-designer und habe keine lust, lange bedienungsanleitungen zu schreiben oder meine zeit mit einweisungen / support zu verschwenden. meine tools sind i.d.r. also fuer mich und mitarbeiter konzipiert.

grundlegende konzepte u. gedankengaenge etc. diskutiere ich selbstverstaendlich mit persoenlich bekannten personen aus, allerdings ausschliesslich privat und vertraulich. waere ich unglaubwuerdig, wuerde man mir das in entsprechenden gespraechen durchaus sehr deutlich mitteilen.

wenn du mit mir also etwas intensiver ueber meine speziellere herangehensweise diskutieren willst, kannst du mich gern persoenlich via telefon kontaktieren.

gruß

Verfasst: 02.11.2013, 00:24
von SloMo
schon klar, jetzt mal Schluss mit der Dauerwerbesendung ;)