Seite 2 von 4

Verfasst: 25.10.2013, 06:07
von nerd
hanneswobus hat geschrieben:das crawling etc. dauert natuerlich seine zeit. ich crawle hier selbst und hole mir natuerlich auch noch die datensaetze aus den ueblichen zulieferern.
Selber crawlen? welche hardware und netzanbindungen hast du denn zu hause?
im internet werden pro minute mehr neue seiten erzeugt (entweder forenpostings, wiki seiten, blog posts, blog kommentare oder ganze neue seiten usw.) als du mit deiner bandbreite und deinen rechenkapazitaeten von zu hause aus je finden(!), filtern (spam), lesen und parsen koenntest. Twitter allein speichert PRO SEKUNDE ~5700 neue tweets; und twitter ist nur die 10th meistebesuchte domain im web; von ein paar millionen ...

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Verfasst: 25.10.2013, 16:37
von webbastler
Google sei Dank, werden diese Denunziationen nicht gewertet.
So etwas funktionierte nur bei der Stasi.

Verfasst: 25.10.2013, 17:30
von seonewbie
@slomo
Ich habe selber schon drei Domains zurück gebracht die sich
entweder mit BH oder durch Fremdeinwirkung abgeschossen haben.

O.K es geht nicht über Nacht (da habe ich was übertrieben) aber
in 2 - 4 Wochen.

Alle Domains kommen aber stärker zurück da fast jede Domain irgend
welche uralte schlechte Backlinks hat. Wenn man dann das ganze
Backlinkprofil gecleant, die böse hinzugefügten aber auch die alten
schlechten, gibt es ja so gut wie keine schlechten Backlinks mehr so das
die Domains dann logischerweise auch besser als vorher ranken.

Du kannst es ja mal ausprobieren und ein mittelmässige Domain nehmen
und schlechte Backlinks entfernen wo die Domain des Backlinks PR0 hat.
Achtung Domainalter beachten. Eine junge Domain kann natürlich PR0
haben. Du wirst sehen das sich in einem Monat was tut.

Gruß

Micha

Verfasst:
von
Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Verfasst: 25.10.2013, 17:47
von webbastler
Hallo seonewbie,
es gibt keine schlechten Backlinks, nur wertlose, und unter PR 0 ist keiner.
Wie schon aufgeführt , Google sei Dank werden z. Zt. die alten Stasimethoden von Google noch nicht voll berücksichtigt. Nur bei Adwordsgegener neigt man zur Kewordssperre einiger Domains.

Verfasst: 26.10.2013, 11:56
von SloMo
seonewbie hat geschrieben:Du kannst es ja mal ausprobieren und ein mittelmässige Domain nehmen und schlechte Backlinks entfernen wo die Domain des Backlinks PR0 hat.
Die Diskussion auf diesem Niveau hilft niemandem, sie schadet nur gutgläubigen Laien. Die letzten Behauptungen sind überhaupt nicht glaubhaft. Ein Backlinkprofil anhand der PageRank-Anzeige zu optimieren, grenzt an Hochstapelei! Das Schädigungspotenzial von Links zu leugnen, ist angesichts Penguin und Unnatural Links Penalties völlig ignorant!

Bin schon gespannt auf den nun folgenden Trollzirkus *Popcorn zück*

Verfasst: 26.10.2013, 13:24
von hanneswobus
slomo,

du hast natuerlich vollkommen recht. ich bin allerdings etwas skeptisch, ob man hier die ueblichen und bekannten _deindexierungs_"techniken" ausdiskutieren sollte und koennte - u.u. kommen dann die leute auf sehr merkwuerdige ideen. dasselbe gilt auch fuer die reparaturmaßnahmen. ich lese auch staendig von diversen erfolgsstories und wie toll kollege xyz hier ist usw. etc. pp. aber mir fehlen hier angaben zu den ausgangszustaenden und der vorgeschichte der jeweiligen domains - so gesehen sind entsprechende meldungen fuer mich relativ uninteressant.

webbastler,

auch korrekt aber was viele vergessen ist, dass die backlinks auch _behandelt_ werden koennen. je nachdem, wie das ganze aussieht, entfalten auch trash-links die gewuenschte positiv- oder negativwirkung.

Verfasst: 26.10.2013, 15:20
von hanneswobus
nerd hat geschrieben:
hanneswobus hat geschrieben:das crawling etc. dauert natuerlich seine zeit. ich crawle hier selbst und hole mir natuerlich auch noch die datensaetze aus den ueblichen zulieferern.
Selber crawlen? welche hardware und netzanbindungen hast du denn zu hause?
im internet werden pro minute mehr neue seiten erzeugt (entweder forenpostings, wiki seiten, blog posts, blog kommentare oder ganze neue seiten usw.) als du mit deiner bandbreite und deinen rechenkapazitaeten von zu hause aus je finden(!), filtern (spam), lesen und parsen koenntest. Twitter allein speichert PRO SEKUNDE ~5700 neue tweets; und twitter ist nur die 10th meistebesuchte domain im web; von ein paar millionen ...
nerd,

ich besitze eine voellig normale hardware und dsl-verbindung. das crawling ist eigentlich nicht das problem, wenn du deinen crawler mit den richtigen "fragen" fuetterst und die api-zugaenge zu den socialmediaservices begriffen hast. gerade hier findest du zig anleitungen und codebeispiele.

ich habe meinen algo uebrigens mit hilfe von borland-delphi als windows-applikation umgesetzt.

gruß

Verfasst: 26.10.2013, 15:46
von SloMo
das crawling ist eigentlich nicht das problem, wenn du deinen crawler mit den richtigen "fragen" fuetterst und die api-zugaenge zu den socialmediaservices begriffen hast.
Hmmm, Nerd hat aber schon Recht. Um mit Google mitzuhalten, brauchst Du eine gleichwertige Infrastruktur. Es ist unwahrscheinlich, dass Dir ein paar APIs und etwas Programmiererfahrung einen wesentlichen technologischen Vorsprung vor Google verschaffen, oder?

Selbst Cemper sagt, er hat keine Chance, über APIs alle Links zu finden. Deshalb können seine LRTs auch Linklisten (z.B. von Spamtools) importieren. Solche Links sind zum Beispiel tief in inaktiven Foren vergraben. Die kennt nur Google, weil nur sie die nötige Crawl-Kapazität besitzen.

Verfasst: 26.10.2013, 15:54
von hanneswobus
slomo,

die apis sind ein (!) datenzulieferer von vielen anderen und ich habe nicht nur "etwas programmiererfahrung".

gruß.

Verfasst: 26.10.2013, 17:03
von SloMo
@Hannes: Ich meine nur, dass es keinen Datenanbieter und keinen Entwickler gibt, der Googles Technologievorsprung kompensieren kann. Das kann man glaube ich aus dem Bauch heraus sagen. Darfst mich gerne eines Besseren belehren. :)

Verfasst: 26.10.2013, 17:30
von hanneswobus
@slomo

naja die maengel diverser datenanbieter sind mir natuerlich gelaeufig, deswegen habe ich mich dazu entschieden, eine kompensationsloesung anzufassen welche erstaunlich gut laeuft. diese ist allerdings leider auf dem stand, dass die bedienung und die dateninterpretation nur fuer mich einfach und logisch ist. wenn ich dazu komme, ueberarbeite ich das ganze und stelle das ergebnis in geeigneter form zur diskussion.

aber wir sollten natuerlich auch die frage klaeren, wie denn negativ-seo-angriffe beobachtet werden koennen. ;-)


gruß

Verfasst: 26.10.2013, 17:54
von SloMo
Die Frage war ja eigentlich, wie man sich davor schützen kann. ;) Deine Frage impliziert, dass man dazu solche Angriffe (im Detail?) beobachten muss. Eigentlich genügt zum Schutz vermutlich schon ein einziger guter Backlink... von google.com :))

Verfasst: 26.10.2013, 18:11
von hanneswobus
slomo,

um einen schutz vorschlagen zu koennen, brauchst du entweder haufenweise erfahrung und / oder einen relativ stabilen und relativ lueckenlosen beobachtungsalgo.

wir koennen uns gern privat ueber deindexierungsgruende und schutzstrategien austauschen.

gruß

Verfasst: 26.10.2013, 18:25
von seonewbie
Mal eine Frage nutzt eigentlich eines der professionellen Tools
archive.org um e.v.t. existierende aber deindizierte links zu finden?

Das wäre zumindest eine Quelle die ich auf jeden Fall nutzen würde
wenn ich einen eigenen Crawler progen würde.

Gruß

Micha

Verfasst: 26.10.2013, 18:32
von hanneswobus
seonewbie,

aktuell nutze ich das nicht, aber danke fuer den hinweis ... :-) im moment mache ich eine pruefung auf den quellcode der gefundenen "linkspender".

gruß