Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Backlink Frage

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
thomas1982
PostRank 1
PostRank 1
Beiträge: 21
Registriert: 03.11.2012, 19:52

Beitrag von thomas1982 » 06.11.2012, 16:07

Hallo,

ich hab eine Frage zu diesem Thema.
wir haben 3 Websites. auf jeder Seite sind unter dem Punkt "Links" die jeweils anderen 2 Seiten angeführt.
--> bedeutet das, dass jede Seite bereits 2 Backlinks hat?

ich hab im Netz einige Backlink Checker probiert und bekomme immer 0 Links pro Website!

Gerne auch Anfragen per PM wo ich euch die URLs sagen kann. ( will nicht wegen Werbung / Spam gesperrt werden)

danke Thomas

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Chh1
PostRank 6
PostRank 6
Beiträge: 448
Registriert: 25.01.2012, 17:53
Wohnort: Würzburg

Beitrag von Chh1 » 06.11.2012, 17:19

das sind auf jeden fall jeweils 2 backlinks. ob sie gut sind oder schlecht ist eine andere frage.

Beyin
PostRank 5
PostRank 5
Beiträge: 201
Registriert: 22.04.2011, 09:04

Beitrag von Beyin » 06.11.2012, 17:22

Also dasselbe Problem habe ich auch. SEOkicks gibt für eine meiner u.a. Seiten an:
Domainpop: 2
Linkpop: 2

Dabei ist die Seite MINDESTENS auf den anderen Seiten im Blogroll verlinkt.
Mit den BLC ist es so wie mit den Analytics-Programmen. Man weiß nie, welchem man vertrauen kann.

Beispiel:
Google Analytics: 29 Besucher
ShortStats: 200
Count per Day: 72

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


thomas1982
PostRank 1
PostRank 1
Beiträge: 21
Registriert: 03.11.2012, 19:52

Beitrag von thomas1982 » 06.11.2012, 17:42

also SEO Kicks zeigt auch null Links an!

die Hauptseite ist 1,5M, die andern 1M und 2W

thomas1982
PostRank 1
PostRank 1
Beiträge: 21
Registriert: 03.11.2012, 19:52

Beitrag von thomas1982 » 06.11.2012, 17:46

so jetzt hab ich den Backlinkchecker.com nochmals ausprobiert.
am Morgen hatte ich 0 Links und jetzt plötzlich

Detailierte Linkstatistik



Anzahl Backlinks unterschiedlicher Domains:
3

Anzahl Backlinks insgesamt (inkl. Unterseiten):
7

Anzahl der verschiedenen IPs:

3 → 100%

MeNoZony
PostRank 6
PostRank 6
Beiträge: 476
Registriert: 26.08.2004, 01:59
Wohnort: Ruhrgebiet

Beitrag von MeNoZony » 06.11.2012, 19:20

Wer seinen Maschinen nicht böse ist, der sperrt die ganzen parasitären "SEO"-Spider ohnehin aus weil dieser Unfug mittlerweile inflationäre Ausmasse angenommen hat.
Insofern sind die ganzen Statistiken in vermehrtem Umfang (teuer bezahlte) Muster ohne Wert.
Die Links, die Google kennt, werden diese Spider für Arme ohnehin nie erfassen, insofern ist der Glaube an solche Möchtegern Statistiken eher eine drollige Art von Voodoo.
Aber, wie gesagt: jeden Morgen steht irgendwo ein Depp auf, man muß ihn nur zum Kauf bewegen...

ElDiablo
PostRank 9
PostRank 9
Beiträge: 1971
Registriert: 27.11.2011, 11:20

Beitrag von ElDiablo » 06.11.2012, 19:49

Es bringt natürlich was, wenn man selbst Spider aussperrt, da Backlinks auf dem eigenen Project crawled werden :roll:

Aber zum Thema - natürlich erwischen (speziell kostenlose) Backlinkchecker immer nur einen Bruchteil der Links, da die Datenbasis viel zu gering ist.
Wer schon halbwegs aussagekräftige Daten liefert sind die Großen wie Majestic oder Seomoz.

Für einen kurzen Überblick der Mitbewerber-Backlinks finde ich das kostenlose Tool von Wise sehr nett:
https://www.seo-backlink-tools.de/

thomas1982
PostRank 1
PostRank 1
Beiträge: 21
Registriert: 03.11.2012, 19:52

Beitrag von thomas1982 » 06.11.2012, 19:56

hab grad gesehen, über google wmt hab ich insgesamt 9 links ( 2 davon von den anderen Seiten)

MeNoZony
PostRank 6
PostRank 6
Beiträge: 476
Registriert: 26.08.2004, 01:59
Wohnort: Ruhrgebiet

Beitrag von MeNoZony » 07.11.2012, 00:26

ElDiablo hat geschrieben:Es bringt natürlich was, wenn man selbst Spider aussperrt, da Backlinks auf dem eigenen Project crawled werden :roll:
Nicht mit den Augen rollen, sondern sie offenhalten für das korrekte Lesen zusammenhängender Texte.
Es werden nicht alle Spider ausgesperrt, sondern nur die sinnlosen und eben das steht da auch.
Wer lesen kann, ist echt im Vorteil.
Es sei denn, Sistrix oder ähnliches Zeugs bringt mir als Nicht-Sistrix-Kunden irgendeinen wie auch immer gearteten Vorteil.
Den kannst Du mir sicherlich vermitteln.
Nein?
Na, dann mache ich (und eine wachsende Menge anderer Servebetreiber) ja doch nicht wirklich was falsch...

SEOkicks
PostRank 2
PostRank 2
Beiträge: 50
Registriert: 11.07.2011, 08:08

Beitrag von SEOkicks » 08.11.2012, 14:08

MeNoZony hat geschrieben:Es sei denn, Sistrix oder ähnliches Zeugs bringt mir als Nicht-Sistrix-Kunden irgendeinen wie auch immer gearteten Vorteil.
Den kannst Du mir sicherlich vermitteln.
Es bringt Dir den Vorteil, dass Dich jemand z.B. via Sistrix als Linkquelle entdecken kann und darüber dann ggf. ein Linktausch oder -kauf zustande kommt. Wenn Du beidem generell abgeneigt gegenüberstehst, dann entgeht Dir also nichts. Andernfalls entgehen Dir potenziell Einnahmen oder interessante Linkpartnerschaften.

Ich habe selbst schon mehrfach sehr positive Mails von Websitebetreibern bekommen, die auf den SEOkicks Backlinkchecker erst aufmerksam wurden, weil sie dort jemand als Linkquelle eines Wettbewerbers entdeckt hat und dann selbst eine Platzierung kaufen wollte. Sicherlich passiert das nicht jedem Websitebetreiber und erst Recht nicht über jedes Tool, es kommt im Alltag aber durchaus immer mal wieder vor.

MeNoZony
PostRank 6
PostRank 6
Beiträge: 476
Registriert: 26.08.2004, 01:59
Wohnort: Ruhrgebiet

Beitrag von MeNoZony » 08.11.2012, 17:04

Das ist sehr hypothetisch und allenfalls dann nachvollziehbar, wenn das Kosten-/Nutzenverhältnis einigermassen vernünftig wäre.
Ist es aber nicht.
Für den vielleicht alle Jubeljahre mal reinkommenden Interessenten rattern bei mir die Hetzners und Ukrainers durch wie bekloppt. Wenn ich in den Logs die Relation zwischen legitimen Spidern und den ganzen (komischerweise besonders aus deutschen Serverfarmen kommenden) immer aggressiver werdenden Scraper-Attacken vergleiche, dann ist es irgendwann bereits eine reine Massnahme der Selbstverteidigung, wenn die IPTables regelmässig gefüttert werden, denn je höher die Last um so grösser die Gefahr, daß potentielle Kunden in der Warteschleife hängen: schliesslich hat man seine Maschinen ja nicht just for fun am Netz hängen.
Und, nein, nicht wenige von diesen ungebetenen Gästen lassen sich eben nicht von robots.txt abhalten, so ist es ökonomischer, gleich die ganze Maschine für die ungebetenen Mitesser dichtzumachen.
Auch und nicht zuletzt aufgrund der Entwicklung, daß man nicht mehr mit einer IP spidert, sondern vermehrt der Effekt auftritt, daß mit verschiedenen IPs, teilweise sogar aus mehreren Ranges, gleichzeitig gefeuert wird. Faktisch gesehen sind das bereits DOS-Attacken und gar nicht mehr komisch.
Wenn dann noch fragwürdige Geschäftsmodelle wie 80legs dazukommen, dann schaukeln sich die Spider irgendwann mal gegenseitig auf den Servern dieser Welt die Eier und weder Seitenebtreiber noch Nutzer haben von dieser Pest irgend etwas an Nutzen.

SEOkicks
PostRank 2
PostRank 2
Beiträge: 50
Registriert: 11.07.2011, 08:08

Beitrag von SEOkicks » 08.11.2012, 17:39

Ich denke nicht, dass man die Blockade von "Sistrix oder ähnlichem Zeugs" mit "immer aggressiver werdenden Scraper-Attacken" begründen kann. Ich selbst kann nur für die SEOkicks Crawler sprechen, die zwar auch unterschiedliche IPs nutzen (weil es eben sehr viele Server sind), sich aber vollständig an robots.txt Anweisungen halten.

Wie das jetzt speziell bei Sistrix ist kann ich nicht beurteilen. Allerdings betreiben wir neben www.seokicks.de auch noch sehr viele andere Internetpräsenzen mit teilweise mehreren zehntausend Besuchern pro Tag und bei keiner musste jemals eine IP gesperrt werden - obwohl auch z.B. der Sistrix-Crawler regelmäßig in den Logfiles auftaucht. Das gilt für große Seiten auf eigenen Servern genauso, wie für kleine Seiten auf gemietetem Webspace. Und wir erhalten selbst ebenfalls immer mal wieder Linkkauf oder -tausch Anfragen, die ihren Ursprung sicher auch in der Benutzung von Backlink-Datenbanken haben.

Du fragtest explizit nach dem Vorteil der für Dich entsteht, wenn Du z.B. Sistrix nicht sperrst. Diesen Vorteil kann es wie geschildert durchaus geben - bei allen von uns betriebenen Internetseiten sogar ohne jeden Nachteil den es abzuwiegen bedürfte.

ElDiablo
PostRank 9
PostRank 9
Beiträge: 1971
Registriert: 27.11.2011, 11:20

Beitrag von ElDiablo » 08.11.2012, 20:27

Ein Xeon® E3-1245 Quad-Core, 16 GB DDR3 RAM ECC mit Gbit-Anbindung und 15 TB Traffic kostet knapp 100 €. Was ziehen alle SEO-Spider zusammen vorsichtig gerechnet an Last & Bandbreite? 0.2%? Also die 20 cent investiere ich gerne, wenn ich einen Server komplett auslaste ;-)

Wenn man Etao von Alibaba als internationaler Händler aussperrt (wie z.B. Amazon, 360buy, ...), dann kann man das noch verstehen. Sich im SEO zu bewegen und sich selbst die Statistiken zu versauen ist hingegen nicht nur unnötig, sondern dumm. Nur für Linkverkäufer macht es Sinn, dass man sich nicht mit jedem 0815-Tool in die Karten gucken lässt, denn in heiß umkämpften Themen melden die Mitbewerber einfach gern mal sowas.

Hennes74
PostRank 1
PostRank 1
Beiträge: 19
Registriert: 06.05.2012, 17:05

Beitrag von Hennes74 » 08.11.2012, 20:27

Hi,

Also ich beschränke mich mittlerweile nur noch auf eine Quelle um meine Backlinks abzufragen. Alles andere ist verwirrend. Ich schaue momentan nur noch bei Google WMT und das aus zwei Gründen: 1. Google ist immer noch die Nummer eins, d.h. was da steht zählt. 2. Dort werden mir die meisten Backlinks angezeigt - Das fühlt sich einfach gut an ;-)

Was Google WMT allerdings nicht kann, ist ein Backlink-Vergleich mit anderen (konkurrierenden) Seiten.

Gruß

Hennes

MeNoZony
PostRank 6
PostRank 6
Beiträge: 476
Registriert: 26.08.2004, 01:59
Wohnort: Ruhrgebiet

Beitrag von MeNoZony » 09.11.2012, 02:51

ElDiablo hat geschrieben:Ein Xeon® E3-1245 Quad-Core, 16 GB DDR3 RAM ECC mit Gbit-Anbindung und 15 TB Traffic kostet knapp 100 €. Was ziehen alle SEO-Spider zusammen vorsichtig gerechnet an Last & Bandbreite? 0.2%? Also die 20 cent investiere ich gerne, wenn ich einen Server komplett auslaste ;-)
Recht infantile Vorstellung, denn es ist letztendlich ja entscheidend die Software, die z.B. die maximale Anzal von Clients limitiert.
Beispiel von gestern: bis zu 400 Abfragen/Sec. aus dem bezeqint Universum, da macht der Apache gern mal dicht und der Rest der Welt landet in der Warteschleife.
Und da ich keine Lust habe, wegen so einem Mist dauernd an configs rumzuschrauben und ich keinen Sinn in den Abfragen aus o.g. Universum sehe, wird dichtgemacht und zwar rigoros.
Die Kollateralschaden bei geblockten Scrapern sind in Heller & Pfennig geringer als bei weggehenden legitimen Usern.
Aber jeder nach seinem Gusto.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag