Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Wie wärs mit einer eigenen Suchmaschine...

Ein wichtiges Thema für einige Suchmaschinen. Dieses Unterforum dient zur Beantwortung von Fragen rund um das Thema Link-Marketing, Linkbaits, Widgets, Ideen die Linkerati zu finden und wecken!

(Kein Link Farm / Linktausch Börse usw.)
wowglider
PostRank 8
PostRank 8
Beiträge: 809
Registriert: 22.05.2007, 18:00

Beitrag von wowglider » 31.07.2007, 09:58

...die Webseiten nur nach Links durchsucht umso die besten Backlinkcheck ergebnisse zu bringen?

Was haltet ihr davon?

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Fantastixxx
PostRank 9
PostRank 9
Beiträge: 1244
Registriert: 13.01.2006, 13:14
Wohnort: München

Beitrag von Fantastixxx » 31.07.2007, 11:17

*lach*
die Webseiten nur nach Links durchsucht
Ja dann bau mal eine. Is glaub ich ganz einfach. Ressourcen sind kaum von Nöten ;-)

wowglider
PostRank 8
PostRank 8
Beiträge: 809
Registriert: 22.05.2007, 18:00

Beitrag von wowglider » 31.07.2007, 22:27

die idee kam mir einfach weil soviele backlink checker einfach so ungenau sind, da wär ne reine backlink suchmaschine perfekt...

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


netnut
PostRank 9
PostRank 9
Beiträge: 1931
Registriert: 30.10.2004, 01:24

Beitrag von netnut » 01.08.2007, 00:31

Tolle Idee, Google braucht tausende Rechner in Zentren auf der ganzen Welt um eine solche Leistung zu erzielen und Du willst das nachbauen um Deine Backlinks zu checken... Sagt mal, sind wieder Sommerferien? :roll:

new_newbie
PostRank 6
PostRank 6
Beiträge: 413
Registriert: 17.03.2006, 18:48
Wohnort: Weit weg

Beitrag von new_newbie » 01.08.2007, 02:54

Der Google-Backlinkcheck in den Google Webmastertools funktioniert ganz hervorragend.

[btk]tobi
PostRank 8
PostRank 8
Beiträge: 890
Registriert: 11.10.2004, 05:02
Wohnort: Stuttgart

Beitrag von [btk]tobi » 01.08.2007, 05:20

Die Auswertung der Referer auch.

wowglider
PostRank 8
PostRank 8
Beiträge: 809
Registriert: 22.05.2007, 18:00

Beitrag von wowglider » 01.08.2007, 21:27

netnut hat geschrieben:Tolle Idee, Google braucht tausende Rechner in Zentren auf der ganzen Welt um eine solche Leistung zu erzielen und Du willst das nachbauen um Deine Backlinks zu checken... Sagt mal, sind wieder Sommerferien? :roll:
Ahja, Google checkt also mit 1000senden Rechnern NUR Links? Interessant, zum Thema Schulferien, ja glaub schon, weiß ich aber nicht genau denn ich geh nicht mehr zur schule :Fade-color.

Finde die Idee gut, von der Umsetzung hab ich keine Ahnung, aber naja da ja Google schon tausende Rechner NUR braucht um NUR Links zu Checken :robot: du mussts wissen.

Lang leben die Schulferien 0X

edit: also zum thema webmastertools, ich konnte meine seite ca 3 Monate nicht Verifizieren(blabla, google sei überlastet)
und die backlinks da stimmen auch nicht, genauso wie auch der links: befehl unter google selbst
ach und bevor ichs vergesse, man checkt also durch referer auswertung backlinks, interessant...

Fantastixxx
PostRank 9
PostRank 9
Beiträge: 1244
Registriert: 13.01.2006, 13:14
Wohnort: München

Beitrag von Fantastixxx » 01.08.2007, 21:35

@ Wowglider

Nicht gleich pampig werden.

Sämtliche Seiten müssen KOMPLETT geparst werden, d.h. der Quelltext muss komplett aufgenommen und durchsucht werden und Backlinks zu finden. Auch wenn man nur Backlinks sucht muss trotzdem dei Seite als Ganzes durchsucht werden. Hast du auch nur annähernd nen Schimmer wieviel KB Quelltext und wieviele Seiten es gibt??????

Die Google Link Anzeige link:www.blablabla.de funktioniert nicht weil Google das nicht möchte. Siehe Sticky bei Abakus.

Die Webmastertools Link Abfrage wird nur alle paar Monate aktualisiert.
Google hat einige Änderungen die letzte Zeit in den Webmastertools vorgenommen.

wowglider
PostRank 8
PostRank 8
Beiträge: 809
Registriert: 22.05.2007, 18:00

Beitrag von wowglider » 01.08.2007, 21:48

Fantastixxx hat geschrieben:@ Wowglider

Nicht gleich pampig werden.

Sämtliche Seiten müssen KOMPLETT geparst werden, d.h. der Quelltext muss komplett aufgenommen und durchsucht werden und Backlinks zu finden. Auch wenn man nur Backlinks sucht muss trotzdem dei Seite als Ganzes durchsucht werden. Hast du auch nur annähernd nen Schimmer wieviel KB Quelltext und wieviele Seiten es gibt??????

Die Google Link Anzeige link:www.blablabla.de funktioniert nicht weil Google das nicht möchte. Siehe Sticky bei Abakus.

Die Webmastertools Link Abfrage wird nur alle paar Monate aktualisiert.
Google hat einige Änderungen die letzte Zeit in den Webmastertools vorgenommen.
Ich bin es nicht der andere als Schulkinder betitelt. :bad-words:
Im gegensatz zu Google müssen diese Seiten aber NICHT gespeichert werden und auch nicht auf Ihre Relevanz ausgewertet werden, es müsste jeder quelltext nur nach aller arten von sichtbaren backlinks durchsucht werden, ich sagte bereits von der umsetzung hab ich keine ahnung, vllt würden auch einfach nur die ersten 100k von Alexa untersucht, war ja nur ein denkanschlag da mir die Backlink Checker in letzter Zeit ziemlich... :oops: naja aber ich seh schon "...", Gute Nacht

grossy
PostRank 6
PostRank 6
Beiträge: 477
Registriert: 21.07.2007, 17:55

Beitrag von grossy » 01.08.2007, 22:36

Nabend.

Ich finde die Idee gut, weil, ich hab auch schon mal drüber nach gedacht. :D

Nun zum Praktischen:

Also, es gibt laut Wik 11.178.068 de-TLDs. Wenn man jetzt mal ganz grob (wenn jemand genauere Zahlen hat, bitte schreien) schätzt, daß eine de-Domain durchschnittlich! 1 Megabyte an Quelltext hat, ist das deutsche Web ca. 11 Terrabyte groß. OK.... Ich schätze, um die ein- und ausgehenden Links zu speichern, braucht man weniger als ein Terrabyte. Wären ja immerhin 10% vom Quelltext.
Um die Sache umzusetzten braucht man jetzt entweder 2 Leistungsstarke Server und 50 TB Traffik um DE im Wochenrhythmus zu parsen, oder man kann es auch verteilt machen, also sowas wie SETI@Home, sollten dann aber 100-200 SEOs in DE mitmachen. Und man braucht auch noch ein bissel Zeit um die Sache zu programmieren. Hätte ich die, hätte ich mich schon längst mal dran gesetzt.

Was hat man nun davon???
- Eine Übersicht über seine Backlinks.
- Eine Übersicht über ein und ausgehende Links seiner Linkpartner. und deren Linkpartner
- Wäre dann die Stärke und Bad Nabourhood auch besser erkennbar
- Alarme wenn sich was ändert
.....

Halt die Linkstrucktur in beliebiger Tiefe schön auf einer Seite dargestellt.

Gut, wer macht mit?
:roll:

Grüße

grossy

t-rex
PostRank 7
PostRank 7
Beiträge: 585
Registriert: 15.03.2004, 14:00

Beitrag von t-rex » 02.08.2007, 06:24

Hi,

@grossy: Das ist ja schon einmal ein guter Ansatz. Aber ein paar Korrekturen möchte ich da noch einbringen.

Man sagt, dass Google nur Links der ersten max. 101KB einer HTML-Seite berücksichtigt. Und das ist für eine "normale" HTML-Seite schon recht deftig. Ich würde die durchschnittliche Grösse einer HTML-Seite auf 25KB schätzen. Was den Traffic für die .de Domains schon deutlich reduzieren würde.

Allerdings würde dieser Vorteil wieder verpuffen, wenn man berücksichtigt, dass das Internet nicht nur aus .de Domains besteht, und SEOs sich nicht nur um .de-Domains kümmern. Und ich könnte wetten, dass wenn man da eine Wunschliste machen würde, dass dann mindestens die hälfte aller TLDs berücksichtigt werden müssten.

Im Grossen und Ganzen sollte die Trafficgeschichte damit dann wieder neutralisiert sein. (Ohne das jetzt genauer nachzurechnen ;-) )

Nun haben wir mit dem mehr an verfügbaren TLDs auch die Anzahl der Seiten und somit auch die Anzahl der Links, drastisch erhöht. Und damit würde die Rechenpower von 2 Server lange nicht mehr ausreichen. Es sei denn, es reicht, wenn das erste ungefähre Ergebnis erst in 6 Monaten oder so verfügbar ist.

Ich gehe auch davon aus, dass für solch ein Projekt eine herkömmliche MySQL Installation auch nicht mehr so einfach ausreichen würde. Das aber nur nebenbei.

Wer will kann das ja mal alles genauer ausrechnen. Mir reicht eigentlich die konzeptionelle Überlegung, um Fantastixxx und netnut zuzustimmen. :lol:

Sonnige Grüsse
HaPe
Keiner weiss wass ich tue, aber alle wissen wie ich es besser machen kann
save the bookmark - logocreatr - backgrounds - templatr- PPC Themes

marc75
PostRank 9
PostRank 9
Beiträge: 1916
Registriert: 06.10.2004, 09:36

Beitrag von marc75 » 02.08.2007, 07:33

hier noch ein paar Punkte:

1. Der Backlink Checker sollte kostenlos für dier Nutzer sein :lol:
2. Fallen wie bot-trap dürfen nicht anspringen :lol:
3. .htaccess Sperren müssen umgehbar sein durch wechselne IP und UA :lol:


Sagt bescheid wenns fertig ist.

grossy
PostRank 6
PostRank 6
Beiträge: 477
Registriert: 21.07.2007, 17:55

Beitrag von grossy » 02.08.2007, 08:52

Morgen,

ich hab nochmal nachgedacht :idea:

also September 2005 hat yahoo gesagt, mein Index ist ca 20 Milliarden Seiten groß. Daraufhin hat google gesagt, mein Index ist mindestens 3 mal so groß. Sagen wir mal, wir brauchen heute 100 Milliarden Seiten, um mit google in der selben Liga zu spielen.
100.000.000.000 mal 25 KB sind mal locker 2500 Terrabyte Traffic für das ganze www. Ich gebe zu, das machen 2 Server nicht . Aber mit einem kleinen Rechenzentrum dürft man hinkommen. Also wenn jemand noch eins zu Hause im Keller hat, bitte mal ne PN.
:-?
Oder wir brauchen ungefähr weltweit 25.000+ SEOs die eine dezantrale Backlinksuma auf ihren Rechner laufen lassen würden.

Bitte hier eintragen wer mitmachen will, bei 10.000 fang ich an zu Programmieren. Ehrenwort. :P

Grüße

grossy

Racer
PostRank 7
PostRank 7
Beiträge: 501
Registriert: 01.02.2006, 07:55

Beitrag von Racer » 02.08.2007, 08:57

grossy hat geschrieben:...bei 10.000 fang ich an zu Programmieren. Ehrenwort. :P

Grüße

grossy
Und wirst im Leben nicht fertig. Schau Dir mal die Daten zu dem OS an, welches Google für seine Suche und die Verwaltung der Daten eigens entwickelt hat. In Mannjahren gerechnet wirst Du das im Leben nicht schaffen und validieren können.

Pompom
PostRank 10
PostRank 10
Beiträge: 3751
Registriert: 10.09.2004, 16:38

Beitrag von Pompom » 02.08.2007, 09:16

SEOs machen ne Suchmaschine :lol: :lol:
Das ist so, als wenn ein Raubmörder gerne am Schalter in der Bank stehen möchte :lol:

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag