Seite 1 von 2

Wie wärs mit einer eigenen Suchmaschine...

Verfasst: 31.07.2007, 09:58
von wowglider
...die Webseiten nur nach Links durchsucht umso die besten Backlinkcheck ergebnisse zu bringen?

Was haltet ihr davon?

Verfasst:
von

Verfasst: 31.07.2007, 11:17
von Fantastixxx
*lach*
die Webseiten nur nach Links durchsucht
Ja dann bau mal eine. Is glaub ich ganz einfach. Ressourcen sind kaum von Nöten ;-)

Verfasst: 31.07.2007, 22:27
von wowglider
die idee kam mir einfach weil soviele backlink checker einfach so ungenau sind, da wär ne reine backlink suchmaschine perfekt...

Verfasst:
von

Verfasst: 01.08.2007, 00:31
von netnut
Tolle Idee, Google braucht tausende Rechner in Zentren auf der ganzen Welt um eine solche Leistung zu erzielen und Du willst das nachbauen um Deine Backlinks zu checken... Sagt mal, sind wieder Sommerferien? :roll:

Verfasst: 01.08.2007, 02:54
von new_newbie
Der Google-Backlinkcheck in den Google Webmastertools funktioniert ganz hervorragend.

Verfasst: 01.08.2007, 05:20
von [btk]tobi
Die Auswertung der Referer auch.

Verfasst: 01.08.2007, 21:27
von wowglider
netnut hat geschrieben:Tolle Idee, Google braucht tausende Rechner in Zentren auf der ganzen Welt um eine solche Leistung zu erzielen und Du willst das nachbauen um Deine Backlinks zu checken... Sagt mal, sind wieder Sommerferien? :roll:
Ahja, Google checkt also mit 1000senden Rechnern NUR Links? Interessant, zum Thema Schulferien, ja glaub schon, weiß ich aber nicht genau denn ich geh nicht mehr zur schule :Fade-color.

Finde die Idee gut, von der Umsetzung hab ich keine Ahnung, aber naja da ja Google schon tausende Rechner NUR braucht um NUR Links zu Checken :robot: du mussts wissen.

Lang leben die Schulferien 0X

edit: also zum thema webmastertools, ich konnte meine seite ca 3 Monate nicht Verifizieren(blabla, google sei überlastet)
und die backlinks da stimmen auch nicht, genauso wie auch der links: befehl unter google selbst
ach und bevor ichs vergesse, man checkt also durch referer auswertung backlinks, interessant...

Verfasst: 01.08.2007, 21:35
von Fantastixxx
@ Wowglider

Nicht gleich pampig werden.

Sämtliche Seiten müssen KOMPLETT geparst werden, d.h. der Quelltext muss komplett aufgenommen und durchsucht werden und Backlinks zu finden. Auch wenn man nur Backlinks sucht muss trotzdem dei Seite als Ganzes durchsucht werden. Hast du auch nur annähernd nen Schimmer wieviel KB Quelltext und wieviele Seiten es gibt??????

Die Google Link Anzeige link:www.blablabla.de funktioniert nicht weil Google das nicht möchte. Siehe Sticky bei Abakus.

Die Webmastertools Link Abfrage wird nur alle paar Monate aktualisiert.
Google hat einige Änderungen die letzte Zeit in den Webmastertools vorgenommen.

Verfasst: 01.08.2007, 21:48
von wowglider
Fantastixxx hat geschrieben:@ Wowglider

Nicht gleich pampig werden.

Sämtliche Seiten müssen KOMPLETT geparst werden, d.h. der Quelltext muss komplett aufgenommen und durchsucht werden und Backlinks zu finden. Auch wenn man nur Backlinks sucht muss trotzdem dei Seite als Ganzes durchsucht werden. Hast du auch nur annähernd nen Schimmer wieviel KB Quelltext und wieviele Seiten es gibt??????

Die Google Link Anzeige link:www.blablabla.de funktioniert nicht weil Google das nicht möchte. Siehe Sticky bei Abakus.

Die Webmastertools Link Abfrage wird nur alle paar Monate aktualisiert.
Google hat einige Änderungen die letzte Zeit in den Webmastertools vorgenommen.
Ich bin es nicht der andere als Schulkinder betitelt. :bad-words:
Im gegensatz zu Google müssen diese Seiten aber NICHT gespeichert werden und auch nicht auf Ihre Relevanz ausgewertet werden, es müsste jeder quelltext nur nach aller arten von sichtbaren backlinks durchsucht werden, ich sagte bereits von der umsetzung hab ich keine ahnung, vllt würden auch einfach nur die ersten 100k von Alexa untersucht, war ja nur ein denkanschlag da mir die Backlink Checker in letzter Zeit ziemlich... :oops: naja aber ich seh schon "...", Gute Nacht

Verfasst: 01.08.2007, 22:36
von grossy
Nabend.

Ich finde die Idee gut, weil, ich hab auch schon mal drüber nach gedacht. :D

Nun zum Praktischen:

Also, es gibt laut Wik 11.178.068 de-TLDs. Wenn man jetzt mal ganz grob (wenn jemand genauere Zahlen hat, bitte schreien) schätzt, daß eine de-Domain durchschnittlich! 1 Megabyte an Quelltext hat, ist das deutsche Web ca. 11 Terrabyte groß. OK.... Ich schätze, um die ein- und ausgehenden Links zu speichern, braucht man weniger als ein Terrabyte. Wären ja immerhin 10% vom Quelltext.
Um die Sache umzusetzten braucht man jetzt entweder 2 Leistungsstarke Server und 50 TB Traffik um DE im Wochenrhythmus zu parsen, oder man kann es auch verteilt machen, also sowas wie SETI@Home, sollten dann aber 100-200 SEOs in DE mitmachen. Und man braucht auch noch ein bissel Zeit um die Sache zu programmieren. Hätte ich die, hätte ich mich schon längst mal dran gesetzt.

Was hat man nun davon???
- Eine Übersicht über seine Backlinks.
- Eine Übersicht über ein und ausgehende Links seiner Linkpartner. und deren Linkpartner
- Wäre dann die Stärke und Bad Nabourhood auch besser erkennbar
- Alarme wenn sich was ändert
.....

Halt die Linkstrucktur in beliebiger Tiefe schön auf einer Seite dargestellt.

Gut, wer macht mit?
:roll:

Grüße

grossy

Verfasst: 02.08.2007, 06:24
von t-rex
Hi,

@grossy: Das ist ja schon einmal ein guter Ansatz. Aber ein paar Korrekturen möchte ich da noch einbringen.

Man sagt, dass Google nur Links der ersten max. 101KB einer HTML-Seite berücksichtigt. Und das ist für eine "normale" HTML-Seite schon recht deftig. Ich würde die durchschnittliche Grösse einer HTML-Seite auf 25KB schätzen. Was den Traffic für die .de Domains schon deutlich reduzieren würde.

Allerdings würde dieser Vorteil wieder verpuffen, wenn man berücksichtigt, dass das Internet nicht nur aus .de Domains besteht, und SEOs sich nicht nur um .de-Domains kümmern. Und ich könnte wetten, dass wenn man da eine Wunschliste machen würde, dass dann mindestens die hälfte aller TLDs berücksichtigt werden müssten.

Im Grossen und Ganzen sollte die Trafficgeschichte damit dann wieder neutralisiert sein. (Ohne das jetzt genauer nachzurechnen ;-) )

Nun haben wir mit dem mehr an verfügbaren TLDs auch die Anzahl der Seiten und somit auch die Anzahl der Links, drastisch erhöht. Und damit würde die Rechenpower von 2 Server lange nicht mehr ausreichen. Es sei denn, es reicht, wenn das erste ungefähre Ergebnis erst in 6 Monaten oder so verfügbar ist.

Ich gehe auch davon aus, dass für solch ein Projekt eine herkömmliche MySQL Installation auch nicht mehr so einfach ausreichen würde. Das aber nur nebenbei.

Wer will kann das ja mal alles genauer ausrechnen. Mir reicht eigentlich die konzeptionelle Überlegung, um Fantastixxx und netnut zuzustimmen. :lol:

Sonnige Grüsse
HaPe

Verfasst: 02.08.2007, 07:33
von marc75
hier noch ein paar Punkte:

1. Der Backlink Checker sollte kostenlos für dier Nutzer sein :lol:
2. Fallen wie bot-trap dürfen nicht anspringen :lol:
3. .htaccess Sperren müssen umgehbar sein durch wechselne IP und UA :lol:


Sagt bescheid wenns fertig ist.

Verfasst: 02.08.2007, 08:52
von grossy
Morgen,

ich hab nochmal nachgedacht :idea:

also September 2005 hat yahoo gesagt, mein Index ist ca 20 Milliarden Seiten groß. Daraufhin hat google gesagt, mein Index ist mindestens 3 mal so groß. Sagen wir mal, wir brauchen heute 100 Milliarden Seiten, um mit google in der selben Liga zu spielen.
100.000.000.000 mal 25 KB sind mal locker 2500 Terrabyte Traffic für das ganze www. Ich gebe zu, das machen 2 Server nicht . Aber mit einem kleinen Rechenzentrum dürft man hinkommen. Also wenn jemand noch eins zu Hause im Keller hat, bitte mal ne PN.
:-?
Oder wir brauchen ungefähr weltweit 25.000+ SEOs die eine dezantrale Backlinksuma auf ihren Rechner laufen lassen würden.

Bitte hier eintragen wer mitmachen will, bei 10.000 fang ich an zu Programmieren. Ehrenwort. :P

Grüße

grossy

Verfasst: 02.08.2007, 08:57
von Racer
grossy hat geschrieben:...bei 10.000 fang ich an zu Programmieren. Ehrenwort. :P

Grüße

grossy
Und wirst im Leben nicht fertig. Schau Dir mal die Daten zu dem OS an, welches Google für seine Suche und die Verwaltung der Daten eigens entwickelt hat. In Mannjahren gerechnet wirst Du das im Leben nicht schaffen und validieren können.

Verfasst: 02.08.2007, 09:16
von Pompom
SEOs machen ne Suchmaschine :lol: :lol:
Das ist so, als wenn ein Raubmörder gerne am Schalter in der Bank stehen möchte :lol: