Seite 1 von 1

Analyse: externe, interne Links und Session als Bot prüfen

Verfasst: 05.01.2009, 23:15
von mgutt
Hi,

ich habe mir gerade ein Tool gebastelt, da ich wissen wollte, ob die Session-ID-Deaktivierung beim Googlebot funktioniert. Vielleicht hat ja noch jemand dafür Verwendung:
https://www.gutt.it/link-analyse.php

Neben der Auflistung aller internen & externen Links zeigt die Seite noch nofollow Links an und man kann sich als Googlebot ausgeben, um so evtl. Linktauschbetrug aufzudecken oder eben wie ich die Sessions zu kontrollieren.

Kritik und Verbesserungsvorschläge sind natürlich willkommen. :)

Gruß

Verfasst:
von

Verfasst: 06.01.2009, 17:58
von DeeJay
Hi,

hab noch ein paar Verbesserungsvorschläge. ;)

Es dürfen z.B. keine Links gezählt werden, die in Kommentaren enthalten sind. Desweiteren wird irgendwie "/" nicht ausgegeben, es erscheint nur ein leerer Wert.

Wird auch gecheckt, ob Links display:none, visibility:hidden oder top:-1000px sind?

Greetz
DeeJay

Verfasst: 07.01.2009, 03:29
von mgutt
Erstmal danke.

Also der Slash wird jetzt angezeigt und HTML-Kommentare ("<!--*-->") werden vor der Filterung gelöscht und demnach nicht mehr berücksichtigt.

display:none und visibility:hidden werden nun separat ausgegeben, sofern sie Teil des style-Attributs des hrefs sind. Bei umschließenden Tags (div z.B.) mit gleichen Attributen muss ich mir noch was einfallen lassen.

Bei einer class/id einer externen css-Datei wirds komplizierter. Da muss ich noch mal drüber nachdenken.

In wie weit soll ich denn positions-Werte wie top:-1000px filtern? Soll ich top, left, right, bottom suchen, wenn deren Werte 100px übersteigen?

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Verfasst: 08.01.2009, 18:30
von 800XE
mgutt hat geschrieben:Werte wie top:-1000px filtern?

Soll ich top, left, right, bottom suchen,
wenn deren Werte 100px übersteigen?
Achtung .... die 1000 hat ein Minus

alles was Minus ist .... ist nicht im Bildschirm (zumindest links und oben=top)

und ... rechts oder unten .... müßte man mal testen
ich hab vor Wochen mit Axax experimentiert .... so ein WindowsSystem für Website ....
... winOpen(absolut ... dadurch "wuchs" das WebSiteDoc automatisch, es bekamm Scrollbars, die von der Website selbst garnicht benötigt wurden, nur wegen der DivContainerFenster

und, Scrollbars nach Links oder oben gibt es ja nicht ....
und, ein right:-100 oder bottom:-100 ... das wäre eine Endloßschleife ... es müßte ja das DocMax nach berechnung nochmals um soviel Pixel vergrößert werden damit das right:-100 angezeigt(erscrollt) weren kann ... aber da das Object ja "am Rand und weiter" liegen soll, müßte es jetzt verschoben werden und dann müßte das DocMax nochmals neu berechnet und Object verschieben und DocMax .... wie gesagt, Endlosschleife .... also, alles was mit MINUS positioniert ist ist zu überprüfen

Verfasst: 09.01.2009, 05:03
von mgutt
"ist zu überprüfen" ist leichter gesagt als getan. Wenn es nicht mit mathematischen Grundsätzen zu erkennen ist, dann wird man kaum einen Filter dafür schreiben können.

Außerdem ist doch top:-100px nichts besonderes, wenn das Element selbst in der Mitte der Seite steht oder nicht? Kommt doch nur auf position an, wenn ich mich jetzt nicht täusche.

Verfasst: 11.06.2009, 01:56
von mgutt
Das Tool gibt jetzt zusätzlich eine Linkliste aus, wo die doppelten URLs zusammengefasst werden (./unterseite.html = domain.de/unterseite.html und Sprungmarken # werden entfernt). Es ist naheliegend, dass auch eine Suchmaschine so vorgeht. Weiterhin wird prozentual ausgegeben, wie viel jeder Link erbt, so kann man evtl. Verbesserungen bei der Linkstruktur direkt nachvollziehen.