Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Analyse: externe, interne Links und Session als Bot prüfen

Ein wichtiges Thema für einige Suchmaschinen. Dieses Unterforum dient zur Beantwortung von Fragen rund um das Thema Link-Marketing, Linkbaits, Widgets, Ideen die Linkerati zu finden und wecken!

(Kein Link Farm / Linktausch Börse usw.)
Neues Thema Antworten
mgutt
PostRank 10
PostRank 10
Beiträge: 3206
Registriert: 08.03.2005, 13:13

Beitrag von mgutt » 05.01.2009, 23:15

Hi,

ich habe mir gerade ein Tool gebastelt, da ich wissen wollte, ob die Session-ID-Deaktivierung beim Googlebot funktioniert. Vielleicht hat ja noch jemand dafür Verwendung:
https://www.gutt.it/link-analyse.php

Neben der Auflistung aller internen & externen Links zeigt die Seite noch nofollow Links an und man kann sich als Googlebot ausgeben, um so evtl. Linktauschbetrug aufzudecken oder eben wie ich die Sessions zu kontrollieren.

Kritik und Verbesserungsvorschläge sind natürlich willkommen. :)

Gruß
Zuletzt geändert von mgutt am 07.01.2009, 03:34, insgesamt 2-mal geändert.
Ich kaufe Dein Forum!
Kontaktdaten

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

DeeJay
PostRank 4
PostRank 4
Beiträge: 184
Registriert: 02.12.2005, 13:43
Wohnort: Hamburg

Beitrag von DeeJay » 06.01.2009, 17:58

Hi,

hab noch ein paar Verbesserungsvorschläge. ;)

Es dürfen z.B. keine Links gezählt werden, die in Kommentaren enthalten sind. Desweiteren wird irgendwie "/" nicht ausgegeben, es erscheint nur ein leerer Wert.

Wird auch gecheckt, ob Links display:none, visibility:hidden oder top:-1000px sind?

Greetz
DeeJay

mgutt
PostRank 10
PostRank 10
Beiträge: 3206
Registriert: 08.03.2005, 13:13

Beitrag von mgutt » 07.01.2009, 03:29

Erstmal danke.

Also der Slash wird jetzt angezeigt und HTML-Kommentare ("<!--*-->") werden vor der Filterung gelöscht und demnach nicht mehr berücksichtigt.

display:none und visibility:hidden werden nun separat ausgegeben, sofern sie Teil des style-Attributs des hrefs sind. Bei umschließenden Tags (div z.B.) mit gleichen Attributen muss ich mir noch was einfallen lassen.

Bei einer class/id einer externen css-Datei wirds komplizierter. Da muss ich noch mal drüber nachdenken.

In wie weit soll ich denn positions-Werte wie top:-1000px filtern? Soll ich top, left, right, bottom suchen, wenn deren Werte 100px übersteigen?
Ich kaufe Dein Forum!
Kontaktdaten

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


800XE
PostRank 10
PostRank 10
Beiträge: 5223
Registriert: 02.12.2004, 03:03

Beitrag von 800XE » 08.01.2009, 18:30

mgutt hat geschrieben:Werte wie top:-1000px filtern?

Soll ich top, left, right, bottom suchen,
wenn deren Werte 100px übersteigen?
Achtung .... die 1000 hat ein Minus

alles was Minus ist .... ist nicht im Bildschirm (zumindest links und oben=top)

und ... rechts oder unten .... müßte man mal testen
ich hab vor Wochen mit Axax experimentiert .... so ein WindowsSystem für Website ....
... winOpen(absolut ... dadurch "wuchs" das WebSiteDoc automatisch, es bekamm Scrollbars, die von der Website selbst garnicht benötigt wurden, nur wegen der DivContainerFenster

und, Scrollbars nach Links oder oben gibt es ja nicht ....
und, ein right:-100 oder bottom:-100 ... das wäre eine Endloßschleife ... es müßte ja das DocMax nach berechnung nochmals um soviel Pixel vergrößert werden damit das right:-100 angezeigt(erscrollt) weren kann ... aber da das Object ja "am Rand und weiter" liegen soll, müßte es jetzt verschoben werden und dann müßte das DocMax nochmals neu berechnet und Object verschieben und DocMax .... wie gesagt, Endlosschleife .... also, alles was mit MINUS positioniert ist ist zu überprüfen

mgutt
PostRank 10
PostRank 10
Beiträge: 3206
Registriert: 08.03.2005, 13:13

Beitrag von mgutt » 09.01.2009, 05:03

"ist zu überprüfen" ist leichter gesagt als getan. Wenn es nicht mit mathematischen Grundsätzen zu erkennen ist, dann wird man kaum einen Filter dafür schreiben können.

Außerdem ist doch top:-100px nichts besonderes, wenn das Element selbst in der Mitte der Seite steht oder nicht? Kommt doch nur auf position an, wenn ich mich jetzt nicht täusche.
Ich kaufe Dein Forum!
Kontaktdaten

mgutt
PostRank 10
PostRank 10
Beiträge: 3206
Registriert: 08.03.2005, 13:13

Beitrag von mgutt » 11.06.2009, 01:56

Das Tool gibt jetzt zusätzlich eine Linkliste aus, wo die doppelten URLs zusammengefasst werden (./unterseite.html = domain.de/unterseite.html und Sprungmarken # werden entfernt). Es ist naheliegend, dass auch eine Suchmaschine so vorgeht. Weiterhin wird prozentual ausgegeben, wie viel jeder Link erbt, so kann man evtl. Verbesserungen bei der Linkstruktur direkt nachvollziehen.
Ich kaufe Dein Forum!
Kontaktdaten

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag