Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Wichtige Kennzahlen

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
fi-ausbilden
PostRank 8
PostRank 8
Beiträge: 771
Registriert: 15.04.2006, 08:37

Beitrag von fi-ausbilden » 07.07.2008, 13:56

Hallo!

Ich bin gerade dabei "Watch" mächtig zu erweitern. Ich habe glücklicher weise Unterstützung von jemanden bekommen, der wirklich Ahnung von Programmieren hat. Die neue Version von Watch wird unter der Haube nix mehr mit meiner alten Version zu tun haben... (und offiziell unter der GPL veröffentlicht...)

In diesem Zuge würde mich interessieren, was man alles an Daten über eine Domain und eine URL sammeln sollte, um entsprechende Rückschlüsse ziehen zu können.

Bisher habe ich:

a) Für eine Domain:
=============
- Alter
- Anzahl indizierte Seiten
- Anzahl indizierte Links
- Alexa Rank

b) Für eine spezielle URL:
================
- PageRank
- Anzahl Backlinks
- Inhalte von H1-H6
- DMOZ-Eintrag vorhanden?
- Yahoo-Directory Eintrag vorhanden?
- Inhalt von META-Keywords/Description
- Seitentitel
- Text auf der Seite mit <b> und <strong>

Was fällt Euch noch ein?
Bild

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

undertaker
PostRank 4
PostRank 4
Beiträge: 154
Registriert: 14.12.2007, 15:19

Beitrag von undertaker » 07.07.2008, 15:06

Hallo fi-ausbilden,
zu a) hätte ich da eine Idee.

Anzahl der durch/mit Safesearch gefilterten Seiten einer Domain

Gruß Undertaker

fi-ausbilden
PostRank 8
PostRank 8
Beiträge: 771
Registriert: 15.04.2006, 08:37

Beitrag von fi-ausbilden » 07.07.2008, 15:09

Gute Idee!
Bild

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


ole1210
PostRank 10
PostRank 10
Beiträge: 7464
Registriert: 12.08.2005, 10:40
Wohnort: Olpe

Beitrag von ole1210 » 07.07.2008, 15:29

Klasse wäre es, wenn du die indizierten Links aufsplitten könntest:

- Links aus Bookmark-Diensten
- Webkataloge
- Artikelverzeichnisse
- Blogkommentare
- Footerlinks
- richtige Links

Auch könntest du die IPs der Links auslesen und analysieren.

So könnte man sofort und ohne Arbeit recht sicher erkennen, ob eine Seite wirklich gut verlinkt ist, oder von nem SEO betrieben wird und nur aus dem eigenene Netzwerk und AVs gefüttert wird.

Ich weiß...nicht ganz einfach. Wäre aber geil!!

ole1210
PostRank 10
PostRank 10
Beiträge: 7464
Registriert: 12.08.2005, 10:40
Wohnort: Olpe

Beitrag von ole1210 » 07.07.2008, 15:31

Geil wäre auch eine zentrale Datenbank.

Ich frag heute die Daten für www.domain.de ab und in 6 Monaten fragt wer anders ebenfalls die daten für www.domain.de ab und bekommt zu den aktuellen Werten noch eine Übersicht, wie sich die Domain in 6 Monaten verändert hat.

fi-ausbilden
PostRank 8
PostRank 8
Beiträge: 771
Registriert: 15.04.2006, 08:37

Beitrag von fi-ausbilden » 07.07.2008, 16:15

Hi!

Das sind spannende Ideen. Ich frage mich aber, wie ich die Links erkennen soll. Das würde ja nur mit einer manuellen Whitelist gehen. Liste der Artikelverzeichniss, Liste der ... Hmm...

Blog-Kommentare könnte man noch versuchen, heraus zu bekommen, ebenso Links von Feedburner o.ä., allerdings schätze ich, dass die Fehlerquote recht hoch sein könnte... Gleiches gilt wohl für Footerlinks... Mals sehen, ob mir was schlaues dazu einfällt - ich gebe Dir recht, dass das geil wäre :-)

Zentrale DB sehe ich erstmal nicht, auch wenn die Idee gut ist. Watch ist ja für den lokalen Betrieb gedacht und eben nicht für den zentralen Betrieb. Dann müßten die Daten doch wieder auch in einer zentralen DB landen, was ich eigentlich nicht möchte....

Durch die neuen Konzepte wird man aber seine eigene große Datenbasis haben, da für jede mal erfasste Domain die historischen Daten gesammelt werden (z.B. wenn eine Domain als Konkurenz in den SERPs auftaucht...) Genau an der Stelle arbeite ich gerade um eine möglichst gute automatischen vollständige Datensammlung zu einer Domain/einer URL hinzubekommen. Es wird wohl auch möglich sein, bestimmte URLs/Domains explizit anzugeben, aber viele Daten sammelt das Tool "durch Zufall", weil die andere URL / Domain auch abgefragt wurde.

Die Ansichten auf die Daten sind dann wirklich nur "Views" die die Datenbestände sinnvoll aufbereiten...
Bild

ole1210
PostRank 10
PostRank 10
Beiträge: 7464
Registriert: 12.08.2005, 10:40
Wohnort: Olpe

Beitrag von ole1210 » 07.07.2008, 16:21

Wahrscheinlich kannst du die Links nur anhand einer URL-Liste der Herkunft zuordnen. Eine automatische Erkennung von Webseiten ist wahrscheinlich zu komplex zum programmieren.

MaxL
PostRank 4
PostRank 4
Beiträge: 168
Registriert: 07.07.2008, 16:44
Wohnort: Bonn

Beitrag von MaxL » 07.07.2008, 17:25

Entschuldigt, wenn ich etwas vom Thema abweiche aber was ole1210 da schreibt wäre wirklich sehr cool. Gibt es denn noch kein Webtool, welches die "Ranking-History" einer URL anzeigen kann? Daraus könnte man doch interessante Rückschlüsse ziehen.

fi-ausbilden
PostRank 8
PostRank 8
Beiträge: 771
Registriert: 15.04.2006, 08:37

Beitrag von fi-ausbilden » 07.07.2008, 17:43

Natürlich gibt es solche Tools... Watch ist in der Beziehung nur eines von vielen... Das ist ja eine Funktion, die es schon kann. Was Ole gerne möchte, ist eine differenzierte Aufteilung der Backlinks nach Quellen...

@Ole:
Wer kann denn so eine White-List erstellen und pflegen? Du? Die müsste ja Kategorien haben, a la "Artikelverzeichnis, Webkatalog, Social-Bookmark-Dienst, etc...".

Das Problem mit "Ist aus Footer" oder "ist ein Blog-Kommentar" wäre damit aber noch nicht gelöst...

Was man sicherlich hin bekommt ist eine Einteilung nach "Ist nofollow" oder "ist follow"...
Bild

undertaker
PostRank 4
PostRank 4
Beiträge: 154
Registriert: 14.12.2007, 15:19

Beitrag von undertaker » 07.07.2008, 19:57

So jetzt ich nochmal,

Wie wäre es mit einer schönen Auswertung der Ankertexte ?
Wir wollen ja auch sehen, was die Mitbewerber so veranstalten ?
Etwa so was schönes wie linkdiagnosis.

Gruß Undertaker

fi-ausbilden
PostRank 8
PostRank 8
Beiträge: 771
Registriert: 15.04.2006, 08:37

Beitrag von fi-ausbilden » 07.07.2008, 20:24

ok, ist notiert
Bild

Vitali Neumann
PostRank 9
PostRank 9
Beiträge: 1015
Registriert: 12.12.2005, 15:44
Wohnort: Hannover

Beitrag von Vitali Neumann » 07.07.2008, 23:02

Machbar ist fast alles!

Nur ob der Link im Footer oder Rechts steht wird meiner Meinung nicht gehen.

Was aber gegen kann ist eine Extension für Typo3 die das alles kann. Dazu alles mit den Rechten für Kunden etc..

Da kann man viel machen
z.B all das was die Firefox Extension seo quake kann und das per cron Job.
+ Auswertung wie Google Analytics. ;-)
[url]httpss://www.google.com/+VitaliNeumann[/url]
&#1042;&#1089;&#1077; &#1041;&#1091;&#1076;&#1077;&#1090; &#1061;&#1086;&#1088;&#1086;&#1096;&#1086;!

MaxL
PostRank 4
PostRank 4
Beiträge: 168
Registriert: 07.07.2008, 16:44
Wohnort: Bonn

Beitrag von MaxL » 08.07.2008, 07:55

Aha, dann werde ich mir Watch gleich mal ansehen. Was die Footer-Links betrifft so könnte man vielleicht den Quellcode nach dem letzten Vorkommen von http:// parsen und dies ins Verhältnis zur <Tag>-Struktur setzen. Meist ist ja im Footer noch ein Link zum Impressum (bei deutschen Seiten zumindest). Wenn in der Nähe noch ein http:// ist, wird dies vermutlich ein Footerlink sein. Ist etwas schwammig, ich weiß aber vielleicht ist das ein Ansatz.

steuergorilla
PostRank 5
PostRank 5
Beiträge: 214
Registriert: 24.09.2007, 14:29
Wohnort: Hannover

Beitrag von steuergorilla » 08.07.2008, 08:02

Der Backlinkcheck von tools.marketleap.com hat übrigens eine Backlinkhistory mit drin, vielleicht kannst du da ja mal vorbeigucken und dir ein bißchen was abgucken ....
Aktuelle Lottozahlen auf eurer Homepage. Lottozahlen Script!

ole1210
PostRank 10
PostRank 10
Beiträge: 7464
Registriert: 12.08.2005, 10:40
Wohnort: Olpe

Beitrag von ole1210 » 08.07.2008, 10:55

Im Idealfall wird diese Liste nicht von einer person, sondern von vielen gepflegt. So ist die Wahrscheinlichkeit am größten, irgendwann mal halbwegs alle ULRs drin zu haben.

Könntest du keine Funktion in Watch einbauen, wo man AVs etc einfach meldet und diese werden dann automatisch in eine DB eingepflegt und beim nächsten Update an die User verteilt?

Wie geht dein Tool danmit um, wenn mehrere Links von einer URL kommen? Sistrix hat dazu ja nen ganz interessanten test gemacht.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag