Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Webkatalogliste als txt

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Rdata
PostRank 5
PostRank 5
Beiträge: 324
Registriert: 26.07.2006, 09:18

Beitrag von Rdata » 17.07.2007, 18:58

Hi Forum,

Gibts ne Möglichkeit zum einen aus einer Webseite schnelle alle linkurl herauszukopieren um so eine url liste aller möglichen Webkataloge zu extrahieren?

Oder gibts so ne liste schon? (txt,csv,xls)

Grüße Rdata

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

semtex
PostRank 6
PostRank 6
Beiträge: 381
Registriert: 25.04.2007, 22:50

Beitrag von semtex » 17.07.2007, 23:23

Sollte kein Problem sein, ein kleiner fünfzeiler in PHP und das Ding ist gegessen !
Mit "file_get_contents" holst Du Dir den Content rein und mit "preg_match" extrahierst Du die Urls.

Code: Alles auswählen


  $content = file_get_contents("http://www.domain.de");
  preg_match_all&#40;"!<a.*?href=\"&#40;&#91;^\"&#93;*&#41;\"&#91;^>&#93;*>&#40;.*?&#41;</a>!",$content,$gogo&#41;;

  foreach &#40;$gogo&#91;2&#93; as $domain&#41;
  &#123;
    echo $domain.'<br>';
  &#125;

 
Das kann man natürlich noch weiter ausbauen, zb. mit einem Formular und das Dir die Urls in eine Datei geschrieben werden.
Wenn man ganz Pfiffig ist, kann man sich einen kleinen Spider bauen der die Links weiterverfolgt und sich dort weiter durch alle Seiten crawlt.

Advertiseman
PostRank 1
PostRank 1
Beiträge: 28
Registriert: 23.04.2006, 14:32
Wohnort: Ludwigshafen

Beitrag von Advertiseman » 18.07.2007, 01:25

Ich habe vor längerem einmal etwas programmiert um aus Google (per Api) Webkatalog zu lesen und in einer Liste zu speichern. Ist allerdings ein etwas komplexeres Script.

Auf Anfrage lasse ich gerne eine Liste über einige hundert Webkataloge erstellen (kostenlos).

Nur erstelle ich keine große Liste wegen einer Person.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

suchus
PostRank 5
PostRank 5
Beiträge: 289
Registriert: 20.06.2007, 12:09

Beitrag von suchus » 18.07.2007, 01:32

Naja wenn Du eh so nett bist und das kostenlos machen willst ist es doch egal ob es einer oder tausend nehmen :D

Advertiseman
PostRank 1
PostRank 1
Beiträge: 28
Registriert: 23.04.2006, 14:32
Wohnort: Ludwigshafen

Beitrag von Advertiseman » 18.07.2007, 01:54

Sind ja nur ein paar Klicks, die ich in mein Programm eingeben muss.
Ich stelle einfach mal die Liste bis heute Abend zusammen und veröffentliche sie dann hier.

Rdata
PostRank 5
PostRank 5
Beiträge: 324
Registriert: 26.07.2006, 09:18

Beitrag von Rdata » 18.07.2007, 07:07

Super das ist klasse! Dann bis heute abend!

propaganda
PostRank 9
PostRank 9
Beiträge: 1267
Registriert: 20.08.2004, 14:21
Wohnort: Deutschland

Beitrag von propaganda » 18.07.2007, 07:45

Rdata hat geschrieben:
Gibts ne Möglichkeit zum einen aus einer Webseite schnelle alle linkurl herauszukopieren
Ja, mit meiner Firefox Erweiterung.

MW
PostRank 7
PostRank 7
Beiträge: 651
Registriert: 14.03.2006, 10:09
Wohnort: München

Beitrag von MW » 18.07.2007, 09:16

@ Advertiseman:

ich wäre auch interessiert an der Liste. Danke für deine Mühen vorab!

muskelbody
PostRank 8
PostRank 8
Beiträge: 664
Registriert: 03.10.2003, 18:08

Beitrag von muskelbody » 18.07.2007, 12:53

ich haette auch gern eine ;)

semtex
PostRank 6
PostRank 6
Beiträge: 381
Registriert: 25.04.2007, 22:50

Beitrag von semtex » 18.07.2007, 13:04

Das grenzt ja schon langsam an Contengrabbing :wink:
Ich glaube kaum, das die Besitzer der Linklisten von Ihrem Glück wissen das ihre Seiten gescannt und die Weblinks aufbereitet wurden.

firewire
PostRank 7
PostRank 7
Beiträge: 545
Registriert: 04.09.2006, 15:36
Wohnort: Darmstadt

Beitrag von firewire » 18.07.2007, 13:12

deutsche oder englische Webkataloge?
Auflösung Domainportfolio: barebones-shop.de; flexible-lcd.de; origami-experience.de; couponcommunity.de; chill-out-time.de; chill-out-time.com; healthboard.de; gesundheitspark-deutschland.de; gesundheitsparks-deutschland.de; gesundheitspark.de;
------------------------------------------------
1. deutsches Artikelverzeichnis mit AdSense Sharing
------------------------------------------------

Rdata
PostRank 5
PostRank 5
Beiträge: 324
Registriert: 26.07.2006, 09:18

Beitrag von Rdata » 18.07.2007, 14:14

Das grenzt ja schon langsam an Contengrabbing
Ich glaube kaum, das die Besitzer der Linklisten von Ihrem Glück wissen das ihre Seiten gescannt und die Weblinks aufbereitet wurden.
Wie soll ich das verstehen? Diese Liste benötige ich als eintragungs hilfe... finde es praktische mal so eine zu haben.

@firewire

Ich kann Sie gut in beiden Sprachen benötigen.

semtex
PostRank 6
PostRank 6
Beiträge: 381
Registriert: 25.04.2007, 22:50

Beitrag von semtex » 18.07.2007, 14:52

Rdata hat geschrieben:
Das grenzt ja schon langsam an Contengrabbing
Ich glaube kaum, das die Besitzer der Linklisten von Ihrem Glück wissen das ihre Seiten gescannt und die Weblinks aufbereitet wurden.
Wie soll ich das verstehen? Diese Liste benötige ich als eintragungs hilfe... finde es praktische mal so eine zu haben.

@firewire

Ich kann Sie gut in beiden Sprachen benötigen.
Dich meine ich im Grunde nicht !

Ich finde es bloss immer etwas merkwürdig, wenn Leute hier gross aufschreien wenn nur mal ein unbekannter Bot ihre Seite besucht, es aber für normal finden mit extra dafür entwickelten Scripten von fremden Seiten Content für Ihre Zwecke zu extrahieren.

Rdata
PostRank 5
PostRank 5
Beiträge: 324
Registriert: 26.07.2006, 09:18

Beitrag von Rdata » 18.07.2007, 16:22

Stimmt schon! Aber dies nützt ja jedem der seine seite in webkataloge einträt oder?

Also dann warten wir mal bis die ganze liste hier gepostet wird!

semtex
PostRank 6
PostRank 6
Beiträge: 381
Registriert: 25.04.2007, 22:50

Beitrag von semtex » 18.07.2007, 16:42

Jede Medaille hat aber zwei Seiten 0X

Regt euch dann bitte aber auch nicht auf, wenn mal jemand auf eure Seite kommt und euren Content für seine Zwecke missbraucht, eventuell alle Kunden eurer Referenzliste mit seiner Werbung anschreibt.

Ich bin auch nicht gerade ein Kind von Traurigkeit und ich will natürlich auch niemanden unterstellen das er mit den Listen was böses anfangen möchte, nur es muss hier nicht noch ein offizieller Tauschhandel damit erblühen.

Trotzdem möchte ich die Liste natürlich auch gerne haben Bild

Antworten