Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

HiJacking-Liste + Linkprüfung

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
terese0815
PostRank 6
PostRank 6
Beiträge: 356
Registriert: 04.09.2004, 07:25
Wohnort: Frechen

Beitrag von terese0815 » 17.02.2005, 20:57

mario hat geschrieben:@terese
Ansonsten wird nun auch die robots.txt überprüft und nur Seiten in die Liste übernommen welche einen 302 oder Meta-Refresh machen und diese Seiten auch nicht per robots.txt aussperren.
grad mal einige urls überprüft hab', robots.txt wird sauber erkannt...
Ich habe mich selber auch gewundert ;)

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

anjaka
PostRank 4
PostRank 4
Beiträge: 128
Registriert: 25.11.2004, 00:20

Beitrag von anjaka » 17.02.2005, 22:19

Eine bescheidene Frage hätte ich.
Ich habe in der robots die outbound.pl ebenfalls ausgesperrt
Disallow: /outbound.pl
allerdings wird dies bei der Linkprüfung, anders als bei Abakus, nicht erkannt und es kommt eine Warnung.
Ich habe dafür keine Erklärung. Kann mir da mal jemand auf die Sprünge helfen?

terese0815
PostRank 6
PostRank 6
Beiträge: 356
Registriert: 04.09.2004, 07:25
Wohnort: Frechen

Beitrag von terese0815 » 17.02.2005, 22:35

Ne.;) Wie heißt denn die Seite?

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

anjaka
PostRank 4
PostRank 4
Beiträge: 128
Registriert: 25.11.2004, 00:20

Beitrag von anjaka » 17.02.2005, 22:48

terese0815 hat geschrieben:Ne.;) Wie heißt denn die Seite?
PN ist raus

viggen
PostRank 10
PostRank 10
Beiträge: 6249
Registriert: 12.05.2003, 14:44

Beitrag von viggen » 18.02.2005, 10:42

mario hat geschrieben:@terese

eine gute Sache wäre noch in Englisch und eine kleine Bemerkung im WMW-Forum, dann bist Du aber für ein paar Tage beschäftigt... Die Übersetzung wäre doch was für unseren lieben Viggen... ihn kurz schupst
Schlechtes Timing, bin gerade mitten im Umzug nach Südafrika, daher habe ich unzählige dinge die ich erledigen muss, ansonsten gerne...

mfg
viggen

mario
PostRank 10
PostRank 10
Beiträge: 3112
Registriert: 15.08.2003, 05:46

Beitrag von mario » 18.02.2005, 11:46

viggen hat geschrieben:
mario hat geschrieben:@terese
eine gute Sache wäre noch in Englisch und eine kleine Bemerkung im WMW-Forum, dann bist Du aber für ein paar Tage beschäftigt... Die Übersetzung wäre doch was für unseren lieben Viggen... ihn kurz schupst
Schlechtes Timing, bin gerade mitten im Umzug nach Südafrika, daher habe ich unzählige dinge die ich erledigen muss, ansonsten gerne...
mfg
viggen
@terese

vielleicht lässt sich ja eine andere gute Seele finden... und Dir lieber Ch... schon mal schöne Reise und einen guten Start in RAS. Man sieht sich, hoffentlich bald wieder.

terese0815
PostRank 6
PostRank 6
Beiträge: 356
Registriert: 04.09.2004, 07:25
Wohnort: Frechen

Beitrag von terese0815 » 18.02.2005, 12:09

Ist kein Problem. Wir haben das gestern noch übersetzt. Für Fehlerfreiheit können wir da aber noch weniger garantieren als im deutschen Text;)

Septober
PostRank 3
PostRank 3
Beiträge: 74
Registriert: 08.10.2004, 21:48
Wohnort: Berlin

Beitrag von Septober » 18.02.2005, 16:31

Hallo Zusammen,

ich habe das mal mit einer Weiterleitung von meinen Seiten getestet.

Folgende Ausgabe

Schritt 3: Überprüfe die robots.txt der Zielseite... [Bitte warten]

Warnung: "https://www.peele.de/go.php?id=16" wird nicht durch die robots.txt ausgesperrt.


Inhalt der robots.txt:

User-agent: *
Disallow: /login.php
Disallow: /*?

User-agent: psbot
Disallow: /

User-agent: googlebot
Disallow: /rezepte.php
Disallow: /*?

User-agent: msnbot
Disallow: /rezepte.php

ist nicht ganz korrekt. Mit der Anweisung Disallow: /*? habe ich alle dynamischen Gesperrt. Sogar google hält sich daran.

Gruß

Günter

terese0815
PostRank 6
PostRank 6
Beiträge: 356
Registriert: 04.09.2004, 07:25
Wohnort: Frechen

Beitrag von terese0815 » 18.02.2005, 16:52

Hallo Günter,

wir haben da ein Problem das * zu interpretieren. Vielen Dank für den Hinweis. Wir werden das noch heute ändern.


Grüße

Stefan

robo
PostRank 8
PostRank 8
Beiträge: 837
Registriert: 23.12.2003, 19:41
Wohnort: Schwangau

Beitrag von robo » 18.02.2005, 18:11

Stefan:

Habe mir mal den Spass gemacht und ein paar Verzeichnisse überprüft und eingetragen. :-) Eines habe ich gefunden, dass offensichtlich mit 302 weiterleitet, bei dem aber dein Script irgendwie ein Problem bei der Analyse hat. Wie kann ich dir denn den Link zum überprüfen zukommen lassen?

cu, Robo :)

terese0815
PostRank 6
PostRank 6
Beiträge: 356
Registriert: 04.09.2004, 07:25
Wohnort: Frechen

Beitrag von terese0815 » 18.02.2005, 18:56

hi robo,

einfach per pn oder an die mail welche im impressum steht.

grüße

stefan

robo
PostRank 8
PostRank 8
Beiträge: 837
Registriert: 23.12.2003, 19:41
Wohnort: Schwangau

Beitrag von robo » 18.02.2005, 19:10

Hi Stefan,

hab jetzt ein paar URLs an die Adresse im Impressum geschickt. Hoffe, du findest das Problem. :-)

cu, Robo :)

Fridaynite
PostRank 10
PostRank 10
Beiträge: 2983
Registriert: 07.01.2004, 09:10

Beitrag von Fridaynite » 18.02.2005, 22:44

Code: Alles auswählen

User-agent: *
Disallow: /readmore.php
nimmt alles raus was dahinter kommt - auch ein ? oder sonstwas.

terese0815
PostRank 6
PostRank 6
Beiträge: 356
Registriert: 04.09.2004, 07:25
Wohnort: Frechen

Beitrag von terese0815 » 18.02.2005, 23:14

Septober hat geschrieben:Hallo Zusammen,

ich habe das mal mit einer Weiterleitung von meinen Seiten getestet.

Folgende Ausgabe

Schritt 3: Überprüfe die robots.txt der Zielseite... [Bitte warten]

Warnung: "https://www.peele.de/go.php?id=16" wird nicht durch die robots.txt ausgesperrt.


Inhalt der robots.txt:

User-agent: *
Disallow: /login.php
Disallow: /*?

User-agent: psbot
Disallow: /

User-agent: googlebot
Disallow: /rezepte.php
Disallow: /*?

User-agent: msnbot
Disallow: /rezepte.php

ist nicht ganz korrekt. Mit der Anweisung Disallow: /*? habe ich alle dynamischen Gesperrt. Sogar google hält sich daran.

Gruß

Günter
Halllo Günter,

wird jetzt auch richtig erkannt.


Grüße

Stefan

LTX
PostRank 1
PostRank 1
Beiträge: 10
Registriert: 24.05.2004, 09:36

Beitrag von LTX » 19.02.2005, 00:12

hi,

https://www.webconfs.com/redirect-check.php

hier funktioniert der header-check auf jeden fall besser!

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag