Seite 2 von 2

Verfasst: 17.03.2008, 12:22
von np
Das Sicherheitsproblem ist komplexer als angenommen, die Links kommen nach der Entfernung immer wieder - d.h. das dauert noch seine Zeit.

Macht es Sinn, die Seite für Google über robots inzwischen zu sperren?

Verfasst:
von

Verfasst: 17.03.2008, 13:28
von Yafamedia
Ähnlich läuft es mit Wordpress Templates die Signaturen enthalten wie "sponsored bei Florida appartements" oder so ähnlich, die Netz langsam füllen.

Ich glaube du brauchst keine Angst zu haben, dass du an "google PR bleeding" leiden wirdst. Die Täter werden von google bestraft.

Verfasst: 17.03.2008, 13:31
von wolli
@np

dein Problem liegt wahrscheinlich wo ganz anderst
Ich denke dein lokales FTPprogramm wurde gehackt.

Überprüfe mal alle dort gespeicherten Domains
überall wirst du das gleiche Problem haben

Speichere mal die Zugangsdaten für eine andere Domain
in deinem FTPprogramm und warte 1 Stunde ab.
Wenn dort dann auch die Daten geändert werden weißt du Bescheid

nette Grüße
wolli

Verfasst:
von

Verfasst: 17.03.2008, 13:51
von Pompom
@np,

was hast du denn bisher unternommen, um das Problem zu lösen ?

Verfasst: 17.03.2008, 14:09
von np
Die Lösung des Problems wird gerade durchgeführt, aber dauert eben. zB eigener Server, etc.

Bringt es etwas den Googlebot vorübergehend auszuschließen damit man nicht abgestraft wird?

Verfasst: 17.03.2008, 14:25
von Österreicher
Update raufspielen und SQL Passwort ändern. Das ist die Sache gegessen. Zumindest war das bei mir so.

Verfasst: 17.03.2008, 14:57
von mwa
Also bei den Antworten hier stehen mir ja die Haare zu Berge. Hier wird ins Blaue geraten, das FTP das Einfallstor ist, Update auspielen und SQL Passwort ändern, ... Sachen gibts.

Verfasst: 17.03.2008, 15:01
von v-maxx
wolli hat geschrieben: dein Problem liegt wahrscheinlich wo ganz anderst
Ich denke dein lokales FTPprogramm wurde gehackt.
Hat jetzt nichts mit der Lösung des konkreten Problems zu tun, möchte ich in dem o.g. Zusammenhang aber mal erwähnen - vielleicht hilft's ja dem einen oder anderen.

Sehr gutes Tool bei lokalen Problemen in Windows-Umgebungen:
Security Task Manager

Geht einen anderen Ansatz als ein Signaturenscanner, indem es die laufenden Prozesse auf verdächtige Aktionen untersucht (Keylogging, versteckter Task, etc) und entsprechend bewertet.
Scannt als Freeware alle laufenden Applikationsprozesse, in der kostenpflichtigen Version auch Treiber und Dienste.

Ich benutze das immer, wenn (m)ein Rechner sich seltsam verhält, ohne dass die üblichen Scanner (Virus-, Spyware-, etc) sich melden.
Verdächtige Prozesse können quarantänisiert werden.
Man muss sich aber ein wenig mit Windows-Systeminterna auskennen.
(Nicht den Keyboard-Treiber in Quarantäne schicken, nur weil er Tastatureingaben scannt... :wink: )

Verfasst: 17.03.2008, 15:11
von uwew
Hi np,
hole doch mit wget eine statische Version deiner Seite und spiele die auf. Vorher auf unliebsame Links filtern. Dann hast du Zeit, Google ist zufrieden.

Verfasst: 17.03.2008, 16:32
von np
@uwew: Danke für den Tipp, werde ich mir mal ansehen.

Welche NAchteile könnte eine vorübergehende Sperrung des Googlebots via robots haben? Momentan sind ca. 3000 Seiten indiziert.

Meine Seite ist deswegen im letzten Jahr schon mal aus dem Index geflogen, deshalb möchte ich es nicht ein zweites Mal riskieren. Wer weiß wie google mit Wiederholungstätern umgeht