Seite 1 von 1
Seite gehackt - aus dem Ranking geflogen
Verfasst: 25.04.2013, 12:22
von kweb
Guten Tag Gemeinde,
ich habe mich vor Kurzem mit meinem Webdesigner überworfen. Ich hatte sämtliche Zugangsdaten geändert und er hat mir gedroht "Sie wissen nicht mit wem Sie sich anlegen".
Nun es scheint alsob er seine Drohung wahr gemacht hat, ich bin seit 4 Wochen mit meiner
Webseite
aus sämtlichen Rankings bei Google geflogen. Ich konnte feststellen, dass sich der gute Mensch in meinen Joomla-Admin gehackt hat, auf dem Webserver die Logfiles gelöscht hat.
Im Admin habe ich gesehen hat er den Seitentitel gelöscht gehabt. Die Seite hieß also nur noch "Startseite", worauf es für mich klar ist das man aus dem Ranking um entsprechende Keywords fliegt.
Ich habe den Seitentitel vor 4 wieder richtig geändert, doch seither bin ich weiterhin bei Google nicht mehr zu finden. In der robots.txt sieht alles normal aus, die einzelnen Seiten sind auch auf follow gesetzt.
Welche Möglichkeiten gibt es noch einer Seite zu schaden damit sie aus dem Ranking fliegt.
Ich hoffe mir kann jemand helfen.
Gruß
kweb
Verfasst:
von
Content Erstellung von
ABAKUS Internet Marketing
Ihre Vorteile:
- einzigartige Texte
- suchmaschinenoptimierte Inhalte
- eine sinnvolle Content-Strategie
- Beratung und Umsetzung
Jetzt anfragen:
0511 / 300325-0
Verfasst: 25.04.2013, 13:54
von Vegas
Schau auch mal in der .htaccess nach, auch da lassen sich böse Sachen machen. Irgendwelche verdächtigen Meldungen in den Google Webmaster Tools? Probier mal
https://support.google.com/webmasters/b ... wer=158587
Verfasst: 25.04.2013, 15:23
von Bodo99
Hast du die ftp Zugangsdaten und, wenn vorhanden, auch die Shell (root) Zugänge die Passwörter geändert? Nur Joomla Passwörter allein zu ändern nützt dann gar nichts.
Logfiles vom Hoster (der hat meist noch extra Logfiles oder Backups) durchschauen und ggf. Anzeige erstatten. Dem Webdesigner, auch bei nur Verdacht gegen Unbekannt, mitteilen, dass du Anzeige gestellt hast, da geht sein Arsch auf Grundeis.
Nach StGB § 303b Computersabotage gibts dann 3 Jahre Knast! Auch schon bei dem Versuch gibts ne fette Strafe.
Verfasst: 25.04.2013, 21:34
von kweb
Hi,
danke für den Tipp mit der .htaccess....
ich habe hier den Eintrag der ist sehr komisch:
# Block out any script trying to base64_encode data within the URL.
RewriteCond %{QUERY_STRING} base64_encode[^(]*\([^)]*\) [OR]
deny from googlebot.com deny from slurp Options -Indexes
RewriteEngine On
RewriteCond %{REQUEST_METHOD} POST
RewriteCond %{HTTP_USER_AGENT} ^$
Schon das Rätsels lösung?
Verfasst: 25.04.2013, 23:47
von CyberNibbler
kweb hat geschrieben:
# Block out any script trying to base64_encode data within the URL.
RewriteCond %{QUERY_STRING} base64_encode[^(]*\([^)]*\) [OR]
deny from googlebot.com deny from slurp Options -Indexes
RewriteEngine On
RewriteCond %{REQUEST_METHOD} POST
RewriteCond %{HTTP_USER_AGENT} ^$
Schon das Rätsels lösung?
Damit wird der Googlebot ausgesperrt.
Verfasst: 26.04.2013, 00:05
von mtx93
Installiere dir für firefox oder dem chrome browser ein "user agent switcher" addon.
Damit kannst du deiner Webseite verschiedene bots vorspielen. Im Browser den agent switcher auf googlebot oder bing schalten und deine Webseiten aufrufen.
Dann den Sourcetext der Seite anschauen.
Damit kannst du auch sehen, ob die bots a.) die Seite sehen und b.) was sie sehen.
Verfasst: 26.04.2013, 00:29
von Vegas
CyberNibbler hat geschrieben:Damit wird der Googlebot ausgesperrt.
Dachte ich mir doch, daß die Startseite die wohl am häufigsten gecrawlt wird bei der site: Abfrage nicht im Index war, war schon sehr komisch.
deny from googlebot.com deny from slurp muß raus, dann können Google & Yahoo wieder zugreifen. Den Rest, auch Options -Indexes am Ende der Zeile, drinlassen. Letzteres verhindert die Verzeichnisansicht, wenn in einem verzeichnis keine index.html/.htm/.php liegt.
Verfasst: 26.04.2013, 08:24
von madmaxy
sehr wichtig ist, dass du alle FTP und SQL Zugänge änderst. Wenn er sich Backdoors angelegt hat, hast du wirklich ein problem.
Prüfe mal nach verdächtigen iframes oder Skripten. Ob er die Seite verseucht hat, kannst du mit urlvoid prüfen.
Verfasst: 26.04.2013, 09:12
von kweb
Hi also geändert hatten wir:
FTP Zugangsdaten
MySql Zugangsdaten
Kundenadministration Zugang
Google-Account Passwort
Ich fürchte er ist trotzdem reingekommen. Habe mal urlvoid gemacht - alles safe. Im Kundenadmin hat der Webdesign neben der Joomla DB 4 weitere Datenbanken teilweise leer hinterlegt. Auch da habe ich mal die Passwörter geändert, wer weiss für was die sind. 3 sind leer und eine ist nen altes Joomla drin.
Mit user agent switcher versuche ich es auch mal gleich....
SChonmal vielen Dank für die Vielzahl an Tipps.
Verfasst: 26.04.2013, 10:59
von Unbekannter
Kannst du nicht nachweisen das er das war? Immerhin leben wir hier in Deutschland wo (zumindest im Netz) jeder jeden verklagt. Das ist doch sicher ein Fall wo man den Webdesigner (zurecht) bluten lassen kann?
Bei mir waren auch 3 auf 1 blu gehostete Wordpress Seiten gehackt worden und irgendwelche Scripts installiert. Google meldete Malware... Ich habs dann aufgegeben und alles vom Server gelöscht, Datenbanken gelöscht und alles neu aufgesetzt. Nur so hat man ein gutes Gefühl. Allerdings sind das unwichtige Seiten mit je 3-4 Seiten Content. Wenn dein Projekt groß ist ist das natürlich eine riesen Aufgabe

Verfasst: 26.04.2013, 16:18
von kweb
Leider war der Webdesign so "clever" und hat die Logfiles gleich mitgelöscht. Laut goneo ist es nicht mehr nachzuweisen.
Wie lange dauert es denn bis die Seiten normalerweise wieder im Index landen?
Verfasst: 26.04.2013, 19:25
von madmaxy
Hi,
Google hat dich in der Regel wieder zügig drin. Ich hatte mal einen Virus auf dem Server. Google hatte mir ne Nachricht gesendet und die Seite war aus dem Index. Nachdem der Virus weg war, war ich in 2 Wochen an den alten Pos.
Verfasst: 27.04.2013, 11:08
von Melegrian
kweb hat geschrieben:Code: Alles auswählen
RewriteEngine On
RewriteCond %{REQUEST_METHOD} POST
RewriteCond %{HTTP_USER_AGENT} ^$
Wie hängen denn diese Zeilen zusammen?
Ein leerer User Agent soll sicherlich gesperrt werden, was dann in einer Regel folgt?
Wäre verständlich, doch Post und leerer User Agent als Bedingung zusammen, was folgt da für eine Regel und auf was bezieht die sich?