Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Seite gehackt - aus dem Ranking geflogen

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
kweb
PostRank 3
PostRank 3
Beiträge: 65
Registriert: 22.04.2009, 08:25

Beitrag von kweb » 25.04.2013, 12:22

Guten Tag Gemeinde,
ich habe mich vor Kurzem mit meinem Webdesigner überworfen. Ich hatte sämtliche Zugangsdaten geändert und er hat mir gedroht "Sie wissen nicht mit wem Sie sich anlegen".

Nun es scheint alsob er seine Drohung wahr gemacht hat, ich bin seit 4 Wochen mit meiner

Webseite

aus sämtlichen Rankings bei Google geflogen. Ich konnte feststellen, dass sich der gute Mensch in meinen Joomla-Admin gehackt hat, auf dem Webserver die Logfiles gelöscht hat.

Im Admin habe ich gesehen hat er den Seitentitel gelöscht gehabt. Die Seite hieß also nur noch "Startseite", worauf es für mich klar ist das man aus dem Ranking um entsprechende Keywords fliegt.

Ich habe den Seitentitel vor 4 wieder richtig geändert, doch seither bin ich weiterhin bei Google nicht mehr zu finden. In der robots.txt sieht alles normal aus, die einzelnen Seiten sind auch auf follow gesetzt.

Welche Möglichkeiten gibt es noch einer Seite zu schaden damit sie aus dem Ranking fliegt.

Ich hoffe mir kann jemand helfen.

Gruß
kweb

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Vegas
PostRank 10
PostRank 10
Beiträge: 5063
Registriert: 27.10.2007, 13:07

Beitrag von Vegas » 25.04.2013, 13:54

Schau auch mal in der .htaccess nach, auch da lassen sich böse Sachen machen. Irgendwelche verdächtigen Meldungen in den Google Webmaster Tools? Probier mal https://support.google.com/webmasters/b ... wer=158587
Forward Up >> Suchmaschinenoptimierung >> SEO Notaufnahme >> SEO Audits >> SEM >> ORM

Bodo99
PostRank 10
PostRank 10
Beiträge: 3160
Registriert: 04.11.2009, 13:43

Beitrag von Bodo99 » 25.04.2013, 15:23

Hast du die ftp Zugangsdaten und, wenn vorhanden, auch die Shell (root) Zugänge die Passwörter geändert? Nur Joomla Passwörter allein zu ändern nützt dann gar nichts.

Logfiles vom Hoster (der hat meist noch extra Logfiles oder Backups) durchschauen und ggf. Anzeige erstatten. Dem Webdesigner, auch bei nur Verdacht gegen Unbekannt, mitteilen, dass du Anzeige gestellt hast, da geht sein Arsch auf Grundeis.

Nach StGB § 303b Computersabotage gibts dann 3 Jahre Knast! Auch schon bei dem Versuch gibts ne fette Strafe.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


kweb
PostRank 3
PostRank 3
Beiträge: 65
Registriert: 22.04.2009, 08:25

Beitrag von kweb » 25.04.2013, 21:34

Hi,
danke für den Tipp mit der .htaccess....

ich habe hier den Eintrag der ist sehr komisch:
# Block out any script trying to base64_encode data within the URL.
RewriteCond %{QUERY_STRING} base64_encode[^(]*\([^)]*\) [OR]
deny from googlebot.com deny from slurp Options -Indexes
RewriteEngine On
RewriteCond %{REQUEST_METHOD} POST
RewriteCond %{HTTP_USER_AGENT} ^$
Schon das Rätsels lösung?

CyberNibbler
PostRank 5
PostRank 5
Beiträge: 283
Registriert: 19.08.2008, 16:57
Wohnort: Berlin

Beitrag von CyberNibbler » 25.04.2013, 23:47

kweb hat geschrieben:
# Block out any script trying to base64_encode data within the URL.
RewriteCond %{QUERY_STRING} base64_encode[^(]*\([^)]*\) [OR]
deny from googlebot.com deny from slurp Options -Indexes
RewriteEngine On
RewriteCond %{REQUEST_METHOD} POST
RewriteCond %{HTTP_USER_AGENT} ^$
Schon das Rätsels lösung?
Damit wird der Googlebot ausgesperrt.

mtx93
PostRank 8
PostRank 8
Beiträge: 809
Registriert: 16.12.2011, 00:35

Beitrag von mtx93 » 26.04.2013, 00:05

Installiere dir für firefox oder dem chrome browser ein "user agent switcher" addon.
Damit kannst du deiner Webseite verschiedene bots vorspielen. Im Browser den agent switcher auf googlebot oder bing schalten und deine Webseiten aufrufen.
Dann den Sourcetext der Seite anschauen.

Damit kannst du auch sehen, ob die bots a.) die Seite sehen und b.) was sie sehen.

Vegas
PostRank 10
PostRank 10
Beiträge: 5063
Registriert: 27.10.2007, 13:07

Beitrag von Vegas » 26.04.2013, 00:29

CyberNibbler hat geschrieben:Damit wird der Googlebot ausgesperrt.
Dachte ich mir doch, daß die Startseite die wohl am häufigsten gecrawlt wird bei der site: Abfrage nicht im Index war, war schon sehr komisch.

deny from googlebot.com deny from slurp muß raus, dann können Google & Yahoo wieder zugreifen. Den Rest, auch Options -Indexes am Ende der Zeile, drinlassen. Letzteres verhindert die Verzeichnisansicht, wenn in einem verzeichnis keine index.html/.htm/.php liegt.
Forward Up >> Suchmaschinenoptimierung >> SEO Notaufnahme >> SEO Audits >> SEM >> ORM

madmaxy
PostRank 2
PostRank 2
Beiträge: 58
Registriert: 12.04.2012, 22:04

Beitrag von madmaxy » 26.04.2013, 08:24

sehr wichtig ist, dass du alle FTP und SQL Zugänge änderst. Wenn er sich Backdoors angelegt hat, hast du wirklich ein problem.

Prüfe mal nach verdächtigen iframes oder Skripten. Ob er die Seite verseucht hat, kannst du mit urlvoid prüfen.

kweb
PostRank 3
PostRank 3
Beiträge: 65
Registriert: 22.04.2009, 08:25

Beitrag von kweb » 26.04.2013, 09:12

Hi also geändert hatten wir:

FTP Zugangsdaten
MySql Zugangsdaten
Kundenadministration Zugang
Google-Account Passwort

Ich fürchte er ist trotzdem reingekommen. Habe mal urlvoid gemacht - alles safe. Im Kundenadmin hat der Webdesign neben der Joomla DB 4 weitere Datenbanken teilweise leer hinterlegt. Auch da habe ich mal die Passwörter geändert, wer weiss für was die sind. 3 sind leer und eine ist nen altes Joomla drin.

Mit user agent switcher versuche ich es auch mal gleich....

SChonmal vielen Dank für die Vielzahl an Tipps.

Unbekannter
PostRank 9
PostRank 9
Beiträge: 1181
Registriert: 04.05.2010, 18:58

Beitrag von Unbekannter » 26.04.2013, 10:59

Kannst du nicht nachweisen das er das war? Immerhin leben wir hier in Deutschland wo (zumindest im Netz) jeder jeden verklagt. Das ist doch sicher ein Fall wo man den Webdesigner (zurecht) bluten lassen kann?

Bei mir waren auch 3 auf 1 blu gehostete Wordpress Seiten gehackt worden und irgendwelche Scripts installiert. Google meldete Malware... Ich habs dann aufgegeben und alles vom Server gelöscht, Datenbanken gelöscht und alles neu aufgesetzt. Nur so hat man ein gutes Gefühl. Allerdings sind das unwichtige Seiten mit je 3-4 Seiten Content. Wenn dein Projekt groß ist ist das natürlich eine riesen Aufgabe :-?

kweb
PostRank 3
PostRank 3
Beiträge: 65
Registriert: 22.04.2009, 08:25

Beitrag von kweb » 26.04.2013, 16:18

Leider war der Webdesign so "clever" und hat die Logfiles gleich mitgelöscht. Laut goneo ist es nicht mehr nachzuweisen.

Wie lange dauert es denn bis die Seiten normalerweise wieder im Index landen?

madmaxy
PostRank 2
PostRank 2
Beiträge: 58
Registriert: 12.04.2012, 22:04

Beitrag von madmaxy » 26.04.2013, 19:25

Hi,

Google hat dich in der Regel wieder zügig drin. Ich hatte mal einen Virus auf dem Server. Google hatte mir ne Nachricht gesendet und die Seite war aus dem Index. Nachdem der Virus weg war, war ich in 2 Wochen an den alten Pos.

Melegrian
PostRank 10
PostRank 10
Beiträge: 3170
Registriert: 30.01.2005, 12:36

Beitrag von Melegrian » 27.04.2013, 11:08

kweb hat geschrieben:

Code: Alles auswählen

RewriteEngine On
RewriteCond %{REQUEST_METHOD} POST
RewriteCond %{HTTP_USER_AGENT} ^$
Wie hängen denn diese Zeilen zusammen?
Ein leerer User Agent soll sicherlich gesperrt werden, was dann in einer Regel folgt?
Wäre verständlich, doch Post und leerer User Agent als Bedingung zusammen, was folgt da für eine Regel und auf was bezieht die sich?

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag