Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Mittel gegen Content Klau

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
ole1210
PostRank 10
PostRank 10
Beiträge: 7464
Registriert: 12.08.2005, 10:40
Wohnort: Olpe

Beitrag von ole1210 » 12.08.2005, 10:59

Hallo Forum,

bin schon seit Monaten hier passiv aktiv (lese nur). Habe bisher zu jedem Problem eine Antwort bekommen. Doch nun stehe ich vor einem Problem:

Unsere KOMPLETTE Webseite wurde kopiert! Inklusive Navigationsstruktur, Fotos, Grafiken, AGBs(!!!!) etc.
Sogar unser Anfrageformular wurde übernommen. (Die Anfragen kamen aber weiter bei uns an :-) )
Der Dieb hat ausschliesslich die Hintergrundfarbe und die Buttons im Menü verändert.

Da der gute Mensch seine Adresse und Telefonnummer glücklicherweise im Impressum hinterlassen hat haben wir schon eine Abschaltung der Seite veranlasst!
Während des Telefonats wirkte er leicht "verunsichert" und konnte überhaupt nicht verstehen wieso wir das nach weniger als einer Woche schon gemerkt haben. ;-)

Doch nun zu meiner Frage:
Welche Möglichkeiten gibt es um Content Klau zu erschweren?
Ich denke jetzt nicht an Möglichkeiten wie "Seite als PDF oder Flash" hochladen.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Jojo
PostRank 9
PostRank 9
Beiträge: 2847
Registriert: 19.03.2004, 10:33
Wohnort: Papenburg

Beitrag von Jojo » 12.08.2005, 11:03

Gegen die von dir beschriebene Art des Content-Klaus kann man sich nicht schützen.

ole1210
PostRank 10
PostRank 10
Beiträge: 7464
Registriert: 12.08.2005, 10:40
Wohnort: Olpe

Beitrag von ole1210 » 12.08.2005, 11:08

Mist! Hatte es befürchtet!

Also kann ich nur weiterhin nen waches Auge auf die Logs werfen!

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

compiler
PostRank 7
PostRank 7
Beiträge: 560
Registriert: 10.08.2005, 06:58

Beitrag von compiler » 12.08.2005, 11:25

ole1210 hat geschrieben:Mist! Hatte es befürchtet!

Also kann ich nur weiterhin nen waches Auge auf die Logs werfen!
Richtig. Bei Bildern solltest du euer Logo reintun oder noch besser ne URL dazu. Wenns möglich ist.

Ansonsten immer logs analysieren.


Compiler

heddesheimer
PostRank 4
PostRank 4
Beiträge: 130
Registriert: 03.08.2005, 13:45

Beitrag von heddesheimer » 12.08.2005, 11:59

konnte überhaupt nicht verstehen wieso wir das nach weniger als einer Woche schon gemerkt haben.
nur mal aus Neugier: Wie habt Ihr es denn gemerkt? Nur aus den Logfiles dürfte das nur funktionieren, wenn der Klauer auf der kopierten Site noch absolute URLs oder Links stehen gelassen hat, die sich durch den Referer verraten.

Oder prüft Ihr regelmäßig eure Site mit Copyscape oder einem ähnlichen Tool?

Gruß Marian
https://www.lernpilot.de/blog/
Das Weblog zum Thema Lernen

Jojo
PostRank 9
PostRank 9
Beiträge: 2847
Registriert: 19.03.2004, 10:33
Wohnort: Papenburg

Beitrag von Jojo » 12.08.2005, 12:01

@heddesheimer z.B.
Sogar unser Anfrageformular wurde übernommen. (Die Anfragen kamen aber weiter bei uns an icon_smile.gif )

bydlo
PostRank 9
PostRank 9
Beiträge: 2209
Registriert: 11.12.2004, 01:03
Wohnort: Berlin

Beitrag von bydlo » 12.08.2005, 12:25

der sollte sich bei den daltons bewerben.
hätte gute chancen :D

wie wärs denn mit folgender idee.
ne art seriennummer in den quellcode einer jeden seite (so das suchmaschinen diese als content erkenne).
und den dann für den user verstecken.
habs zwar noch nie gemacht aber müsste doch funktionieren.
verhindert zwar nix ist aber leichter aufzuspüren als durch ständiges logfilestudium.
ausserdem geht das mit den logs ja nur ,wie oben erwähnt, wenn der dieb annähernd so blöd ist wie eurer
gruss axel

ole1210
PostRank 10
PostRank 10
Beiträge: 7464
Registriert: 12.08.2005, 10:40
Wohnort: Olpe

Beitrag von ole1210 » 12.08.2005, 13:10

@heddesheimer

ich schau routinemässig jeden Tag über unsere Logfiles. Da wird ja auch gelistet, von welchen Seiten der Besucher zu uns kam. Habe die bekannten Robots ausgeblendet und unsere grossen Linkpartner.
Da bleiben dann nur noch Referrer mit recht wenigen Zugriffen und wenn dann da eine unbekannte Seite mit vielen Zugriffen auftaucht schaue ich mir die an.

Ausserdem hat er den Fehler begangen nicht alle Grafiken zu kopieren sondern nur ca. 85%....


@bydlo
keine schlechte Idee. Nur wie?
1.: Ich erstelle die Seriennummer und geb ihr die gleiche Farbe wie dem Hintergrund. Dadurch ist Sie für den Besucher nicht zu sehen, der Robot liest sie aber. Der Verbrecher kommt vorbei, makiert alles und fügt es in Frontpage oder ein ähnliches Programm ein. Hat also meine Seite kopiert. Nun passt er den Hintergrund an seine Seite an und findet eine komische Seriennummer, da sie jetzt ja nicht mehr die Selbe Farbe wie der Hintergrund hat!
2.: Ich gebe der Seriennummer die Schriftgrösse -5 oder sowas. Der Robot liest sie immernoch, für den normalen User ist sie schwer zu finden. Der Verbrecher kopiert den Text und fügt ihn in Phase 5 ein.
da Phase 5 keine Formatierungen übernimmt ist die Seriennummer zu lesen.
3.: Ich versteck die Nummer über "hide". Da wird Sie aber nicht mit kopiert.
4.: Ich nutze keine Seriennummer, sondern eine Phrase die ausser mir niemand verwendet und die ich in jeden lägeren Text einbauen kann.
Problem: es gibt kaum Phrasen die man halbwegs problemlos in einen Text einbauen kann ohne das sioe negativ auffallen oder noch nicht bei irgendwem benutzt wurden.

Also:
muss ich wohl weiterhin die Augen offenhalten.

Nullpointer
PostRank 10
PostRank 10
Beiträge: 4790
Registriert: 22.04.2005, 19:14
Wohnort: West Berlin

Beitrag von Nullpointer » 12.08.2005, 13:26

bydlo hat geschrieben:der sollte sich bei den daltons bewerben.
hätte gute chancen :D

wie wärs denn mit folgender idee.
ne art seriennummer in den quellcode einer jeden seite (so das suchmaschinen diese als content erkenne).
und den dann für den user verstecken.
habs zwar noch nie gemacht aber müsste doch funktionieren.
verhindert zwar nix ist aber leichter aufzuspüren als durch ständiges logfilestudium.
ausserdem geht das mit den logs ja nur ,wie oben erwähnt, wenn der dieb annähernd so blöd ist wie eurer
gruss axel
das ist doch mal ne geschäftsidee. ein digitales nummernschild für webseiten. du bietest das als dienst an, und checkst regelmäßig, ob nummernschild und angemeldete ip noch übeeinstimmen. :lol:

dann könnte man noch strafpunkte für schlechte seiten verteilen.

gruß aus flensburg 8)

das mit dem code ist, grundsätzlich nicht schlecht, weil einfach zu implementieren. aber ich denke, dass jemand der sich seiten untern den nagel reisst, soetwas evtl. entdeckt und einfach ändert.

ole1210
PostRank 10
PostRank 10
Beiträge: 7464
Registriert: 12.08.2005, 10:40
Wohnort: Olpe

Beitrag von ole1210 » 12.08.2005, 13:30

@ Nullpointer
Ich find die idee Klasse!
Wenn du sowas programmierst dann gib mir bitte Bescheid! Wir werden dann Kunde!

top
PostRank 7
PostRank 7
Beiträge: 634
Registriert: 14.07.2005, 16:09

Beitrag von top » 12.08.2005, 16:20

So ein Aufwand ist doch gar nicht nötig.
Man kann bei Google doch auch nach ganzen Sätzen suchen. :D
Das bringt manch interessante Ergebnisse.

Ich frage mich nur gerade, warum Abakus selbst bei einem Zitat von der Startseite erst nach klick auf "die Suche unter Einbeziehung der übersprungenen Ergebnisse wiederholen." gefunden wird?


"90% der Internetnutzer schauen sich nicht mehr als die ersten 30 Links Ihres Suchergebnisses an."

holch
PostRank 6
PostRank 6
Beiträge: 410
Registriert: 08.03.2005, 20:23
Wohnort: Nürnberg

Beitrag von holch » 12.08.2005, 16:29

Könnte man nicht vielleicht einen unfauffälligen Meta-Tag einbauen?

Clevere Diebe wird man sowieso nur durch Zufall erwischen. Wer so doof ist und die absoluten Pfade zu den Grafiken beibehält wird über kurz oder lang natürlich gefunden. Dazwischen gibt es aber sicher eine Grauzone und man könnte sicher nochmal die Erfolgsquote bei der Content-Klau-Suche erhöhen.

Alle wird man nicht finden.

Gruß, Holger

rocker
PostRank 4
PostRank 4
Beiträge: 169
Registriert: 13.01.2004, 23:29
Wohnort: Hamburg

Beitrag von rocker » 12.08.2005, 16:33

Noch verrückter finde ich:

copyscape

Gutes Tool, aber was ist das denn?!

Nullpointer
PostRank 10
PostRank 10
Beiträge: 4790
Registriert: 22.04.2005, 19:14
Wohnort: West Berlin

Beitrag von Nullpointer » 12.08.2005, 17:50

ole1210 hat geschrieben:@ Nullpointer
Ich find die idee Klasse!
Wenn du sowas programmierst dann gib mir bitte Bescheid! Wir werden dann Kunde!
sorry, mein (nicht vorhandenes) kaufmännisches talent würde nicht ausreichen, damit am markt erfoglreich zu sein.

für den eigengebrauch ist eine individuelle lösung und kombination diverser fingerprints verwendbar.
zum beispiel eine kombination aus zwei vertippern hintereinander. und dann über die google-api und chron-job checken. die eigenen seiten filtern, und wenn dann was übrig bleibt ist das prüfenswert.

das problem dabei ist halt, je verbreiteter (kommerzieller) die lösung desto größer die zahl der angriffe und manipulationsversuche (siehe microsoftprodukte)

Anonymous

Beitrag von Anonymous » 12.08.2005, 19:42

Ein problem bei diesem "Nummernschild" für Webseiten ist genau das wie es auch bei Autos vorliegt... jeder weis, dass man das Nummernschild austauschen sollte, wenn man nicht sofort erwischt werden möchte...

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag