Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Schutz der Metatags

Ajax, Hijax, Microformats, RDF, Markup, HTML, PHP, CSS, MySQL, htaccess, robots.txt, CGI, Java, Javascript usw.
Neues Thema Antworten
jokro
PostRank 1
PostRank 1
Beiträge: 22
Registriert: 22.07.2008, 07:43

Beitrag von jokro » 18.08.2008, 19:01

Hallo, gibt es die Möglichkeit, die Metagtags zu schützen, sodaß Sie nicht mehr automatisch ausgelesen werden können. Um unsinnigen Antworten vorzubeugen. Ja ich weiß selbst, dass ich einfach keine einbauen könnte. Aber das ist nicht das Thema meiner Frage. Ich habe welche eingebaut und diese würde ich gerne wenn möglich vor dem manuellen auslesen schützen. Gibt es da irgend eine Möglichkeit? Vielen Dank für eure Unterstützung

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Southmedia
PostRank 10
PostRank 10
Beiträge: 7322
Registriert: 20.07.2003, 19:56

Beitrag von Southmedia » 18.08.2008, 19:06

Nein.

jokro
PostRank 1
PostRank 1
Beiträge: 22
Registriert: 22.07.2008, 07:43

Beitrag von jokro » 18.08.2008, 19:09

aber ich finde immer wieder Seiten, auf welche ich mit meiner automatischen Software keine Metatags auslesen kann und das obwohl welche (Titel, Description, Keywords etc.) vorhanden sind. Von daher müsste es doch möglich sein, diese ebenfalls irgendwie zu schützen oder zu codieren.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Southmedia
PostRank 10
PostRank 10
Beiträge: 7322
Registriert: 20.07.2003, 19:56

Beitrag von Southmedia » 18.08.2008, 19:13

Deine Software?

Anonymous

Beitrag von Anonymous » 18.08.2008, 19:18

es gibt Software wie z.B. https://www.bot-trap.de/ die das automatische Auslesen durch irgendeine Software oder eigene Spider unterbindet... gilt dann aber für die gesamten Webseiten und nicht nur für die Metatags....

jokro
PostRank 1
PostRank 1
Beiträge: 22
Registriert: 22.07.2008, 07:43

Beitrag von jokro » 18.08.2008, 19:20

Nein nicht meine Software. Aber es gibt da eine Firma, ählich wie IBP oder WEB CEO und damit kannst du wunderbar den Content insbesondere Keywords z.B. für Online Anzeigen sammeln gehen...

jokro
PostRank 1
PostRank 1
Beiträge: 22
Registriert: 22.07.2008, 07:43

Beitrag von jokro » 18.08.2008, 19:22

und wenn man sich bei bot trap anmeldet, schließt das dann auch die crawler der suchmaschinen wie google etc mit ein oder haben diese nach wie vor zugang?

jackwiesel
PostRank 10
PostRank 10
Beiträge: 5820
Registriert: 09.09.2007, 09:44
Wohnort: Bochum

Beitrag von jackwiesel » 18.08.2008, 19:30

Er meint (vermutlich) das Abschalten der Quelltextanzeige.

Glaub mir, wenn ich Deinen Quelltext lesen will, dann tu´ ich das - und jeder andere, der etwas Ahnung hat macht das auch.

Right-Klick enabled ist was für Kiddies... ;)

Gruß,
jw

Burns
PostRank 5
PostRank 5
Beiträge: 296
Registriert: 10.06.2008, 18:54

Beitrag von Burns » 18.08.2008, 19:50

wozu sollen dann deine Metas gut sein wenn se nicht ausgelesen werden sollen. :roll: :roll:

ein Schutz gibt es nicht, mein Bot kriegt se alle ;)
abgesehen von Sperrungen durch .htaccess

Anonymous

Beitrag von Anonymous » 18.08.2008, 20:37

jokro hat geschrieben:Nein nicht meine Software. Aber es gibt da eine Firma, ählich wie IBP oder WEB CEO und damit kannst du wunderbar den Content insbesondere Keywords z.B. für Online Anzeigen sammeln gehen...
und genau solche bots sollen ja durch bot-trap und ähnliche Projekte ausgesperrt werden...

die erwünschten Bots wie der googlebot etc haben natürlich weiterhin Zugriff und können alles auslesen...

Mork vom Ork
PostRank 9
PostRank 9
Beiträge: 2557
Registriert: 08.07.2008, 11:07
Wohnort: Aufm Friedhof.

Beitrag von Mork vom Ork » 18.08.2008, 20:37

jackwiesel hat geschrieben:Er meint (vermutlich) das Abschalten der Quelltextanzeige.
Zumal man in den Quelltextwust noch nicht mal reinschauen muss - die Meta-Daten erscheinen schön übersichtlich in den Seiteninfos bzw. -eigenschaften.
Right-Klick enabled ist was für Kiddies... ;)
Wobei ich da erstaunlich finde, wie viele Leute augenscheinlich nie in die Menüs ihres Browsers schauen. Zur Quelltextanzeige braucht es keinen Rechtsklick, die steht auch groß und breit im Ansicht-Menü.

Aber zur Ausgangsfrage: Es gibt keine Möglichkeit, das Lesen eines HTML-Dokuments zu verhindern. Man kann Teile des Codes bestenfalls mit Javascript verschleiern, sehr drollig, weil tatsächlich immer wieder Verwirrung stiftend, ist auch die Methode, als erste Zeile "<!-- encoded by htmlcrypto v0.8.15 -->" einzufügen und dann hundert Leerzeilen folgen zu lassen. Aber mehr als dieser Spielkram funktioniert nicht und kann nicht funktionieren.

Anonymous

Beitrag von Anonymous » 18.08.2008, 20:39

@jackwiesel
@burns

evtl. wäre es doch sinnvoll auch mal die ganze diskussion durchzulesen und nicht nur den ersten Satz des Eingangspostings....

jackwiesel
PostRank 10
PostRank 10
Beiträge: 5820
Registriert: 09.09.2007, 09:44
Wohnort: Bochum

Beitrag von jackwiesel » 18.08.2008, 20:46

Jo... meist reicht ja ein drüberfliegen, in diesem Fall isses mir durch die Lappen gegangen. Wird mit zunehmendem Alter vermutlich häufiger vorkommen... :D

Nix für ungut,
jw ;)

Burns
PostRank 5
PostRank 5
Beiträge: 296
Registriert: 10.06.2008, 18:54

Beitrag von Burns » 18.08.2008, 21:02

wäre nicht passiert, wenn die Frage am Anfang richtig gestellt wäre.
Im Grunde gehts doch um ganz was anderes und beim drüber lesen hab ichs wohl nicht mit bekommen.

trotzedem kann man's nicht schützen und bot-trap sperrt die ganze Seite vor den Zugriff. Es macht kein Sinn nur die Metas auszublenden.

Mein Bot hat sich anfangs die Zähne ausgebissen an fehlerhaften HTML-Code und auch Gzip-Komprimierung ist auch son Ding
Sonderzeichen in den Metas, z.B > ' " macht das parsen schwierig.
Einige Seiten sperren alles, wenn der Bot kein "normaler Browser" Header vortäuscht, hat mir ne menge Arbeit gekostet

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag