Seite 1 von 1

Passwortgeschützte Seiten & Suchmaschinen - beides mögli

Verfasst: 01.11.2004, 08:16
von seosum
Hallo,

mich würde Eure Meinung zu folgendem Thema interessieren.

Einzelne Seiten bei einer Website werden per Passwort geschützt. Der geschützte Content ist hochwertig, auch für Suchmaschinen. Ich möchte das Suchmaschinenen diesen Content spidern und könnte den Besucher (Spider, Surfer) auch unterschiedlich ansprechen.

Wenn ich das spidern durch Suchmaschinen zulasse, bringt mir das einen Eintrag im Index, aber die Seite ist natürlich nicht richtig geschützt, da über den Cache der Suchmaschinen wieder herstellbar (Surfer bekommt Passwortabfrage).

Meine Frage:
würdet Ihr den Content der Suchmaschinen zur Verfügung stellen (kein hochsensibler Content), oder würdet Ihr die gesicherten Seiten strikt abschotten. Würde diese Vorgehensweise (wenn Sie Suchmaschinen auffallen würde) abgestraft?

Gruss Tom

Verfasst:
von

Verfasst: 01.11.2004, 08:30
von SISTRIX
Hallo,

was Du da vorhast (Suchmaschinen und Usern unterschiedliche Seiten ausliefern) ist die Definiton von Cloaking und wird nicht gerne gesehen.
Ich verstehe nicht, was Du willst? Entweder ist der Content für jeden erreichbar oder er ist es eben nicht. Sollen die Leute, die dann über Suchmaschinen auf die Seite kommen direkt das Passwordfenster sehen?

Gruss Johannes

Verfasst: 01.11.2004, 08:38
von seosum
keine unterschiedlichen Seiten. Wenn der Surfer kommt, wird erst geprüft, ob er eingeloggt ist, wenn nicht, kommt die Passwortanfrage. Ist eigentlich kein Cloaking, könnte aber von einer Suchmaschine als solches interpretiert werden, und somit bin ich vorsichtig.

Verfasst:
von

Verfasst: 01.11.2004, 08:54
von Optimizer
seosum hat geschrieben:keine unterschiedlichen Seiten. Wenn der Surfer kommt, wird erst geprüft, ob er eingeloggt ist, wenn nicht, kommt die Passwortanfrage. Ist eigentlich kein Cloaking, könnte aber von einer Suchmaschine als solches interpretiert werden, und somit bin ich vorsichtig.
It should be available for everyone.....not only google....its all or nothing

If you look at a certain SEO board which name i will not mention here because we all know where we are talking about then you know that you have to pay for acces. (paid membership)

The have chosen for the option to let google spider the pages in order to get more visitors.

It means also that all pages can be seen and that links can be followed...because the link that enables google to see is the same link that visitors follow to see the same page.

If you change this option...you are cloaking because google is not a member and you show another page then what he did see and this is the basic from cloaking !!

You can give your own explanation about this matter but i think google will see it different because you use their SE to get more subscribers.

Regards,
OPtimizer

Verfasst: 01.11.2004, 09:00
von seosum
Thanks OPtimizer :D,

danke für den Tipp. Auch wenn es technisch kein Problem wäre Suma und Surfer unterschiedlich zu behandeln. Die Google-Richtlinie rückt das ins richtige Licht.

Gruss Tom

Verfasst: 01.11.2004, 09:09
von Optimizer
seosum hat geschrieben:Thanks OPtimizer :D,

danke für den Tipp. Auch wenn es technisch kein Problem wäre Suma und Surfer unterschiedlich zu behandeln. Die Google-Richtlinie rückt das ins richtige Licht.

Gruss Tom
Hi,

I would do it different....

If you have a book...you don't only want to know how it begins...but also how it ends....same as a movie....right ?

If you have pages (info) what is interesting....then share the first part of each document...it's so simple..

All can see how it starts...but to read the whole document...they have to register...

I think this will work good because you give an expression what to expect...and then they want to know more...and they will register for it.

Regards,
OPtimizer.

All in life is give and take...
(take a bit more is not wrong if you deserved it :lol: )

Verfasst: 01.11.2004, 09:12
von Optimizer
Forget to mention...to do this is easy...

Just copy the first part of a document to a seperate page with a link...
click here to read the full document... :idea:

regards,
OPtimizer

Verfasst: 01.11.2004, 09:29
von seosum
@optimizer,

danke für den Tipp :D

Verfasst: 01.11.2004, 12:28
von operator
hallo,

also möglich wäre das ganze in dem du für deine seite
das zwischenspeichern ausschließt per html und den
inhalt der seite nur für den googlebot zuläßt, spricht für
ip bereiche bzw user-agents, je nachdem für was du
dich hier entscheidest ist das natürlich kein 100% schutz
vor unerwünschtem mitlesen nicht registrierter nutzer,
aber es kommt dem schon ganze nahe

in wie weit dafür eine möglichkeit besteht deine seite
abzustrafen seitens google (stichwort cloaking)
wird sich erst herrausstellen müssen

Verfasst: 01.11.2004, 12:39
von bull
zwischenspeichern ausschließt per html
Meinst Du <meta http-equiv="Pragma" content="no-cache"> ?

Ansonsten ist diese Google-Suche sehr aufschlußreich. Neben cloaking kann man auch eine Cookie-Lösung praktizieren - wenn gezahlt dann angemeldet, wenn angemeldet dann Cookie, wenn Cookie dann Artikel, wenn kein Cookie und Googlebot dann Artikel, wenn kein Cookie und nicht Googlebot dann zur Zahl- oder Anmeldeseite.

Verfasst: 01.11.2004, 13:55
von operator
hallo,

also möglich wäre das ganze in dem du für deine seite
das zwischenspeichern ausschließt per html und den
inhalt der seite nur für den googlebot zuläßt, spricht für
ip bereiche bzw user-agents, je nachdem für was du
dich hier entscheidest ist das natürlich kein 100% schutz
vor unerwünschtem mitlesen nicht registrierter nutzer,
aber es kommt dem schon ganze nahe

in wie weit dafür eine möglichkeit besteht deine seite
abzustrafen seitens google (stichwort cloaking)
wird sich erst herrausstellen müssen