Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Warum crawlet ein SEO das Web?

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
hlag
PostRank 2
PostRank 2
Beiträge: 32
Registriert: 01.09.2003, 14:22
Wohnort: Bonn

Beitrag von hlag » 01.09.2003, 14:58

nebenbei läßt sich aus den Logfiles auch entnehmen, daß der Bot nur die robots.txt abfragt. Damit ist weder Gästebuchspam noch Logfilespam möglich.

;-) klaus

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

piko
PostRank 2
PostRank 2
Beiträge: 56
Registriert: 16.03.2003, 18:30

Beitrag von piko » 01.09.2003, 15:08

hlag hat geschrieben:Hallo Leute,

Hoffe, ich habe damit einige Punkte geklärt.

Viele Grüße
8-) klaus
Hallo Klaus,

einen Punkt hast Du noch vergessen :lol:

>watt sagt denn dmmv dazu, versteckte links gehörten nicht in die liste von sauberem seo.

gruss
piko

Webby
Administrator
Administrator
Beiträge: 5420
Registriert: 17.10.2001, 01:00

Beitrag von Webby » 01.09.2003, 15:17

Willkommen am Board Klaus :-)

Sicher haben alle ernsthaften SEOs irgendwo was ich nenne als "throwaway domains" für testen zweck erstellt. Aber nach den check sollten die domains eigentlich sauber gemacht weil es kann schaden deine Ruf als Profi SEO und in meine erfahrung ist die nachteil die zu haben großer als die vorteilen.
ABAKUS Internet Marketing
Professionelle Suchmaschinenoptimierung und Suchmaschinenmarketing

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


hlag
PostRank 2
PostRank 2
Beiträge: 32
Registriert: 01.09.2003, 14:22
Wohnort: Bonn

Beitrag von hlag » 01.09.2003, 16:15

>was sagt der dmmv zu versteckten Links?

nichts. Ich halte versteckte links grundsätzlich nicht für schlecht im Sinne von unethisch. Links zu verstecken ist nur eine Technik, die Ethik kommt erst durch das Ziel dieser Technik ins Spiel.

Mit der beanstandeten Domain (doll gefunden wird die eh nicht) kommt der Besucher zu einer Seite, die das beinhaltet, was er gesucht hat.

Die Links sind per ausgelagerter css-Datei versteckt, und ich will wissen, wann Google das rafft, daher werde ich die Seite nicht wieder vom Netz nehmen. Wenn sich jemand durch diese Seite belästigt fühlt, kann er sie gerne bei Google anschwärzen. Das geschieht mit meinem vollen Einverständnis. Ich würde mir allerdings wünschen, anschließend darüber informiert zu werden (ist nur ne Bitte).

Nebenbei ist das eine Technik, die ich Kunden im Interesse des Kunden nicht verkaufen würde.

Letztendlich ist es übrigens die große Kunst (imho) ranking-dienliche Links auf einer Seite so zu verstecken, daß sie niemandem als Optimierungsmethode auffallen. Unterschiedlich sind lediglich die Techniken, mit denen das erreicht wird. Per CSS versteckte Links sind eine Technik, die man böse mißbrauchen kann. Die Navigation auf Keywords umzustellen dient letztendlich dem gleichen ZWeck, ist von der Technik her lediglich nicht so leicht mißbrauchbar. Der dahinterliegende Zweck, und damit der ethische Aspekt ist in beiden Fällen der gleiche.

Viele grüße

8-) klaus

Webby
Administrator
Administrator
Beiträge: 5420
Registriert: 17.10.2001, 01:00

Beitrag von Webby » 01.09.2003, 17:04

Ist eigentlich egal was du oder oder bugscout meint als ethisch oder Spam oder ein e"technik". Am ende des Tages, Google ist die bestimmerer von was ist Spam und was die nicht sehen wollte und was die Strafen werden. Sogar relevante Spam ist immer noch Spam. solange als es deine Seite ist hab ich keine problem mit. Aber sowas für Kunden ist eine andere geschickte. Besonders weil ausgehende links von kunden seiten verschwenden PR. Es gibt eine hacken auf die Spamreport für versteckte links, und das heist für Google ist das Spam und oft wird es tollerert, manchmal aber nicht.
ABAKUS Internet Marketing
Professionelle Suchmaschinenoptimierung und Suchmaschinenmarketing

~bWM
PostRank 4
PostRank 4
Beiträge: 137
Registriert: 25.08.2003, 02:24

Beitrag von ~bWM » 01.09.2003, 17:45

hlag hat geschrieben: @~bWM
>ich lach mich tot
dafür hab ich's reingeschrieben
Als Lacher oder als Abschreckung ;)

hlag
PostRank 2
PostRank 2
Beiträge: 32
Registriert: 01.09.2003, 14:22
Wohnort: Bonn

Beitrag von hlag » 01.09.2003, 17:50

als Lacher, Quelltext kann man nicht verstecken. Selbst gecloakten Quelltext bekommt man aus dem Google-Cache rekonstrueirt

;-) klaus

bugscout
PostRank 9
PostRank 9
Beiträge: 2602
Registriert: 23.06.2003, 12:24

Beitrag von bugscout » 01.09.2003, 18:56

moin hlag,

soso nur eine domain.

was ist mit https://www.gruendungshilfe.de/

oder mit den ganzen seiten an denen gerade gearbeitet wird?

mein kollege aus erfurt meint, dass es in dresden kein europa-institut gibt.
wieso ist die seite bei dmoz eingetragen.

https://www.europainstitut-dresden.de/

wie gehts dr baldeweg? https://www.dr-baldeweg.de/

ist er immer noch bei den naturfreunden https://www.naturfreunde-d.de/

und wieso machen die werbung für andere seiten?

ich bin nur mal ein paar minuten ohne viel aufwand im netz gewesen.

ich finde versteckten text auch ok, wenn man die seiten anders wegen
des designs nicht bearbeiten kann.
aber zig seiten zu generieren von links und suchtreffern find ich nicht gut,
weil damit die suchmaschinen zugemüllt werden, virtuelle umweltverschmutzung.
nichts mit ethisch oder unethisch, ich will dass das verschwindet.

wenn du mich verkackeiern willst kannst du gleich am 14.9.
meine erste geschichte abgeben, mit email an dmmv und dmoz.
Die Links sind per ausgelagerter css-Datei versteckt, und ich will wissen, wann Google das rafft, daher werde ich die Seite nicht wieder vom Netz nehmen
dat versteh ich nicht, bin ich wohl zu blöd für,
links per css auslagern, damit google sie nicht findet, oder was, sozusagen negativ-spam. cool

nur weiter so,

~bWM
PostRank 4
PostRank 4
Beiträge: 137
Registriert: 25.08.2003, 02:24

Beitrag von ~bWM » 01.09.2003, 20:00

bugscout hat geschrieben:moin hlag,
dat versteh ich nicht, bin ich wohl zu blöd für,
links per css auslagern, damit google sie nicht findet, oder was, sozusagen negativ-spam. cool
Die Links wurden über Stylesheets unsichtbar gemacht, nicht ausgelagert *g
Btw ist diese Methode ein alter Hut und als "SEO" hät ich mehr erwartet...

hlag
PostRank 2
PostRank 2
Beiträge: 32
Registriert: 01.09.2003, 14:22
Wohnort: Bonn

Beitrag von hlag » 01.09.2003, 20:29

als doorway-domain verstehe ich eine Domain, die gefunden werden soll. Das ist in diesem Fall die gruendungshilfe.de.

8-) klaus

Klaus
PostRank 7
PostRank 7
Beiträge: 595
Registriert: 05.08.2003, 08:21
Wohnort: Darmstadt

Beitrag von Klaus » 04.09.2003, 10:06

Hallo.
Wie bekomme ich den Bot denn raus?
So?
User-agent: Der Bot aus Poppelsdorf
Disallow:/webseiten
Danke und Gruß
klaus

hlag
PostRank 2
PostRank 2
Beiträge: 32
Registriert: 01.09.2003, 14:22
Wohnort: Bonn

Beitrag von hlag » 04.09.2003, 10:47

Hallo Klaus,

der Bot fragt nur die robots.txt ab. Wenn Du in die Robots.txt was für den Bot reinschreibst, muß er die abrufen, damit er weiß was drinsteht. Über die robots.txt kannst Du jeden Bot nur von den Seiten fernhalten, nicht jedoch vom Auslesen der robots.txt.

mail mich mal an, oder ruf mich an, dann bekommen wir das auf anderem Weg hin.

Viele Grüße
8-) klaus

chrise
PostRank 6
PostRank 6
Beiträge: 489
Registriert: 28.11.2002, 21:19

Beitrag von chrise » 04.09.2003, 15:06

ich bin für ip-cloaking der robots.txt ;)

Klaus
PostRank 7
PostRank 7
Beiträge: 595
Registriert: 05.08.2003, 08:21
Wohnort: Darmstadt

Beitrag von Klaus » 04.09.2003, 15:21

Wenn Du erklärst, was das heißt, dann haben evtl. alle was davon.
Danke.
Klaus

hlag
PostRank 2
PostRank 2
Beiträge: 32
Registriert: 01.09.2003, 14:22
Wohnort: Bonn

Beitrag von hlag » 04.09.2003, 15:29

@klaus,

ist ein Witz, und eigentlich ein ziemlich guter. Die robots.txt ist die einzige Datei auf einer Präsenz, bei der ip-cloaking überhaupt keinen Sinn macht.
ip-cloaking ist eine Technik, mittels derer man robotern und menschen unterschiedliche Inhalte zeigen kann. ist eigentlich eine gute Technik, wird aber gerne für recht böses spaming verwendet und kann, wenn die Domain erwischt wird, böse Konsequenzen haben.

8-) klaus

Antworten