Seite 1 von 1

Hat man das Rad neu erfunden?

Verfasst: 22.07.2008, 16:30
von piero50
Hoi Zämma

Ich frage mich langsam was das ganze mit der Spider-Unterstützung soll.

Also:
Zuerst hatten wir ja die META-Angaben erfunden, die heute nur noch Yahoo interessieren.
Auch die robots.txt Datei hat man erfunden um das Ganze ein wenig detaillierter zu haben.

Nun kommt die sitemap.xml ins Spiel, die eindeutig in verschiedenen Positionen die META-Angaben ersetzt. Warum auch?

Falls die META-Angaben (sowieso) nichts mehr Wert sind, dann hätte man doch alles in einer einzigen neue ASCII-Datei stellen sollen und robots.txt, META und sitemap.txt endlich als gestorben erklärt.

Ich finde, dass das Ganze langsam "undurchsichtig" wird.

Was soll man jetzt Google und wie soll man die nationalen Suchmaschinen füttern?

Verfasst:
von

Verfasst: 22.07.2008, 16:37
von Nutzer0815
der sitemap-standard wird von google, msn und yahoo gleich interpretiert - also reicht eine Sitemap für alle 3

und Meta Angaben sind weiterhin super wichtig...
und die robots.txt ist auch eines der wichtigsten Werkzeuge

ich weiss also nicht wo du das Problem hast?

Verfasst: 22.07.2008, 16:48
von Burns
gemeint ist sicher, dass man so viele Dinge beachten muss nur um es den robots Recht zu machen. Im Grunde sind META's, Sitemaps und robots.txt nur Werkzeuge um die Crawler dahin zu steuern wo man's gern möchte.

Es geht auch ohne all diese Angaben nur darf man nicht über das Ergebnis überrascht sein ;)

Verfasst: 22.07.2008, 16:59
von Nutzer0815
Die Frage ist doch, will man es den Besuchern rcht machen oder Seiten für Suchmaschinen erstellen.
Seit wann bestimmt eine Suchmaschine, was ich auf meinen Seiten mache?
dann brauchste dich nicht wundern das kein Schwein deine Seite besuchen kommt - leider ist das so - und ich mach lieber das was G00gle sagt - als ohne Besucher dazustehen ....

Verfasst: 22.07.2008, 17:11
von Burns
man muss ja auch gefunden werden, die Besucher kommen ja nicht einfach so auf die Webseite, ausser man ist schon bekannt wie ein bunter Hund.

Spider sind nun mal eben "dumme" Programme und mit den Angaben gibt man denen Futter. Mit dem Strom schwimmen geht immer schneller als dagegen ;)

-

Verfasst: 22.07.2008, 17:54
von piero50
Nutzer0815 hat geschrieben:der sitemap-standard wird von google, msn und yahoo gleich interpretiert - also reicht eine Sitemap für alle 3
und Meta Angaben sind weiterhin super wichtig...
und die robots.txt ist auch eines der wichtigsten Werkzeuge
ich weiss also nicht wo du das Problem hast?
Das eigentliche Problem besteht nun darin, dass wir bald für jede wichtige Suchmaschine eine eigene Domain errichten müssen.

Nicht zu vergessen dass hier in Asien, wo ich mich befinde, Yahoo die Nr. 1 ist.

D.h., wenn Du für Asien Werbung für deine Erzeugnissen machen willst, dann rate ich jedem sich mit dem Yahoo-Standard zu befreunden. Also schön Brav die META-Angaben studieren. Dementsprechend die Robots auszuwählen und die stitemap.xlm kannste vergessen.

Ganz anders für Europa. Dann schön brav robots.txt und sitemap.xml. Und die META kannste vergessen.

Ein totales Durcheinander.

Ich habe bereits meine Domains eingeteilt. Google- oder Yahoo-Freundlich. :D