Seite 1 von 1
indizierung aber ohne description und keywords
Verfasst: 26.10.2004, 10:11
von reel
Hi,
seit heute ist eine neue website von mir bei google gelistet. jedoch nur unter dem Domainnamen zu finden. es erscheint dann auch keine description in der liste. woran liegt das? duert es evtl. noch a bisserl?
Verfasst: 26.10.2004, 10:34
von terese0815
Hi,
yep. Kann noch ein paar Tage dauern bis das richtig drin steht. Suche mal im Forum. Wurde schon des öfteren gefragt

Verfasst: 26.10.2004, 20:16
von tojas
>es erscheint dann auch keine description in der liste.
Länger als ein paar Tage sollta das aber nicht andaueren. Ansonsten nochmal kontrollieren, ob die robot.txt korrekt ist und versuchen möglichst viele Links zu bekommen.
sG,
tojas
Verfasst: 27.10.2004, 11:28
von reel
aber die description muss ich doch ned in die robots.txt reinschreiben. oder doch?
Verfasst: 27.10.2004, 11:35
von mark
aber die description muss ich doch ned in die robots.txt reinschreiben. oder doch?
Nein, ganz sicher nicht!
Verfasst: 27.10.2004, 11:38
von tojas
Du sollst in der robots.txt kontrollieren, ob du nicht aus Versehen Verzeichnisse oder Dateien für die Robots gesperrt hast.
Dann tauchen die Seiten nämlich manchmal ohne Beschreibung bei der site: Abfrage auf.
sG,
tojas
Verfasst: 27.10.2004, 14:23
von reel
User-agent: *
Disallow:
des müsst doch passen.
sorry, dass ich so blöd frag
Verfasst: 27.10.2004, 14:50
von mark
Zum Test der robots.txt gibt es hier:
https://www.sxw.org.uk/computing/robots/check.html ein praktisches Tool
Der Code
spricht alle Bots an und sagt Disallow:
Was kann das bedeuten?
Falls Du indiziert werden möchtest, lösch die Datei!
gruss mark
Verfasst: 27.10.2004, 15:17
von shapeshifter
Hast du ein relevantes Keyword in deinem Domainennamen und selbst danach bei Google gesucht ?
Könnte auch damit zu tun haben..........aber richtig - einfach nochwas warten
gruss
shapeshifter
Verfasst: 27.10.2004, 22:52
von reel
The following allows all robots to visit all files because the wildcard "*" specifies all robots.
User-agent: *
Disallow:
This one keeps all robots out.
User-agent: *
Disallow: /
https://www.searchengineworld.com/robot ... torial.htm
also müsste meine robot.txt doch passen. brauch ich die eigentlich, wenn ich eh nix ausschließen möchte. ansonsten lösch ich die robot nämlich?
Verfasst: 28.10.2004, 00:09
von LinkPop
@reel
Wenn Du nichts auszuschließen hast, leg einfach eine leere robots.txt auf Deinen Server. Das erspart Dir unzählige ErrorLog-Einträge.
Verfasst: 28.10.2004, 00:24
von Jörg
reel hat geschrieben:also müsste meine robot.txt doch passen.
ja, wenn hinter Disallow: nichts steht, bedeutet das, dass alles gespidert werden darf
Verfasst: 11.11.2004, 15:27
von reel
es hat sich immer noch nichts geändert.
hab schon ein paar sachen rausgeschmissen und extra text auf die seite gelegt.
Verfasst: 11.11.2004, 17:21
von spoddig
Au deiner Startseite hast du zwar titel etc. in den Metas auf deiner eigentlichen Seite nicht keine Metas nichts rein gar nix
<title>Unbenanntes Dokument</title>
Auch der verstekte h1 text auf deiner Startseite ist sicher nicht sinnvoll
Verfasst: 12.11.2004, 11:45
von lala
Melde mich zu Wort, da ich die gleichen Probleme habe mit suedsee-perlen.de
Die index wird seit Wochen regelmäßig aktualisiert (alle 2 Tage). Die Unterseiten sind seit Wochen nur als url drin, obwohl sich da im Content mehr geändert hat als in der index. Jetzt sind ein paar Seiten von meinem integrierten Shop reingerutscht, der eigentlich durch die robots.txt gesperrt ist. War aber ein Fehler in der robots. Das ist vor 2 Tagen passiert. Jetzt stimmt die robots.txt und der shop ist gesperrt. Aber warum sind diese Shop-Seiten mit Titel etc. sofort in g..gle, obwohl die fehlerhafte robots.txt nur 2 Tage auf dem Server lag? Die anderen Unterseiten liegen da schon seit Wochen und es tut sich nichts. Bin sehr ratlos. Hat jemand einen Tip?