Seite 1 von 1

robots

Verfasst: 12.02.2006, 16:39
von DayliDarter
Hallo Forum,
Habe eine Frage. Kann es sein das eine Webseite aus Google fliegt weil keine Robtos.txt vorhanden ist? diese Seite wurde in Google per Hand eingetragen. Wurde auch 2 Tage gefunden. Nun ist diese Seite nicht mehr zu finden. Wie kommt das fals die Robots nicht verantwortlich dafür ist. Backlinks werden langsam aufgebaut. Ca.15 Beantrag, also in Webkataloge gemeldet. 3 erst bestätigt worden.

Verfasst:
von

robots

Verfasst: 12.02.2006, 16:45
von ole1210
Sammel noch nen paar hochwertige Links. Dann wird deine Seite auch gefunden. Anmeldung bei google ist überflüssig, sammeln von Links ist schneller und effektiver.

Seite ohne robots.txt fliegen ganz sicher nicht aus dem Index.

robots

Verfasst: 12.02.2006, 17:31
von Herzenschauer
Hallo,

ich möchte mich gerne einklinken in diesen Thread, da ich etwas nicht ganz verstehe.

Was genau ist mit "sammeln von hochwertigen Links" gemeint?

TIA
Herzenschauer

Verfasst:
von
Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

robots

Verfasst: 12.02.2006, 18:05
von Hasso
@Herzenschauer
Die Vorraussetzung für die dauerhafte Indexierung und Listung in einer Suchmaschine wie z.B. "Google" ist das Vorhandensein von soggenanten Backlinks (Links von anderen Seiten, die auf Deine Seite verweisen)
Hochwertig sind solche Backlinks, wenn diese von den Seiten kommen, die bspw. selbst viele Backlinks von unterschiedlichen Domains haben (die wiederum auch gut verlinkt sind). Die Themenrelevanz könnte auch eine gewisse Rolle für Hochwertigsein spielen, sowie ganz viele weiteren Faktoren wie Alter der Domain, IP/Domain-Popularität, vorhandener Eintrag in ganz bestimmten Verzeichnissen, Linkstruktur, Anzahl der Seiten etc.....

Grüsse
Hasso

Re: robots

Verfasst: 12.02.2006, 18:23
von rechtlegal
DayliDarter hat geschrieben:Hallo Forum,
Habe eine Frage. Kann es sein das eine Webseite aus Google fliegt weil keine Robtos.txt vorhanden ist?
Nein.

Verfasst: 13.02.2006, 00:48
von luigip
@DayliDarter

Früher oder später fliegt der Networkingmüll wegen duplicate content sowieso wieder aus dem Index.

robots

Verfasst: 13.02.2006, 13:31
von DayliDarter
@luigip
Du magst das als Datenmüll ansehen,aber das ist es eigentlich gar nicht. Die Anzeigen aus Google welche Du geshen hast, sind alle von Unterschiedlichen vertriebspartner dieses Produktes. Das produkt wird nur über vertiebspartner vrkauft. Einziger Nachteil ist, das dieses Proukt nur über eine von Besitzer erstellten Webaeite mit gleichem Aussehen vertrieben werden muß, wegen wieder erkennungswert usw. Also wenn Du immer noch der meinung bist das diese Seiten alle wegen neworkingmüll raus fliegen,dann erzähl mal eine Alternative wie die Produkte sonnst verkauft werden sollen übers Inet????

robots

Verfasst: 13.02.2006, 13:37
von firestarter
Hmm,
vergiss dieses Franchisezeug wenn der Anbieter so umflexibel ist und solche Forderungen stellt. Suche dir was vernünftiges nit einem Anbieter der seine Hausaufgaben gemacht hat - und nicht wie dieser einfach mal ein paar Webseiten aus dem Boden stampfen die allesamt gleich aussehen.

Die werden so auf diese Art nicht lange überleben im Netz - die die das allerdings ausbaden müssen sind Leute wie du die Geld investiert haben.

Gruss Frank

Verfasst: 13.02.2006, 15:34
von luigip
DayliDarter schrieb:
Also wenn Du immer noch der meinung bist das diese Seiten alle wegen neworkingmüll raus fliegen..
Zitiere mich doch bitte richtig. Ich habe nicht geschrieben wegen networkingmüll fliegen die Seiten, sondern der networkingmüll fliegt wegen dc.
Zu duplicate content findest du mit Hilfe der Suchfunktion ausreichend Lektüre in diesem Forum.

robots

Verfasst: 15.02.2006, 19:49
von DayliDarter
Liebes Forum,
ich habe den Betreiber der Webseite mit dem hinweis von duplicate content angesprochen als Antwort habe ich folgendes erhalten:
Die von uns für die BEMER-Partner erstellten Internetsites weisen dieses Makel jedoch n i c h t auf. Für jeden Partner wird eine individuelle Site erstellt, die zudem auch von jedem Partner selbst verändert werden kann. Bei den bei Google erwähnten automatisch erstellten Internetsites handelt es sich um eine gezielte Täuschung der Suchmaschinen durch Generierung Tausender Sites, die nur darauf abzielen, auf ein und die selbe Seite zu verlinken. Jeder BEMER Partner hat hingegen sein eigenes Verzeichnis bzw. sogar eine eigene Subdomain, die speziell aufgerufen wird. Die meisten Partner nutzen sogar eine eigene Domain. Die Eigenständigkeit der einzelnen Seiten wird ebenfalls über die Angabe des Impressums der einzelnen Partner sicher- gestellt.

Nun würde mich eure meinung dazu Intressieren. Ist das einfach nur dummes Geschwätz oder hat der Betreiber mir dem duplicate content recht was er behauptet. die Firma die diese behauptet heisst: aicovo® gmbh

Bitte schreibt was Ihr davon haltet

robots

Verfasst: 15.02.2006, 20:25
von oldInternetUser
von jedem Partner selbst verändert werden kann
Die wenigsten werden es tun, also bleibt es duplicated content.

Wo das liegt (Verzeichnis, Subdomain, andere Domain) ist egal, dieser Punkt ist für google unwichtig.
Die Eigenständigkeit der einzelnen Seiten wird ebenfalls über die Angabe des Impressums der einzelnen Partner sicher- gestellt
Das ist eine rechtliche Aussage, für google ist damit im Zweifelsfall das meiste auf den Einzeldomains gleichartig, das bißchen Impressum rettet das nicht.

Sprich: Selbst wenn alle ihre Texte selber schreiben würden, würden sie sich an den Texten der Hauptdomain orientieren und auf diese linken, also werden im Zweifelsfall nur ganz wenige Seiten gut postiert, der Rest verschwindet im Nirvana.