in den logfiles siehst du, wer welche seiten wann angefordert hat. die anforderung nach der robots.txt verrät dir (neben dem namen z. b. googlebot) wann eine suchmaschine da war. wie du die logfiles bei deinem server abrufen kannst ist meist unterschiedlich von webhost zu webhost. guck mal bei faq oder "benutzerhandbuch" nach, ansonsten schreibe eine kurze mail an den support deines webhosts.
mit der abfrage site:deinedomain.de kannst du erfahren, wie viele seiten von dir indexiert wurde.
google kann soweit ich es weiß (steht glaube ich irgendwo bei google) 2 oder 3 parameter in der url verfolgen. wenn es mehr sind, hat der bot probleme.
https://suchmaschinentricks.at/ - Ziehen Sie die Aufmerksamkeit im Internet auf sich ...
Kaufe verschiedene Projekte mit entsprechendem Content - Kontaktaufnahme per PN
https://suchmaschinentricks.at/ - Ziehen Sie die Aufmerksamkeit im Internet auf sich ...
Kaufe verschiedene Projekte mit entsprechendem Content - Kontaktaufnahme per PN
google zeigt aber alte versionen von den URLs zu meinen Seiten.
wie oft aktualisiert er sich der Google?
Der findet also automatisch alle Seiten und Unterseiten und liest auch solche Links die mit PHP aus der Datebank die generiert werden?
( also auf der Hotels Liste Seite verfolgt er auch die Links
die da generiert werden z.B. Hotels in "Darmstadt Innenstadt" ).
wie oft der googlebot zu dir kommt, hängt davon ab, wie gut du mit externen seiten verlinkt bist. da kann es auch sein, dass er 2 mal am tag kommt. wenn du schlecht verlinkt bist, dann eventuell nur alle paar tage oder sogar wochen.
wenn google alte versionen zeigt, dann weil er sie irgendwann gespidert hat. er löscht sie nicht gleich heraus, wenn er sie beim nächsten durchgang nicht findet. das kann eine ganz weile dauern. wenn er aber die neuen url's nicht indexiert, kann das vielerlei gründe haben ...
hier noch ein nachtrag mit dem hinweis von google bezüglich dynamisch erstellter seiten:
Google ist in der Lage, dynamisch generierte Seiten zu indizieren. Da unsere Webcrawler jedoch Websites mit dynamischem Inhalt unter Umständen lahm legen und zum Absturz bringen, wurde der Umfang der indizierten dynamischen Seiten begrenzt. Darüber hinaus können unsere Crawler möglicherweise davon ausgehen, dass eine URL mit vielen dynamischen Parametern mit einer anderen URL, die andere Parameter enthält, identisch ist. Aus diesem Grund empfehlen wir, wenn möglich, weniger Parameter zu verwenden. In der Regel können URLs mit ein oder zwei Parametern leichter durchsucht werden als URLs mit vielen Parametern.
quelle: https://www.google.at/webmasters/2.html
https://suchmaschinentricks.at/ - Ziehen Sie die Aufmerksamkeit im Internet auf sich ...
Kaufe verschiedene Projekte mit entsprechendem Content - Kontaktaufnahme per PN
und auch direkt hotels Verlinken mit dem Namen im LinkText "Hotel Reuterhof".
Oder ist es nicht so gut wegen der Suchmaschienen weil es zuviele Links sind.
So will ich das ich so viel wie mögluch verschieden Suchbegrife in meiner Seite habe. Bringt das was in den Suchergebnissen ? Hab gesehen manche Seiten machen das so. Hatte dann auch viele Begriffe verlinkt zu meinen Unterseiten.
die url oben findet er, wenn auf einer seite ein link dazu da ist. google verfolgt nur links und kann keine abfragen machen. tipp: richte eine sitemap ein, wo zu allen unterseiten ein link da ist (empfehlung von google - nicht mehr als 100 links pro seite). du kannst auch den sitemap-generator von google verwenden.
unterseiten mit textlinks zu verlinken ist auf alle fälle gut (die hotelseite von darmstadt und auch die hotelseite vom reuterhof). wie gesagt, google kann deine unterseiten nur finden, wenn es dazu einen link gibt. es gibt hier im forum verschiedenste meinungen darüber, wie viele links du pro seite maximal haben solltest. manche meinen weniger als 100, manche haben 200 interne links auf ihren seiten. wenn du auf nummer sicher gehen möchtest, dann mach weniger als 100 pro seite --> s. oben sitemap als zusätzliche möglichkeit.
du wirst es nicht schaffen, mit 50 suchbegriffen topplatzierungen in den suchmaschinen zu haben. konzentriere dich auf die wichtigsten und optimiere deine seiten danach (was zum nachlesen: https://www.abakus-internet-marketing.d ... herche.htm
https://suchmaschinentricks.at/ - Ziehen Sie die Aufmerksamkeit im Internet auf sich ...
Kaufe verschiedene Projekte mit entsprechendem Content - Kontaktaufnahme per PN
ich denke ja, die links werden verfolgt. du kannst aber einen ganz einfachen test machen. du legst dir eine ganz einfache seite auf deiner domain an (oder besser, wenn du eine zweite domain hast, dann dort) und verlinkst sie nur von dieser einen partnerseite (oder halt von der seite, die du testen möchtest) - wichtig ist, dass es immer nur einen link zu dieser seite gibt. wenn du den link auf 10 unterseiten hast, weiß du dann nicht, von welcher seite aus die sumas die testseite gefunden haben. wenn die seite in den suchmaschinen aufgenommen werden, weißt du, dass sie verfolgt werden.
das mit den zuvielen links kann man halten wie man will. da schwirren unterschiedliche meinungen herum. google meint auf ihren seiten, dass man nicht mehr als 100 links pro seite haben sollte. wobei hier im forum einige weit mehr als 100 auf ihren seiten haben und trotzdem gut fahren. also, wenn du auf nummer sicher gehen möchtest, dann mach weniger als 100.
https://suchmaschinentricks.at/ - Ziehen Sie die Aufmerksamkeit im Internet auf sich ...
Kaufe verschiedene Projekte mit entsprechendem Content - Kontaktaufnahme per PN
Externe / Interne Links, Domain / IP / Link Popularität, Pagerank.
Professioneller Backlinkchecker mit Domainpop, Linkpop und PageRank-Anzeige.
- Automatisiert Linkpartner finden durch Themenrelevanz Vergleich
- Import von Backlinks aus den Suchmaschinen