Also ich seh da ehrlich gesagt mit htaccess vom System her eigentlich kein Problem..Problem ist eher, dass dann bei jedem mal deren Datenbank belastet werden würde - also denke ich, dass die die Seiten einfach cachen werden (so wie intern wahrscheinlich auch)... Also riesige Ordner mit /mitglieder/a-c/ etc..
Normalerweise könnte man ja sowas i der htaccess oder robot.txt machen aber bei der Masse könnten die das ja anders lösen oder amchen es auch bestimmt denn sonst ist es ja unmöglich.
Ich dachte irgendwie im source code vielleicht, wenn ja wie?
----------------------------------- SEOptiker Blog Linkpartner gesucht im Bereich: Handy | Reisen | Singles
„Zwei Dinge sind unendlich: das Universum und die menschliche Dummheit. Aber beim Universum bin ich mir noch nicht ganz sicher." A. Einstein
2. Schritt (Normalzustand)
keine Indizierung, da ein Login notwendig ist
3. Schritt (schrittweise Einführung)
Spezielle Version der Nutzerprofile wird - falls Einverständnis der Nutzer vorliegt - veröffentlicht, man muss also nicht mehr eingelogged sein, um sie sehen zu können. U.a. können dann Crawler darauf zugreifen.
Fazit: "/p/" ist durch Robots.txt nicht gesperrt, damit können alle Kurzprofile, die dort veröffentlicht werden auch eingesehen + indexiert werden.
Mitteilung geschieht wahrscheinlich über Sitemap-Protokoll. Google schluckt pro Domain ca. 25 Millionen URLs in 500 Sitemaps - das sollte für eine Weile reichen.