Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Datenbank-Problem

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Anonymous

Beitrag von Anonymous » 07.11.2005, 22:37


Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


marc75
PostRank 9
PostRank 9
Beiträge: 1916
Registriert: 06.10.2004, 09:36

Beitrag von marc75 » 08.11.2005, 09:15

kannste auf die alte db noch zugreifen? wenn ja, teile die sql in mehrere Dateien auf, erst struktur, dann jede Tab einzeln, wenn immer noch ine zu gross ist, musste die teilen.

D@ve
PostRank 8
PostRank 8
Beiträge: 731
Registriert: 03.02.2005, 22:05
Wohnort: Bretzfeld 74***

Beitrag von D@ve » 08.11.2005, 14:36

Kann es sein, dass Du bei dem Backup mit phpMyAdmin "erweiterte" Inserts benutzt hast? Das kann zu Problemen führen weil Du dann oft mehrere tausend Datensätze in einem Befehl packst. Du solltest bei so großen Dumps nur mit "vollständigen" Inserts arbeiten, die Dateien werden dann zwar wesentlich größer, aber es gibt im allgemeinen weniger Probleme mit dem Einspielen.

Desweiteren kann ich auch BigDump empfehlen, damit hab ich auch schon größere Dumps eingespielt. Bis 50 MB sollte es da keine Probleme geben. Zur Not teilst Du den Dump einfach in mehrere kleinere Tabellen. Falls es ein phpBB-Forum ist, kannst Du auch die Suchtabellen einfach weglassen (das macht wahrscheinlich ca 70% des Dumps aus) und die Suche einfach neu indizieren.

Notlösung wäre noch lokal mit mysql.exe zu arbeiten (bei Fernzugriff) ist verdammt lahmar***ig (Du solltest Dir den Tag am Rechner sonst nix vornehmen) aber funktioniert in aller Regel. Aber wie gesagt es ist SAU-lahm wenn es ums zurückspielen geht phpMyAdmin ist schnell dagegen.

Gruß, Dave
Webkatalog für Musik: 2sound.de
Web In A Box

AnjaK
PostRank 9
PostRank 9
Beiträge: 2614
Registriert: 11.10.2004, 10:29
Wohnort: Riddermark

Beitrag von AnjaK » 11.11.2005, 14:41

Leider leider hat alles nix geholfen...
Da ist eine tabelle drin, in der SEHR seltsame Dinge stehn und das sieht der Server wohl auch so und weigert sich sie anzunehmen, nichtmal wenn ich einen einzigen Datensatz davon von Hand ruberdumpen will.

Naja, dann eben nicht, dann gibts halt keene Kekse ;)
Penisneid hat einen Namen: WebLiga | Los! Artikel schreiben! | Onlineshop hier anmelden! | Staatl. geprüfte Boardbösewichtin | Keine PNs bitte, bitte nur email.

marc75
PostRank 9
PostRank 9
Beiträge: 1916
Registriert: 06.10.2004, 09:36

Beitrag von marc75 » 11.11.2005, 14:52

Da ist eine tabelle drin, in der SEHR seltsame Dinge stehn und
vielleicht die seltsamen dinge maskieren?

AnjaK
PostRank 9
PostRank 9
Beiträge: 2614
Registriert: 11.10.2004, 10:29
Wohnort: Riddermark

Beitrag von AnjaK » 11.11.2005, 17:37

nein es ist ein gewaltiger Datenstrom mit relationalen Daten, die der "geniale" programmierer des neuen Woltlab wohl in einem Anfall von Drogenbackflash ersonnen hat... Ein einziger Datensatz hat fast 10 kb... *an den Kopf greif*

Aber gut... was solls ;)
Penisneid hat einen Namen: WebLiga | Los! Artikel schreiben! | Onlineshop hier anmelden! | Staatl. geprüfte Boardbösewichtin | Keine PNs bitte, bitte nur email.

nerd
PostRank 10
PostRank 10
Beiträge: 4023
Registriert: 15.02.2005, 04:02

Beitrag von nerd » 12.11.2005, 17:22

wie siehts aus wenn du die daten als .csv speicher und komprimierts, das sollte doch dann deutlich kleiner und trotzdem noch von phpmyadmin gelesen werden koennen (unter der annahme das sich die 200MB auf ein file mit kmpletten sql-anweisungen beziehen)?!

DSB
PostRank 1
PostRank 1
Beiträge: 1
Registriert: 11.12.2005, 11:08

Beitrag von DSB » 11.12.2005, 11:12

AnjaK hat geschrieben:nein es ist ein gewaltiger Datenstrom mit relationalen Daten, die der "geniale" programmierer des neuen Woltlab wohl in einem Anfall von Drogenbackflash ersonnen hat... Ein einziger Datensatz hat fast 10 kb... *an den Kopf greif*

Aber gut... was solls ;)
Ich habe nirgendwo gelesen, dass Du es mit dem MySQLDumper versucht hast.
Dieses Programm beachtet den Timeout des Servers und ruft sich beim Erreichen selbst wieder auf. Durch dieses "intelligente" Annähern an die Servergeschwinigkeit klappte bisher jeder Ex- und Import.
Damit hast Du die größten Chancen, dass der Export damit klappt.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag