Ich würde gerne DBlog mit sqlite verwenden. Gibt es da beim täglichen Backup etwas spezielles zu beachten? Muss ich die Datenbankfiles irgendwie in einen konsistenten Zustant bringen, bevor das File-basierte Backup sie wegsichern kann?
bei mir sieht super einfach auf dem Cubie aus - gesichert wird auf Platte und nicht SD
#/bin/sh
cd ./backup
rm fhem.sql.gz.9
mv fhem.sql.gz.8 fhem.sql.gz.9
mv fhem.sql.gz.7 fhem.sql.gz.8
mv fhem.sql.gz.6 fhem.sql.gz.7
mv fhem.sql.gz.5 fhem.sql.gz.6
mv fhem.sql.gz.4 fhem.sql.gz.5
mv fhem.sql.gz.3 fhem.sql.gz.4
mv fhem.sql.gz.2 fhem.sql.gz.3
mv fhem.sql.gz.1 fhem.sql.gz.2
mv fhem.sql.gz fhem.sql.gz.1
mysqldump --host mymac.heibox.intern --port 3306 --user fhem --add-drop-database -pSagichHeuteausnahmeweisemalnicht fhem | gzip -c > fhem.sql.gz &
#rsync -aP /opt/fhem admin@qnas.heibox.intern:/share/MD0_DATA/FHEM &
ja, ist mysql, aber sollte vergleichbar auch mit sqlite funzen
Okay, dann wäre das bei sqlite wohl ein
sqlite3 /opt/fhem/fhem.db .dump | gzip > fhem.sql
vor dem eigentlichen File Backup.
Bei sqlite würde ich kein Dump machen, sondern einfach nur die entsprechende sqlite-Datenbankdatei wegsichern, ggf. noch gzip-ed.
Die Syncronisation bei einen einfachen cp ist nicht gewährleistet.
Da fhem ständig logrecords in die DB schreibt, ist nicht sichergestellt das bei einen cp die Datenbank konsistenz ist.
Jemand einen anderen Vorschlag?