Pfad für backup auf Synology NAS?

Begonnen von Moonlightkid, 05 Oktober 2024, 12:22:03

Vorheriges Thema - Nächstes Thema

Moonlightkid

Hallo zusammen,

ich lasse mein Fhem bereits etwas länger auf meiner Syno laufen. Ich bin auch echt glücklich über die Performance. 16-20% CPU, 32% Arbeitsspeicher.

Allerdings sagt mein Bauchgefühl, dass ich mal ein Update vom Container machen sollte.

Was mich bisher davon abgehalten hat: ich hab den Speicherpfad nicht gefunden. Mehrere Versuche, inkl. Dateisuche  ::) Jaaaa, sowas gibt's. Mein erstes Update schlug damit sogar fehl und ich habe lle Geräte neu einlesen lassen müssen. Inklusive dem ganzen anderen was da dran hängt. Das war nicht wirklich erbaulich.

Ich nehme an, dass es jemand gibt, wo sein Fhem regelmäßig mit Updates versorgt und sich da auskennt.


Wo ist der Speicherort? Und ist der Ablauf auch ansonsten genau gleich, oder weicht das bei der Syno ab?

Auch und wegen Alexa-Fhem gibt es in der File-Station einen Ordner docker/fhem_data/.alexa und .ssh

Zum Datenverschieben nehme ich den FileZilla.


Ich würde mich echt freuen, wenn mir dieses Damoklesschwert entfernt wird  ;D
Synology 220+, Hue, MAX!, Sonoff und weiteres

RappaSan

#1
???
Wie hast du denn den Container eingerichtet?
Ich habe eine Freigabe eingerichtet und diese unter /opt/fhem in den Container eingehängt.
Wenn die Freigabe womit auch immer komplett gesichert wird, hast du alle relevanten Daten.
Wenn du das nicht gemacht hast, landet alles - glaub ich - im Container selbst. Dann wird's schwieriger und dann sollte sich wer äußern, der sich mit Docker besser auskennt.

Moonlightkid

Hallo RappaSan,

sorry, dass ich nicht schneller bin  :(

Ich hab Screenshots angehängt. Wenn ich dich richtig verstehe sollte das so richtig sein? Nur sehe ich kein /opt/fhem/

Muss ich da an den Berichtigungen was ändern, weil deswegen unsichtbar?
Und jaaaa. Ich habe Alexa und Fhem in den gleichen Ordner gepackt... ich weiß nicht (mehr) warum. Es läuft aber.



Ich hoffe die Screenshots helfen bei der Bewertung meiner Lage  ::)
Synology 220+, Hue, MAX!, Sonoff und weiteres

RappaSan

Ich glaube, du hast noch etwas nicht richtig verstanden, was ein Docker Container ist.
Der Container ist so etwas wie das Abbild einer virtuellen Maschine. Die Dinge, die dort per update eingespielt werden - egal ob FHEM-updates oder apt updates oder Daten - werden dort nicht dauerhaft gespeichert. Sie sind wieder verschwunden, sobald der Container gestoppt und wieder neu gestartet wird. Wenn aber manche Pfade wie z.B. /opt/fhem außerhalb des Containers auf einem Synology-share liegen, können dort auch die Daten dauerhaft abgespeichert werden. Und FHEM wird gewöhnlicherweise wie z.B. auf einem RasPi im Verzeichnis /opt/fhem installiert.
Wenn der Container so vorbereitet wird, kann man auch problemlos den Container durch eine andere/neuere Version ersetzen und nur darin das alte /opt/fhem Verzeichnis neu angeben. Danach startet dann die gewohnte FHEM-Konfiguration.
Ich hoffe, ich  hab das alles verständlich und richtig erklärt. :)
Ich vermute nun, daß deine Konfiguration zumindest in Teilen direkt im Container liegt und dadurch nicht dauerhaft zerstörungsfrei.

Es gibt auch eine Möglichkeit, sich per ssh und admin-Berechtigung im Container anzumelden und dort sollten die entsprechenden Verzeichnisse dann sichtbar sein. Den login-Weg hab ich aber momentan nicht mehr im Kopf, vielleicht kann hier wer weiterhelfen oder die Suchfunktion.

Wernieman

Ich weiß es nicht bei synology, aber bei Docker selber:
Auf den Host mit ssh gehen. Von dort mit "docker cp" die Daten aus dem Container rauscopieren. Alternativ dann mit "docker exec" in den Container hüpfen und von dort .... weitere infos mit "man docker" oder "docker help"

z.B.:
docker help cp

Usage:  docker cp [OPTIONS] CONTAINER:SRC_PATH DEST_PATH|-
        docker cp [OPTIONS] SRC_PATH|- CONTAINER:DEST_PATH

Copy files/folders between a container and the local filesystem

Use '-' as the source to read a tar archive from stdin
and extract it to a directory destination in a container.
Use '-' as the destination to stream a tar archive of a
container source to stdout.

Aliases:
  docker container cp, docker cp

Options:
  -a, --archive       Archive mode (copy all uid/gid information)
  -L, --follow-link   Always follow symbol link in SRC_PATH
  -q, --quiet         Suppress progress output during copy. Progress output is automatically suppressed
                      if no terminal is attached
- Bitte um Input für Output
- When there is a Shell, there is a Way
- Wann war Dein letztes Backup?

Wie man Fragen stellt: https://tty1.net/smart-questions_de.html

CoolTux

Du kannst den aktuell laufenden Container commiten und das neue Image als neue Container Basis nehmen um ein Volume zu mounten und dadurch die Daten direkt in ein Persistent Volume zu kopieren.

Beispielcode
$ docker ps  -a

CONTAINER ID        IMAGE                 COMMAND                  CREATED              STATUS                          PORTS               NAMES
5a8f89adeead        ubuntu:14.04          "/bin/bash"              About a minute ago   Exited (0) About a minute ago                       agitated_newton

$ docker commit 5a8f89adeead newimagename
$ docker run -ti -v "$PWD/somedir":/somedir newimagename /bin/bash
Du musst nicht wissen wie es geht! Du musst nur wissen wo es steht, wie es geht.
Support me to buy new test hardware for development: https://www.paypal.com/paypalme/MOldenburg
My FHEM Git: https://git.cooltux.net/FHEM/
Das TuxNet Wiki:
https://www.cooltux.net