MaxScanner / Anzahl der Loggs in Datenbank reduzieren

Begonnen von oelkanne, 21 Oktober 2016, 17:22:38

Vorheriges Thema - Nächstes Thema

oelkanne

Ich benutze 11 MAX! Thermostate in FHEM auf einer Raspberry Pi.
Um vernünftig aussehende Plots zu bekommen, verwende ich MaxScanner (attr TH1 scnProcessByDesiChange 0), also die "auto / manual" Variante.
Alle für mich wichtigen Werte werden dabei in SQL Datenbank geschrieben (define logdb DbLog ./contrib/dblog/db.conf .*:(temperature|valveposition|desiredTemperature).*)

Das funktioniert auch soweit, jedoch werden alle ca. 20-30s Daten geloggt. Um den Datenmüll zu vermeiden versuchte ich es mit

a) mit einer zeigesteuerten Abfrage in der MAXLAN definition (define ml MAXLAN 192.168.178.77 180 ondemand)
Ergebnis: Alle Daten werden zwar nur noch alle 3 Minuten in die Datenbank geschrieben, jedoch der MaxScanner versagt seinen Dienst (...Wait at least 180 sec...) meldet sich dann aber niemehr


b) mit einer zeigesteuerten Abfrage am Thermostat (attr TH1 event-min-interval .*:180 sowie attr TH1 event-on-update-reading .*)
Ergebnis: Auch werden alle 3 Werte je Thermostat nur noch alle 3 Minuten in die Datenbank geschrieben, aber auch hier versagt MaxScanner seinen Dienst (wie in a).

Weiß jemand wie man die Datenflut reduzieren kann und den MaxScanner trotzdem benutzen kann?

regenbieger

Kein Plan von nichts aber die Datenflut habe ich reduziert.
:(  Ich habe erst erfolglos den verbose Level des MaxScanners auf 0 gesetzt=>kein Erfolg.  :(
Mit meinem Halbwissen das Modul angesehen und in sub MaxScanner_Log($$$) irgendwie den Eindruck gehabt das der verbose Level der untergeordneten MAX Geräte verwendet wird.
Also habe ich bei allen Thermostaten (6Stück) in Fhem den verbose Level auf 1 gesetzt. => Ruhe im Log.   ;D

Weiß nicht ob das gewollt oder sinnvoll ist, aber so hat es bei mir funktioniert. Jetzt werde ich den verbose der Thermostate Schritt für Schritt wieder erhöhen.
FHEM und WEEWX auf Raspberry