Logs / fhem.db optimieren und reduzieren

Begonnen von zYloriC, 21 Oktober 2015, 16:41:02

Vorheriges Thema - Nächstes Thema

zYloriC

Hallo fhem community.

ich bin vor Kurzem über meine fhem.db gestolpert und mit ist wieder klar geworden: Wichtiger als "was könnte ich loggen" ist die Frage "was logge ich nicht..." bzw. "wie kann ich meine Logs verschlanken und ausmisten"

In diesem Zusammenhang stelle ich mir aktuell die Frage wie ich meine DB mit aktuell vielen Infos aus Stromzähler, Homematic-Aktoren, DHT und Wetterstation ausdünne. Unter anderem auch, weil dadurch natürlich die Plot-Erstellung über einen größeren Zeitraum recht lange dauert.

Konkrete Fragen:
- Kann man die Log-Datenmasse etwa am Ende des Monats automatisch verringern, sodass für den vergangenen Monat nicht mehr 10 Werte pro Minute in der DB liegen, sondern nur noch ein Mittelwert pro Stunde? (Stichwort "nachträgliches Konsolidieren")
- Hilft in diesem Zusammenhang das statstics-Modul, das derzeit schon parallel Werte (Tages Min Max Avg) speichert? Idee: Am Ende des Monats werden alle Einzelwerte außer den statistics-Werten pro Device in der DB gelöscht.
- Nun ist dies alles sehr viel SQL-Manipulation, daher die Frage: Gibt es dafür ein Fhem-Modul zur DB-Optimierung oder habt ihr schon mal zu einem Ansatz/Tutorial zu Thema gelesen? Habt ihr etwas Derartiges im Einsatz?

Bekannte Ansätze, die mit aber noch nicht bei der Konsolidierung helfen: DBExclude, DBInclude, LogProxy, statistics, "Neues Charting / Plotting" (http://forum.fhem.de/index.php/topic,10439.0.html)

Ich bin gespannt, ob ihr ähnliche Probleme mit eurer umfangreichen LogDB habt und wie ihr dies ggf. gelöst habt.

Viele Grüße, zYloriC


PS: welchen DB-Browser nutzt ihr für die Fhem.DB? Gibt es etwas mit einem web-Frontend für den RPi2

marvin78

Es gibt reduceLog (siehe commandref zu DBLog - recht neu, also aktuelle Version nötig). Das sollte sein, was du suchst.