Abfrage des Cubes mit mehreren Geräten erzeugt Rückwirkungen auf FHEM

Begonnen von Smooth, 08 Dezember 2013, 13:52:18

Vorheriges Thema - Nächstes Thema

Smooth

Hallo zusammen,

ich habe mich schon einige Zeit gewundert, dass es Zeiten gibt wo FHEM träge reagiert....
Verzögerung von Tastendruck bist Aktorreaktion.

Nun ist mir das Modul "99_perfmon.pm" von herrmannj aufgefallen. Danke für das geniale Stück Code...

Dieses lies mich die Ursache ganz einfach herausfinden:

Alle 300s wird der MAXCube angepollt um die Daten abzurufen. Bei mir sind dies 9 Thermostate und 7 Fensterkontakte.

Dieser Vorgang verursacht eine Zeitweise Auslastung von FHEM... Siehe folgende Zeilen.


2013.12.08 13:18:00 1: Perfmon: possible freeze starting at 13:17:57, delay is 3.285
2013.12.08 13:23:04 1: Perfmon: possible freeze starting at 13:23:01, delay is 3.177
2013.12.08 13:28:08 1: Perfmon: possible freeze starting at 13:28:05, delay is 3.251


Wenn ein weiteres Ereignis im gleichen Zeitfenster liegt spürt man den Delay schon ganz ordentlich...

Die vielen kleinen Performance-Probleme von 1Wire über ECMD habe ich bereits im Griff. Nur
für die MAX-Problematik benötige ich eure Unterstützung. Vielleicht hat jemand eine Ähnliche
Konfiguration und damit die selben Probleme....


Der Aufruf des CUBES erfolgt wie folgt:


define MAX MAXLAN 192.168.178.48 300


Viele Grüße

Michael


der-Lolo


Smooth

 Nein leider nicht...  Ich nehme das aktuell so hin...

Mfg.

Michael

der-Lolo

Es wäre ja vielleicht schon hilfreich wenn sich das Pollen der Geräte auf drei Minuten verteilen liese - anstatt alle auf einen Schwung zu aktualisieren...

Wenn du das Attribut Event-on-change-Reading *.* setzt wird es jedenfalls bei mir schonmal deutlich besser... Ich glaube außerdem das es nur zu Problemen kommt wenn MAXLAN und HMLAN zugleich, oder die HUEBridge gleichzeitig pollt.

Die Ethernet Schnittstelle und der traffic ist jedenfalls nach meiner Erkenntnis das Problem.

justme1968

wenn tatsächlich ein paar devices die zudem noch der 1% regel unterliegen und das hue modul das normalerweise nur alle 5 minuten polllt probleme auf dem netzwerk machen ist aber irgendwo anders etwas faul.

gruss
  andre 
hue, tradfri, alexa-fhem, homebridge-fhem, LightScene, readingsGroup, ...

https://github.com/sponsors/justme-1968

Harald

Hallo zusammen,

auch ich habe vor einiger Zeit hier etwas darüber geschrieben. Außerdem habe ich Matthias per PN kontaktiert. Er schrieb, dass er keinen Cube mehr verwende und derzeit keine Zeit habe, sich des Problems anzunehmen. Weiter meinte er, "Wenn ich raten sollte, würde ich auf Blocking IO tippen. Vielleicht hängt das lesen/schreiben vom TCP/IP socket."

Leider sind meine Kenntnisse nicht ausreichend, um selbst Ursachenforschung zu betreiben. Vielleicht gibt es ja jemanden, der in der Lage ist, das Problem zu lösen. Oder wir müssen warten, bis Matthias die Zeit findet, den Fehler einzukreisen.

Ich habe das unbestimmte Bauchgefühl, dass diese Verzögerungen erst seit einem Update vor etwa 2-3 Monaten vorhanden sind. Leider habe ich keine Logs aus der Zeit, um meine Vermutung zu untermauern.

Viele Grüße

Harald

Ich habe gerade nochmal ins Logfile gesehen und diese Meldungen gefunden.
2014.02.16 20:38:27 1: MAXLAN_ReadSingleResponse: timeout while reading from socket, disconnecting
2014.02.16 20:38:27 1: MAXLAN_ExpectAnswer: Error while waiting for answer H:

Sie treten auch seit etwa dem o.g. Zeitpunkt des Updates immer wieder sporatisch auf und es ist ebenfalls MAXLAN - ein Zufall?
Übrigens habe ich den MaxScanner seit ca. 1 Woche außer Betrieb, um zu verhindern, dass der evtl. die Unregelmäßigkeiten verursacht.
Router:AVM7590 1&1 FW:FRITZ!OS 07.56 Anbindung:1&1 50/10 Mb/s, WLAN-Repeater 300E
ELV MAX!Cube, 7xThermostat, ECO, RasPi 4B mit bullseye auf Festplatte,
CUL V 1.67, JeeLink v3_10.1c, nanoCUL, 1xS300TH, 4xHMS100T, 4xELRO, 1xTFA, 2xMAX_FK
ELV MAX!1.4.5, FHEM 5.7 auf RasPi, Kostal PIKO plus

fruit

I have these errors in logs from October 2013 when I started with fhem. Everything seems to work despite them.
Feel free to follow up in German if you prefer