OWX Next Generation

Begonnen von Prof. Dr. Peter Henning, 09 November 2016, 20:48:30

Vorheriges Thema - Nächstes Thema

enno

Google spuckt mir dies hier als Erklärung aus:

There are mainly two kinds of I/O. Synchronous and Asynchronous. Synchronous blocks the current thread of execution until processing is complete, while Asynchronous doesn't block the current thread of execution, rather passing control to the OS Kernel for further processing. The kernel then advises the async thread when the submitted task is complete

Die im normalen Update verteilte Version von OWX läuft "Synchronous". Bei meine 50 Devices ist das aber auf dem Cubietruck kein Problem. Schicker wird es wenn es dann irgendwann "Asynchronous" geht. Das kann man mit den hier von pah bereitgestellten "Entwickungsdateien" machen. Im Produktivsystem würde ich es im Moment nur testen, wenn ich mir bewusst bin, dass das ein oder andere noch schiefgehen kann....

Gruss
Enno
Einfacher FHEM Anwender auf Intel®NUC

cwagner

Zitat von: enno am 16 Juni 2017, 08:40:48
...Schicker wird es wenn es dann irgendwann "Asynchronous" geht. Das kann man mit den hier von pah bereitgestellten "Entwickungsdateien" machen. Im Produktivsystem würde ich es im Moment nur testen, wenn ich mir bewusst bin, dass das ein oder andere noch schiefgehen kann....


Die bisherige Erfahrung mit der asynchronen Verarbeitung ist tatsächlich eine niedrigere Systembelastung, was eine größere Zahl von Devices ermöglicht, eine kürzere Taktung der Abfragen oder den Betrieb auf schwacher Hardware-Basis. Es gibt ja sehr schnelle Prozesse, bei denen Aktualisierungsraten von 30 oder 60 Sekunden nicht reichen.
Die hier zur Diskussion stehenden Entwicklungsdateien unterstützen nach meiner Erfahrung noch nicht ausreichend  1W-Devices, die auf DS2450 (4fach-Analog-Digital-Wandler) und DS2408 (8-Kanal IO-Baustein, gerne als 8fach-Schalter oder für analoge Outputs verwandt) beruhen.

Christian
PI 2B+/3B+ Raspbian 12, Perl 5.36.0, FHEM 6.3: 295 Module in ConfigDB: Steuerung Heizkessel, FBH, Solarthermie, kontr. Lüftung mit WRG. Smarthome u.a. HMCUL, 1-Wire (FT232RL ; DS2480B), EnOcean (TCM EPS3), MQTT2. DOIF, PID20, Threshold, OWX; Micropelt IRTV, Volkszähler, SolarForecast; MariaDB

det.

#287
Hallo pah,
vorweg, geht alles sehr zufriedenstellend asynchron mit spürbar niedrigerer Systemlast bei verringertem Intervall, dort wo es Sinn macht (OWID, SWITCH mit Fensteröffnungserkennung).
Habe aber neben dem DS2450 (der seitdem ich das Intervall auf 30 verringert habe fleißig Werte liefert und den ERRCOUNT hochzählt) noch einen weiteren englischen Patienten: Die LCD (20 Zeichen, 4 Zeilen, 0-64-20-84) schneiden die Informationen der ersten 16 Zeichen ab, d.h. es werden je Zeile nur noch die letzten 4 Zeichen dargestellt. Der Rest vorn bleibt leer. Dazu gab es die Folgende Meldung im LOG:
2017.06.17 09:01:30 1: PERL WARNING: Use of uninitialized value in string eq at ./FHEM/00_OWX.pm line 1551.
2017.06.17 09:01:29 1: OWX_Qomplex: context missing in queue 1wire_0 entry for device FFC9070000010000
2017.06.17 09:01:28 1: OWX_Qomplex: context missing in queue 1wire_1 entry for device FF8E070000010000
2017.06.17 09:01:28 1: PERL WARNING: Use of uninitialized value in string eq at ./FHEM/00_OWX.pm line 1551, <FH> line 13789.
2017.06.17 09:01:27 1: PERL WARNING: Use of uninitialized value in numeric eq (==) at ./FHEM/00_OWX.pm line 1512, <FH> line 13789.
Ich kann es nicht genau zuordnen, aber mMn. ging das direkt nach Einspielen der neuen Module am letzten Sonntag noch und tritt erst im Laufe dieser Woche auf? Kann also auch eine Wechselwirkung mit irgend einem anderen FHEM Update sein.
LG
det.

Prof. Dr. Peter Henning

Gemach. Ist in Arbeit.

LG

pah

synaps-o-dan

Vielen Dank an die Erklärungen. Ich werde die "Entwickungsdateien" testen, sobald ich das Produktivsystem so umgebaut habe, dass es nicht abstürzt, wenn der 1-wire-Bus abgeklemmt ist und am Testsystem hängt. Feedback folgt dann.
Viele Grüße,
Daniel
fhem auf Raspberry Pi 3
5 x Set aus jew. 1x FHT80B + 1xFHT8V + 1x FHT80TF-2
HM: 1 x HM-ES-PMSw1-Pl, 2 x HM-LC-Sw1-FM, 2 x HM-LC-Sw1PBU-FM, 3 x HM-Sec-SD, 2 x HM-PB-2-WM55, 2 x HM-Sec-MDIR-2
3 x EM-1000 EM
Onewire: insgesamt 11 Onewire-Sensoren an einem LinkUSB Adapter

Prof. Dr. Peter Henning

Mit diesem 21_OWAD.pm sollten die Probleme im asynchronen Betrieb behoben sein.

LG

pah

cwagner

#291
Yeah! Alle 31 Devices der Typen DS2450, DS18S20/DS1920, DS18B20, DS2438, DS2401/DS1990A, DS2423  und DS2408 werden erkannt und funktionieren auf den ersten Blick. Jetzt bin ich mal auf Langzeiterfahrungen gespannt. Für mein Szenario war wohl dies der Durchbruch zu einer funktionierenden Version.

Erste Beobachtung: Ein GET Device zeigt vereinzelt meine drei DS2408 nicht mehr, nachdem sie geschaltet wurden.

Vielen Dank für diese Bereicherung von FHEM.

Christian
PI 2B+/3B+ Raspbian 12, Perl 5.36.0, FHEM 6.3: 295 Module in ConfigDB: Steuerung Heizkessel, FBH, Solarthermie, kontr. Lüftung mit WRG. Smarthome u.a. HMCUL, 1-Wire (FT232RL ; DS2480B), EnOcean (TCM EPS3), MQTT2. DOIF, PID20, Threshold, OWX; Micropelt IRTV, Volkszähler, SolarForecast; MariaDB

det.

#292

Hallo pah,

perfekt! DS2450 liefert keinen ERRCOUNT mehr und aktualisiert die Werte auch mit interval 600, was für die Bodenfeuchte völlig ausreicht. Das ging mit 7.0beta4  noch nicht. Das gesamte System läuft jetzt seit einer Woche stabil asynchron bei mir auf dem Produktivsystem mit 4 USB Busmastern und insg. 31 Device.
Ich habe nur einen 2408 Switch in Betrieb, der zeigt kein Verhalten wie bei cwagner. Dafür habe ich den schon beschriebenen Effekt bei den 2 LCD und noch einen Vorschlag:
OWID hat bisher kein "attr devname interval xx" analog der anderen Module. Es geht bisher nur über "set interval xx", leider stellt sich interval nach jedem restart wieder auf 300. Könntest Du das gelegentlich mit einbauen?
LG
det.

Prof. Dr. Peter Henning

OWSWITCH zeigt bei mir keine Fehler - aber ich benutze einen DS2408 auch nur zum Ablesen meiner Windrichtung, geschaltet wird da nichts. Muss ich mir erst eine Teststellung aufbauen. Schalten von DS2406 und DS2413 funktioniert jedenfalls.

OWLCD werde ich nochmal überprüfen.

OWID - das Problem ist, dass der "Verify"-Meschanismus ganz anders funktioniert, als eine zyklische Abfrage eines Devices. Darum habe ich das Verify derzeit fast überals herausgelassen. Mal sehen, ich lass emir das durch den Kopf gehen.

LG

pah

cwagner

@pah: Bin der Sache mit den manchmal nicht gelistenen DS2408 nachgegangen. Das korrespondiert mit der Meldung eines CRC-Checks - hier sehe ich das Problem also eher bei meiner Installation als bei den neuen Modulen.

Die laufen nun schon in der 17. Stunde problemlos. Die Systemlast ist eindeutig niedriger...
PI 2B+/3B+ Raspbian 12, Perl 5.36.0, FHEM 6.3: 295 Module in ConfigDB: Steuerung Heizkessel, FBH, Solarthermie, kontr. Lüftung mit WRG. Smarthome u.a. HMCUL, 1-Wire (FT232RL ; DS2480B), EnOcean (TCM EPS3), MQTT2. DOIF, PID20, Threshold, OWX; Micropelt IRTV, Volkszähler, SolarForecast; MariaDB

Prof. Dr. Peter Henning

#295
Bitte mal für dieses Interface und diesen DS2408 jeweils verbose=5 setzen, ich habe den Verdacht, dass das dieselbe Ursache wie bei den DS2450 ist.

LG

pah

Prof. Dr. Peter Henning

#296
Anbei leicht modifizierte OWSWITCH und OWCOUNT-Module. Könnte sein, dass das die Lösung der Probleme ist.

LG

pah

det.

Hallo pah,


SWITCH schaltet, hat es vorher auch schon gemacht. OWCOUNT hat alle LOGs durch die Decke gehen lassen. Kann also erst morgen eine Aussage dazu getroffen werden,
Hab direkt nach dem Start noch eine Meldung:
PERL WARNING: Use of uninitialized value in numeric eq (==) at ./FHEM/00_OWX.pm line 1512
Konntest Du bei OWLCD schon was finden?
LG
det.

cwagner

Hi pah!
die letzten Module sind jetzt über Tage wirklich gut gelaufen.
Habe dann die letzte OWSWITCH und OWCOUNT eingespielt, neu gestartet und verbose=5 bei OWX
Hoffe, diese beiden Logausschnitte sind repräsentativ:

2017.06.22 21:30:23 1: ----------------------------------------------
2017.06.22 21:30:23 1: OWX_SER::Query OWio1: Sending out0xe3 0xc5
2017.06.22 21:30:23 5: SW: e3c5
2017.06.22 21:30:23 4: OWX_SER::Query OWio1: 20 of 1 bytes in first attempt and state opened
2017.06.22 21:30:23 1: OWX_SER::Reset failure on bus OWio1 0x55 0x10 0x05 0x76 0xa8 0x02 0x08 0x00 0x6d 0xbe 0x8e 0x00 0x4b 0x46 0xff 0xff 0x0f 0x10 0x6f 0xcd
2017.06.22 21:30:23 1: OWX_SER::Search reset failed on bus OWio1
2017.06.22 21:30:23 1: OWX_Discover: 1-Wire devices found on bus OWio1 ()
2017.06.22 21:30:23 1: /dev/ttyUSB0 disconnected, waiting to reappear (OWio1)
2017.06.22 21:30:23 1: PERL WARNING: Use of uninitialized value $buffer in subtraction (-) at ./FHEM/00_OWX.pm line 904.
2017.06.22 21:30:30 1: OWX_SER::Search reset failed on bus OWio1
2017.06.22 21:30:30 1: OWX_Discover: 1-Wire devices found on bus OWio1 ()
2017.06.22 21:30:31 1: OWX_Qomplex: Added dev 20E82D09000000E0 to queue OWio1 numread=0
2017.06.22 21:30:31 1:    queue OWio1 contains 86 entries after insertion
2017.06.22 21:30:31 1:     => 2638F5140000006F context copy SP expecting 1 bytes, waiting
2017.06.22 21:30:31 1:     => 2638F5140000006F context T conversion expecting 0 bytes, waiting
2017.06.22 21:30:31 1:     => 2638F5140000006F context V conversion expecting 0 bytes, waiting
2017.06.22 21:30:31 1:     => 2638F5140000006F context recall expecting 2 bytes, waiting
2017.06.22 21:30:31 1:     => 2638F5140000006F context ds2438.getvdd expecting 9 bytes, waiting
2017.06.22 21:30:31 1:     => 2638F5140000006F context write SP expecting 1 bytes, waiting
2017.06.22 21:30:31 1:     => 2638F5140000006F context copy SP expecting 1 bytes, waiting
2017.06.22 21:30:31 1:     => 2638F5140000006F context V conversion expecting 0 bytes, waiting
2017.06.22 21:30:31 1:     => 2638F5140000006F context recall expecting 1 bytes, waiting
2017.06.22 21:30:31 1:     => 2638F5140000006F context ds2438.getvad expecting 9 bytes, waiting
2017.06.22 21:30:31 1:     => 297B581A000000CB context ds2408.getstate.final expecting 22 bytes, waiting
2017.06.22 21:30:31 1:     => 28A8A49B01000011 context convert expecting 1 bytes, waiting
2017.06.22 21:30:31 1:     => 28A8A49B01000011 context readsp expecting 9 bytes, waiting
2017.06.22 21:30:31 1:     => 10905FAD020800BD context convert expecting 1 bytes, waiting
2017.06.22 21:30:31 1:     => 10905FAD020800BD context readsp expecting 9 bytes, waiting
2017.06.22 21:30:31 1:     => 29005A1A00000028 context ds2408.getstate.final expecting 22 bytes, waiting
2017.06.22 21:30:31 1:     => 2610F32601000000 context write SP expecting 2 bytes, waiting
2017.06.22 21:30:31 1:     => 2610F32601000000 context copy SP expecting 1 bytes, waiting
2017.06.22 21:30:31 1:     => 2610F32601000000 context T conversion expecting 0 bytes, waiting
2017.06.22 21:30:31 1:     => 2610F32601000000 context V conversion expecting 0 bytes, waiting
2017.06.22 21:30:31 1:     => 2610F32601000000 context recall expecting 2 bytes, waiting
2017.06.22 21:30:31 1:     => 2610F32601000000 context ds2438.getvdd expecting 9 bytes, waiting
2017.06.22 21:30:31 1:     => 2610F32601000000 context write SP expecting 1 bytes, waiting
2017.06.22 21:30:31 1:     => 2610F32601000000 context copy SP expecting 1 bytes, waiting
2017.06.22 21:30:31 1:     => 2610F32601000000 context V conversion expecting 0 bytes, waiting
2017.06.22 21:30:31 1:     => 2610F32601000000 context recall expecting 1 bytes, waiting
2017.06.22 21:30:31 1:     => 2610F32601000000 context ds2438.getvad expecting 9 bytes, waiting
2017.06.22 21:30:31 1:     => 10787E8302080065 context convert expecting 1 bytes, waiting
2017.06.22 21:30:31 1:     => 10787E8302080065 context readsp expecting 9 bytes, waiting
2017.06.22 21:30:31 1:     => 28810671010000D3 context convert expecting 1 bytes, waiting
2017.06.22 21:30:31 1:     => 28810671010000D3 context readsp expecting 9 bytes, waiting
2017.06.22 21:30:31 1:     => 10541E0B00080035 context convert expecting 1 bytes, waiting
2017.06.22 21:30:31 1:     => 10541E0B00080035 context readsp expecting 9 bytes, waiting
2017.06.22 21:30:31 1:     => 200C2C0C00000059 context convert expecting 0 bytes, waiting
2017.06.22 21:30:31 1:     => 200C2C0C00000059 context ds2450.getreading expecting 22 bytes, waiting
2017.06.22 21:30:31 1:     => 200C2C0C00000059 context ds2450.getalarm expecting 22 bytes, waiting
2017.06.22 21:30:31 1:     => 200C2C0C00000059 context ds2450.getstatus.final expecting 22 bytes, waiting
2017.06.22 21:30:31 1:     => 2821B45F070000F7 context convert expecting 1 bytes, waiting
2017.06.22 21:30:31 1:     => 2821B45F070000F7 context readsp expecting 9 bytes, waiting
2017.06.22 21:30:31 1:     => 28A2AAA00500003E context convert expecting 1 bytes, waiting
2017.06.22 21:30:31 1:     => 28A2AAA00500003E context readsp expecting 9 bytes, waiting
2017.06.22 21:30:31 1:     => 1D57610F0000002e context getpage.14 expecting 54 bytes, waiting
2017.06.22 21:30:31 1:     => 1D57610F0000002e context getpage.15.final expecting 54 bytes, waiting
2017.06.22 21:30:31 1:     => 28BBA7A00500001F context convert expecting 1 bytes, waiting
2017.06.22 21:30:31 1:     => 28BBA7A00500001F context readsp expecting 9 bytes, waiting
2017.06.22 21:30:31 1:     => 2968980C000000DA context ds2408.getstate.final expecting 22 bytes, waiting
2017.06.22 21:30:31 1:     => 28905F9B0100008B context convert expecting 1 bytes, waiting
2017.06.22 21:30:31 1:     => 28905F9B0100008B context readsp expecting 9 bytes, waiting
2017.06.22 21:30:31 1:     => 2843B89F0500000D context convert expecting 1 bytes, waiting
2017.06.22 21:30:31 1:     => 2843B89F0500000D context readsp expecting 9 bytes, waiting
2017.06.22 21:30:31 1:     => 28FB8EA005000061 context convert expecting 1 bytes, waiting
2017.06.22 21:30:31 1:     => 28FB8EA005000061 context readsp expecting 9 bytes, waiting
2017.06.22 21:30:31 1:     => 100576A80208006D context convert expecting 1 bytes, waiting
2017.06.22 21:30:31 1:     => 100576A80208006D context readsp expecting 9 bytes, waiting
2017.06.22 21:30:31 1:     => 1D4EB80D00000049 context getpage.14 expecting 54 bytes, waiting
2017.06.22 21:30:31 1:     => 1D4EB80D00000049 context getpage.15.final expecting 54 bytes, waiting
2017.06.22 21:30:31 1:     => 26BAE590010000EB context write SP expecting 2 bytes, waiting
2017.06.22 21:30:31 1:     => 26BAE590010000EB context copy SP expecting 1 bytes, waiting
2017.06.22 21:30:31 1:     => 26BAE590010000EB context T conversion expecting 0 bytes, waiting
2017.06.22 21:30:31 1:     => 26BAE590010000EB context V conversion expecting 0 bytes, waiting
2017.06.22 21:30:31 1:     => 26BAE590010000EB context recall expecting 2 bytes, waiting
2017.06.22 21:30:31 1:     => 26BAE590010000EB context ds2438.getvdd expecting 9 bytes, waiting
2017.06.22 21:30:31 1:     => 26BAE590010000EB context write SP expecting 1 bytes, waiting
2017.06.22 21:30:31 1:     => 26BAE590010000EB context copy SP expecting 1 bytes, waiting
2017.06.22 21:30:31 1:     => 26BAE590010000EB context V conversion expecting 0 bytes, waiting
2017.06.22 21:30:31 1:     => 26BAE590010000EB context recall expecting 1 bytes, waiting
2017.06.22 21:30:31 1:     => 26BAE590010000EB context ds2438.getvad expecting 9 bytes, waiting
2017.06.22 21:30:31 1:     => 281307AC04000068 context convert expecting 1 bytes, waiting
2017.06.22 21:30:31 1:     => 281307AC04000068 context readsp expecting 9 bytes, waiting
2017.06.22 21:30:31 1:     => 28CA0FAC04000004 context convert expecting 1 bytes, waiting
2017.06.22 21:30:31 1:     => 28CA0FAC04000004 context readsp expecting 9 bytes, waiting
2017.06.22 21:30:31 1:     => 280E37AC040000FD context convert expecting 1 bytes, waiting
2017.06.22 21:30:31 1:     => 280E37AC040000FD context readsp expecting 9 bytes, waiting
2017.06.22 21:30:31 1:     => 26DD71B7010000f3 context write SP expecting 2 bytes, waiting
2017.06.22 21:30:31 1:     => 26DD71B7010000f3 context copy SP expecting 1 bytes, waiting
2017.06.22 21:30:31 1:     => 26DD71B7010000f3 context T conversion expecting 0 bytes, waiting
2017.06.22 21:30:31 1:     => 26DD71B7010000f3 context V conversion expecting 0 bytes, waiting
2017.06.22 21:30:31 1:     => 26DD71B7010000f3 context recall expecting 2 bytes, waiting
2017.06.22 21:30:31 1:     => 26DD71B7010000f3 context ds2438.getvdd expecting 9 bytes, waiting
2017.06.22 21:30:31 1:     => 26DD71B7010000f3 context write SP expecting 1 bytes, waiting
2017.06.22 21:30:31 1:     => 26DD71B7010000f3 context copy SP expecting 1 bytes, waiting
2017.06.22 21:30:31 1:     => 26DD71B7010000f3 context V conversion expecting 0 bytes, waiting
2017.06.22 21:30:31 1:     => 26DD71B7010000f3 context recall expecting 1 bytes, waiting
2017.06.22 21:30:31 1:     => 26DD71B7010000f3 context ds2438.getvad expecting 9 bytes, waiting
2017.06.22 21:30:31 1:     =>  context kick expecting -10 bytes, waiting
2017.06.22 21:30:31 1:     => 20E82D09000000E0 context convert expecting 0 bytes, waiting
2017.06.22 21:30:31 1: ----------------------------------------------

Folgende Einträge kamen als ich nach mehreren erfolgreichen Device-Abfragen wieder einige mit gar keinen oder wenigen Devices hatte:
2017.06.22 21:30:52 1: ----------------------------------------------
2017.06.22 21:30:52 1: OWX_Qomplex: OWio1 queue too long, dropping data
2017.06.22 21:30:52 1:    queue OWio1 contains 101 entries after insertion
2017.06.22 21:30:52 1:     => 297B581A000000CB context ds2408.getstate.final expecting 22 bytes, waiting
2017.06.22 21:30:52 1:     => 28A8A49B01000011 context convert expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 28A8A49B01000011 context readsp expecting 9 bytes, waiting
2017.06.22 21:30:52 1:     => 10905FAD020800BD context convert expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 10905FAD020800BD context readsp expecting 9 bytes, waiting
2017.06.22 21:30:52 1:     => 29005A1A00000028 context ds2408.getstate.final expecting 22 bytes, waiting
2017.06.22 21:30:52 1:     => 2610F32601000000 context write SP expecting 2 bytes, waiting
2017.06.22 21:30:52 1:     => 2610F32601000000 context copy SP expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 2610F32601000000 context T conversion expecting 0 bytes, waiting
2017.06.22 21:30:52 1:     => 2610F32601000000 context V conversion expecting 0 bytes, waiting
2017.06.22 21:30:52 1:     => 2610F32601000000 context recall expecting 2 bytes, waiting
2017.06.22 21:30:52 1:     => 2610F32601000000 context ds2438.getvdd expecting 9 bytes, waiting
2017.06.22 21:30:52 1:     => 2610F32601000000 context write SP expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 2610F32601000000 context copy SP expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 2610F32601000000 context V conversion expecting 0 bytes, waiting
2017.06.22 21:30:52 1:     => 2610F32601000000 context recall expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 2610F32601000000 context ds2438.getvad expecting 9 bytes, waiting
2017.06.22 21:30:52 1:     => 10787E8302080065 context convert expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 10787E8302080065 context readsp expecting 9 bytes, waiting
2017.06.22 21:30:52 1:     => 28810671010000D3 context convert expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 28810671010000D3 context readsp expecting 9 bytes, waiting
2017.06.22 21:30:52 1:     => 10541E0B00080035 context convert expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 10541E0B00080035 context readsp expecting 9 bytes, waiting
2017.06.22 21:30:52 1:     => 200C2C0C00000059 context convert expecting 0 bytes, waiting
2017.06.22 21:30:52 1:     => 200C2C0C00000059 context ds2450.getreading expecting 22 bytes, waiting
2017.06.22 21:30:52 1:     => 200C2C0C00000059 context ds2450.getalarm expecting 22 bytes, waiting
2017.06.22 21:30:52 1:     => 200C2C0C00000059 context ds2450.getstatus.final expecting 22 bytes, waiting
2017.06.22 21:30:52 1:     => 2821B45F070000F7 context convert expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 2821B45F070000F7 context readsp expecting 9 bytes, waiting
2017.06.22 21:30:52 1:     => 28A2AAA00500003E context convert expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 28A2AAA00500003E context readsp expecting 9 bytes, waiting
2017.06.22 21:30:52 1:     => 1D57610F0000002e context getpage.14 expecting 54 bytes, waiting
2017.06.22 21:30:52 1:     => 1D57610F0000002e context getpage.15.final expecting 54 bytes, waiting
2017.06.22 21:30:52 1:     => 28BBA7A00500001F context convert expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 28BBA7A00500001F context readsp expecting 9 bytes, waiting
2017.06.22 21:30:52 1:     => 2968980C000000DA context ds2408.getstate.final expecting 22 bytes, waiting
2017.06.22 21:30:52 1:     => 28905F9B0100008B context convert expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 28905F9B0100008B context readsp expecting 9 bytes, waiting
2017.06.22 21:30:52 1:     => 2843B89F0500000D context convert expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 2843B89F0500000D context readsp expecting 9 bytes, waiting
2017.06.22 21:30:52 1:     => 28FB8EA005000061 context convert expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 28FB8EA005000061 context readsp expecting 9 bytes, waiting
2017.06.22 21:30:52 1:     => 100576A80208006D context convert expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 100576A80208006D context readsp expecting 9 bytes, waiting
2017.06.22 21:30:52 1:     => 1D4EB80D00000049 context getpage.14 expecting 54 bytes, waiting
2017.06.22 21:30:52 1:     => 1D4EB80D00000049 context getpage.15.final expecting 54 bytes, waiting
2017.06.22 21:30:52 1:     => 26BAE590010000EB context write SP expecting 2 bytes, waiting
2017.06.22 21:30:52 1:     => 26BAE590010000EB context copy SP expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 26BAE590010000EB context T conversion expecting 0 bytes, waiting
2017.06.22 21:30:52 1:     => 26BAE590010000EB context V conversion expecting 0 bytes, waiting
2017.06.22 21:30:52 1:     => 26BAE590010000EB context recall expecting 2 bytes, waiting
2017.06.22 21:30:52 1:     => 26BAE590010000EB context ds2438.getvdd expecting 9 bytes, waiting
2017.06.22 21:30:52 1:     => 26BAE590010000EB context write SP expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 26BAE590010000EB context copy SP expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 26BAE590010000EB context V conversion expecting 0 bytes, waiting
2017.06.22 21:30:52 1:     => 26BAE590010000EB context recall expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 26BAE590010000EB context ds2438.getvad expecting 9 bytes, waiting
2017.06.22 21:30:52 1:     => 281307AC04000068 context convert expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 281307AC04000068 context readsp expecting 9 bytes, waiting
2017.06.22 21:30:52 1:     => 28CA0FAC04000004 context convert expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 28CA0FAC04000004 context readsp expecting 9 bytes, waiting
2017.06.22 21:30:52 1:     => 280E37AC040000FD context convert expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 280E37AC040000FD context readsp expecting 9 bytes, waiting
2017.06.22 21:30:52 1:     => 26DD71B7010000f3 context write SP expecting 2 bytes, waiting
2017.06.22 21:30:52 1:     => 26DD71B7010000f3 context copy SP expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 26DD71B7010000f3 context T conversion expecting 0 bytes, waiting
2017.06.22 21:30:52 1:     => 26DD71B7010000f3 context V conversion expecting 0 bytes, waiting
2017.06.22 21:30:52 1:     => 26DD71B7010000f3 context recall expecting 2 bytes, waiting
2017.06.22 21:30:52 1:     => 26DD71B7010000f3 context ds2438.getvdd expecting 9 bytes, waiting
2017.06.22 21:30:52 1:     => 26DD71B7010000f3 context write SP expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 26DD71B7010000f3 context copy SP expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 26DD71B7010000f3 context V conversion expecting 0 bytes, waiting
2017.06.22 21:30:52 1:     => 26DD71B7010000f3 context recall expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 26DD71B7010000f3 context ds2438.getvad expecting 9 bytes, waiting
2017.06.22 21:30:52 1:     =>  context kick expecting -10 bytes, waiting
2017.06.22 21:30:52 1:     => 20E82D09000000E0 context convert expecting 0 bytes, waiting
2017.06.22 21:30:52 1:     => 20E82D09000000E0 context ds2450.getreading expecting 22 bytes, waiting
2017.06.22 21:30:52 1:     => 20E82D09000000E0 context ds2450.getalarm expecting 22 bytes, waiting
2017.06.22 21:30:52 1:     => 20E82D09000000E0 context ds2450.getstatus.final expecting 22 bytes, waiting
2017.06.22 21:30:52 1:     => 100576A80208006D context convert expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 100576A80208006D context readsp expecting 9 bytes, waiting
2017.06.22 21:30:52 1:     =>  context kick expecting -10 bytes, waiting
2017.06.22 21:30:52 1:     => 28A2AAA00500003E context convert expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 28A2AAA00500003E context readsp expecting 9 bytes, waiting
2017.06.22 21:30:52 1:     => 100576A80208006D context convert expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 100576A80208006D context readsp expecting 9 bytes, waiting
2017.06.22 21:30:52 1:     => 28CA0FAC04000004 context convert expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 28CA0FAC04000004 context readsp expecting 9 bytes, waiting
2017.06.22 21:30:52 1:     => 28FB8EA005000061 context convert expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 28FB8EA005000061 context readsp expecting 9 bytes, waiting
2017.06.22 21:30:52 1:     => 26BAE590010000EB context write SP expecting 2 bytes, waiting
2017.06.22 21:30:52 1:     => 26BAE590010000EB context copy SP expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 26BAE590010000EB context T conversion expecting 0 bytes, waiting
2017.06.22 21:30:52 1:     => 26BAE590010000EB context V conversion expecting 0 bytes, waiting
2017.06.22 21:30:52 1:     => 26BAE590010000EB context recall expecting 2 bytes, waiting
2017.06.22 21:30:52 1:     => 26BAE590010000EB context ds2438.getvdd expecting 9 bytes, waiting
2017.06.22 21:30:52 1:     => 26BAE590010000EB context write SP expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 26BAE590010000EB context copy SP expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 26BAE590010000EB context V conversion expecting 0 bytes, waiting
2017.06.22 21:30:52 1:     => 26BAE590010000EB context recall expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 26BAE590010000EB context ds2438.getvad expecting 9 bytes, waiting
2017.06.22 21:30:52 1: ----------------------------------------------
2017.06.22 21:30:52 1: OWX_Qomplex: OWio1 queue too long, dropping data
2017.06.22 21:30:52 1:    queue OWio1 contains 101 entries after insertion
2017.06.22 21:30:52 1:     => 297B581A000000CB context ds2408.getstate.final expecting 22 bytes, waiting
2017.06.22 21:30:52 1:     => 28A8A49B01000011 context convert expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 28A8A49B01000011 context readsp expecting 9 bytes, waiting
2017.06.22 21:30:52 1:     => 10905FAD020800BD context convert expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 10905FAD020800BD context readsp expecting 9 bytes, waiting
2017.06.22 21:30:52 1:     => 29005A1A00000028 context ds2408.getstate.final expecting 22 bytes, waiting
2017.06.22 21:30:52 1:     => 2610F32601000000 context write SP expecting 2 bytes, waiting
2017.06.22 21:30:52 1:     => 2610F32601000000 context copy SP expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 2610F32601000000 context T conversion expecting 0 bytes, waiting
2017.06.22 21:30:52 1:     => 2610F32601000000 context V conversion expecting 0 bytes, waiting
2017.06.22 21:30:52 1:     => 2610F32601000000 context recall expecting 2 bytes, waiting
2017.06.22 21:30:52 1:     => 2610F32601000000 context ds2438.getvdd expecting 9 bytes, waiting
2017.06.22 21:30:52 1:     => 2610F32601000000 context write SP expecting 1 bytes, waiting
2017.06.22 21:30:52 1:     => 2610F32601000000 context copy SP expecting 1 bytes, waiting


Herzliche Grüße

Christian
PI 2B+/3B+ Raspbian 12, Perl 5.36.0, FHEM 6.3: 295 Module in ConfigDB: Steuerung Heizkessel, FBH, Solarthermie, kontr. Lüftung mit WRG. Smarthome u.a. HMCUL, 1-Wire (FT232RL ; DS2480B), EnOcean (TCM EPS3), MQTT2. DOIF, PID20, Threshold, OWX; Micropelt IRTV, Volkszähler, SolarForecast; MariaDB

Prof. Dr. Peter Henning

#299
ZitatOWCOUNT hat alle LOGs durch die Decke gehen lassen
Hm, offenbar habe ich da einen Fehler eingebaut. NICHT verwenden. (Edit: trivialer Fehler - Device-Adresse mit im "midnight"-Store. String nicht gekürzt)

ZitatHoffe, diese beiden Logausschnitte sind repräsentativ:
Hoffe, nicht. Die Queue ist voll, aber das Interface reagiert überhaupt nicht mehr. In einer solchen Situation sollte man mal "set OWio1 reopen" ausführen.

LG

pah