Hallo,
hat sich da grundlegend am Start der HMCCU mit den RPC-Servern etwas geändert?
Ein alleiniger shutdown restart (bei laufender CCU2) ist bei mir, ohne händische Nacharbeit, seit neuem nicht mehr möglich.
Nach der Fehlermeldung:
HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
wird die Initialisierung vom HMCCU-device um 180 Sekunden verzögert.
Nach Ablauf der 180 Sekunden wird HMCCU initialisiert und die RPC-Server werden gestartet, irgendwann kommt aber dann nochmals der "..../tclrega.exe: Select timeout/error:" und einige Geräte können nich fehlerfrei gelesen werden.
Erst nachdem ich beim HMCCU Device einen nochmaligen stop und start ausführe werden alle Geräte fehlerfrei gelesen und Fhem läuft fehlerfrei.
Mehr fällt mir in meinem Startlog nicht auf, habt ihr einen Tipp für mich woran dieses Verhalten liegen könnte?
Kann es sein, dass die CCU2 die ersten 10 Minuten nach einem Neustart so mit sich selbst beschäftigt ist, dass die Daten nicht schnell genug an HMCCU gegeben werden?
Nach einem shutdown restart sieht mein Log wie folgt aus:
2019.03.08 19:29:54 2: DbLog old_DBLogging - continuing shutdown sequence
2019.03.08 19:29:57 2: Perfmon: ready to watch out for delays greater than one second
2019.03.08 19:29:57 1: Including fhem.cfg
2019.03.08 19:29:57 3: telnetPort: port 7072 opened
2019.03.08 19:29:57 3: WEBphone: port 8084 opened
2019.03.08 19:29:57 3: WEBtablet: port 8085 opened
2019.03.08 19:29:57 2: eventTypes: loaded 5219 events from ./log/eventTypes.txt
2019.03.08 19:29:58 3: Opening COC device /dev/ttyAMA0
2019.03.08 19:29:58 3: Setting COC serial parameters to 38400,8,N,1
2019.03.08 19:29:58 3: COC: Possible commands: mBbCFiAZGMYRTVWXefltuxz
2019.03.08 19:29:58 3: COC device opened
2019.03.08 19:29:58 2: Switched COC rfmode to HomeMatic
2019.03.08 19:29:59 1: HMCCU: [CCU2] Initialized version 4.3.014
2019.03.08 19:29:59 1: HMCCU: [CCU2] HMCCU: Initializing device
2019.03.08 19:30:03 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.08 19:30:03 1: HMCCU: [CCU2] HMCCU: Error while reading device list from CCU 192.168.1.32
2019.03.08 19:30:03 1: HMCCU: [CCU2] Scheduling delayed initialization in 180 seconds
2019.03.08 19:30:04 2: HMCCUDEV: [HM_OG_FKE1_BueroReinhard] Cannot detect IO device, maybe CCU not ready. Trying later
...
....
....
....
2019.03.08 19:30:08 1: Including ./log/fhem.save
2019.03.08 19:30:09 1: configfile: Invalid port or interface BidCos-RF
Please define d_rpcBidCos_RF 5c47772f-f33f-7df9-9416-c8e5708aac277440 first
Invalid port or interface HmIP-RF
Please define d_rpcHmIP_RF 5c47772f-f33f-7df9-45a3-b70730c169004d7a first
Invalid port or interface VirtualDevices
Please define d_rpcVirtualDevices 5c47772f-f33f-7df9-9f1c-a7cf7c567bf67874 first
./log/fhem.save: Please define d_rpc001032BidCos_RF first
Please define d_rpc001032BidCos_RF first
Please define d_rpc001032BidCos_RF first
Please define d_rpc001032HmIP_RF first
Please define d_rpc001032HmIP_RF first
Please define d_rpc001032HmIP_RF first
Please define d_rpc001032VirtualDevices first
Please define d_rpc001032VirtualDevices first
Please define d_rpc001032VirtualDevices first
2019.03.08 19:30:09 3: Device HM_4DC29E added to ActionDetector with 000:10 time
2019.03.08 19:30:11 0: HMCCU: Start of RPC server after FHEM initialization in 200 seconds
2019.03.08 19:30:11 3: Opening WAGO device 192.168.1.30:502
2019.03.08 19:30:11 3: WAGO device opened
2019.03.08 19:30:11 1: usb create starting
2019.03.08 19:30:11 3: Probing ZWDongle device /dev/serial1
2019.03.08 19:30:12 3: Probing CUL device /dev/ttyS0
2019.03.08 19:30:12 1: usb create end
2019.03.08 19:30:12 0: Featurelevel: 5.9
2019.03.08 19:30:12 0: Server started with 383 defined entities (fhem.pl:18623/2019-02-17 perl:5.024001 os:linux user:fhem pid:12037)
2019.03.08 19:30:12 1: Perfmon: possible freeze starting at 19:29:58, delay is 14.933
2019.03.08 19:30:13 2: ModbusTCPServer_Parse: except (code 2)
2019.03.08 19:30:16 3: telnetForBlockingFn_1552069816: port 40771 opened
2019.03.08 19:33:03 1: HMCCU: [CCU2] HMCCU: Initializing devices
2019.03.08 19:33:07 2: HMCCU: [CCU2] Initializing 65 client devices in state 'pending'
2019.03.08 19:33:07 1: PERL WARNING: Argument "Initialized" isn't numeric in multiplication (*) at (eval 1664) line 1.
2019.03.08 19:33:08 1: PERL WARNING: Argument "Initialized" isn't numeric in multiplication (*) at (eval 1692) line 1.
2019.03.08 19:33:08 1: PERL WARNING: Argument "Initialized" isn't numeric in multiplication (*) at (eval 1702) line 1.
2019.03.08 19:33:08 1: PERL WARNING: Argument "Initialized" isn't numeric in multiplication (*) at (eval 1706) line 1.
2019.03.08 19:33:08 1: PERL WARNING: Argument "Initialized" isn't numeric in multiplication (*) at (eval 1714) line 1.
2019.03.08 19:33:09 1: HMCCU: [CCU2] HMCCU: Read 64 devices with 329 channels from CCU 192.168.1.32
2019.03.08 19:33:09 1: HMCCU: [CCU2] HMCCU: Read 3 interfaces from CCU 192.168.1.32
2019.03.08 19:33:09 1: HMCCU: [CCU2] HMCCU: Read 12 programs from CCU 192.168.1.32
2019.03.08 19:33:09 1: HMCCU: [CCU2] HMCCU: Read 5 virtual groups from CCU 192.168.1.32
2019.03.08 19:33:09 1: Perfmon: possible freeze starting at 19:33:04, delay is 5.416
2019.03.08 19:33:31 2: HMCCU: [CCU2] Get RPC device for interface BidCos-RF
2019.03.08 19:33:31 1: HMCCU: [CCU2] No RPC device defined for interface BidCos-RF
2019.03.08 19:33:31 1: HMCCU: [CCU2] Creating new RPC device d_rpc001032BidCos_RF
2019.03.08 19:33:31 1: HMCCURPCPROC: [d_rpc001032BidCos_RF] Initialized version 1.7.001 for interface BidCos-RF with I/O device CCU2
2019.03.08 19:33:31 2: HMCCU: [CCU2] Get RPC device for interface HmIP-RF
2019.03.08 19:33:31 1: HMCCU: [CCU2] No RPC device defined for interface HmIP-RF
2019.03.08 19:33:31 1: HMCCU: [CCU2] Creating new RPC device d_rpc001032HmIP_RF
2019.03.08 19:33:31 1: HMCCURPCPROC: [d_rpc001032HmIP_RF] Initialized version 1.7.001 for interface HmIP-RF with I/O device CCU2
2019.03.08 19:33:31 2: HMCCU: [CCU2] Get RPC device for interface VirtualDevices
2019.03.08 19:33:31 1: HMCCU: [CCU2] No RPC device defined for interface VirtualDevices
2019.03.08 19:33:31 1: HMCCU: [CCU2] Creating new RPC device d_rpc001032VirtualDevices
2019.03.08 19:33:31 1: HMCCURPCPROC: [d_rpc001032VirtualDevices] Initialized version 1.7.001 for interface VirtualDevices with I/O device CCU2
2019.03.08 19:33:31 1: HMCCU: [CCU2] Saving FHEM config
2019.03.08 19:33:31 2: HMCCURPCPROC: [d_rpc001032BidCos_RF] RPC server process started for interface BidCos-RF with PID=12145
2019.03.08 19:33:31 2: CCURPC: [d_rpc001032BidCos_RF] Initializing RPC server CB2001001033001032 for interface BidCos-RF
2019.03.08 19:33:31 1: HMCCURPCPROC: [d_rpc001032BidCos_RF] RPC server starting
2019.03.08 19:33:32 2: HMCCURPCPROC: [d_rpc001032HmIP_RF] RPC server process started for interface HmIP-RF with PID=12146
2019.03.08 19:33:32 2: CCURPC: [d_rpc001032HmIP_RF] Initializing RPC server CB2010001033001032 for interface HmIP-RF
2019.03.08 19:33:32 1: HMCCURPCPROC: [d_rpc001032HmIP_RF] RPC server starting
2019.03.08 19:33:32 2: HMCCURPCPROC: [d_rpc001032VirtualDevices] RPC server process started for interface VirtualDevices with PID=12147
2019.03.08 19:33:32 2: CCURPC: [d_rpc001032VirtualDevices] Initializing RPC server CB9292001033001032 for interface VirtualDevices
2019.03.08 19:33:32 1: HMCCURPCPROC: [d_rpc001032VirtualDevices] RPC server starting
2019.03.08 19:33:32 2: HMCCURPCPROC: [d_rpc001032BidCos_RF] Callback server CB2001001033001032 created. Listening on port 7411
2019.03.08 19:33:32 2: CCURPC: [d_rpc001032BidCos_RF] CB2001001033001032 accepting connections. PID=12145
2019.03.08 19:33:32 2: HMCCURPCPROC: [d_rpc001032BidCos_RF] RPC server CB2001001033001032 enters server loop
2019.03.08 19:33:32 2: HMCCURPCPROC: [d_rpc001032BidCos_RF] Registering callback http://192.168.1.33:7411/fh2001 of type A with ID CB2001001033001032 at http://192.168.1.32:2001
2019.03.08 19:33:32 2: HMCCURPCPROC: [d_rpc001032HmIP_RF] Callback server CB2010001033001032 created. Listening on port 7420
2019.03.08 19:33:32 2: CCURPC: [d_rpc001032HmIP_RF] CB2010001033001032 accepting connections. PID=12146
2019.03.08 19:33:32 2: HMCCURPCPROC: [d_rpc001032VirtualDevices] Callback server CB9292001033001032 created. Listening on port 14702
2019.03.08 19:33:32 2: CCURPC: [d_rpc001032VirtualDevices] CB9292001033001032 accepting connections. PID=12147
2019.03.08 19:33:32 1: HMCCURPCPROC: [d_rpc001032BidCos_RF] RPC server CB2001001033001032 running
2019.03.08 19:33:32 1: HMCCURPCPROC: [d_rpc001032BidCos_RF] Scheduled CCU ping every 300 seconds
2019.03.08 19:33:32 2: HMCCURPCPROC: [d_rpc001032HmIP_RF] RPC server CB2010001033001032 enters server loop
2019.03.08 19:33:32 2: HMCCURPCPROC: [d_rpc001032HmIP_RF] Registering callback http://192.168.1.33:7420/fh2010 of type A with ID CB2010001033001032 at http://192.168.1.32:2010
2019.03.08 19:33:32 1: HMCCURPCPROC: [d_rpc001032HmIP_RF] RPC server CB2010001033001032 running
2019.03.08 19:33:32 2: HMCCURPCPROC: [d_rpc001032VirtualDevices] RPC server CB9292001033001032 enters server loop
2019.03.08 19:33:32 2: HMCCURPCPROC: [d_rpc001032VirtualDevices] Registering callback http://192.168.1.33:14702/fh9292 of type A with ID CB9292001033001032 at http://192.168.1.32:9292/groups
2019.03.08 19:33:32 2: CCURPC: [d_rpc001032BidCos_RF] CB2001001033001032 NewDevice received 79 device and channel specifications
2019.03.08 19:33:34 2: CCURPC: [d_rpc001032VirtualDevices] CB9292001033001032 NewDevice received 35 device and channel specifications
2019.03.08 19:33:36 2: CCURPC: [d_rpc001032HmIP_RF] CB2010001033001032 NewDevice received 279 device and channel specifications
2019.03.08 19:33:42 1: HMCCURPCPROC: [d_rpc001032VirtualDevices] RPC server CB9292001033001032 running
2019.03.08 19:33:42 1: HMCCU: [CCU2] All RPC servers running
2019.03.08 19:34:00 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.08 19:34:08 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.08 19:34:24 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.08 19:34:24 2: HMCCU: Update of device 000A9709A0D2C2 failed
2019.03.08 19:34:32 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.08 19:34:32 2: HMCCU: Update of device 0000D3C995FEEC failed
2019.03.08 19:34:48 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.08 19:34:48 2: HMCCU: Update of device 000BD569A36E45 failed
2019.03.08 19:34:56 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.08 19:34:56 2: HMCCU: Update of device 0000D3C995F8F8 failed
2019.03.08 19:35:04 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.08 19:35:12 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.08 19:35:12 2: HMCCU: Update of device 000A55699D69DB failed
2019.03.08 19:35:28 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.08 19:35:28 2: HMCCU: Update of device 000855699C40D9 failed
2019.03.08 19:35:37 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.08 19:35:37 2: HMCCU: Update of device 000A55699D54CA failed
2019.03.08 19:35:45 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.08 19:35:45 2: HMCCU: Update of device 0000D569A4A8E8 failed
2019.03.08 19:36:02 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.08 19:36:02 2: HMCCU: Update of device 000995698BD842 failed
2019.03.08 19:36:10 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.08 19:36:10 2: HMCCU: Update of device 000A5709916E86 failed
2019.03.08 19:36:24 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.08 19:36:32 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.08 19:36:32 2: HMCCU: Update of device 000895699E78CF failed
2019.03.08 19:36:41 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.08 19:36:41 2: HMCCU: Update of device 0000D569A4A8CE failed
2019.03.08 19:36:54 2: HMCCU: [CCU2] Updated devices. Success=49 Failed=16
2019.03.08 19:36:54 1: Perfmon: possible freeze starting at 19:33:33, delay is 201.383
2019.03.08 19:36:54 3: ModbusTCPServer_Timeout, request: SimpleWrite [40 01 00 00 00 06] 00 01 40 01 00 08
2019.03.08 19:36:54 3: ModbusTCPServer_Parse: got frame for previous request: [40 01 00 00 00 04] 00 01 01 00
2019.03.08 19:36:55 1: 192.168.1.30:502 disconnected, waiting to reappear (WAGO)
2019.03.08 19:36:56 1: 192.168.1.30:502 reappeared (WAGO)
2019.03.08 19:36:56 2: ModbusTCPServer_Parse: except (code 2)
2019.03.08 19:37:25 2: AttrTemplates: got 64 entries
2019.03.08 19:40:22 1: HMCCURPCPROC: [d_rpc001032BidCos_RF] Stopping RPC server CB2001001033001032
2019.03.08 19:40:22 1: HMCCURPCPROC: [d_rpc001032BidCos_RF] Deregistering RPC server http://192.168.1.33:7411/fh2001 with ID CB2001001033001032 at http://192.168.1.32:2001
2019.03.08 19:40:22 1: HMCCURPCPROC: [d_rpc001032BidCos_RF] Callback for RPC server CB2001001033001032 deregistered
2019.03.08 19:40:22 2: HMCCURPCPROC: [d_rpc001032BidCos_RF] Sending signal INT to RPC server process CB2001001033001032 with PID=12145
2019.03.08 19:40:22 2: HMCCURPCPROC: [d_rpc001032BidCos_RF] Scheduling cleanup in 30 seconds
2019.03.08 19:40:22 2: CCURPC: [d_rpc001032BidCos_RF] CB2001001033001032 received signal INT
2019.03.08 19:40:22 1: CCURPC: [d_rpc001032BidCos_RF] RPC server CB2001001033001032 stopped handling connections. PID=12145
2019.03.08 19:40:22 2: CCURPC: [d_rpc001032BidCos_RF] Number of I/O errors = 0
2019.03.08 19:40:23 1: HMCCURPCPROC: [d_rpc001032HmIP_RF] Stopping RPC server CB2010001033001032
2019.03.08 19:40:23 1: HMCCURPCPROC: [d_rpc001032HmIP_RF] Deregistering RPC server http://192.168.1.33:7420/fh2010 with ID CB2010001033001032 at http://192.168.1.32:2010
2019.03.08 19:40:23 1: HMCCURPCPROC: [d_rpc001032HmIP_RF] Callback for RPC server CB2010001033001032 deregistered
2019.03.08 19:40:23 2: HMCCURPCPROC: [d_rpc001032HmIP_RF] Sending signal INT to RPC server process CB2010001033001032 with PID=12146
2019.03.08 19:40:23 2: CCURPC: [d_rpc001032HmIP_RF] CB2010001033001032 received signal INT
2019.03.08 19:40:23 1: CCURPC: [d_rpc001032HmIP_RF] RPC server CB2010001033001032 stopped handling connections. PID=12146
2019.03.08 19:40:23 2: CCURPC: [d_rpc001032HmIP_RF] Number of I/O errors = 88
2019.03.08 19:40:23 2: HMCCURPCPROC: [d_rpc001032HmIP_RF] Scheduling cleanup in 30 seconds
2019.03.08 19:40:24 1: HMCCURPCPROC: [d_rpc001032VirtualDevices] Stopping RPC server CB9292001033001032
2019.03.08 19:40:24 1: HMCCURPCPROC: [d_rpc001032VirtualDevices] Deregistering RPC server http://192.168.1.33:14702/fh9292 with ID CB9292001033001032 at http://192.168.1.32:9292/groups
2019.03.08 19:40:24 1: HMCCURPCPROC: [d_rpc001032VirtualDevices] Callback for RPC server CB9292001033001032 deregistered
2019.03.08 19:40:24 2: HMCCURPCPROC: [d_rpc001032VirtualDevices] Sending signal INT to RPC server process CB9292001033001032 with PID=12147
2019.03.08 19:40:24 2: HMCCURPCPROC: [d_rpc001032VirtualDevices] Scheduling cleanup in 30 seconds
2019.03.08 19:40:24 2: CCURPC: [d_rpc001032VirtualDevices] CB9292001033001032 received signal INT
2019.03.08 19:40:24 1: CCURPC: [d_rpc001032VirtualDevices] RPC server CB9292001033001032 stopped handling connections. PID=12147
2019.03.08 19:40:24 2: CCURPC: [d_rpc001032VirtualDevices] Number of I/O errors = 0
2019.03.08 19:40:25 1: Perfmon: possible freeze starting at 19:40:23, delay is 2.751
2019.03.08 19:40:25 1: HMCCURPCPROC: [d_rpc001032VirtualDevices] RPC server process CB9292001033001032 terminated.
2019.03.08 19:40:25 2: HMCCURPCPROC: [d_rpc001032VirtualDevices] Stop I/O handling
2019.03.08 19:40:25 1: HMCCURPCPROC: [d_rpc001032HmIP_RF] RPC server process CB2010001033001032 terminated.
2019.03.08 19:40:25 2: HMCCURPCPROC: [d_rpc001032HmIP_RF] Stop I/O handling
2019.03.08 19:40:25 1: HMCCURPCPROC: [d_rpc001032BidCos_RF] RPC server process CB2001001033001032 terminated.
2019.03.08 19:40:25 1: HMCCU: [CCU2] All RPC servers inactive
2019.03.08 19:40:25 2: HMCCURPCPROC: [d_rpc001032BidCos_RF] Stop I/O handling
2019.03.08 19:40:36 2: HMCCU: [CCU2] Get RPC device for interface BidCos-RF
2019.03.08 19:40:36 2: HMCCU: [CCU2] Get RPC device for interface HmIP-RF
2019.03.08 19:40:36 2: HMCCU: [CCU2] Get RPC device for interface VirtualDevices
2019.03.08 19:40:36 2: HMCCURPCPROC: [d_rpc001032BidCos_RF] RPC server process started for interface BidCos-RF with PID=12281
2019.03.08 19:40:36 2: CCURPC: [d_rpc001032BidCos_RF] Initializing RPC server CB2001001033001032 for interface BidCos-RF
2019.03.08 19:40:36 1: HMCCURPCPROC: [d_rpc001032BidCos_RF] RPC server starting
2019.03.08 19:40:36 2: HMCCURPCPROC: [d_rpc001032HmIP_RF] RPC server process started for interface HmIP-RF with PID=12282
2019.03.08 19:40:36 2: CCURPC: [d_rpc001032HmIP_RF] Initializing RPC server CB2010001033001032 for interface HmIP-RF
2019.03.08 19:40:36 2: HMCCURPCPROC: [d_rpc001032BidCos_RF] Callback server CB2001001033001032 created. Listening on port 7411
2019.03.08 19:40:36 2: CCURPC: [d_rpc001032BidCos_RF] CB2001001033001032 accepting connections. PID=12281
2019.03.08 19:40:36 1: HMCCURPCPROC: [d_rpc001032HmIP_RF] RPC server starting
2019.03.08 19:40:36 2: HMCCURPCPROC: [d_rpc001032VirtualDevices] RPC server process started for interface VirtualDevices with PID=12283
2019.03.08 19:40:36 2: CCURPC: [d_rpc001032VirtualDevices] Initializing RPC server CB9292001033001032 for interface VirtualDevices
2019.03.08 19:40:36 1: HMCCURPCPROC: [d_rpc001032VirtualDevices] RPC server starting
2019.03.08 19:40:36 2: HMCCURPCPROC: [d_rpc001032HmIP_RF] Callback server CB2010001033001032 created. Listening on port 7420
2019.03.08 19:40:36 2: CCURPC: [d_rpc001032HmIP_RF] CB2010001033001032 accepting connections. PID=12282
2019.03.08 19:40:36 2: HMCCURPCPROC: [d_rpc001032BidCos_RF] RPC server CB2001001033001032 enters server loop
2019.03.08 19:40:36 2: HMCCURPCPROC: [d_rpc001032VirtualDevices] Callback server CB9292001033001032 created. Listening on port 14702
2019.03.08 19:40:36 2: CCURPC: [d_rpc001032VirtualDevices] CB9292001033001032 accepting connections. PID=12283
2019.03.08 19:40:36 2: HMCCURPCPROC: [d_rpc001032BidCos_RF] Registering callback http://192.168.1.33:7411/fh2001 of type A with ID CB2001001033001032 at http://192.168.1.32:2001
2019.03.08 19:40:36 1: HMCCURPCPROC: [d_rpc001032BidCos_RF] RPC server CB2001001033001032 running
2019.03.08 19:40:36 1: HMCCURPCPROC: [d_rpc001032BidCos_RF] Scheduled CCU ping every 300 seconds
2019.03.08 19:40:36 2: HMCCURPCPROC: [d_rpc001032HmIP_RF] RPC server CB2010001033001032 enters server loop
2019.03.08 19:40:36 2: HMCCURPCPROC: [d_rpc001032HmIP_RF] Registering callback http://192.168.1.33:7420/fh2010 of type A with ID CB2010001033001032 at http://192.168.1.32:2010
2019.03.08 19:40:36 1: HMCCURPCPROC: [d_rpc001032HmIP_RF] RPC server CB2010001033001032 running
2019.03.08 19:40:36 2: HMCCURPCPROC: [d_rpc001032VirtualDevices] RPC server CB9292001033001032 enters server loop
2019.03.08 19:40:36 2: HMCCURPCPROC: [d_rpc001032VirtualDevices] Registering callback http://192.168.1.33:14702/fh9292 of type A with ID CB9292001033001032 at http://192.168.1.32:9292/groups
2019.03.08 19:40:37 2: CCURPC: [d_rpc001032BidCos_RF] CB2001001033001032 NewDevice received 79 device and channel specifications
2019.03.08 19:40:37 2: CCURPC: [d_rpc001032VirtualDevices] CB9292001033001032 NewDevice received 35 device and channel specifications
2019.03.08 19:40:39 2: CCURPC: [d_rpc001032HmIP_RF] CB2010001033001032 NewDevice received 279 device and channel specifications
2019.03.08 19:40:47 1: HMCCURPCPROC: [d_rpc001032VirtualDevices] RPC server CB9292001033001032 running
2019.03.08 19:40:47 1: HMCCU: [CCU2] All RPC servers running
2019.03.08 19:40:52 2: HMCCU: [CCU2] Updated devices. Success=65 Failed=0
2019.03.08 19:40:52 1: Perfmon: possible freeze starting at 19:40:37, delay is 15.75
Anbei noch eine RAW-Definition meines HMCCU Devices.
defmod CCU2 HMCCU 192.168.1.32 waitforccu=120
attr CCU2 DbLogExclude .*
attr CCU2 ccuReqTimeout 8
attr CCU2 ccuaggregate name:HmIP_battery_,filter:group=HmIP-Device,read:(Batterie),if:any=leer,else:ok,prefix=HmIP_battery_,coll:alias;;\
name:HM_battery_,filter:group=HM-Device,read:(Batterie),if:any=leer,else:ok,prefix=HM_battery_,coll:alias;;\
name:DutyCycle_,filter:group=HmIP-Device,read:(0.DUTY_CYCLE),if:any=(1|true),else:(0|false),prefix=DutyCycle_,coll:alias\
name:Unerreichbar_,filter:group=HmIP-Device,read:(0.UNREACH),if:any=(1|true),else:(0|false),prefix=Unerreichbar_,coll:alias
attr CCU2 ccuflags procrpc,nonBlocking
attr CCU2 cmdIcon on:general_an off:general_aus
attr CCU2 eventMap /rpcserver on:on/rpcserver off:off/
attr CCU2 group Hardware
attr CCU2 icon hm_ccu
attr CCU2 room Homematic
attr CCU2 rpcinterfaces BidCos-RF,HmIP-RF,VirtualDevices
attr CCU2 rpcport 2001,2010,9292
attr CCU2 rpcqueue /tmp/ccuqueue
attr CCU2 rpcserver on
attr CCU2 stateFormat rpcstate/state
setstate CCU2 running/OK
setstate CCU2 2019-03-08 20:30:00 DutyCycle_count 54
setstate CCU2 2019-03-08 20:30:00 DutyCycle_list no match
setstate CCU2 2019-03-08 20:30:00 DutyCycle_match 0
setstate CCU2 2019-03-08 20:30:00 DutyCycle_state (0|false)
setstate CCU2 2019-03-08 20:30:00 HM_battery_count 4
setstate CCU2 2019-03-08 20:30:00 HM_battery_list no match
setstate CCU2 2019-03-08 20:30:00 HM_battery_match 0
setstate CCU2 2019-03-08 20:30:00 HM_battery_state ok
setstate CCU2 2019-03-08 20:30:00 HmIP_battery_count 54
setstate CCU2 2019-03-08 20:30:00 HmIP_battery_list no match
setstate CCU2 2019-03-08 20:30:00 HmIP_battery_match 0
setstate CCU2 2019-03-08 20:30:00 HmIP_battery_state ok
setstate CCU2 2019-03-08 20:32:07 Status_Watchdog 1
setstate CCU2 2019-03-08 20:30:00 Unerreichbar_count 54
setstate CCU2 2019-03-08 20:30:00 Unerreichbar_list no match
setstate CCU2 2019-03-08 20:30:00 Unerreichbar_match 0
setstate CCU2 2019-03-08 20:30:00 Unerreichbar_state (0|false)
setstate CCU2 2019-03-08 19:33:09 count_channels 329
setstate CCU2 2019-03-08 19:33:09 count_devices 64
setstate CCU2 2019-03-08 19:33:09 count_groups 5
setstate CCU2 2019-03-08 19:33:09 count_interfaces 3
setstate CCU2 2019-03-08 19:33:09 count_programs 12
setstate CCU2 2019-03-08 20:30:08 iface_addr_1 NEQ1574270
setstate CCU2 2019-03-08 20:30:08 iface_addr_2 3014F711A000035569A16D7E
setstate CCU2 2019-03-08 20:30:08 iface_conn_1 1
setstate CCU2 2019-03-08 20:30:08 iface_conn_2 1
setstate CCU2 2019-03-08 20:30:08 iface_ducy_1 17
setstate CCU2 2019-03-08 20:30:08 iface_ducy_2 18
setstate CCU2 2019-03-08 20:30:08 iface_type_1 CCU2
setstate CCU2 2019-03-08 20:30:08 iface_type_2 HMIP_CCU2
setstate CCU2 2019-03-08 19:40:47 rpcstate running
setstate CCU2 2019-03-08 19:40:52 state OK
Ich hoffe ihr habt noch einen Tipp für mich, oder hab ich da eine Änderung von zap nicht mitbekommen.
Nachtrag:
Ich denke es ist eine zu sehr beschäftigte CCU2 (kurz nach dem Neustart), nachdem diese nun eine Stunde läuft, startet nun auch Fhem normal. Es bleibt bei den 180 Sekunden Wartezeit, bevor HMCCU initialisiert werden kann, aber ich muss zumindest nicht mehr von Hand eingreifen.
Ich verwende derzeit folgende Versionen der Module:
88_HMCCU.pm 18745 2019-02-26 17:33:23Z zap
88_HMCCUDEV.pm 18552 2019-02-10 11:52:28Z zap
88_HMCCURPCPROC.pm 18745 2019-02-26 17:33:23Z zap
Gruß Reinhard
Die Fehlermeldung kommt von den Httputils. Die CCU scheint hier tatsächlich etwas langsam zu antworten und dadurch die verzögerte Initialisierung von HMCCU zu provozieren. Kann das nicht nachvollziehen, habe eine CCU3.
Du könntest das Attribut ccuReqTimeout auf einen Wert >5 setzen. Bringt vielleicht was.
Hallo zap,
ich gehe aber davon aus, du hast in den letzten 2 Wochen, am HMCCU Modul selbst nichts in die Richtung geändert. Der verzögerte Start der RPC-Server war vorher auch schon eingebaut, mir ist das nur nicht aufgefallen da die Antwort schneller von der CCU2 kam. Somit muss sich eindeutig meine CCU2 verlangsamt haben, denn an so ein Verhalten kann ich mich früher nicht erinnern.
Ich beobachte im Log dieser CCU2 viele Fehler, in einem anderen Thread https://forum.fhem.de/index.php/topic,98329.0.html (https://forum.fhem.de/index.php/topic,98329.0.html) wollte ich dazu mal nachfragen, ob die bei anderen Usern auch auftreten.
Gruß Reinhard
Mit dem letzten Release habe ich die Unterstützung für Delayed Shutdown eingebaut. FHEM wartet dann beim Shutdown, bis die RPC Server korrekt beendet wurden. Dürfte mit deinem Problem nicht zusammen hängen.
Hallo,
irgendwie mysteriös das ganze, die Probleme bestehen bei mir jetzt immer nach einen shutdown restart, bei der ersten Abrfage der HMCCU kommt immer der Timeout Fehler, nach 3 Minuten werden dann die RPC-Server gestartet und alles passt wieder.
Nur nachdem die CCU2 auch neu gestartet wurde, hängt Fhem und die CCU2 für ca. 4-5 Minuten beim Start der RPC-Server und es werden nicht alle Geräte eingelesen, es treten immer noch Timeout Fehler auf. Erst durch ein nochmaliges Stop/Start der RPC-Server kommen alle Geräte fehlerfrei an.
In der CCU2 erscheinen im Log, beim Timeout folgende Meldungen:
***** hmserver.log *****
Mar 10 09:29:16 de.eq3.cbcs.legacy.bidcos.rpc.LegacyServiceHandler INFO [vert.x-worker-thread-0] (un)registerCallback on LegacyServiceHandler called from url: http://192.168.1.33:7420/fh2010
Mar 10 09:29:16 de.eq3.cbcs.legacy.bidcos.rpc.LegacyServiceHandler INFO [vert.x-worker-thread-0] Removed InterfaceId: CB2010001033001032
Mar 10 09:29:16 de.eq3.cbcs.legacy.bidcos.rpc.LegacyServiceHandler INFO [vert.x-worker-thread-0] init finished
Mar 10 09:29:17 de.eq3.ccu.virtualdevice.service.internal.rega.VirtualDeviceHandlerRega INFO [vert.x-eventloop-thread-2] (un)registerCallback on VirtualDeviceHandlerRega called from url: http://192.168.1.33:14702/fh9292
Mar 10 09:29:17 de.eq3.ccu.virtualdevice.service.internal.rega.VirtualDeviceHandlerRega INFO [vert.x-eventloop-thread-2] Removed InterfaceId: null
Wenn mir da jemand bei der Interpretation helfen könnte wäre das prima.
Egal was ich mache, das Verhalten bleibt gleich, folgende Maßnahmen habe ich nacheinander durchgeführt. Nachdem der Fehler nicht verschwunden war, habe ich die vorhergehenden Einstellungen, vor dem nächsten Schritt, wieder rückgangig gemacht.
- ccuReqTimeout bei HMCCU Device von 8 auf 60 hochgesezt
- Virenscanner und Firewall am Windows Rechner abgeschaltet (bringt wahrscheinlich nichts, da Fhem ja auf Raspi läuft, aber man greift ja nach jedem Strohhalm)
- RASPI und CCU2 Vollzugriff ins Internet (hinter der FritzBox) gegeben, jegliche Filter deaktiviert
- CCU2 Firmware 2.31.25 und das letzte Backup der Firmware vom Juni 2018 eingespielt
- HMCCU Device mit RPC-Server auf Standardeinstellungen gesetzt
Die selben Fehler treten bei meinen zwei gleichen CCU2 identisch auf, ich bin nun echt am Ende und hab keine Ahnung mehr, was ich noch machen oder prüfen soll.
Das einzige was mir noch einfällt ist ein Restore von Fhem auf eine Version von einigen Monaten um auszuschließen, dass es mit Fhem zu tun hat.
Gruß Reinhard
Hallo,
irgendwie absolut verrückt das ganze, ich dachte mir eben, jetzt mach ich mal noch ein aktuelles Update, auf das kommt er nun auch nicht mehr darauf an.
Und siehe da, der shutdown restart läuft absolut sauber durch, so wie immer, obwohl sich bei den HMCCU Device nichts geändert hat (kein Update war da). Kann es sein, dass sich hier Probleme von anderen Modulen in der Art bei mir gezeigt haben?
Was ich nicht verstehe ist, weshalb ich anscheinend der einzige mit dem Problem war.
Fragen wir nicht lange, ich bin froh, dass es wieder läuft.
Was hätte ich bei dem Sauwetter nur gemacht, wenn ich Fhem nich hätte. :)
Gruß Reinhard
Hallo,
da hab ich mich zu früh gefreut, den Fehler gibt es nach wie vor bei mir.
2019.03.14 16:56:15 1: HMCCU: [CCU2] Initialized version 4.3.014
2019.03.14 16:56:15 1: HMCCU: [CCU2] HMCCU: Initializing device
2019.03.14 16:56:19 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.14 16:56:19 1: HMCCU: [CCU2] HMCCU: Error while reading device list from CCU 192.168.1.32
2019.03.14 16:56:19 1: HMCCU: [CCU2] Scheduling delayed initialization in 180 seconds
....
....
nach ca. 3 Minuten weiter im LOG
....
2019.03.14 16:59:19 1: HMCCU: [CCU2] HMCCU: Initializing devices
2019.03.14 16:59:26 2: HMCCU: [CCU2] Initializing 65 client devices in state 'pending'
2019.03.14 16:59:26 1: PERL WARNING: Argument "Initialized" isn't numeric in multiplication (*) at (eval 1665) line 1.
2019.03.14 16:59:26 1: PERL WARNING: Argument "Initialized" isn't numeric in multiplication (*) at (eval 1679) line 1.
2019.03.14 16:59:27 1: PERL WARNING: Argument "Initialized" isn't numeric in multiplication (*) at (eval 1704) line 1.
2019.03.14 16:59:27 1: PERL WARNING: Argument "Initialized" isn't numeric in multiplication (*) at (eval 1733) line 1.
2019.03.14 16:59:27 1: PERL WARNING: Argument "Initialized" isn't numeric in multiplication (*) at (eval 1742) line 1.
2019.03.14 16:59:29 1: HMCCU: [CCU2] HMCCU: Read 64 devices with 329 channels from CCU 192.168.1.32
Hat jemand eine Ahnung was die PERL WARNING bedeuten, könnte dies ev. die Ursache für mein Verhalten sein?
[Vermutung]
Könnten es meine 5 virtuellen Heizgruppen sein, welche beim Start auf "Initialized" stehen, aber dagegen kann ich ja nichts machen.
[/Vermutung]
Folgende Beobachtungen / Maßnahmen habe ich bisher gemacht.
- Starte ich zusätzlich noch kurz vorher die CCU2 neu ist das Chaos perfekt, auch die CCU2 hängt sich dann auf und diese erkennt selbst nicht mal mehr geöffnete Fensterkontakte. Diese erholt sich nicht mehr, ein nochmaliger Neustart ist dann obligatorisch.
- An meiner CCU2 kanns nicht liegen, da bei meinen 2 CCU2 das Problem in gleicher Form auftritt
- Auch habe ich alle Geräte bereits abgelernt und wieder neu an die CCU2 angelernt (Verzweiflung pur)
- Alle Einstellungen in der CCU2 (Firewall, Kennwort, etc.) gemäß Wiki geprüft
- Wartet die HMCCU nach dem ersten Timeout 180 Sekunden und kommen beim Start der RPC-Server keine Timeouts mehr, läuft die CCU2 und Fhem stabil
- Firewalleinstellungen können es meines Erachtens nicht sein, sonnst würden die RPC-Server überhaupt nie laufen.
Das ganze ist so Zeitraubend zu testen, da die CCU2 fast 10 Minuten nach dem Neustart benötigt, bevor diese wieder läuft.
Gibt es noch eine Möglichkeit genauer zu sehen weshalb der erste Timeout auftritt, Verbose 5 und stacktrace gibt überhaupt nichts her. Sind euch noch Diagnosemöglichkeiten bekannt, welche ich anwenden könnte?
Bin ich tatsächlich der einzige mit dem beschriebenen Fehler?
Habt ihr noch eine Idee was ich noch prüfen könnte?
Was würdet ihr noch unternehmen um den Fehler einzugrenzen?
Ich dachte schon an ein "nacktes" Fhem auf einer formatierten Speicherkarte, nur mit den notwendigen HMCCU Modulen.
Bin echt verzweifelt dass ich den ominösen Fehler alleine nicht eingrenzen kann.
Gruß Reinhard
Du könntest im IO Device ccuflags zusätzlich zu procrpc noch auf trace setzen. Dann gibt es vielleicht mehr Logmeldungen. Und lass die CCU mal in Ruhe, also nicht neu starten.
Könnten auch Netzwerkprobleme sein. Ist FHEM per WLAN oder LAN angebunden?
Sieht jedenfalls nach simplen Timeouts aus. Wo die Perl Fehler herkommen, weiß ich nicht.
Hallo zap,
zu deinen Fragen:
Raspi (Fhem) und die CCU2 hängt über LAN an der FritzBox, habe auch schon ein neues Netzwerkkabel versucht (wie gesagt Verzweiflung).
anbei noch das Fehlerlog der CCU2, in der Zeitspanne, von den HMCCU anfragen wo der Timeout auftritt. Was mir hier auffällt, ist der Eintrag mit dem "Removed InterfaceId: null" aber Removed bedeutet ja entfernen.
Mar 14 16:55:55 de.eq3.cbcs.legacy.bidcos.rpc.LegacyServiceHandler INFO [vert.x-worker-thread-4] (un)registerCallback on LegacyServiceHandler called from url: http://192.168.1.33:7420/fh2010
Mar 14 16:55:55 de.eq3.cbcs.legacy.bidcos.rpc.LegacyServiceHandler INFO [vert.x-worker-thread-4] Removed InterfaceId: CB2010001033001032
Mar 14 16:55:55 de.eq3.cbcs.legacy.bidcos.rpc.LegacyServiceHandler INFO [vert.x-worker-thread-4] init finished
Mar 14 16:55:56 de.eq3.ccu.virtualdevice.service.internal.rega.VirtualDeviceHandlerRega INFO [vert.x-eventloop-thread-4] (un)registerCallback on VirtualDeviceHandlerRega called from url: http://192.168.1.33:14702/fh9292
Mar 14 16:55:56 de.eq3.ccu.virtualdevice.service.internal.rega.VirtualDeviceHandlerRega INFO [vert.x-eventloop-thread-4] Removed InterfaceId: null
Mar 14 16:58:44 de.eq3.cbcs.server.core.otau.DeviceBackgroundUpdateSubsystem INFO [vert.x-eventloop-thread-1] SYSTEM: 0 Accesspoints in Queue
Mar 14 16:58:44 de.eq3.cbcs.server.core.otau.DeviceBackgroundUpdateSubsystem INFO [vert.x-eventloop-thread-1] SYSTEM: Permanent-/Burstlistener Handler utilization: 0/50 used
Mar 14 16:58:44 de.eq3.cbcs.server.core.otau.DeviceBackgroundUpdateSubsystem INFO [vert.x-eventloop-thread-1] SYSTEM: Eventlistener Handler utilization: 0/50 used
Mar 14 16:59:48 de.eq3.cbcs.legacy.bidcos.rpc.LegacyServiceHandler INFO [vert.x-worker-thread-0] (un)registerCallback on LegacyServiceHandler called from url: http://192.168.1.33:7420/fh2010
Mar 14 16:59:48 de.eq3.cbcs.legacy.bidcos.rpc.LegacyServiceHandler INFO [vert.x-worker-thread-0] init finished
Mar 14 16:59:48 de.eq3.cbcs.legacy.bidcos.rpc.internal.InterfaceInitializer INFO [vert.x-worker-thread-3] Added InterfaceId: CB2010001033001032
Mar 14 16:59:48 de.eq3.ccu.virtualdevice.service.internal.rega.VirtualDeviceHandlerRega INFO [vert.x-eventloop-thread-4] (un)registerCallback on VirtualDeviceHandlerRega called from url: http://192.168.1.33:14702/fh9292
Mar 14 16:59:48 de.eq3.ccu.virtualdevice.service.internal.rega.VirtualDeviceHandlerRega INFO [vert.x-eventloop-thread-4] Added InterfaceId: CB9292001033001032
Mar 14 16:59:49 de.eq3.ccu.virtualdevice.service.internal.rega.BackendWorker INFO [vert.x-worker-thread-15] Execute BackendCommand: de.eq3.ccu.virtualdevice.service.internal.rega.BackendUpdateDevicesCommand
Mar 14 16:59:50 de.eq3.ccu.virtualdevice.service.internal.rega.BackendUpdateDevicesCommand INFO [vert.x-worker-thread-15] updateDevicesForClient -> 35 device addresses will be added
Mar 14 16:59:51 de.eq3.cbcs.legacy.bidcos.rpc.internal.DeviceUtil INFO [vert.x-worker-thread-3] updateDevicesForClient CB2010001033001032 -> 279 device addresses will be added
Mar 14 16:59:51 de.eq3.ccu.virtualdevice.service.internal.rega.BackendUpdateDevicesCommand INFO [vert.x-worker-thread-15] set ready config of INT0000001
Ich setze jetzt noch ccuflags auf trace und sehe mir mal die Meldungen an, wenn mehr angezeigt wird, poste ich es hier.
Die Ausbeute war nicht sehr ernüchternd, lediglich eine CUL Meldung kam noch hinzu, hat aber mit dem ccuflags nichts zu tun.
2019.03.14 18:48:34 1: PERL WARNING: Useless use of hash element in void context at ./FHEM/10_CUL_HM.pm line 4069, <$fh> line 146.
Gruß Reinhard
Hab nochmal nachgeschaut. Die Meldung "select timeout/error" kommt von Httputils.pm. Die Gegenseite (CCU) antwortet nicht oder zu langsam.
Keine Ahnung, woran das liegt. Ist bei mir auch nicht aufgetreten, als ich noch eine CCU2 hatte.
Hallo zap,
hab noch alle meine Modbus Abfragen von bisher 1 Sekunde auf 10 Sekunden gesetzt (belastet ja auch das LAN), hat aber wie vermutet auch nichts gebracht.
Als einzige Möglichkeit meine Netzwerkgeschwindigkeit (jeweils über die Fritz Box) zu testen, ist mir nur eingefallen eine 100 MB Datei mit Filezilla vom PC per FTP einmal auf den Raspi und einmal auf die CCU2 zu kopieren.
Die Zeiten wie folgt.
CCU2 1,6 Mib/s - 60 Sekunden Kopierdauer
Raspi 5,0 Mib/s - 22 Sekunden Kopierdauer
Ich denke, da die CCU2 eh deutlich Leistungsschwächer ist, sollten die Werte eigentlich so passen.
Was mich so sehr wundert, bei mir scheitert immer zu 100% die erste Anfrage an die CCU2 mit timeout/error.
Wurde die CCU2 nicht auch vorher gestartet, so klappt die 2. Anfrage nach 180 Sekunden ohne Probleme.
Ich werde nun anfangen mit älteren Fhem Backups zu testen und diese unter der jetzigen Linux Version mit Restore zurückzuschreiben.
Denn mein Problem muss eindeutig bei Fhem oder dem Raspi liegen. Die CCU2 hatte ich ja schon getauscht, alle Geräte neu angelernt und bin auf eine alte Firmware der CCU2 zurückgegangen.
Du bist von CCU2 auf CCU3 oder Raspimatic umgestiegen?
Bist du mit dem Funkempfang zufrieden?
Ich habe bereits an meiner CCU2 eine externe Antenne gelötet, da ich Empfangsprobleme hatte, die CCU3 soll ja keinesfalls Empfangsstärker sein, was man so liest.
Schön langsam gehen mir echt auch die Ideen aus, was ich noch testen könnte, überlege mir schon eine Lösung in Richtung einer CCU3.
Gruß Reinhard
Hallo,
hat denn echt niemand sonst ähnliche Probleme?
Bei mir ist es derzeit so dramatisch, dass sich nun immer zu 100% die CCU2 aufhängt, wenn ich die RPC-Server starte. Diese reagiert dann nicht mehr auf HmIP-Geräte, nur ein Neustart der CCU2 behebt das Problem wieder.
Habe heute mal zur gleichen Zeit mit Filezilla meine letzten Backups vom Raspi geholt, die Dateien wurden mit ca. 8 Mib/s geladen, somit glaube ich nicht, dass mein LAN z.B. die laufende Modbuskommunikation zu stark belastet ist.
Für irgendwelche Ideen wo ich noch suchen könnte wäre ich euch echt dankbar, denn ich bin nun mit meinem Latein am Ende.
Ich sehe nun keine andere Möglichkeit mehr, als ältere Backups als Restore einzuspielen um dann zu sehen, ob es irgendwann wieder funktioniert. In jeden Fall hab ich mir mal eine CCU3 und eine Antenne bestellt, diese soll morgen kommen.
Ich würde gerne auch die HMCCU und die RPC-Server entfernen und dann neu installieren, aber ich vermute das wird nicht so einfach möglich sein. Die HMCCU ist schon ziemlich tief im System vergraben.
Ich hoffe euch fällt noch etwas ein.
Gruß Reinhard
Was versprichst Du Dir von einer Neuinstallation von HMCCU? Wenn Du jetztz schon den letzten Stand verwendest, ändert sich dadurch nichts.
Die RPC Devices kannst Du einfach löschen. Die werden beim nächsten Start der RPC Server wieder angelegt.
Wie machst Du die CCU Migration? Backup / Restore birgt die Gefahr , dass du eine evetuell verbogene CCU2 Config auf die CCU3 übernimmst. Alle Geräte neu anlernen könnte sich negativ auf in FhEM definierte Devices auswirken. Die musst Du dann neu definieren, wenn es hakt.
Hallo zap,
da ich alle meine Geräte letzte Woche neu an die CCU2 angelernt habe, wollte ich die Migration mit Backup CCU2 und Restore auf die CCU3 durchführen. Auf der CCU2 habe ich nur 5 Heizgruppen keinerlei Scripts und nur 3 Miniaturprogramme.
Siehst du da ein Problem?
Ich könnte auch meine Geräte alle neu anlernen, ist dank guter Übung in 5 Stunden erledigt.
Betreibst du die CCU3 mit der Originalsoftware oder Raspimatic, wenn das überhaupt möglich ist.
Bei mir ist das höchtst misteriös, folgende Maßnahmen haben überhaupt nichts gebracht:
- Alle Geräte neu an die CCU2 anlernen
- CCU2 Hardware gewechselt
- Firmware und Restore von Dezember 2018 in CCU2 gespielt
- Neue Patchkabel für LAN Verkabelung verwendet (mit WLAN ist nur der PC angebunden, welcher auf die Webseiten guckt)
- Betrieb aller Komponenten (Raspi, CCU2, WAGO) mit statischer IP 192.168.1.xx, ohne FritzBox über switch
- Fhem Restore von Dezember 2018 auf halbwegs aktuelles Linux Stretch
- Linux neues Update eingespielt
- anderen Raspi (nur Hardware) gewechselt, Speicherkarte mit Linux und Fhem ist mit umgezogen
- Umzug auf CCU3 mit Backup / Restore von CCU2
- RaspberryMatic auf neuer Speicherkarte auf CCU3 installiert
Alle diese Maßnahmen wurden nicht gleichzeitig, sondern nacheinander durchgeführt.Als nächstes bringe ich mein Linux auf den neuesten Stand und wenn das nichts bringt, wechsle ich noch den Raspi mit Speicherkarte.Mehr kann ich dann nicht mehr machen.
Gruß Reinhard
Ich habe eine original CCU3 und ein Charly Set. Beides ist ein Raspi. Du kannst Rasperrymatic auch auf der original CCU3 installieren. Ich habe allerdings die CCU3 original belassen.
Versuch es halt mal mit Backup Restore und schau ob es läuft. FHEM seitig würde ich die RPC Devices löschen und neu anlegen lassen
Zitat von: Rewe2000 am 22 März 2019, 16:46:48
Hallo,
hat denn echt niemand sonst ähnliche Probleme?
Bei mir ist es derzeit so dramatisch, dass sich nun immer zu 100% die CCU2 aufhängt, wenn ich die RPC-Server starte. Diese reagiert dann nicht mehr auf HmIP-Geräte, nur ein Neustart der CCU2 behebt das Problem wieder.
Das hört sich sehr ähnlich zu meinem Verhalten an.
Ich habe auch starke Probleme, aber in Verbindung mit der CCU3.
Bei mir kommt auch keine Antwort von der CCU3 zurück.
Noch merkwürdiger ist, dass nach einem Neustart der CCU3 diese einwandfrei funktioniert.
Starte ich fhem neu, damit sich die rpcserver neu verbinden, wird die CCU3 so langsam, dass selbst die internen Programme der CCU3 nicht mehr ausgeführt werden.
Auch die Oberfläche der CCU3 reagiert kaum noch. Seitenaufbau bis zu einer Minute und schalten kann ich darüber dann auch nichts mehr.
Wie gesagt, alles erst, wenn sich fhem verbinden will.
Habe erst gedacht, dass irgendein Task die CPU auslastet. Aber da ist mit Top nicht zu sehen. Die Oberfläche verhält sich, als ob keine Rechenzeit zur Verfügung steht,
die CPU ist aber in dem Moment auf ca. 5%.
Habe noch kein Schema gefunden. Irgendwann, nach mehreren CCU3 und fhem Neustarts, geht alles wieder.
Habe sogar die CCU3 ausgetauscht, da ich dachte, dass diese evtl. defekt ist.
Aber das Problem besteht weiterhin.
Weiterhin ist interessant, dass dies nur die IP Geräte betrifft. Ich habe noch 2 Homematic HM-LC-Sw1PBU-FM über die CCU3 laufen.
Die kann ich über fhem weiterhin bedienen.
@Rewe2000: Ist bei dir nach einem Neustart der CCU2 die Oberfläche schnell und nach dem Reconnectversuch von fhem auch langsam?
Grüße,
Ban
PS: Heute habe ich nach dem Update der CCU auf Firmware 3.43.16 fast 2 Stunden probiert. Da nach dem Update die CCU3 neustartet, hatte ich wieder das oben beschrieben Verhalten. Nichts ging, nachdem fhem reconnecten wollte. Jedesmal war die CCU3 fast nicht mehr erreichbar. Jetzt nach einem Neustart der CCU3,
ohne Neustart von fhem, läuft wieder alles einwandfrei. Eigentlich dürften die rpcserver nicht connected sein. Was mir aufgefallen ist, CCU RPC BidCos-RF und CCU RPC HmIP-RF haben sich neuinstalliert, ohne dass ich diese gelöscht hatte. Gemerkt habe ich das nur, da mein devStateIcon weg ist. Ist das evtl. die Lösung. Die rpcserver neu zu erstellen?
Hallo Ban,
es freut mich zwar nicht, dass auch noch jemand anderer Probleme hat, aber es beruhigt mich ein wenig.
Ich habe echt bisher alle Register gezogen und bekomme Fhem in Verbindung mit der CCU2 derzeit nicht mehr zum laufen.
Die CCU2 und auch Fhem läuft alleine absolut prima und ohne jegliche Hänger, bis ich die RPC-Server starte, dann bricht das Chaos los.
Fhem und die CCU2 hängt für ca. 3-5 Minuten, Fhem läuft dann wieder, allerdings ohne Verbindung zur CCU2. Meine CCU2 erholt sich überhaupt nicht mehr, diese erkennt wie bei dir keine HmIP Geräte mehr. Ich meine auch, HM-Geräte sollten sich noch bedienen lassen, meine HM-Wetterstation wurde noch aktualisiert, ich prüfe das morgen.
Ich habe schon alles was möglich ist gewechselt und bin mit der Firmware und mit Backups weit in die Vergangenheit zurückgegangen, ohne jeglichen Erfolg. Ich vermute schon irgendwelche Firmware von HmIP-Geräten, was ja eigentlich sehr unwahrscheinlich ist.
Angefangen hat dies bei mir schleichend, die Erstverbindung CCU2 und Fhem hat immer länger gedauert, dann musste ich von Hand die RPC Server stoppen und Neustarten, jetzt geht dies auch nicht mehr.
Der erste Verbindungsversuch wird immer mit "HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:" beantwortet. Was hast du für Meldungen im Log, wenn du die Probleme bemerkst?
Morgen kommt meine CCU3, bin mal gespannt ob der Fehler weg ist.
Wenn nicht, so bleibt mir nur ein Versuchsaufbau mit Minimalkonfiguration CCU3 und Fhem, an die Arbeit will ich jetzt noch überhaupt nicht denken.
Wie hast du von CCU2 auf CCU3 migriert? Mit Backup - Restore oder Neuanlernen.
Für heute mach ich Feierabend, nachdem ich ca. 10-15 Neustarts der CCU2 hinter mir habe.
Gruß Reinhard
P.s. Hört sich verdammt nach dem gleichen Problem an.
Hast du Gruppen in der CCU3 angelegt?
Ich meine fast seitdem ich meine 5 Heizgruppen angelegt hatte, ist mir das Verhalten erst aufgefallen.
Hallo Rewe2000,
mir ging es vorhin ähnlich wie dir. Ich habe mich "gefreut", dass ich jemanden gefunden habe, der dasselbe Problem hat.
Habe schon an mir gezweifelt.
Auch bei mir läuft die CCU3 und fhem allein einwandfrei. Auch bei mir war es nicht von Anfang an so.
Unterschied zu dir. Ich habe irgendwann einen Punkt, an dem läuft alles wieder einwandfrei. Dann machen auch keinen fhem Neustarts mehr etwas aus.
Nur ein CCU3 Neustart und alles geht wieder von vorne los.
Deine Meldungen im Log habe ich auch: HMCCU: [HMIP_CCU] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
Ich habe noch die CCU2 und wollte wieder zurück, um zu schauen, ob es dort weg ist:-)
Gruppen habe ich keine. Alles was Heizung angeht, habe ich mit Homematic ohne IP direkt über fhem realisiert. Das läuft alles mit VCCU mit 2 HM-Lan direkt an fhem.
Die CCU3 übernimmt bei mir alles was Licht und Wassermeldung angeht. Mit folgenden Geräten: HmIP-SWD, HMIP-PS, HMIP-PSM, HmIP-BSL, HmIP-FSM, HMIP-WRC2, HmIP-BRC2, HmIP-RC8, HmIP-WRC6 usw.
Ich bin von der CCU2 auf die CCU3 mit Backup und Restore. Auf den ersten Blick hat das einwandfrei funktioniert. Habe die Probleme erst später bekommen.
Wie viel Geräte hast du in der CCU? Vielleicht sind wir an der Grenze?
Mein HMCCU sagt: Read 46 devices with 395 channels from CCU
Lese immer von einer möglichen Grenze bei 400 Channels.
Aber die CCU allein läuft ja einwandfrei.
Viele Grüße,
Ban
Zitat von: Ban am 22 März 2019, 22:17:04
Unterschied zu dir. Ich habe irgendwann einen Punkt, an dem läuft alles wieder einwandfrei. Dann machen auch keinen fhem Neustarts mehr etwas aus.
Nur ein CCU3 Neustart und alles geht wieder von vorne los.
Hallo Rewe2000,
so, jetzt bin ich wohl auch an dem Punkt, das jeder fhem Neustart das Problem auslöst.
Gestern ging alles einwandfrei. Heute morgen hatte BidCos_RF keine Rückmeldung von der CCU3 mehr bekommen.
HMCCURPCPROC: [d_rpc010014BidCos_RF] Received no events from interface CB2001010007010014 for 600.918122768402 seconds
Deswegen habe ich fhem neu gestartet.
Ergebnis wieder:
2019.03.23 07:59:04 2: HMCCU: [HMIP_CCU] Get RPC device for interface BidCos-RF
2019.03.23 07:59:04 2: HMCCU: [HMIP_CCU] Get RPC device for interface HmIP-RF
2019.03.23 07:59:04 2: HMCCURPCPROC: [d_rpc010014BidCos_RF] RPC server process started for interface BidCos-RF with PID=843
2019.03.23 07:59:04 2: CCURPC: [d_rpc010014BidCos_RF] Initializing RPC server CB2001010007010014 for interface BidCos-RF
2019.03.23 07:59:04 1: HMCCURPCPROC: [d_rpc010014BidCos_RF] RPC server starting
2019.03.23 07:59:04 2: HMCCURPCPROC: [d_rpc010014HmIP_RF] RPC server process started for interface HmIP-RF with PID=844
2019.03.23 07:59:04 2: CCURPC: [d_rpc010014HmIP_RF] Initializing RPC server CB2010010007010014 for interface HmIP-RF
2019.03.23 07:59:04 1: HMCCURPCPROC: [d_rpc010014HmIP_RF] RPC server starting
2019.03.23 07:59:05 2: HMCCURPCPROC: [d_rpc010014BidCos_RF] Callback server CB2001010007010014 created. Listening on port 7411
2019.03.23 07:59:05 2: HMCCURPCPROC: [d_rpc010014HmIP_RF] Callback server CB2010010007010014 created. Listening on port 7420
2019.03.23 07:59:05 2: CCURPC: [d_rpc010014BidCos_RF] CB2001010007010014 accepting connections. PID=843
2019.03.23 07:59:05 2: CCURPC: [d_rpc010014HmIP_RF] CB2010010007010014 accepting connections. PID=844
2019.03.23 07:59:05 2: HMCCURPCPROC: [d_rpc010014BidCos_RF] RPC server CB2001010007010014 enters server loop
2019.03.23 07:59:05 2: HMCCURPCPROC: [d_rpc010014BidCos_RF] Registering callback [url=http://192.168.10.7:7411/fh2001]http://192.168.10.7:7411/fh2001[/url] of type A with ID CB2001010007010014 at [url=http://192.168.10.14:2001]http://192.168.10.14:2001[/url]
2019.03.23 07:59:05 1: HMCCURPCPROC: [d_rpc010014BidCos_RF] RPC server CB2001010007010014 running
2019.03.23 07:59:06 1: HMCCURPCPROC: [d_rpc010014BidCos_RF] Scheduled CCU ping every 300 seconds
2019.03.23 07:59:06 2: HMCCURPCPROC: [d_rpc010014HmIP_RF] RPC server CB2010010007010014 enters server loop
2019.03.23 07:59:06 2: HMCCURPCPROC: [d_rpc010014HmIP_RF] Registering callback [url=http://192.168.10.7:7420/fh2010]http://192.168.10.7:7420/fh2010[/url] of type A with ID CB2010010007010014 at [url=http://192.168.10.14:2010]http://192.168.10.14:2010[/url]
2019.03.23 07:59:06 1: HMCCURPCPROC: [d_rpc010014HmIP_RF] RPC server CB2010010007010014 running
2019.03.23 07:59:06 1: HMCCU: [HMIP_CCU] All RPC servers running
2019.03.23 07:59:06 2: CCURPC: [d_rpc010014BidCos_RF] CB2001010007010014 NewDevice received 78 device and channel specifications
2019.03.23 07:59:07 2: CCURPC: [d_rpc010014HmIP_RF] CB2010010007010014 NewDevice received 363 device and channel specifications
2019.03.23 07:59:11 2: HMCCU: [HMIP_CCU] HMScript failed. [url=http://192.168.10.14:8181/tclrega.exe]http://192.168.10.14:8181/tclrega.exe[/url]: Select timeout/error:
2019.03.23 07:59:11 2: HMCCU: Update of device 001898A9926292 failed
2019.03.23 07:59:15 2: HMCCU: [HMIP_CCU] HMScript failed. [url=http://192.168.10.14:8181/tclrega.exe]http://192.168.10.14:8181/tclrega.exe[/url]: Select timeout/error:
...
...
und nichts lässt sich mehr bedienen. Es laufen nur noch die Direktverknüpfungen.
Ausnahme, die HM Geräte in der CCU3. Die lassen sich über fhem bedienen.
Jetzt habe ich auch folgende Meldung auf der CCU3 Oberfläche bekommen:
HmIP-RF
Eine Komponente der Homematic Zentrale reagiert nicht mehr.
Hierfür kann es eine Reihe von Ursachen geben:
es besteht keine Netzwerk-Verbindung
die Stromversorung der HomeMatic Zentrale wurde unterbrochen
mindestens eine Komponente der HomeMatic Zentrale ist abgestürzt
Überprüfen Sie die Netzwerk-Verbindung und die Stromversorgung der HomeMatic Zentrale. Starten Sie ggf. die HomeMatic Zentrale neu.
Viele Grüße,
Ban
Du könntest beim Neustart der CCU oder FHEM vorher mal die RPC Server stoppen und mit dem Neustart warten, bis sie als inaktiv angezeigt werden. Würde mich interessieren,ob das Problem dann auch auftritt.
Übrigens: nach gerade mal 10 Min ohne Events würde ich nichts neu starten. Kann immer mal vorkommen, kann aber auch sein, dass auf der CCU etwas abgeraucht ist.
Hallo zap,
bin im Moment am Testen. Werde das direkt ausprobieren.
Habe es getestet. Leider gleiches Ergebnis.
-CCU3 Neustart > Alle Programme der CCU3 funktionieren. Oberfläche der CCU3 ist schnell
-fhem RPC-Server gestoppt und shutdown restart > Keine Programme der CCU3 funktionieren. Oberfläche langsam
Jetzt werde ich folgendes testen.
-CCU3 Neustart
-fhem RPC-Server löschen und Neustart
Zitat von: zap am 23 März 2019, 09:02:46
Übrigens: nach gerade mal 10 Min ohne Events würde ich nichts neu starten. Kann immer mal vorkommen, kann aber auch sein, dass auf der CCU etwas abgeraucht ist.
Ich habe es auch schon mit Warten versucht.
Abends die CCU3 und fhem neugestartet. Über Nacht laufen gelassen.
Morgens gleiches Bild. CCU3 hat nicht mehr funktioniert.
Test mit CCU3 Neustart und fhem RPC-Server löschen ist durch.
Leider war es vorher wohl Zufall.
-CCU3 Neustart > Alle Programme der CCU3 funktionieren. Oberfläche schnell
-fhem RPC-Server gelöscht und shutdown restart > Keine Programme der CCU3 funktionieren. Oberfläche langsam
- noch ein fhem Neustart, CCU3 wurde nicht neu gestartet. Erstmal keine Fehlermeldungen in fhem. Aber die Programme der CCU3 gehen weiterhin nicht.
Einmalig ist ein Schaltbefehl von fhem zur CCU3 durchgegangen. Das Licht wurde geschaltet. Rückmeldung über den Schaltzustand gab es keine.
Ein zweiter Schaltbefehl wird mit:
HMCCUCHN: HMIP_Licht_Flur_OG1 Execution of CCU script or command failed
HMCCU: [HMIP_CCU] Error during HTTP request: http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
quitiert.
- Neustart CCU3 ohne Neustart von fhem > gleiches Bild. Aber hin und wieder geht ein Schaltbefehl durch.
Wieder die Fehlermeldung auf der CCU3 Oberfläche:
HmIP-RF
Eine Komponente der Homematic Zentrale reagiert nicht mehr.
Hierfür kann es eine Reihe von Ursachen geben:
es besteht keine Netzwerk-Verbindung
die Stromversorung der HomeMatic Zentrale wurde unterbrochen
mindestens eine Komponente der HomeMatic Zentrale ist abgestürzt
Überprüfen Sie die Netzwerk-Verbindung und die Stromversorgung der HomeMatic Zentrale. Starten Sie ggf. die HomeMatic Zentrale neu.
Hab gerade keine Idee mehr.
Überlege wie ich weitermache.
Entweder mit der CCU2 neu anfangen und einzelne Aktoren darauf umziehen und schauen, wie lange das gut geht oder mehr ins debugging der CCU3 und HMCCU einsteigen.
Das Problem für zap, ich kenne das selbst, ohne das Problem nachstellen zu können bekommt man da auch nix gefixt/angepasst :'(
Bringt es etwas, wenn ich mir noch einen Charly baue/kaufe? Bekomme ich da mehr Infos, bzw. habe ich da mehr Kontrolle?
Noch ein Nachtrag:
Ich habe die CCU3 neugestartet, dass die Grundfunktionen wieder funktionieren.
Fhem oder RPC-Server wurden nicht neu gestartet.
D.h. ich empfange aktuell keine Events von der CCU3. Das Steuern der Aktoren von fhem über die CCU3 geht einwandfrei und die CCU3 verhält sich auch normal.
D.h. für mich, es hängt wirklich "nur" an dem Abfragen der Events. Das bringt die CCU durcheinander.
Hallo Ban,
da hat es dich ja genauso wie mich erwischt.
An der Anzahl der Geräte, denke ich sollte es nicht liegen, bei mir sieht es so aus:
2019.03.01 18:04:21 3: COC device opened
2019.03.01 18:04:21 2: Switched COC rfmode to HomeMatic
2019.03.01 18:04:23 1: HMCCU: [CCU2] Initialized version 4.3.014
2019.03.01 18:04:23 1: HMCCU: [CCU2] HMCCU: Initializing device
2019.03.01 18:04:28 1: HMCCU: [CCU2] HMCCU: Read 64 devices with 329 channels from CCU 192.168.1.32
2019.03.01 18:04:28 1: HMCCU: [CCU2] HMCCU: Read 3 interfaces from CCU 192.168.1.32
2019.03.01 18:04:28 1: HMCCU: [CCU2] HMCCU: Read 12 programs from CCU 192.168.1.32
2019.03.01 18:04:28 1: HMCCU: [CCU2] HMCCU: Read 5 virtual groups from CCU 192.168.1.32
Ich hab nicht die leiseste Spur, woran dieses Verhalten bei mir liegen könnte. Ich habe die CCU3 und Fhem (nicht gleichzeitig, sondern nacheinander) auf den Stand von Dezember 2018 gebracht, absolut gleiches Verhalten. Selbst meinen Router hab ich außen vorgelassen, wegen Verdacht auf Firewall oder Filter, auch das hat nicht das Problem gelöst.
Gestern habe ich dann noch Linux auf den neuesten Stand gebracht, hat auch nicht mein Problem gelöst.
Ich starte derzeit die RPC-Server überhaupt nicht mehr, damit wenigstens Fhem und meine Modbuskommunikation zu meiner WAGO Steuerung läuft.
Ich versuche mal genau zu beschreiben, wie das Auftreten des Fehlers bei mir abläuft, eventuell gibt es ja noch Ideen was man noch machen könnte.
Versuch1:
- Raspi läuft mit stehenden RPC-Servern
- CCU2 wird neu gestartet und gewartet bis diese stabil läuft
- Nur die RPC-Server werden nun unter Fhem gestartet, Fhem und CCU2 hängt für mindestens 3-5 Minuten und ist über WEB nicht mehr zu erreichen
- CCU2 reagiert nicht mehr auf HmIP Geräte, HM-Geräte werden noch angezeigt, CCU2 WEB noch erreichbar, jedoch etwas langsamer
Versuch 2:
- CCU2 läuft stabil, alle Geräte können bedient werden
- Fhem "shutdown restart" oder unter Linux sudo reboot
- Fhem startet etwas länger als normal, im Log steht zu 100% immer folgende timeout Meldung
2019.03.10 11:41:20 1: Including fhem.cfg
2019.03.10 11:41:20 3: telnetPort: port 7072 opened
2019.03.10 11:41:20 3: WEBphone: port 8084 opened
2019.03.10 11:41:20 3: WEBtablet: port 8085 opened
2019.03.10 11:41:21 2: eventTypes: loaded 5228 events from ./log/eventTypes.txt
2019.03.10 11:41:21 3: Opening COC device /dev/ttyAMA0
2019.03.10 11:41:21 3: Setting COC serial parameters to 38400,8,N,1
2019.03.10 11:41:21 3: COC: Possible commands: mBbCFiAZGMYRTVWXefltuxz
2019.03.10 11:41:21 3: COC device opened
2019.03.10 11:41:21 2: Switched COC rfmode to HomeMatic
2019.03.10 11:41:23 1: HMCCU: [CCU2] Initialized version 4.3.014
2019.03.10 11:41:23 1: HMCCU: [CCU2] HMCCU: Initializing device
2019.03.10 11:41:27 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.10 11:41:27 1: HMCCU: [CCU2] HMCCU: Error while reading device list from CCU 192.168.1.32
2019.03.10 11:41:27 1: HMCCU: [CCU2] Scheduling delayed initialization in 180 seconds
2019.03.10 11:41:27 2: HMCCUDEV: [HM_OG_FKE1_BueroReinhard] Cannot detect IO device, maybe CCU not ready. Trying later ...
- für die nächsten 3 Minuten ist die CCU2 noch für sich, normal zu bedienen
- nach 3 Minuten starten nun die RPC-Server und das Chaos bricht los, im Log stehen folgende Meldungen, fast alle mit timeout
2019.03.10 11:41:32 1: define d_rpc001032BidCos_RF HMCCURPCPROC http://192.168.1.32 BidCos-RF: Invalid port or interface BidCos-RF
2019.03.10 11:41:32 1: define d_rpc001032HmIP_RF HMCCURPCPROC http://192.168.1.32 HmIP-RF: Invalid port or interface HmIP-RF
2019.03.10 11:41:32 1: define d_rpc001032VirtualDevices HMCCURPCPROC http://192.168.1.32 VirtualDevices: Invalid port or interface VirtualDevices
2019.03.10 11:41:32 1: Including ./log/fhem.save
2019.03.10 11:41:32 1: configfile: Invalid port or interface BidCos-RF
Please define d_rpc001032BidCos_RF 5c84d8d0-f33f-7df9-95d2-2b6256d07014e91b first
Invalid port or interface HmIP-RF
Please define d_rpc001032HmIP_RF 5c84d8d0-f33f-7df9-2445-d5db0c7475e66722 first
Invalid port or interface VirtualDevices
Please define d_rpc001032VirtualDevices 5c84d8d0-f33f-7df9-c9a6-b4fdaed3633cda2f first
./log/fhem.save: Please define d_rpc001032BidCos_RF first
Please define d_rpc001032BidCos_RF first
Please define d_rpc001032BidCos_RF first
2019.03.10 11:41:32 3: Device HM_4DC29E added to ActionDetector with 000:10 time
2019.03.10 11:41:34 0: HMCCU: Start of RPC server after FHEM initialization in 200 seconds
2019.03.10 11:41:34 3: Opening WAGO device 192.168.1.30:502
2019.03.10 11:41:34 3: WAGO device opened
2019.03.10 11:41:34 1: usb create starting
2019.03.10 11:41:34 3: Probing ZWDongle device /dev/serial1
2019.03.10 11:41:35 3: Probing CUL device /dev/ttyS0
2019.03.10 11:41:35 1: usb create end
2019.03.10 11:41:35 0: Featurelevel: 5.9
2019.03.10 11:41:35 0: Server started with 383 defined entities (fhem.pl:18623/2019-02-17 perl:5.024001 os:linux user:fhem pid:26785)
2019.03.10 11:41:36 1: Perfmon: possible freeze starting at 11:41:21, delay is 15.07
2019.03.10 11:41:36 3: telnetForBlockingFn_1552214496: port 46075 opened
2019.03.10 11:41:36 2: ModbusTCPServer_Parse: except (code 2)
2019.03.10 11:44:27 1: HMCCU: [CCU2] HMCCU: Initializing devices
2019.03.10 11:44:30 2: HMCCU: [CCU2] Initializing 65 client devices in state 'pending'
2019.03.10 11:44:30 1: PERL WARNING: Argument "Initialized" isn't numeric in multiplication (*) at (eval 1647) line 1.
2019.03.10 11:44:30 3: HMCCU: [CCU2] Can't initialize client device HM_EG_GR_Wohnzimmer
2019.03.10 11:44:30 3: HMCCU: [CCU2] Can't initialize client device HM_OG_GR_BueroReinhard
2019.03.10 11:44:30 3: HMCCU: [CCU2] Can't initialize client device HM_EG_GR_Dusche
2019.03.10 11:44:30 3: HMCCU: [CCU2] Can't initialize client device HM_OG_GR_Schlafzimmer
2019.03.10 11:44:30 3: HMCCU: [CCU2] Can't initialize client device HM_HO_Bm_Hof_oben
2019.03.10 11:44:30 3: HMCCU: [CCU2] Can't initialize client device HM_OG_GR_Bad
2019.03.10 11:44:30 1: PERL WARNING: Argument "Initialized" isn't numeric in multiplication (*) at (eval 1688) line 1.
2019.03.10 11:44:30 1: PERL WARNING: Argument "Initialized" isn't numeric in multiplication (*) at (eval 1694) line 1.
2019.03.10 11:44:30 3: HMCCU: [CCU2] Can't initialize client device HM_HA_SS_Haus_1
2019.03.10 11:44:30 1: PERL WARNING: Argument "Initialized" isn't numeric in multiplication (*) at (eval 1710) line 1.
2019.03.10 11:44:30 1: PERL WARNING: Argument "Initialized" isn't numeric in multiplication (*) at (eval 1721) line 1.
2019.03.10 11:44:32 1: HMCCU: [CCU2] HMCCU: Read 57 devices with 289 channels from CCU 192.168.1.32
2019.03.10 11:44:32 1: HMCCU: [CCU2] HMCCU: Read 3 interfaces from CCU 192.168.1.32
2019.03.10 11:44:32 1: HMCCU: [CCU2] HMCCU: Read 17 programs from CCU 192.168.1.32
2019.03.10 11:44:32 1: HMCCU: [CCU2] HMCCU: Read 0 virtual groups from CCU 192.168.1.32
2019.03.10 11:44:32 1: Perfmon: possible freeze starting at 11:44:28, delay is 4.272
2019.03.10 11:44:54 2: HMCCU: [CCU2] Get RPC device for interface BidCos-RF
2019.03.10 11:44:54 1: HMCCU: [CCU2] No RPC device defined for interface BidCos-RF
2019.03.10 11:44:54 1: HMCCU: [CCU2] Creating new RPC device d_rpc001032BidCos_RF
2019.03.10 11:44:54 1: HMCCURPCPROC: [d_rpc001032BidCos_RF] Initialized version 1.7.001 for interface BidCos-RF with I/O device CCU2
2019.03.10 11:44:54 1: HMCCU: [CCU2] Saving FHEM config
2019.03.10 11:44:54 2: HMCCURPCPROC: [d_rpc001032BidCos_RF] RPC server process started for interface BidCos-RF with PID=26894
2019.03.10 11:44:54 2: CCURPC: [d_rpc001032BidCos_RF] Initializing RPC server CB2001001033001032 for interface BidCos-RF
2019.03.10 11:44:54 1: HMCCURPCPROC: [d_rpc001032BidCos_RF] RPC server starting
2019.03.10 11:44:54 2: HMCCURPCPROC: [d_rpc001032BidCos_RF] Callback server CB2001001033001032 created. Listening on port 7411
2019.03.10 11:44:54 2: CCURPC: [d_rpc001032BidCos_RF] CB2001001033001032 accepting connections. PID=26894
2019.03.10 11:44:54 2: HMCCURPCPROC: [d_rpc001032BidCos_RF] RPC server CB2001001033001032 enters server loop
2019.03.10 11:44:54 2: HMCCURPCPROC: [d_rpc001032BidCos_RF] Registering callback http://192.168.1.33:7411/fh2001 of type A with ID CB2001001033001032 at http://192.168.1.32:2001
2019.03.10 11:44:55 1: HMCCURPCPROC: [d_rpc001032BidCos_RF] RPC server CB2001001033001032 running
2019.03.10 11:44:55 1: HMCCU: [CCU2] All RPC servers running
2019.03.10 11:44:55 2: CCURPC: [d_rpc001032BidCos_RF] CB2001001033001032 NewDevice received 79 device and channel specifications
2019.03.10 11:44:55 2: HMCCU: [CCU2] Updated devices. Success=6 Failed=0
2019.03.10 11:44:55 1: HMCCURPCPROC: [d_rpc001032BidCos_RF] Scheduled CCU ping every 300 seconds
2019.03.10 11:46:12 2: AttrTemplates: got 64 entries
2019.03.10 11:47:34 1: Perfmon: possible freeze starting at 11:47:33, delay is 1.048
2019.03.10 11:50:08 2: HMCCUDEV: [HM_Regensensor] Error during CCU request. read from http://192.168.1.32:8181 timed out
2019.03.10 11:50:38 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.10 11:50:38 1: HMCCU: [CCU2] HMCCU: CCU2 Execution of CCU script or command failed. ERROR: HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.10 11:50:38 3: at_CCU2_Systemvariablen: HMCCU: CCU2 Execution of CCU script or command failed. ERROR: HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.10 11:50:38 1: Perfmon: possible freeze starting at 11:50:31, delay is 7.721
2019.03.10 11:51:38 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.10 11:51:38 1: HMCCU: [CCU2] HMCCU: CCU2 Execution of CCU script or command failed. ERROR: HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.10 11:51:38 3: at_CCU2_Systemvariablen: HMCCU: CCU2 Execution of CCU script or command failed. ERROR: HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.10 11:51:38 1: Perfmon: possible freeze starting at 11:51:31, delay is 7.669
2019.03.10 11:52:38 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
- egal welche Fehlerebene ich in Fhem einstelle, außer timeout Fehler beim Zugriff auf tclrega.exe bekomme ich nichts zu sehen
- Die CCU2 hängt nun permanent, Fhem erholt sich wieder, natürlich ohne CCU2 Kommunikation
Versuch mal sofort nach den Fhem schutdown restart die RPC-Server zu stoppen, die CCU sollte dann weiterlaufen, jedoch ohne Kommunikation zu Fhem. Du kannst nun nach einer Zeit > 180 Sekunden die RPC-Server von Hand starten, dann sollte der gleiche Fehler auftreten.
Ich hab schon mal überlegt, mit OpenHub oder IO-Broker zu testen, aber alleine die Installation kostet mich Tage.
Mir ist nicht verständlich, weshalb immer zu 100% der erste Verbindungsversuch zur CCU2 mit timeout beantwortet wird. Sieht fast für mich wie ein Problem mit einer Firewall aus. Die Firewall auf der CCU2 habe ich auch schon in alle Richtungen verstellt, jedoch ohne Erfolg. Auch die Kennwortabfrage ist komplett ausgeschaltet.
Ich verwende für den Raspi den IP Adressbereich 192.168.1.33 und für die CCU2 192.168.1.32, habe gesten beide auf statische IP-Adressen umgestellt.
Ich dachte mir schon es könnte auch an der .1. in der IP-Adresse liegen, die meisten User werden unter 192.168.0.x unterwegs sein. Bekanntlich die letzten Strohhalme an die man sich klammert.
Bin nun echt gespannt wie es mit der CCU3 aussieht, aber deine Erfahrungen machen mir da echt keine große Hoffnung.
Gruß Reinhard
P.s. Im Beitrag https://forum.fhem.de/index.php/topic,98287.msg922354.html#msg922354 (https://forum.fhem.de/index.php/topic,98287.msg922354.html#msg922354) habe ich meine bisher getätigten Maßnahmen beschrieben, diesen halte ich auch aktuell.
Hallo Rewe2000,
das sieht alles sehr identisch zu meinem Verhalten aus.
Was bei mir gerade wieder funktioniert hat.
CCU3 neugestartet. Lief dann ca. 2 Stunden ohne RPC Server. Jetzt habe ich in fhem die RPC-Server wieder hochgefahren und alles macht das, was es soll.
Muss sich die CCU3 nach einem Neustart evtl. erstmal um sich selbst kümmern und alle Daten der Geräte abfragen, bevor sie wieder bereit ist mit fhem zu reden?
Habe jetzt auch einen Syslog Server nebenbei laufen, der gibt mehr Infos aus, als das Log der CCU.
Geht die CCU evtl in den DutyCycle, wenn diese neu gestartet ist und gleichzeitig fhem neu connected wird?
Was mir noch einfällt, im ServiceMenü steht "HmIP-RF not running". Das steht da bei mir schon von anfang an. Auch wenn alles einwandfrei funktioniert.
Das stand schon bei der alten CCU3, jetzt bei der Neuen wieder.
Hattest du schon mal versucht die CCU 1-2 Stunden ohne RPC Server laufen zu lassen und dann die RPC Server wieder zu starten?
Nachtrag:
Sehe gerade im fhem Log, dass ich nach dem Start der RPC-Server auch wieder timeouts hatte. Aber aktuell läuft trotzdem alles.
Viele Grüße,
Ban
Hallo Ban,
alle deine Fragen kann ich mit ja beantworten, alles das habe ich auch schon versucht, ich dachte auch CCU2 mal über Nacht in Ruhe gelassen und dann den Raspi neu gestartet, half aber genau so wenig.
Ich hab schon mal nach dem Neustart der CCU2 alle HmIP Geräte betätigt, dass der Zustand der CCU2 bekannt ist und dann die RPC-Server gestartet in der Hoffnung alle "Zustände" der Geräte würden nun bekannt sein, gleicher Erfolg, nämlich keiner.
Auch die Idee mit dem Duty Cycle ist mir gekommen, habe im Februar diesen von allen Geräten und von der CCU2 mitgeschrieben, ich konnte niemals einen höheren als 70% sehen, nach einer Wartezeit von einigen Minuten war dieser irgendwann wieder auf unter 10%.
Irgendwie haben wir die gleichen Ideen, welche aber leider alle ins leere führen.
Kennst du dich mit einem Sniffer aus?
Würde es etwas bringen den Netzwerkverkehr bei der Entstehung des Problems zu analysieren?
Ich habe immer noch den Verdacht irgend eine Abfrage wird da bewusst abgewiesen (Firewall etc.)
Einen Sniffer habe ich mir vor einigen Monaten mal installiert, ich bin aber leider nicht in der Lage die Protokolle zu verstehen, mir fehlt hier einfach das Wissen.
Gruß Reinhard
P.s. Der Postbote müsste nun jeden Moment klingeln und mir meine neue CCU3 bringen. Leider hab ich aber heute nur wenig Zeit, da ich nicht nur Homematic und Fhem sondern auch noch eine Familie habe. CCU3 ist eben gekommen, ich sichere erstmal das Image der Speicherkarte im Fabrikneuen zustand.
Ok, wir haben wirklich die selben "Probleme", ich muss jetzt auch erstmal auf den Spielplatz:-)
Hab zwar vor Ewigkeiten mal WireShark verwendet, aber einen wirklichen Plan habe ich da nicht von.
Habe irgendwo noch einen kleinen managed Switch, den muss ich vorher suchen, sonst komme ich an den Netzwerktraffic zwischen fhem und der CCU nicht ran.
Ich werde es mal versuchen, im Moment traue ich mich aber nicht irgendetwas neu zu starten, sonst sind gleich wieder Stunden weg...
Meine Gedanken gehen aber auch dahin weiter zu analysieren, was da am Anfang abläuft.
Noch eine Frage fällt mir ein. Hattest du schon mal versucht zum Test ein neues fhem nur mit HMCCU zu betreiben?
Irgendetwas muss an eurer Config anders sein als bei mir.
Habe Eure Beiträge mal überflogen. Hier einige Punkte, die mir aufgefallen sind:
- Wenn während dem Define vom IO Device die Abfrage der CCU fehl schlägt, macht es keinen Sinn, die RPC Server zu starten, da FHEM dann die Schnittstellen der CCU nicht kennt. Das führt zu massig Fehlermeldungen.
- FHEM und CCU müssen!!! feste IPs haben. Sonst funktioniert nichts mehr, wenn eines von beiden neu gestartet wird und dabei eine andere IP bekommt.
- wenn in der CCU eine Komponente wie HmIP nicht mehr funktioniert, liegt der Fehler bei der CCU und muss gefunden werden. Ggf. stehen Fehlermeldungen im Log der CCU. Bei solchen Ausfällen gibt es definitv dann auch Probleme auf der FHEM Seite.
- Ein Neustart von FHeM bei laufenden RPC Servern ist immer kritisch. hMCCU unterstützt zwar den delayed Shutdown von FHEM, es kann aber trotzdem sein, dass ein RPC Server beim Neustart noch läuft. Dann sind die Ports belegt und es gibt Probleme.
- Ich halte die RPC Server vor einem Neustart von FHEM oder der CCU an und starte sie später wieder. Ist zwar etwas Aufwand, aber ich starte sowieso nur bei Updates neu, also so alle 1-2 Monate mal.
Ich nehme mal an, dass eure Configs mittlerweile so verbogen sind, dass weitere Versuche durch Folgefehler vorgehender Tests ebenfalls fehlschlagen.
Ich würde mal die fhem.cfg sichern und dann mit einem nackten IO Device neu anfangen. Dann erst mal einen RPC definieren, den starten und schauen wie es läuft.
Hallo Ban,
nein das wäre auch noch eine Idee, die CCU und ein nacktes Fhem mit HMCCU.
@zap: Die Idee hatte Ban eben auch, ich denke das werden wir mal machen.
Ich habe in der Vergangenheit so viel ausprobiert, dass ich nahezu den Überblick verloren habe. Ich werde auch noch mal ein altes Image vom Raspi vom Oktober 2018 testen, ob da der Fehler auch auftaucht.
Ich teste nun erstmal meine CCU3, aber die Hoffnung ist nicht sehr groß.
Gruß Reinhard
Hallo zap,
Zitat- Wenn während dem Define vom IO Device die Abfrage der CCU fehl schlägt, macht es keinen Sinn, die RPC Server zu starten, da FHEM dann die Schnittstellen der CCU nicht kennt. Das führt zu massig Fehlermeldungen.
Bei mir schlägt die erste Abfrage der CCU2 grundsätzlich fehl, danach startet aber HMCCU nach 180 Sekunden die RPC-Server automatisch neu. In der Vergangenheit hat dies auch noch funktioniert.
Oder verstehe ich da etwas falsch?
Zitat- FHEM und CCU müssen!!! feste IPs haben. Sonst funktioniert nichts mehr, wenn eines von beiden neu gestartet wird und dabei eine andere IP bekommt.
Ich denke wenn ich im Router einstelle, dass immer die gleiche IP verwendet werden soll, sollte das passen. Meine Geräte CCU und Raspi haben immer die gleiche IP. Ich habe allerdings nur zu Testzwecken (Switch-Betrieb) feste IP Adressen eingestellt, da bestand aber das gleiche Problem.
Ich werde zukünftig die RPC-Server auch von Hand anhalten, bevor ich ein shutdown restart mache. Das bedeutet aber, bei dir werden diese dann über attr nicht automatisch gestartet.
Gruß Reinhard
@zap: Danke für deine Tipps.
- Feste IPs hat bei mir fhem und die CCU.
- Ich schließe nicht aus, dass der Fehler in der CCU liegt. Aber irgendwas von HMCCU triggert in der CCU etwas, dass diese ausflippt:-)
- Das mit dem Anhalten der RPC Server beim Neustart ist interessant, habe ich tatsächlich noch nicht darauf geachtet. Werde ich ab jetzt tun!
Kann es sein, dass noch etwas vom externen RPC-Server übrig geblieben ist?
Ich hatte vor HMCCU 4.2 diese Config.
Ich werde auch versuchen ein nacktes fhem nur mit HMCCU aufzusetzen.
Aktuell läuft bei mir wieder alles einwandfrei...
Hallo,
so wie ich vermutet hatte, auch mit der CCU3 ähnliche Fehler.
Die CCU3 hängt jedoch nicht komplett auf, ich kann noch alle Geräte bedienen.
Auch die RPC-Server laufen jetzt und sprechen wieder mit der CCU3, so wie mir es vorkommt ist die CCU3 deutlich schneller und erholt sich wieder vom "Abfragestress" die CCU2 geht da unweigerlich ins Nirwana.
Ich werde nun nächste Woche versuchen HMCCU auf ein "nacktes" Fhem aufzusetzen.
@zap: Die Frage, welche ich mir nur stelle ist folgende, wie soll ich meine übrige Programmierung wieder übernehmen, ohne wieder den "Datenmüll" ins neue System zu bekommen?
Wäre hier der Weg über RAWDefinition der richtige?
Ich müsste hier dann alle Module neuinstallieren, die Dummys, notifys und Doifs wieder mit RAW zurücklesen.
Der Aufwand wäre zeitlich abschätzbar.
Direkt die Fhem.cfg zu editieren ist wahrscheinlich nicht zu empfehlen 8).
Gruß Reinhard
Hallo zusammen,
habe heute einen Raspberry neu aufgesetzt.
Raspbian Jessie neu und fhem neu.
Leider gleiches Fehlerbild.
Folgendes habe ich gemacht
-CCU3 läuft
-fhem und Raspian komplett neu
-HMCCU neu aufgesetzt
-PRC Server konfiguriert und gestartet
-alle devices per create anlegen lassen (46 Stück) > alles funktioniert, kann die Devices über fhem bedienen und bekomme Rückmeldung.
- rpc server stop
- fhem neustart > funktioniert weiterhin
- fhem RPC Server stop
- CCU3 Neustart
- fhem sutdown restart > wieder derselbe Fehler, lauter timeouts und die CCU 3 reagiert nicht mehr.
2019.03.24 10:46:14 0: Server started with 55 defined entities (fhem.pl:19006/2019-03-23 perl:5.024001 os:linux user:fhem pid:741)
2019.03.24 10:46:19 2: HMCCU: [d_ccu] Get RPC device for interface BidCos-RF
2019.03.24 10:46:19 2: HMCCU: [d_ccu] Get RPC device for interface HmIP-RF
2019.03.24 10:46:19 2: HMCCURPCPROC: [d_rpc010014BidCos_RF] RPC server process started for interface BidCos-RF with PID=745
2019.03.24 10:46:19 2: CCURPC: [d_rpc010014BidCos_RF] Initializing RPC server CB2001010101010014 for interface BidCos-RF
2019.03.24 10:46:19 1: HMCCURPCPROC: [d_rpc010014BidCos_RF] RPC server starting
2019.03.24 10:46:19 2: HMCCURPCPROC: [d_rpc010014HmIP_RF] RPC server process started for interface HmIP-RF with PID=746
2019.03.24 10:46:19 2: CCURPC: [d_rpc010014HmIP_RF] Initializing RPC server CB2010010101010014 for interface HmIP-RF
2019.03.24 10:46:19 1: HMCCURPCPROC: [d_rpc010014HmIP_RF] RPC server starting
2019.03.24 10:46:19 2: HMCCURPCPROC: [d_rpc010014BidCos_RF] Callback server CB2001010101010014 created. Listening on port 7411
2019.03.24 10:46:19 2: CCURPC: [d_rpc010014BidCos_RF] CB2001010101010014 accepting connections. PID=745
2019.03.24 10:46:19 2: HMCCURPCPROC: [d_rpc010014BidCos_RF] RPC server CB2001010101010014 enters server loop
2019.03.24 10:46:19 2: HMCCURPCPROC: [d_rpc010014BidCos_RF] Registering callback http://192.168.10.101:7411/fh2001 of type A with ID CB2001010101010014 at http://192.168.10.14:2001
2019.03.24 10:46:19 2: HMCCURPCPROC: [d_rpc010014HmIP_RF] Callback server CB2010010101010014 created. Listening on port 7420
2019.03.24 10:46:19 2: CCURPC: [d_rpc010014HmIP_RF] CB2010010101010014 accepting connections. PID=746
2019.03.24 10:46:20 1: HMCCURPCPROC: [d_rpc010014BidCos_RF] RPC server CB2001010101010014 running
2019.03.24 10:46:20 1: HMCCURPCPROC: [d_rpc010014BidCos_RF] Scheduled CCU ping every 300 seconds
2019.03.24 10:46:20 2: HMCCURPCPROC: [d_rpc010014HmIP_RF] RPC server CB2010010101010014 enters server loop
2019.03.24 10:46:20 2: HMCCURPCPROC: [d_rpc010014HmIP_RF] Registering callback http://192.168.10.101:7420/fh2010 of type A with ID CB2010010101010014 at http://192.168.10.14:2010
2019.03.24 10:46:20 1: HMCCURPCPROC: [d_rpc010014HmIP_RF] RPC server CB2010010101010014 running
2019.03.24 10:46:20 1: HMCCU: [d_ccu] All RPC servers running
2019.03.24 10:46:20 2: CCURPC: [d_rpc010014BidCos_RF] CB2001010101010014 NewDevice received 78 device and channel specifications
2019.03.24 10:46:21 2: CCURPC: [d_rpc010014HmIP_RF] CB2010010101010014 NewDevice received 374 device and channel specifications
2019.03.24 10:46:27 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 10:46:27 2: HMCCU: Update of device 001898A99264C9 failed
2019.03.24 10:46:39 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 10:46:39 2: HMCCU: Update of device 000B5709AF3D47 failed
2019.03.24 10:46:43 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 10:46:43 2: HMCCU: Update of device 000218A991A4EC failed
2019.03.24 10:46:47 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 10:46:47 2: HMCCU: Update of device 0019D8A9962970 failed
2019.03.24 10:46:51 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 10:46:51 2: HMCCU: Update of device 000193C99D5D18 failed
2019.03.24 10:46:55 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 10:46:55 2: HMCCU: Update of device 000E18A994CB93 failed
2019.03.24 10:46:59 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 10:46:59 2: HMCCU: Update of device 001898A9926499 failed
2019.03.24 10:47:03 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 10:47:03 2: HMCCU: Update of device 000858A994D4B3 failed
2019.03.24 10:47:07 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 10:47:07 2: HMCCU: Update of device 0001D3C99C3F89 failed
2019.03.24 10:47:11 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 10:47:11 2: HMCCU: Update of device 000858A994DE62 failed
2019.03.24 10:47:15 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 10:47:15 2: HMCCU: Update of device 000858A9ABE04A failed
2019.03.24 10:47:19 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 10:47:19 2: HMCCU: Update of device 001898A9926292 failed
2019.03.24 10:47:23 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 10:47:23 2: HMCCU: Update of device 000858A9ABE1A5 failed
2019.03.24 10:47:27 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 10:47:27 2: HMCCU: Update of device 000858A994D4C1 failed
2019.03.24 10:47:31 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 10:47:31 2: HMCCU: Update of device 001898A992656B failed
2019.03.24 10:47:35 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 10:47:35 2: HMCCU: Update of device 000858A9ABDE45 failed
2019.03.24 10:47:39 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 10:47:39 2: HMCCU: Update of device 001A58A9A23BA9 failed
2019.03.24 10:47:43 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 10:47:43 2: HMCCU: Update of device 000858A9ABDE38 failed
2019.03.24 10:47:47 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 10:47:47 2: HMCCU: Update of device 0001D3C99C3F79 failed
2019.03.24 10:47:51 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 10:47:51 2: HMCCU: Update of device 000858A994D914 failed
2019.03.24 10:47:55 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 10:47:55 2: HMCCU: Update of device 000B18A9AA8A76 failed
2019.03.24 10:47:59 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 10:47:59 2: HMCCU: Update of device 0001D3C99C3C50 failed
2019.03.24 10:48:03 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 10:48:03 2: HMCCU: Update of device 001898A992613B failed
2019.03.24 10:48:07 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 10:48:07 2: HMCCU: Update of device OEQ1263218 failed
2019.03.24 10:48:11 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 10:48:11 2: HMCCU: Update of device 000B1709B13F14 failed
2019.03.24 10:48:15 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 10:48:15 2: HMCCU: Update of device OEQ1427757 failed
2019.03.24 10:48:19 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 10:48:19 2: HMCCU: Update of device 000193C99D32C1 failed
2019.03.24 10:48:23 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 10:48:23 2: HMCCU: Update of device 001898A9926166 failed
2019.03.24 10:48:27 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 10:48:27 2: HMCCU: Update of device 0001D3C99C3F0D failed
2019.03.24 10:48:31 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 10:48:31 2: HMCCU: Update of device 001898A992633A failed
2019.03.24 10:48:35 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 10:48:35 2: HMCCU: Update of device 001898A992639F failed
2019.03.24 10:48:39 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 10:48:39 2: HMCCU: Update of device 000858A9AB623F failed
2019.03.24 10:48:43 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 10:48:43 2: HMCCU: Update of device 00021A498A4727 failed
2019.03.24 10:48:47 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 10:48:47 2: HMCCU: Update of device MEQ0271578 failed
2019.03.24 10:48:47 2: HMCCU: [d_ccu] Updated devices. Success=12 Failed=34
Viele Grüße,
Ban
Wie lange hast Du nach dem CCU Neustart gewartet, bis du FHEM neu gestartet hast?
Gibt es zu der Zeit mit den IO Fehlern auch Fehlermeldungen im Log der CCU?
Als die Oberfläche der CCU3 wieder da war, habe ich einmal getestet, ob ein internes Programm der CCU funktioniert und danach fhem neu gestartet.
Es hagelt Fehlermeldungen. Ich liefere gleich ein Logfile. Will jetzt erstmal alles in Ruhe haben und dann genau schauen, ab wann die ersten Anfragen von fhem kommen.
Den SyslogServer habe ich noch parallel laufen.
Hallo,
das würde auch zu meiner Beobachtung passen, ich habe ein Image (mit altem Fhem und Linux) vom Dezember 2018 in meinen Raspi gesteckt und dann neu gebootet. Auch damit gab es die gleichen Fehler, das ganze hat fast 5 Minuten gedauert bis Fhem überhaupt ansprechbar war.
Ich könnte noch den Versuch beisteuern die CCU2 mit alter Firmware und den Raspi mit altem Image (beides Dezember 2018) zur gleichen Zeit zu betreiben. Muss mich aber beeilen, da ich meine beiden CCU2 in eBay eingestellt habe.
Im Dezember habe ich das Programm in Fhem erstellt, welches einen Ausfall der CCU2 erkennt und dann Fhem nach 10 Minuten automatisch neu startet. Deshalb weiß ich, dass der Start damals problemlos funktioniert hat.
Lacht mich bitte nicht aus, eine Theorie habe ich noch nicht verfolgt, könnten das auch Auswirkungen von HMIP Geräten sein, welche mit neuer Firmware versorgt wurden? Alles andere hab ich ja schon fast getauscht.
@Ban: hast du überall aktuelle Firmware auf den HmIP Geräten? Bringt das mit dem Syslog Server etwas, siehst du da deutlich mehr als im Fehlerlog?
Gruß Reinhard
ich habe jetzt folgendes gemacht:
- CCU3 Poweroff
- Raspberry mit fhem Poweroff
11:26 - CCU3 Start
11:29 - Test der internen Programme der CCU3 > funktioniert
11:30 - keine Änderungen mehr im Log
11:31 - Start Raspbian mit fhem
Ab dem ersten Logeintrag um 11:31:48 hängt die CCU3
11:34 - fhem ist erreichbar
Die RPC Server sind nicht mehr da, Meldung aus fhem:
Please define d_rpc010014HmIP_RF first
11:37 - CCU3 Oberfläche ist nicht weiter erreichbar
beende den Test und ziehe das Log ab.
11:41 - Ende der Fehlermeldungen im Syslog
11:51 - CCU3 Oberfläche wieder erreichbar
12:01 - interne Programme der CCU3 gehen nicht, bedienen der Geräte geht nur sehr Zeitverzögert über CCU, keine Statusrückmeldung in der CCU Oberfläche
Die Logs sind ab CCU3 Start. Loglevel ist auf Warning und Fehler gestellt. Sonst war es sehr viel. Falls dir die Infos weiterhelfen würden, kann ich den gleichen Test jederzeit wiedeholen.
Interessant ist, dass er wohl nach dem Neustart noch auf einen RPC Server lauschen will. Hat der da noch was im Cache?
Das Syslog geht nur bis 11:32. Wurde von der Forensoftware abgeschnitten.
fhem Log
2019.03.24 11:31:48 2: HMCCU: [d_ccu] Get RPC device for interface HmIP-RF
2019.03.24 11:31:48 1: HMCCU: [d_ccu] No RPC device defined for interface HmIP-RF
2019.03.24 11:31:48 1: HMCCU: [d_ccu] Creating new RPC device d_rpc010014HmIP_RF
2019.03.24 11:31:48 1: HMCCURPCPROC: [d_rpc010014HmIP_RF] Initialized version 1.7.001 for interface HmIP-RF with I/O device d_ccu
2019.03.24 11:31:48 1: HMCCU: [d_ccu] Saving FHEM config
2019.03.24 11:31:48 2: HMCCURPCPROC: [d_rpc010014HmIP_RF] RPC server process started for interface HmIP-RF with PID=630
2019.03.24 11:31:48 2: CCURPC: [d_rpc010014HmIP_RF] Initializing RPC server CB2010010101010014 for interface HmIP-RF
2019.03.24 11:31:48 1: HMCCURPCPROC: [d_rpc010014HmIP_RF] RPC server starting
2019.03.24 11:31:48 2: HMCCURPCPROC: [d_rpc010014HmIP_RF] Callback server CB2010010101010014 created. Listening on port 7420
2019.03.24 11:31:48 2: CCURPC: [d_rpc010014HmIP_RF] CB2010010101010014 accepting connections. PID=630
2019.03.24 11:31:48 2: HMCCURPCPROC: [d_rpc010014HmIP_RF] RPC server CB2010010101010014 enters server loop
2019.03.24 11:31:48 2: HMCCURPCPROC: [d_rpc010014HmIP_RF] Registering callback http://192.168.10.101:7420/fh2010 of type A with ID CB2010010101010014 at http://192.168.10.14:2010
2019.03.24 11:31:48 1: HMCCURPCPROC: [d_rpc010014HmIP_RF] RPC server CB2010010101010014 running
2019.03.24 11:31:48 1: HMCCU: [d_ccu] All RPC servers running
2019.03.24 11:31:50 2: CCURPC: [d_rpc010014HmIP_RF] CB2010010101010014 NewDevice received 374 device and channel specifications
2019.03.24 11:31:54 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 11:31:54 2: HMCCU: Update of device 000B1709B13F14 failed
2019.03.24 11:31:58 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 11:31:58 2: HMCCU: Update of device 0001D3C99C3F89 failed
2019.03.24 11:32:02 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 11:32:02 2: HMCCU: Update of device 001898A9926499 failed
2019.03.24 11:32:06 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 11:32:06 2: HMCCU: Update of device 000B18A9AA8A76 failed
2019.03.24 11:32:10 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 11:32:10 2: HMCCU: Update of device 001898A992639F failed
2019.03.24 11:32:14 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 11:32:14 2: HMCCU: Update of device 00021A498A4727 failed
2019.03.24 11:32:21 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 11:32:21 2: HMCCU: Update of device 0019D8A9962970 failed
2019.03.24 11:32:25 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 11:32:25 2: HMCCU: Update of device 001898A992613B failed
2019.03.24 11:32:29 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 11:32:29 2: HMCCU: Update of device 000858A994D4C1 failed
2019.03.24 11:32:33 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 11:32:33 2: HMCCU: Update of device 001898A9926166 failed
2019.03.24 11:32:37 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 11:32:37 2: HMCCU: Update of device 000858A9ABDE45 failed
2019.03.24 11:32:41 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 11:32:41 2: HMCCU: Update of device 000B5709AF3D47 failed
2019.03.24 11:32:45 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 11:32:45 2: HMCCU: Update of device 00089A498AA66D failed
2019.03.24 11:32:49 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 11:32:49 2: HMCCU: Update of device 000193C99D5D18 failed
2019.03.24 11:32:53 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 11:32:53 2: HMCCU: Update of device 000858A994D914 failed
2019.03.24 11:32:57 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 11:32:57 2: HMCCU: Update of device 000858A994DE62 failed
2019.03.24 11:33:01 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 11:33:01 2: HMCCU: Update of device 001898A992633A failed
2019.03.24 11:33:05 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 11:33:05 2: HMCCU: Update of device 000858A9ABE04A failed
2019.03.24 11:33:09 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 11:33:09 2: HMCCU: Update of device 0001D3C99C3F79 failed
2019.03.24 11:33:13 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 11:33:13 2: HMCCU: Update of device 0001D3C99C3F0D failed
2019.03.24 11:33:17 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 11:33:17 2: HMCCU: Update of device 000858A994D4B3 failed
2019.03.24 11:33:21 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 11:33:21 2: HMCCU: Update of device 001A58A9A23D31 failed
2019.03.24 11:33:25 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 11:33:25 2: HMCCU: Update of device 000858A9AB623F failed
2019.03.24 11:33:29 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 11:33:29 2: HMCCU: Update of device 001898A992656B failed
2019.03.24 11:33:33 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 11:33:33 2: HMCCU: Update of device 0019D8A9961C73 failed
2019.03.24 11:33:37 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 11:33:37 2: HMCCU: Update of device 000E18A994CB93 failed
2019.03.24 11:33:41 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 11:33:41 2: HMCCU: Update of device 000858A9A99BF6 failed
2019.03.24 11:33:45 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 11:33:45 2: HMCCU: Update of device 001898A99264C9 failed
2019.03.24 11:33:49 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 11:33:49 2: HMCCU: Update of device 000218A98A842D failed
2019.03.24 11:33:53 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 11:33:53 2: HMCCU: Update of device 0001D3C99C3109 failed
2019.03.24 11:33:57 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 11:33:57 2: HMCCU: Update of device 000218A98A5C06 failed
2019.03.24 11:34:01 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 11:34:01 2: HMCCU: Update of device 001898A9926292 failed
2019.03.24 11:34:05 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 11:34:05 2: HMCCU: Update of device 000858A9ABE1A5 failed
2019.03.24 11:34:09 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 11:34:09 2: HMCCU: Update of device 000858A9ABDE38 failed
2019.03.24 11:34:13 2: HMCCU: [d_ccu] HMScript failed. http://192.168.10.14:8181/tclrega.exe: Select timeout/error:
2019.03.24 11:34:13 2: HMCCU: Update of device 000218A991A4EC failed
2019.03.24 11:34:13 2: HMCCU: [d_ccu] Updated devices. Success=4 Failed=35
Syslog
Mar 24 11:26:13 192.168.10.14 user info kernel [ 24.834733] smsc95xx 1-1.1:1.0 eth0: link up, 100Mbps, full-duplex, lpa 0xC1E1
Mar 24 11:26:14 192.168.10.14 user info kernel [ 25.656839] NET: Registered protocol family 10
Mar 24 11:26:14 192.168.10.14 user info kernel [ 25.658878] Segment Routing with IPv6
Mar 24 11:26:14 192.168.10.14 user info kernel [ 25.807156] ip6_tables: (C) 2000-2006 Netfilter Core Team
Mar 24 11:26:15 192.168.10.14 user info firewall iptables v1.6.2: invalid port/service `310000' specified Try `iptables -h' or 'iptables --help' for more information.
Mar 24 11:26:15 192.168.10.14 user info firewall ip6tables v1.6.2: invalid port/service `310000' specified Try `ip6tables -h' or 'ip6tables --help' for more information.
Mar 24 11:26:15 192.168.10.14 user info firewall configuration set
Mar 24 11:26:15 192.168.10.14 user notice rfkill block set for type wlan
Mar 24 11:26:15 192.168.10.14 daemon info ifplugd(eth0)[470] ifplugd 0.28 initializing.
Mar 24 11:26:15 192.168.10.14 daemon info ifplugd(eth0)[470] Using interface eth0/B8:XXXvonBanGelöschtXXX with driver <smsc95xx> (version: 22-Aug-2005)
Mar 24 11:26:15 192.168.10.14 daemon info ifplugd(eth0)[470] Using detection mode: SIOCETHTOOL
Mar 24 11:26:15 192.168.10.14 daemon info ifplugd(eth0)[470] Initialization complete, link beat detected.
Mar 24 11:26:15 192.168.10.14 daemon info ifplugd(wlan0)[474] ifplugd 0.28 initializing, using NETLINK device monitoring.
Mar 24 11:26:15 192.168.10.14 daemon info ifplugd(wlan0)[474] Using interface wlan0/XXXvonBanGelöschtXXX with driver <brcmfmac> (version: 7.45.98.38)
Mar 24 11:26:15 192.168.10.14 daemon info ifplugd(wlan0)[474] Using detection mode: wireless extension
Mar 24 11:26:15 192.168.10.14 daemon info ifplugd(wlan0)[474] Initialization complete, link beat not detected, interface enabled.
Mar 24 11:26:15 192.168.10.14 daemon info ifplugd(eth0)[470] Executing '/etc/ifplugd/ifplugd.action eth0 up'.
Mar 24 11:26:15 192.168.10.14 daemon warning ifplugd(eth0)[470] client: ifup: interface eth0 already configured
Mar 24 11:26:15 192.168.10.14 daemon info ifplugd(eth0)[470] Program executed successfully.
Mar 24 11:26:22 192.168.10.14 daemon notice ntpdate[482] step time server 81.14.202.21 offset 0.757329 sec
Mar 24 11:26:22 192.168.10.14 daemon notice ntpd[484] ntpd 4.2.8p12@1.3728-o Fri Mar 15 16:04:16 UTC 2019 (1): Starting
Mar 24 11:26:22 192.168.10.14 daemon info ntpd[484] Command line: /usr/sbin/ntpd -g ntp.homematic.com
Mar 24 11:26:22 192.168.10.14 daemon info ntpd[486] proto: precision = 1.041 usec (-20)
Mar 24 11:26:22 192.168.10.14 daemon info ntpd[486] Listen and drop on 0 v6wildcard [::]:123
Mar 24 11:26:22 192.168.10.14 daemon info ntpd[486] Listen and drop on 1 v4wildcard 0.0.0.0:123
Mar 24 11:26:22 192.168.10.14 daemon info ntpd[486] Listen normally on 2 lo 127.0.0.1:123
Mar 24 11:26:22 192.168.10.14 daemon info ntpd[486] Listen normally on 3 eth0 192.168.10.14:123
Mar 24 11:26:22 192.168.10.14 daemon info ntpd[486] Listen normally on 4 lo [::1]:123
Mar 24 11:26:22 192.168.10.14 daemon info ntpd[486] Listen normally on 5 eth0 [XXXvonBanGelöschtXXX]:123
Mar 24 11:26:22 192.168.10.14 daemon info ntpd[486] Listen normally on 6 eth0 [XXXvonBanGelöschtXXX]:123
Mar 24 11:26:22 192.168.10.14 daemon info ntpd[486] Listening on routing socket on fd #23 for interface updates
Mar 24 11:26:22 192.168.10.14 daemon info ntpd[486] kernel reports TIME_ERROR: 0x41: Clock Unsynchronized
Mar 24 11:26:22 192.168.10.14 daemon info ntpd[486] kernel reports TIME_ERROR: 0x41: Clock Unsynchronized
Mar 24 11:26:22 192.168.10.14 daemon err xinetd[506] Unable to read included directory: /etc/config/xinetd.d [file=/etc/xinetd.conf] [line=14]
Mar 24 11:26:22 192.168.10.14 daemon crit xinetd[506] 506 {init_services} no services. Exiting...
Mar 24 11:26:22 192.168.10.14 auth info sshd[530] Server listening on 0.0.0.0 port 22.
Mar 24 11:26:22 192.168.10.14 auth info sshd[530] Server listening on :: port 22.
Mar 24 11:26:22 192.168.10.14 user info root Updating RF Lan Gateway Coprocessor Firmware
Mar 24 11:26:22 192.168.10.14 user debug update-coprocessor firmware filename is: coprocessor_update_hm_only.eq3
Mar 24 11:26:22 192.168.10.14 user info root Updating RF Lan Gateway Firmware
Mar 24 11:26:22 192.168.10.14 user info update-lgw-firmware No gateway found in config file /etc/config/rfd.conf
Mar 24 11:26:23 192.168.10.14 user info kernel [ 33.254874] eq3loop: created slave mmd_hmip
Mar 24 11:26:23 192.168.10.14 user info kernel [ 33.255093] eq3loop: created slave mmd_bidcos
Mar 24 11:26:25 192.168.10.14 user info kernel [ 35.395355] eq3loop: eq3loop_open_slave() mmd_bidcos
Mar 24 11:26:39 192.168.10.14 user info kernel [ 49.956258] eq3loop: eq3loop_open_slave() mmd_hmip
Mar 24 11:26:39 192.168.10.14 user info kernel [ 49.956488] eq3loop: eq3loop_close_slave() mmd_hmip
Mar 24 11:26:39 192.168.10.14 user info kernel [ 49.959489] eq3loop: eq3loop_open_slave() mmd_hmip
Mar 24 11:26:39 192.168.10.14 user info kernel [ 49.959687] eq3loop: eq3loop_close_slave() mmd_hmip
Mar 24 11:26:39 192.168.10.14 user info kernel [ 49.969417] eq3loop: eq3loop_open_slave() mmd_hmip
Mar 24 11:27:12 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"001A58A9A23D31:4","STATE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: STATE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:12 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"001A58A9A23D31:4","STATE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:12 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:12 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000E18A994CB93:2","LEVEL"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: LEVEL"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:12 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000E18A994CB93:2","LEVEL"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:12 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0.000000 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:13 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"001A58A9A23BA9:4","STATE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: STATE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:13 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"001A58A9A23BA9:4","STATE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:13 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:13 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"00089A498AA66D:2","STATE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: STATE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:13 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"00089A498AA66D:2","STATE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:13 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:13 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"001A58A9A23D31:5","STATE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: STATE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:13 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"001A58A9A23D31:5","STATE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:13 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:13 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A994DE62:4","STATE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: STATE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:13 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A994DE62:4","STATE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:13 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:13 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A994D4B3:4","STATE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: STATE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:13 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A994D4B3:4","STATE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:13 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:13 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A994D914:4","STATE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: STATE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:13 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A994D914:4","STATE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:13 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:13 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9ABDE45:4","STATE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: STATE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:13 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9ABDE45:4","STATE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:13 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:13 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9ABDE38:7","ENERGY_COUNTER"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ENERGY_COUNTER"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:13 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9ABDE38:7","ENERGY_COUNTER"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:13 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0.000000 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:13 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"00089A498AA66D:5","ENERGY_COUNTER"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ENERGY_COUNTER"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:13 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"00089A498AA66D:5","ENERGY_COUNTER"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:13 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0.000000 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:14 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"0001D3C99C3F89:6","ENERGY_COUNTER"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ENERGY_COUNTER"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:14 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"0001D3C99C3F89:6","ENERGY_COUNTER"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:14 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0.000000 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:14 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"0001D3C99C3109:6","ENERGY_COUNTER"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ENERGY_COUNTER"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:14 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"0001D3C99C3109:6","ENERGY_COUNTER"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:14 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0.000000 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:14 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"0001D3C99C3C50:6","ENERGY_COUNTER"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ENERGY_COUNTER"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:14 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"0001D3C99C3C50:6","ENERGY_COUNTER"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:14 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0.000000 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:14 192.168.10.14 user warning Bad cast: std::bad_cast
Mar 24 11:27:14 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A994D4C1:7","ENERGY_COUNTER"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ENERGY_COUNTER"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:14 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A994D4C1:7","ENERGY_COUNTER"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:14 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0.000000 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:14 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A994D914:7","ENERGY_COUNTER"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ENERGY_COUNTER"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:14 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A994D914:7","ENERGY_COUNTER"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:14 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0.000000 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:14 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A994DE62:7","ENERGY_COUNTER"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ENERGY_COUNTER"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:14 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A994DE62:7","ENERGY_COUNTER"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:14 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0.000000 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:14 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A994D4B3:7","ENERGY_COUNTER"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ENERGY_COUNTER"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:14 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A994D4B3:7","ENERGY_COUNTER"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:14 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0.000000 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:14 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9AB623F:7","ENERGY_COUNTER"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ENERGY_COUNTER"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:14 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9AB623F:7","ENERGY_COUNTER"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:14 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0.000000 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:14 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9A99BF6:7","ENERGY_COUNTER"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ENERGY_COUNTER"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:14 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9A99BF6:7","ENERGY_COUNTER"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:14 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0.000000 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:14 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9ABDE45:7","ENERGY_COUNTER"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ENERGY_COUNTER"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:14 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9ABDE45:7","ENERGY_COUNTER"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:14 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0.000000 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:14 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9ABE1A5:7","ENERGY_COUNTER"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ENERGY_COUNTER"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:14 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9ABE1A5:7","ENERGY_COUNTER"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:14 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0.000000 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:15 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9ABE04A:7","ENERGY_COUNTER"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ENERGY_COUNTER"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:15 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9ABE04A:7","ENERGY_COUNTER"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:15 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0.000000 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:16 192.168.10.14 user warning Bad cast: std::bad_cast
Mar 24 11:27:17 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9ABDE38:7","ENERGY_COUNTER_OVERFLOW"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ENERGY_COUNTER_OVERFLOW"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:17 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9ABDE38:7","ENERGY_COUNTER_OVERFLOW"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:17 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:17 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"00089A498AA66D:5","ENERGY_COUNTER_OVERFLOW"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ENERGY_COUNTER_OVERFLOW"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:17 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"00089A498AA66D:5","ENERGY_COUNTER_OVERFLOW"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:17 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:17 192.168.10.14 local0 err ReGaHss ERROR: ScriptRuntimeError: object chn = dom.GetObject('3427'); object oOverflow = chn.DPByControl('POWERMETER_PSM.ENERGY_COUNTER_OVERFLOW'); object oEnergyCounter = chn.DPByControl('POWERMETER_PSM.ENERGY_COUNTER'); object oSysVarEnergyCounter = dom.GetObject('svEnergyCounter_3427_000858A994D4C1:7'); object oSysVarEnergyCounterOldVal = dom.GetObject('svEnergyCounterOldVal_3427'); boolean overFlowFlag = oOverflow.Value(); real devVal = oEnergyCounter.Value(); real devValMax = oEnergyCounter.ValueMax(); real oldDevVal = oSysVarEnergyCounterOldVal.Value(); real diffVal = 0.0; real sysVarVal = oSysVarEnergyCounter.Value(); integer tmp_devVal = (devVal.ToString().ToFloat() * 1000).ToInteger(); integer tmp_oldDevVal = (oldDevVal.ToString().ToFloat() * 1000).ToInteger(); if (overFlowFlag == false) { ! Normal conditions if (tmp_oldDevVal <= tmp_devVal) { diffVal = devVal - oldDevVal; } ! Device has rebooted if (tmp_oldDevVal > tmp_devVal) { diffVal = devVal; } } else { !overFlow is true
Mar 24 11:27:17 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"0001D3C99C3F89:6","ENERGY_COUNTER_OVERFLOW"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ENERGY_COUNTER_OVERFLOW"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:17 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"0001D3C99C3F89:6","ENERGY_COUNTER_OVERFLOW"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:17 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:17 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"0001D3C99C3109:6","ENERGY_COUNTER_OVERFLOW"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ENERGY_COUNTER_OVERFLOW"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:17 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"0001D3C99C3109:6","ENERGY_COUNTER_OVERFLOW"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:17 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:17 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"0001D3C99C3C50:6","ENERGY_COUNTER_OVERFLOW"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ENERGY_COUNTER_OVERFLOW"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:17 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"0001D3C99C3C50:6","ENERGY_COUNTER_OVERFLOW"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:17 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:17 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A994D4C1:7","ENERGY_COUNTER_OVERFLOW"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ENERGY_COUNTER_OVERFLOW"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:17 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A994D4C1:7","ENERGY_COUNTER_OVERFLOW"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:17 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:17 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A994D914:7","ENERGY_COUNTER_OVERFLOW"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ENERGY_COUNTER_OVERFLOW"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:17 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A994D914:7","ENERGY_COUNTER_OVERFLOW"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:17 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:17 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A994DE62:7","ENERGY_COUNTER_OVERFLOW"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ENERGY_COUNTER_OVERFLOW"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:17 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A994DE62:7","ENERGY_COUNTER_OVERFLOW"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:17 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:17 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A994D4B3:7","ENERGY_COUNTER_OVERFLOW"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ENERGY_COUNTER_OVERFLOW"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:17 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A994D4B3:7","ENERGY_COUNTER_OVERFLOW"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:17 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:17 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9AB623F:7","ENERGY_COUNTER_OVERFLOW"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ENERGY_COUNTER_OVERFLOW"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:17 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9AB623F:7","ENERGY_COUNTER_OVERFLOW"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:17 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:17 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9A99BF6:7","ENERGY_COUNTER_OVERFLOW"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ENERGY_COUNTER_OVERFLOW"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:17 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9A99BF6:7","ENERGY_COUNTER_OVERFLOW"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:17 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:17 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9ABDE45:7","ENERGY_COUNTER_OVERFLOW"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ENERGY_COUNTER_OVERFLOW"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:17 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9ABDE45:7","ENERGY_COUNTER_OVERFLOW"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:17 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:17 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9ABE1A5:7","ENERGY_COUNTER_OVERFLOW"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ENERGY_COUNTER_OVERFLOW"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:17 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9ABE1A5:7","ENERGY_COUNTER_OVERFLOW"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:17 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:17 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9ABE04A:7","ENERGY_COUNTER_OVERFLOW"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ENERGY_COUNTER_OVERFLOW"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:27:17 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9ABE04A:7","ENERGY_COUNTER_OVERFLOW"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:27:17 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:27:24 192.168.10.14 user warning Bad cast: std::bad_cast
Mar 24 11:28:41 192.168.10.14 user warning Bad cast: std::bad_cast
Mar 24 11:29:24 192.168.10.14 user warning Bad cast: std::bad_cast
Mar 24 11:31:45 192.168.10.14 user warning Bad cast: std::bad_cast
Mar 24 11:31:48 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"0019D8A996260D:0","DUTY_CYCLE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: DUTY_CYCLE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:31:48 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"0019D8A996260D:0","DUTY_CYCLE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:31:48 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:31:50 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"0019D8A996260D:0","OPERATING_VOLTAGE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: OPERATING_VOLTAGE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:31:50 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"0019D8A996260D:0","OPERATING_VOLTAGE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:31:50 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0.000000 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:31:50 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"0019D8A996260D:0","OPERATING_VOLTAGE_STATUS"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: OPERATING_VOLTAGE_STATUS"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:31:50 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"0019D8A996260D:0","OPERATING_VOLTAGE_STATUS"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:31:50 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:31:50 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"0019D8A996260D:0","RSSI_PEER"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: RSSI_PEER"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:31:50 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"0019D8A996260D:0","RSSI_PEER"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:31:50 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:31:50 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000B1709B13F14:0","DUTY_CYCLE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: DUTY_CYCLE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:31:50 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000B1709B13F14:0","DUTY_CYCLE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:31:50 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:32:01 192.168.10.14 daemon info ntpd[486] kernel reports TIME_ERROR: 0x41: Clock Unsynchronized
Mar 24 11:32:04 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000B1709B13F14:0","LOW_BAT"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: LOW_BAT"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:32:04 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000B1709B13F14:0","LOW_BAT"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:32:04 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:32:04 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"0001D3C99C3F89:0","OPERATING_VOLTAGE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: OPERATING_VOLTAGE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:32:04 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"0001D3C99C3F89:0","OPERATING_VOLTAGE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:32:04 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0.000000 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:32:04 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000B1709B13F14:0","OPERATING_VOLTAGE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: OPERATING_VOLTAGE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:32:04 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000B1709B13F14:0","OPERATING_VOLTAGE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:32:04 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0.000000 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:32:07 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"001898A9926499:0","DUTY_CYCLE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: DUTY_CYCLE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:32:07 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"001898A9926499:0","DUTY_CYCLE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:32:07 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:32:07 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000B18A9AA8A76:0","DUTY_CYCLE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: DUTY_CYCLE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:32:07 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000B18A9AA8A76:0","DUTY_CYCLE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:32:07 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:32:08 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"0001D3C99C3F89:0","OPERATING_VOLTAGE_STATUS"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: OPERATING_VOLTAGE_STATUS"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:32:08 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"0001D3C99C3F89:0","OPERATING_VOLTAGE_STATUS"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:32:08 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:32:08 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000B1709B13F14:0","OPERATING_VOLTAGE_STATUS"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: OPERATING_VOLTAGE_STATUS"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:32:08 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000B1709B13F14:0","OPERATING_VOLTAGE_STATUS"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:32:08 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:32:08 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"001898A9926499:0","ERROR_CODE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ERROR_CODE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:32:08 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"001898A9926499:0","ERROR_CODE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:32:08 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:32:08 192.168.10.14 user warning Bad cast: std::bad_cast
Mar 24 11:32:09 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000B1709B13F14:0","RSSI_DEVICE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: RSSI_DEVICE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:32:09 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000B1709B13F14:0","RSSI_DEVICE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:32:09 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:32:09 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"001898A992639F:0","DUTY_CYCLE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: DUTY_CYCLE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:32:09 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"001898A992639F:0","DUTY_CYCLE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:32:09 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:32:09 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"001898A9926499:0","ERROR_NON_FLAT_POSITIONING"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ERROR_NON_FLAT_POSITIONING"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:32:09 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"001898A9926499:0","ERROR_NON_FLAT_POSITIONING"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:32:09 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:32:09 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000B18A9AA8A76:0","LOW_BAT"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: LOW_BAT"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:32:09 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000B18A9AA8A76:0","LOW_BAT"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:32:09 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:32:09 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000B1709B13F14:0","RSSI_PEER"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: RSSI_PEER"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:32:09 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000B1709B13F14:0","RSSI_PEER"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:32:09 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:32:09 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"001898A992639F:0","ERROR_CODE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ERROR_CODE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:32:09 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"001898A992639F:0","ERROR_CODE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:32:09 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:32:11 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000B18A9AA8A76:0","OPERATING_VOLTAGE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: OPERATING_VOLTAGE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:32:11 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000B18A9AA8A76:0","OPERATING_VOLTAGE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:32:11 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0.000000 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:32:11 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"0001D3C99C3F89:0","ACTUAL_TEMPERATURE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ACTUAL_TEMPERATURE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:32:11 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"0001D3C99C3F89:0","ACTUAL_TEMPERATURE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:32:11 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0.000000 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:32:11 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000B1709B13F14:0","UNREACH"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: UNREACH"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:32:11 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000B1709B13F14:0","UNREACH"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:32:11 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:32:11 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"001898A992639F:0","ERROR_NON_FLAT_POSITIONING"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ERROR_NON_FLAT_POSITIONING"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:32:11 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"001898A992639F:0","ERROR_NON_FLAT_POSITIONING"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:32:11 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:32:11 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"00021A498A4727:0","ACTUAL_TEMPERATURE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ACTUAL_TEMPERATURE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:32:11 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"00021A498A4727:0","ACTUAL_TEMPERATURE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:32:11 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0.000000 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:32:11 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"001898A9926499:0","LOW_BAT"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: LOW_BAT"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:32:11 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"001898A9926499:0","LOW_BAT"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:32:11 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:32:11 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000B18A9AA8A76:0","OPERATING_VOLTAGE_STATUS"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: OPERATING_VOLTAGE_STATUS"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:32:11 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000B18A9AA8A76:0","OPERATING_VOLTAGE_STATUS"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:32:11 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:32:11 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"0001D3C99C3F89:0","ACTUAL_TEMPERATURE_STATUS"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ACTUAL_TEMPERATURE_STATUS"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:32:11 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"0001D3C99C3F89:0","ACTUAL_TEMPERATURE_STATUS"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:32:11 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:32:13 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"00021A498A4727:0","ACTUAL_TEMPERATURE_STATUS"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ACTUAL_TEMPERATURE_STATUS"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:32:13 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"00021A498A4727:0","ACTUAL_TEMPERATURE_STATUS"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:32:13 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:32:13 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"001898A9926499:0","OPERATING_VOLTAGE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: OPERATING_VOLTAGE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:32:13 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"001898A9926499:0","OPERATING_VOLTAGE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:32:13 192.168.10.14 local0 err ReGaHss ERROR: CallGetValue failed; sVal = 0.000000 [ReadValue():iseDOMdpHSS.cpp:124]
...
Log der CCU3
***** messages.0 *****
Mar 24 11:36:28 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:36:28 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9ABDE45:3","SECTION"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: SECTION"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:36:28 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9ABDE45:3","SECTION"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:36:28 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:36:48 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A994D4B3:0","INSTALL_TEST"}, result: [faultCode:-321,faultString:""]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A994D4B3:0","INSTALL_TEST"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:36:48 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9ABE04A:0","UNREACH"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: UNREACH"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9ABE04A:0","UNREACH"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:36:48 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"00089A498AA66D:1","SECTION"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: SECTION"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"00089A498AA66D:1","SECTION"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:36:48 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A994D4C1:5","PROCESS"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: PROCESS"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A994D4C1:5","PROCESS"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:36:48 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9AB623F:0","ERROR_CODE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ERROR_CODE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9AB623F:0","ERROR_CODE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:36:48 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"0001D3C99C3F0D:0","ERROR_CODE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ERROR_CODE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"0001D3C99C3F0D:0","ERROR_CODE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:36:48 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9ABDE45:3","SECTION_STATUS"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: SECTION_STATUS"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9ABDE45:3","SECTION_STATUS"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:36:48 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A994D4B3:0","OPERATING_VOLTAGE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: OPERATING_VOLTAGE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A994D4B3:0","OPERATING_VOLTAGE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0.000000 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:36:48 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000E18A994CB93:0","ACTUAL_TEMPERATURE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ACTUAL_TEMPERATURE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000E18A994CB93:0","ACTUAL_TEMPERATURE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0.000000 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:36:48 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"00089A498AA66D:1","SECTION_STATUS"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: SECTION_STATUS"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"00089A498AA66D:1","SECTION_STATUS"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:36:48 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A994D4C1:5","SECTION"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: SECTION"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A994D4C1:5","SECTION"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:36:48 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9AB623F:0","ERROR_OVERHEAT"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ERROR_OVERHEAT"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9AB623F:0","ERROR_OVERHEAT"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:36:48 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"0001D3C99C3F0D:0","ERROR_OVERHEAT"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ERROR_OVERHEAT"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"0001D3C99C3F0D:0","ERROR_OVERHEAT"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:36:48 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9ABDE45:3","STATE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: STATE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9ABDE45:3","STATE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:36:48 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"001898A992656B:0","DUTY_CYCLE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: DUTY_CYCLE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"001898A992656B:0","DUTY_CYCLE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:36:48 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"0019D8A9961C73:0","DUTY_CYCLE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: DUTY_CYCLE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"0019D8A9961C73:0","DUTY_CYCLE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:36:48 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A994D4B3:0","OPERATING_VOLTAGE_STATUS"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: OPERATING_VOLTAGE_STATUS"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A994D4B3:0","OPERATING_VOLTAGE_STATUS"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:36:48 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000E18A994CB93:0","ACTUAL_TEMPERATURE_STATUS"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ACTUAL_TEMPERATURE_STATUS"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000E18A994CB93:0","ACTUAL_TEMPERATURE_STATUS"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:36:48 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"00089A498AA66D:1","STATE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: STATE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"00089A498AA66D:1","STATE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:36:48 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9ABE04A:3","PROCESS"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: PROCESS"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9ABE04A:3","PROCESS"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:36:48 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A994D4C1:5","SECTION_STATUS"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: SECTION_STATUS"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A994D4C1:5","SECTION_STATUS"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:36:48 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:37:08 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9AB623F:0","INSTALL_TEST"}, result: [faultCode:-321,faultString:""]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:37:08 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9AB623F:0","INSTALL_TEST"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:37:08 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:37:08 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9ABDE45:4","PROCESS"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: PROCESS"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:37:08 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9ABDE45:4","PROCESS"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:37:08 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:37:08 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"001898A992656B:0","ERROR_CODE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ERROR_CODE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:37:08 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"001898A992656B:0","ERROR_CODE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:37:08 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:37:18 ccu3-webui local0.err ReGaHss: ERROR: XmlRpc: Error in XmlRpcClient::parseResponse: Invalid response - no methodResponse. Response: [error():iseXmlRpc.h:281]
Mar 24 11:37:18 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.execute() failed (url: xmlrpc://127.0.0.1:32010, params: {"0019D8A9961C73:0","INSTALL_TEST"}, result: nil) [CallXmlrpcMethod():iseXmlRpc.cpp:2602]
Mar 24 11:37:18 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"0019D8A9961C73:0","INSTALL_TEST"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:37:18 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:37:18 ccu3-webui local0.err ReGaHss: ERROR: XmlRpc: Error in XmlRpcClient::parseResponse: Invalid response - no methodResponse. Response: [error():iseXmlRpc.h:281]
Mar 24 11:37:18 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.execute() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A994D4B3:0","UPDATE_PENDING"}, result: nil) [CallXmlrpcMethod():iseXmlRpc.cpp:2602]
Mar 24 11:37:18 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A994D4B3:0","UPDATE_PENDING"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:37:18 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:37:18 ccu3-webui local0.err ReGaHss: ERROR: XmlRpc: Error in XmlRpcClient::parseResponse: Invalid response - no methodResponse. Response: [error():iseXmlRpc.h:281]
Mar 24 11:37:18 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.execute() failed (url: xmlrpc://127.0.0.1:32010, params: {"000E18A994CB93:0","CONFIG_PENDING"}, result: nil) [CallXmlrpcMethod():iseXmlRpc.cpp:2602]
Mar 24 11:37:18 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000E18A994CB93:0","CONFIG_PENDING"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:37:18 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:37:18 ccu3-webui local0.err ReGaHss: ERROR: XmlRpc: Error in XmlRpcClient::parseResponse: Invalid response - no methodResponse. Response: [error():iseXmlRpc.h:281]
Mar 24 11:37:18 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.execute() failed (url: xmlrpc://127.0.0.1:32010, params: {"001898A992633A:1","WATERLEVEL_DETECTED"}, result: nil) [CallXmlrpcMethod():iseXmlRpc.cpp:2602]
Mar 24 11:37:18 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"001898A992633A:1","WATERLEVEL_DETECTED"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:37:18 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:37:18 ccu3-webui local0.err ReGaHss: ERROR: XmlRpc: Error in XmlRpcClient::parseResponse: Invalid response - no methodResponse. Response: [error():iseXmlRpc.h:281]
Mar 24 11:37:18 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.execute() failed (url: xmlrpc://127.0.0.1:32010, params: {"00089A498AA66D:2","PROCESS"}, result: nil) [CallXmlrpcMethod():iseXmlRpc.cpp:2602]
Mar 24 11:37:18 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"00089A498AA66D:2","PROCESS"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:37:18 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:37:18 ccu3-webui local0.err ReGaHss: ERROR: XmlRpc: Error in XmlRpcClient::parseResponse: Invalid response - no methodResponse. Response: [error():iseXmlRpc.h:281]
Mar 24 11:37:18 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.execute() failed (url: xmlrpc://127.0.0.1:32010, params: {"001A58A9A23D31:11","SECTION"}, result: nil) [CallXmlrpcMethod():iseXmlRpc.cpp:2602]
Mar 24 11:37:18 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"001A58A9A23D31:11","SECTION"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:37:18 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:37:18 ccu3-webui local0.err ReGaHss: ERROR: XmlRpc: Error in XmlRpcClient::parseResponse: Invalid response - no methodResponse. Response: [error():iseXmlRpc.h:281]
Mar 24 11:37:18 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.execute() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9ABE04A:3","SECTION"}, result: nil) [CallXmlrpcMethod():iseXmlRpc.cpp:2602]
Mar 24 11:37:18 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9ABE04A:3","SECTION"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:37:18 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:37:18 ccu3-webui local0.err ReGaHss: ERROR: XmlRpc: Error in XmlRpcClient::parseResponse: Invalid response - no methodResponse. Response: [error():iseXmlRpc.h:281]
Mar 24 11:37:18 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.execute() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A994D4C1:5","STATE"}, result: nil) [CallXmlrpcMethod():iseXmlRpc.cpp:2602]
Mar 24 11:37:18 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A994D4C1:5","STATE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:37:18 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:37:28 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9AB623F:0","OPERATING_VOLTAGE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: OPERATING_VOLTAGE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:37:28 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9AB623F:0","OPERATING_VOLTAGE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:37:28 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0.000000 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:37:28 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9ABDE45:4","SECTION"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: SECTION"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:37:28 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9ABDE45:4","SECTION"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:37:28 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:37:28 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"001898A992656B:0","ERROR_NON_FLAT_POSITIONING"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ERROR_NON_FLAT_POSITIONING"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:37:28 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"001898A992656B:0","ERROR_NON_FLAT_POSITIONING"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:37:28 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:37:28 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9A99BF6:0","ACTUAL_TEMPERATURE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ACTUAL_TEMPERATURE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:37:28 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9A99BF6:0","ACTUAL_TEMPERATURE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:37:28 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0.000000 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:37:28 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"0019D8A9961C73:0","OPERATING_VOLTAGE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: OPERATING_VOLTAGE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:37:28 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"0019D8A9961C73:0","OPERATING_VOLTAGE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:37:28 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0.000000 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:37:28 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A994D4B3:9","WEEK_PROGRAM_CHANNEL_LOCKS"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: WEEK_PROGRAM_CHANNEL_LOCKS"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:37:28 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A994D4B3:9","WEEK_PROGRAM_CHANNEL_LOCKS"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:37:28 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:37:28 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9ABE04A:3","SECTION_STATUS"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: SECTION_STATUS"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:37:28 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9ABE04A:3","SECTION_STATUS"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:37:28 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:37:28 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A994D4C1:6","PROCESS"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: PROCESS"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:37:28 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A994D4C1:6","PROCESS"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:37:28 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:37:48 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"001898A99264C9:0","INSTALL_TEST"}, result: [faultCode:-321,faultString:""]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:37:48 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"001898A99264C9:0","INSTALL_TEST"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:37:48 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:37:48 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000218A98A842D:0","ACTUAL_TEMPERATURE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ACTUAL_TEMPERATURE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:37:48 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000218A98A842D:0","ACTUAL_TEMPERATURE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:37:48 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0.000000 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:37:48 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9AB623F:0","OPERATING_VOLTAGE_STATUS"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: OPERATING_VOLTAGE_STATUS"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:37:48 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9AB623F:0","OPERATING_VOLTAGE_STATUS"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:37:48 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:37:48 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9ABDE45:4","SECTION_STATUS"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: SECTION_STATUS"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:37:48 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9ABDE45:4","SECTION_STATUS"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:37:48 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:37:58 ccu3-webui local0.err ReGaHss: ERROR: XmlRpc: Error in XmlRpcClient::parseResponse: Invalid response - no methodResponse. Response: [error():iseXmlRpc.h:281]
Mar 24 11:37:58 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.execute() failed (url: xmlrpc://127.0.0.1:32010, params: {"001898A992656B:0","INSTALL_TEST"}, result: nil) [CallXmlrpcMethod():iseXmlRpc.cpp:2602]
Mar 24 11:37:58 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"001898A992656B:0","INSTALL_TEST"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:37:58 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:37:58 ccu3-webui local0.err ReGaHss: ERROR: XmlRpc: Error in XmlRpcClient::parseResponse: Invalid response - no methodResponse. Response: [error():iseXmlRpc.h:281]
Mar 24 11:37:58 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.execute() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9A99BF6:0","ACTUAL_TEMPERATURE_STATUS"}, result: nil) [CallXmlrpcMethod():iseXmlRpc.cpp:2602]
Mar 24 11:37:58 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9A99BF6:0","ACTUAL_TEMPERATURE_STATUS"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:37:58 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:37:58 ccu3-webui local0.err ReGaHss: ERROR: XmlRpc: Error in XmlRpcClient::parseResponse: Invalid response - no methodResponse. Response: [error():iseXmlRpc.h:281]
Mar 24 11:37:58 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.execute() failed (url: xmlrpc://127.0.0.1:32010, params: {"0019D8A9961C73:0","OPERATING_VOLTAGE_STATUS"}, result: nil) [CallXmlrpcMethod():iseXmlRpc.cpp:2602]
Mar 24 11:37:58 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"0019D8A9961C73:0","OPERATING_VOLTAGE_STATUS"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:37:58 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:37:58 ccu3-webui local0.err ReGaHss: ERROR: XmlRpc: Error in XmlRpcClient::parseResponse: Invalid response - no methodResponse. Response: [error():iseXmlRpc.h:281]
Mar 24 11:37:58 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.execute() failed (url: xmlrpc://127.0.0.1:32010, params: {"000E18A994CB93:0","ERROR_CODE"}, result: nil) [CallXmlrpcMethod():iseXmlRpc.cpp:2602]
Mar 24 11:37:58 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000E18A994CB93:0","ERROR_CODE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:37:58 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:37:58 ccu3-webui local0.err ReGaHss: ERROR: XmlRpc: Error in XmlRpcClient::parseResponse: Invalid response - no methodResponse. Response: [error():iseXmlRpc.h:281]
Mar 24 11:37:58 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.execute() failed (url: xmlrpc://127.0.0.1:32010, params: {"00089A498AA66D:2","SECTION_STATUS"}, result: nil) [CallXmlrpcMethod():iseXmlRpc.cpp:2602]
Mar 24 11:37:58 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"00089A498AA66D:2","SECTION_STATUS"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:37:58 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:37:58 ccu3-webui local0.err ReGaHss: ERROR: XmlRpc: Error in XmlRpcClient::parseResponse: Invalid response - no methodResponse. Response: [error():iseXmlRpc.h:281]
Mar 24 11:37:58 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.execute() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9ABE04A:3","STATE"}, result: nil) [CallXmlrpcMethod():iseXmlRpc.cpp:2602]
Mar 24 11:37:58 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9ABE04A:3","STATE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:37:58 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:37:58 ccu3-webui local0.err ReGaHss: ERROR: XmlRpc: Error in XmlRpcClient::parseResponse: Invalid response - no methodResponse. Response: [error():iseXmlRpc.h:281]
Mar 24 11:37:58 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.execute() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A994D4C1:6","SECTION"}, result: nil) [CallXmlrpcMethod():iseXmlRpc.cpp:2602]
Mar 24 11:37:58 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A994D4C1:6","SECTION"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:37:58 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:37:59 ccu3-webui local0.err ReGaHss: ERROR: XmlRpc: Error in XmlRpcClient::parseResponse: Invalid response - no methodResponse. Response: [error():iseXmlRpc.h:281]
Mar 24 11:37:59 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.execute() failed (url: xmlrpc://127.0.0.1:32010, params: {"0001D3C99C3109:0","INSTALL_TEST"}, result: nil) [CallXmlrpcMethod():iseXmlRpc.cpp:2602]
Mar 24 11:37:59 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"0001D3C99C3109:0","INSTALL_TEST"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:37:59 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:18 ccu3-webui local0.err ReGaHss: ERROR: XmlRpc: Error in XmlRpcClient::parseResponse: Invalid response - no methodResponse. Response: [error():iseXmlRpc.h:281]
Mar 24 11:38:18 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.execute() failed (url: xmlrpc://127.0.0.1:32010, params: {"001898A99264C9:0","RSSI_PEER"}, result: nil) [CallXmlrpcMethod():iseXmlRpc.cpp:2602]
Mar 24 11:38:18 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"001898A99264C9:0","RSSI_PEER"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:38:18 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:18 ccu3-webui local0.err ReGaHss: ERROR: XmlRpc: Error in XmlRpcClient::parseResponse: Invalid response - no methodResponse. Response: [error():iseXmlRpc.h:281]
Mar 24 11:38:18 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.execute() failed (url: xmlrpc://127.0.0.1:32010, params: {"000218A98A842D:0","ACTUAL_TEMPERATURE_STATUS"}, result: nil) [CallXmlrpcMethod():iseXmlRpc.cpp:2602]
Mar 24 11:38:18 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000218A98A842D:0","ACTUAL_TEMPERATURE_STATUS"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:38:18 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:18 ccu3-webui local0.err ReGaHss: ERROR: XmlRpc: Error in XmlRpcClient::parseResponse: Invalid response - no methodResponse. Response: [error():iseXmlRpc.h:281]
Mar 24 11:38:18 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.execute() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9AB623F:0","RSSI_DEVICE"}, result: nil) [CallXmlrpcMethod():iseXmlRpc.cpp:2602]
Mar 24 11:38:18 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9AB623F:0","RSSI_DEVICE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:38:18 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:18 ccu3-webui local0.err ReGaHss: ERROR: XmlRpc: Error in XmlRpcClient::parseResponse: Invalid response - no methodResponse. Response: [error():iseXmlRpc.h:281]
Mar 24 11:38:18 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.execute() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9ABDE45:5","PROCESS"}, result: nil) [CallXmlrpcMethod():iseXmlRpc.cpp:2602]
Mar 24 11:38:18 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9ABDE45:5","PROCESS"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:38:18 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: XmlRpc: Error in XmlRpcClient::parseResponse: Invalid response - no methodResponse. Response: [error():iseXmlRpc.h:281]
Mar 24 11:38:28 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.execute() failed (url: xmlrpc://127.0.0.1:32010, params: {"001898A992656B:0","LOW_BAT"}, result: nil) [CallXmlrpcMethod():iseXmlRpc.cpp:2602]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"001898A992656B:0","LOW_BAT"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: XmlRpc: Error in XmlRpcClient::parseResponse: Invalid response - no methodResponse. Response: [error():iseXmlRpc.h:281]
Mar 24 11:38:28 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.execute() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9A99BF6:0","CONFIG_PENDING"}, result: nil) [CallXmlrpcMethod():iseXmlRpc.cpp:2602]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9A99BF6:0","CONFIG_PENDING"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: XmlRpc: Error in XmlRpcClient::parseResponse: Invalid response - no methodResponse. Response: [error():iseXmlRpc.h:281]
Mar 24 11:38:28 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.execute() failed (url: xmlrpc://127.0.0.1:32010, params: {"0019D8A9961C73:0","RSSI_DEVICE"}, result: nil) [CallXmlrpcMethod():iseXmlRpc.cpp:2602]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"0019D8A9961C73:0","RSSI_DEVICE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: XmlRpc: Error in XmlRpcClient::parseResponse: Invalid response - no methodResponse. Response: [error():iseXmlRpc.h:281]
Mar 24 11:38:28 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.execute() failed (url: xmlrpc://127.0.0.1:32010, params: {"000E18A994CB93:0","ERROR_OVERHEAT"}, result: nil) [CallXmlrpcMethod():iseXmlRpc.cpp:2602]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000E18A994CB93:0","ERROR_OVERHEAT"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: XmlRpc: Error in XmlRpcClient::parseResponse: Invalid response - no methodResponse. Response: [error():iseXmlRpc.h:281]
Mar 24 11:38:28 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.execute() failed (url: xmlrpc://127.0.0.1:32010, params: {"00089A498AA66D:3","PROCESS"}, result: nil) [CallXmlrpcMethod():iseXmlRpc.cpp:2602]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"00089A498AA66D:3","PROCESS"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: XmlRpc: Error in XmlRpcClient::parseResponse: Invalid response - no methodResponse. Response: [error():iseXmlRpc.h:281]
Mar 24 11:38:28 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.execute() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9ABE04A:4","PROCESS"}, result: nil) [CallXmlrpcMethod():iseXmlRpc.cpp:2602]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9ABE04A:4","PROCESS"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: XmlRpc: Error in XmlRpcClient::parseResponse: Invalid response - no methodResponse. Response: [error():iseXmlRpc.h:281]
Mar 24 11:38:28 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.execute() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A994D4C1:6","SECTION_STATUS"}, result: nil) [CallXmlrpcMethod():iseXmlRpc.cpp:2602]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A994D4C1:6","SECTION_STATUS"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:28 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"0001D3C99C3109:0","OPERATING_VOLTAGE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: OPERATING_VOLTAGE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"0001D3C99C3109:0","OPERATING_VOLTAGE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0.000000 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:28 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9AB623F:0","RSSI_PEER"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: RSSI_PEER"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9AB623F:0","RSSI_PEER"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:28 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9ABDE45:5","SECTION"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: SECTION"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9ABDE45:5","SECTION"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:28 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"001898A992656B:0","OPERATING_VOLTAGE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: OPERATING_VOLTAGE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"001898A992656B:0","OPERATING_VOLTAGE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0.000000 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:28 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9A99BF6:0","DUTY_CYCLE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: DUTY_CYCLE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9A99BF6:0","DUTY_CYCLE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:28 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"0019D8A9961C73:0","RSSI_PEER"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: RSSI_PEER"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"0019D8A9961C73:0","RSSI_PEER"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:28 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"00089A498AA66D:3","SECTION"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: SECTION"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"00089A498AA66D:3","SECTION"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:28 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000E18A994CB93:0","ERROR_OVERLOAD"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ERROR_OVERLOAD"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000E18A994CB93:0","ERROR_OVERLOAD"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:28 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9ABE04A:4","SECTION"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: SECTION"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9ABE04A:4","SECTION"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:28 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A994D4C1:6","STATE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: STATE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A994D4C1:6","STATE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:28 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"0001D3C99C3109:0","OPERATING_VOLTAGE_STATUS"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: OPERATING_VOLTAGE_STATUS"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"0001D3C99C3109:0","OPERATING_VOLTAGE_STATUS"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:28 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000218A98A842D:0","DUTY_CYCLE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: DUTY_CYCLE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000218A98A842D:0","DUTY_CYCLE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:28 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9AB623F:0","UNREACH"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: UNREACH"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9AB623F:0","UNREACH"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:38:28 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:29 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9ABDE45:5","SECTION_STATUS"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: SECTION_STATUS"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:38:29 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9ABDE45:5","SECTION_STATUS"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:38:29 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:29 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"001898A992656B:0","OPERATING_VOLTAGE_STATUS"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: OPERATING_VOLTAGE_STATUS"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:38:29 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"001898A992656B:0","OPERATING_VOLTAGE_STATUS"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:38:29 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:29 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9A99BF6:0","ERROR_CODE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ERROR_CODE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:38:29 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9A99BF6:0","ERROR_CODE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:38:29 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:29 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"0019D8A9961C73:0","UNREACH"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: UNREACH"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:38:29 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"0019D8A9961C73:0","UNREACH"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:38:29 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:29 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"00089A498AA66D:3","SECTION_STATUS"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: SECTION_STATUS"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:38:29 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"00089A498AA66D:3","SECTION_STATUS"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:38:29 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:29 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000E18A994CB93:0","ERROR_UPDATE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ERROR_UPDATE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:38:29 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000E18A994CB93:0","ERROR_UPDATE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:38:29 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:29 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9ABE04A:4","SECTION_STATUS"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: SECTION_STATUS"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:38:29 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9ABE04A:4","SECTION_STATUS"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:38:29 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:29 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A994D4C1:7","CURRENT"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: CURRENT"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:38:29 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A994D4C1:7","CURRENT"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:38:29 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0.000000 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:29 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"0001D3C99C3109:0","RSSI_PEER"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: RSSI_PEER"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:38:29 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"0001D3C99C3109:0","RSSI_PEER"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:38:29 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:29 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000218A98A842D:0","ERROR_CODE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ERROR_CODE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:38:29 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000218A98A842D:0","ERROR_CODE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:38:29 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:29 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9ABDE45:5","STATE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: STATE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:38:29 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"000858A9ABDE45:5","STATE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:38:29 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:29 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"001898A992656B:0","RSSI_DEVICE"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: RSSI_DEVICE"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 11:38:29 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'getValue' call failed (interface: 1011, params: {"001898A992656B:0","RSSI_DEVICE"}) [CallGetValue():iseXmlRpc.cpp:1435]
Mar 24 11:38:29 ccu3-webui local0.err ReGaHss: ERROR: CallGetValue failed; sVal = 0 [ReadValue():iseDOMdpHSS.cpp:124]
Mar 24 11:38:29 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'getValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"000858A9A99BF6:0","ERROR_OVERHEAT"}, result: [faultCode:-5,faultString:"Unknown Parameter value for value key: ERROR_OVERHEAT"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
...
Zitat von: Rewe2000 am 24 März 2019, 11:40:08
@Ban: hast du überall aktuelle Firmware auf den HmIP Geräten? Bringt das mit dem Syslog Server etwas, siehst du da deutlich mehr als im Fehlerlog?
ja, alle Geräte inkl. der CCU3 haben die aktuelle Firmware.
Der Syslogserver gibt auch Infos vom Start der CCU. Das habe ich im Logfile nicht.
Soweit ich gesehen habe, kommen die Loglevel ab Info auch nicht ins CCU Logfile. Wird wohl für die SD Karte zuviel sein.
12:05 - Steuerung über fhem geht hin und wieder sehr zeitverzögert. Es kommt zu timeouts
12:07 - RPC Server gestoppt
Die CCU denkt wohl es gibt weiterhin einen RPC Server
Nach dem Schalten eines Aktor kommt wieder der Logeintrag, obwohl der RPC Server und HMCCU auf inactive/OK stehen.
Ansonsten kommen keine Logeinträge. Nur beim Schalten eines Aktors über fhem
Mar 24 12:09:12 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'setValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"00021A498A4727:3","STATE",true}, result: [faultCode:-1,faultString:"Generic error"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 12:09:12 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'setValue' call failed (interface: 1011, params: {"00021A498A4727:3","STATE",true}) [CallSetValue():iseXmlRpc.cpp:1505]
Mar 24 12:09:12 192.168.10.14 local0 err ReGaHss ERROR: rpc.CallSetValue failed; address = 00021A498A4727:3 [WriteValue():iseDOMdpHSS.cpp:76]
Habe den Loglevel auf alles loggen gestellt und einen Schaltvorgang aus fhem ausgelöst, PRC Server ist weiterhin aus:
Mar 24 12:13:22 192.168.10.14 local0 info ReGaHss Info: start web processing, worker thread #1 {"HTTP-Listener"} [spawnNewProcess():httpListener.cpp:208]
Mar 24 12:13:22 192.168.10.14 local0 info ReGaHss Info: recvd 866 bytes by web server #2 [ThreadFunction():httpServer.cpp:767]
Mar 24 12:13:22 192.168.10.14 local0 info ReGaHss Info: IseSession GetSessionId from URL: /esp/system.htm?sid=@6oWVDakHks@&action=UpdateUI [GetSessionId():iseSession.cpp:185]
Mar 24 12:13:22 192.168.10.14 local0 info ReGaHss Info: http id #2 sends parsed file [ParseFileAndSendWebResponse():httpServer.cpp:2038]
Mar 24 12:13:22 192.168.10.14 local0 info ReGaHss Info: start web processing, worker thread #1 {"HTTP-Listener"} [spawnNewProcess():httpListener.cpp:208]
Mar 24 12:13:22 192.168.10.14 local0 info ReGaHss Info: recvd 326 bytes by web server #2 [ThreadFunction():httpServer.cpp:767]
Mar 24 12:13:22 192.168.10.14 local0 info ReGaHss Info: IseSession GetSessionId from URL: /tclrega.exe [GetSessionId():iseSession.cpp:185]
Mar 24 12:13:22 192.168.10.14 local0 info ReGaHss Info: http id #2 sends parsed file [ParseFileAndSendWebResponse():httpServer.cpp:2038]
Mar 24 12:13:22 192.168.10.14 local0 info ReGaHss Info: start web processing, worker thread #1 {"HTTP-Listener"} [spawnNewProcess():httpListener.cpp:208]
Mar 24 12:13:22 192.168.10.14 local0 info ReGaHss Info: recvd 378 bytes by web server #2 [ThreadFunction():httpServer.cpp:767]
Mar 24 12:13:22 192.168.10.14 local0 info ReGaHss Info: IseSession GetSessionId from URL: /tclrega.exe [GetSessionId():iseSession.cpp:185]
Mar 24 12:13:22 192.168.10.14 local0 info ReGaHss Info: interface name= HmIP-RF for ID=1011 [GetInterfaceByID():iseXmlRpc.cpp:2552]
Mar 24 12:13:25 192.168.10.14 local0 info ReGaHss Info: start web processing, worker thread #2 {"HTTP-Listener"} [spawnNewProcess():httpListener.cpp:208]
Mar 24 12:13:25 192.168.10.14 local0 info ReGaHss Info: recvd 866 bytes by web server #3 [ThreadFunction():httpServer.cpp:767]
Mar 24 12:13:25 192.168.10.14 local0 info ReGaHss Info: IseSession GetSessionId from URL: /esp/system.htm?sid=@6oWVDakHks@&action=UpdateUI [GetSessionId():iseSession.cpp:185]
Mar 24 12:13:25 192.168.10.14 local0 info ReGaHss Info: http id #3 sends parsed file [ParseFileAndSendWebResponse():httpServer.cpp:2038]
Mar 24 12:13:27 192.168.10.14 local0 info ReGaHss Info: start web processing, worker thread #2 {"HTTP-Listener"} [spawnNewProcess():httpListener.cpp:208]
Mar 24 12:13:27 192.168.10.14 local0 info ReGaHss Info: recvd 326 bytes by web server #3 [ThreadFunction():httpServer.cpp:767]
Mar 24 12:13:27 192.168.10.14 local0 info ReGaHss Info: IseSession GetSessionId from URL: /tclrega.exe [GetSessionId():iseSession.cpp:185]
Mar 24 12:13:27 192.168.10.14 local0 info ReGaHss Info: http id #3 sends parsed file [ParseFileAndSendWebResponse():httpServer.cpp:2038]
Mar 24 12:13:27 192.168.10.14 local0 warning ReGaHss WARNING: XMLRPC 'setValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"00021A498A4727:3","STATE",true}, result: [faultCode:-1,faultString:"Generic error"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
Mar 24 12:13:27 192.168.10.14 local0 err ReGaHss ERROR: XMLRPC 'setValue' call failed (interface: 1011, params: {"00021A498A4727:3","STATE",true}) [CallSetValue():iseXmlRpc.cpp:1505]
Mar 24 12:13:27 192.168.10.14 local0 err ReGaHss ERROR: rpc.CallSetValue failed; address = 00021A498A4727:3 [WriteValue():iseDOMdpHSS.cpp:76]
Mar 24 12:13:27 192.168.10.14 local0 info ReGaHss Info: http id #1 sends parsed file [ParseFileAndSendWebResponse():httpServer.cpp:2038]
Mar 24 12:13:28 192.168.10.14 local0 info ReGaHss Info: start web processing, worker thread #0 {"HTTP-Listener"} [spawnNewProcess():httpListener.cpp:208]
Mar 24 12:13:28 192.168.10.14 local0 info ReGaHss Info: recvd 866 bytes by web server #1 [ThreadFunction():httpServer.cpp:767]
Mar 24 12:13:28 192.168.10.14 local0 info ReGaHss Info: IseSession GetSessionId from URL: /esp/system.htm?sid=@6oWVDakHks@&action=UpdateUI [GetSessionId():iseSession.cpp:185]
Mar 24 12:13:28 192.168.10.14 local0 info ReGaHss Info: http id #1 sends parsed file [ParseFileAndSendWebResponse():httpServer.cpp:2038]
Mar 24 12:13:31 192.168.10.14 local0 info ReGaHss Info: start web processing, worker thread #0 {"HTTP-Listener"} [spawnNewProcess():httpListener.cpp:208]
Mar 24 12:13:31 192.168.10.14 local0 info ReGaHss Info: recvd 866 bytes by web server #1 [ThreadFunction():httpServer.cpp:767]
Mar 24 12:13:31 192.168.10.14 local0 info ReGaHss Info: IseSession GetSessionId from URL: /esp/system.htm?sid=@6oWVDakHks@&action=UpdateUI [GetSessionId():iseSession.cpp:185]
Mar 24 12:13:31 192.168.10.14 local0 info ReGaHss Info: http id #1 sends parsed file [ParseFileAndSendWebResponse():httpServer.cpp:2038]
und mir ist noch aufgefallen, dass die internen Programme der CCU eigentlich laufen. Aber da die CCU selbst nicht mehr den Zustand der Aktoren kennt und ich diesen in den internen Programmen abfrage, funktionieren diese natürlich nicht mehr richtig.
Scheinbar schmiert "nur" der Rückkanal der CCU ab.
Die Verzögerungen auf der Oberfläche treten auch nur noch dort auf, wo ein Status angezeigt wird.
Die CCU versucht nach dem Neustart anscheinend, die Stati der Geräte abzufragen. Das scheint nicht immer zu funktionieren, was mit den XMLRPC getValue Fehlermeldungen protokolliert wird.
Meine Vermutung: Nach dem Start der RPC Server macht HMCCU ein get updat auf alle Geräte der CCU, um den aktuellen Zustand zu ermitteln. Das schlägt bei den Devices fehl, für die die CCU intern auch noch keinen Status ermitteln konnte. @Ban: Einige Devices konnten ja aktualisiert werden, also kein Firewall Problem.
Wenn meine Vermutung zutrifft, müsste der Befehl get d_ccu update sagen wir mal 24 Stunden nach einem Neustart der CCU deutlich weniger dieser tclrega.exe Fehler bringen.
@Ban: direkt nach dem Start liest HMCCU die Devices von der CCU. Funktioniert das? S.a. Fhem log "read xx Devices ...
Natürlich ist es sehr unbefriedigend, erstmal 24 Stunden nach einem CCU Neustart zu warten. Da die initiale Aktualisierung der Geräte nach dem Start der RPC Server nicht essentiell ist, kann ich das per Flag abschaltbar machen.
Übrigens: ich habe 71 Geräte mit 430 Kanälen an der CCU3. Ein Lastproblem müsste sich also auch bei mir zeigen. Zumal ich die CCU mit allen Geräten auch nochmal an ioBroker angebunden habe, also doppelt Anzahl RPC Server
Hallo zap,
die initiale Aktualisierung abschaltbar zu machen würde ich sehr gerne ausprobieren. Würde im besten Fall bedeuten, dass die CCU nicht abschmiert, fhem aber nicht den aktuellen Zustand der Geräte kennt. Das ist für mich völlig ok.
Die sonstigen Homematicgeräte die direkt an fhem mit VCCU laufen, aktualisieren ihren Status auch erst nach und nach.
Evtl. habe ein schlichtes Reichweitenproblem. Hast du bei Homematic IP einen Aktor als Repeater laufen?
Bei mir ist einer so konfiguriert.
Viele Grüße,
Ban
Hallo,
ZitatWenn meine Vermutung zutrifft, müsste der Befehl get d_ccu update sagen wir mal 24 Stunden nach einem Neustart der CCU deutlich weniger dieser tclrega.exe Fehler bringen.
Das hatte ich die letzten Tage auch schon mal vermutet und deshalb erst ca. nach 20 Stunden, nach Neustart der CCU2 die RPC-Server gestartet. Der Fehler trat bei mir in gleicher Weise auf, ich habe jedoch nicht die Anzahl der Geräte mit Timeout gezählt.
Dann hab ich noch nach dem Neustart der CCU2 (bei stehenden RPC-Servern) alle HmIP-Geräte betätigt, damit der Zustand der CCU2 bekannt ist, auch das hat bei mir nichts geholfen.
@zap: Es wäre sicherlich einen Versuch wert, beim Start der RPC-Server zum Test die Aktualisierung aller Geräte abzuschalten. Wenn es für dich nicht allzuviel Arbeit bedeutet, würde ich auch gerne den Versuch mit einer CCU2 machen.
Bei mir ist dieser Fehler "schleichend" aufgetreten, bereits im Januar hatte sich meine CCU2 beim Neustart von Fhem einige Male aufgehängt, ich vermutete damals einen erhöhten DutyCyle, deshalb habe ich das funken sparsamer eingestellt. Erst dieses Monat wurde das Verhalten so dramatisch, dass ich die Systeme überhaupt nicht mehr zum laufen bekam.
Gruß Reinhard
Was man auch probieren kann:
Beim Neustart der CCU die RPC Server auf FHEM laufen lassen. Nachdem die CCU wieder da ist, für das I/O Device folgenden Befehl ausführen:
set myCCUDev rpcregister all
Das registriert lediglich die RPC Server bei der CCU neu, ohne die Geräte zu aktualisieren. Überlege jetzt zwar gerade, ob ich das jemals getestet habe, aber einen Versuch ist es wert.
Zitat von: zap am 24 März 2019, 14:49:25
set myCCUDev rpcregister all
Das registriert lediglich die RPC Server bei der CCU neu, ohne die Geräte zu aktualisieren. Überlege jetzt zwar gerade, ob ich das jemals getestet habe, aber einen Versuch ist es wert.
Das funktioniert!
Hatte den Zustand proviziert, dass die CCU lahmgelegt wird.
Dann habe ich nur die CCU neu gestartet und
set myCCUDev rpcregister all
auf meinem I/O Device ausgeführt. Im Log sehe ich, dass keine Anfragen an die CCU gestellt worden sind.
Ich kann alles bedienen, bekomme in fhem den Status, nach Statusänderung, angezeigt und die CCU verhält sich normal.
Ich denke, das Initialisieren der Devices rausnehmen würde uns helfen.
Ich hatte vorhin beim Testen wieder einmal, dass beim Start von fhem danach die CCU normal weitergelaufen ist und alles so funktioniert wie es soll.
Im Log hatte ich dieselben Fehlermeldungen wie immer.
Kann es sein, dass evtl. die Anfragen an die CCU zu schnell kommen und durch die vielen Fehlermeldungen in der CCU sich diese aufhängt?
Evtl. kommt unsere CCU damit nicht zurecht. Könnte man zum Test zwischen den Anfragen ein kleines delay einbauen?
Hallo,
auch bei mir ist dies die Lösung. Mit diesem Befehl hätte ich wahrscheinlich auch noch ein paar Monate mit der CCU2 leben können.
Wir haben jetzt zwar eine Lösung, wie wir die Geräte wieder ans laufen bekommen, aber die eigentliche Ursache für diese Problematik ist noch nicht bekannt. Entweder die HMCCU fragt jetzt anders ab als früher oder die CCUx reagiert jetzt anders auf diese Abfragen.
Mich wundert es bis heute, dass von dem massiven Problem nur 2 Leute betroffen sind. Entweder bei uns grundlegend etwas anders, oder die übrigen User haben nur bisher noch nicht die CCUx und Fhem zeitgleich gestartet.
@zap: Vielen Dank für den Tipp mit dem Befehl, ohne diesen würden wir noch einige Tage ohne die Verbindung Fhem-CCUx leben müssen.
@Ban: Danke auch an dich für deine zeitraubenden Tests, dadurch haben sich die Wogen wieder ein wenig geglättet.
Ich habe noch beobachtet, meine CCU3 hängt (bisher) sich nicht komplett auf, durch den Start der RPC-Server, ich habe danach ca. 20-30 Kommunikationsstörungen, diese bauen sich aber in den nächsten 1-2 Stunden wieder ab und alles ist dann wieder OK.
Gruß Reinhard
Hallo Reinhard,
freut mich, dass es bei dir auch funktioniert!
Ist aktuell ein Workaround, aber ein praktikabler.
Ich verstehe aber auch noch nicht, warum es nur bei uns auftritt.
Das möchte ich eigentlich noch rausbekommen. Gestern war aber zu lang, deswegen habe ich mit dem Ergebnis erstmal aufgehört.
Morgen kommt ein RPI-RF-MOD Funk-Modul. Ich will mal schauen, wie sich das ganze mit RaspberryMatic verhält.
Wahrscheinlich nicht anders, aber ist auch Spieltrieb dabei:-)
Viele Grüße,
Ban
Hallo Ban,
ich will auch noch Ersatz für meine CCU3, hab mir auch überlegt einen Raspi 3 B und ein Funkmodul RPI-RF-MOD zu kaufen, mit Raspimatic wäre das ja eine vollwertige CCU3, nur ohne Gehäuse. Berichte biite mal wie es bei dir läuft und ob da der Fehler in gleicher Weise auftritt.
Ich wollte gestern nochmals meine CCU2 mit alter Firmware und altem Restore und gleichzeitig mit altem RASPI Image gleichzeitig testen, ob da der Fehler auch noch auftritt. Bekam aber meine HmIP Geräte mit der CCU2 nicht mehr zum laufen, weshalb auch immer, musste dann abbrechen, da ich noch weg musste.
Bist du mit deinen Geräten nach dem Umstieg auf CCU3 nochmals auf die CCU2 zurückgegangen, ev. klappt ja das auch nicht mehr. Werde es ev. heute nochmals versuchen.
Gruß Reinhard
Nein, bin nicht wieder auf die CCU2 zurückgegangen.
Für den Raspi mit Funkmodul gibt es ein Gehäuse von ELV: Gehäuse RP-Case für Raspberry Pi und RPI-RF-MOD Funk-Modulplatine
Gibt auch ein Komplettset, heißt dort Charly.
Ich sag bescheid, wie es ausgegangen ist. Versandbestätigung ist gerade reingekommen.
Nachtrag:
Habe heute noch einmal getestet. Habe die CCU seit 2 Tagen nicht neu gestartet. Keine Fehlermeldung im Log der CCU. Dann habe ich fhem neu gestartet und habe die RPC Server beim Start angelassen, damit HMCCU ein Update auf alle Devices macht. Direkt wieder das ganze Log voll mit Fehlermeldungen und die CCU lässt sich nicht bedienen.
Merkwürdig.
Grüße,
Ban
Hallo zap,
ich habe deinen Vorschlag ausprobiert und das Update der Devices beim Start von HMCCU unterbunden.
Ich habe zum Test das komplette if in der Methode HMCCU_UpdateClients auskommentiert.
Das bringt das für mich gewünschte Verhalten.
Nach dem Start von fhem inkl. der RPC Server geht keine Anfrage an die CCU.
HMCCU und die RPC Server starten korrekt.
Alle Devices stehen zuerst auf Initialized und der Status kommt nach und nach rein.
Wenn ein Gerät seinen Status ändert, bekommt das fhem mit und zeigt den Status an.
Ich denke, dass Update sollte auch nur beim Start ausgeschaltet sein und nicht komplett abgehängt werden.
Aktuell habe ich viel (siehe unten:-) zuwenig Ahnung von deinem Modul, von Perl und der Parameterübergabe von der fhem-GUI, als dass ich mir eine Umsetzung zutrauen würde,
welche du übernehmen könntest. Wahrscheinlich ist das auch schlicht zuviel, was ich da raus genommen habe:-)
Evtl. könntest du das Update der Devices beim Start von fhem bzw. der HMCCU per Parameter steuerbar machen.
Nachtrag: Habe mir schon gedacht, dass das zu kurz gedacht ist und da noch mehr gemacht wird:-)
Kann die Geräte nur noch einmal über fhem steuern, bekomme: "HMCCUDEV: HM_Licht_Wohnzimmer Invalid datapoint"
Aber war auch nur ein Test...
Vielen Dank und viele Grüße,
Ban
Noch ein Nachtrag: Ich habe heute testweise ioBroker installiert, um zu schauen, wie sich meine CCU damit verhält. Wenn ich die beiden Adapter rega und rpc anschalte und die Geräte abfrage, bekomme ich im Log der CCU3 dieselben Fehlermeldungen, wie beim Start der PRC-Server in fhem. Nur die CCU3 ist weiterhin bedienbar. Die Fehlermeldungen der nicht erreichbaren Geräte sind wohl nicht der Auslöser für das Fehlverhalten der CCU. Scheinbar macht HMCCU hier bei der Abfrage noch etwas mehr. Mehr Datenpunkte abfragen? Kann man das evtl. herausfinden? Ich helfe auch gerne weiterhin mit!
Beim zweiten Test, CCU3 Neustart und ioBroker Neustart, danach die beiden Adapter neu angelegt und die IP Geräte synchronisiert, kamen die Fehlermeldungen in der CCU3 nicht mehr. Evtl. weil vorher noch gleichzeitig fhem zugegriffen hat. Auch beim zweiten Test ist die CCU weiterhin normal bedienbar. Der State der IP Geräte wird bei Änderung auch im ioBroker aktualisiert. Die Events kommen also an.
Hallo zusammen,
noch abschließend hier die Info zum Stand meiner Tests.
Ich habe zusätzlich einen Charly gekauft. Alle Geräte resettet und auf dem Charly neu angelernt. Auf dem Charly verwende ich das aktuelle RaspberryMatic.
Habe als weiteren Test eine externe Antenne angeschlossen.
Auch mit dieser Kombination habe ich dasselbe Problem.
Folgendes habe ich insgesamt versucht:
- fhem neu aufgesetzt und nur HMCCU eingebunden. Alle Geräte in fhem neu erzeugen lassen
- 2 unterschiedliche CCU3 ausprobiert. Jeweils das Backup eingespielt
- Unterschiedliche Positionen der CCU3 getestet
- neuer Charly mit Neuanlernen aller Geräte, ohne Backup
- externe Antenne am Charly
Immer ohne zusätzliche Module in der CCU.
Jedesmal gibt es das beschriebene Verhalten.
Viele Grüße,
Ban
Hallo,
ich habe heute das kalte Wetter nochmals genutzt, um den gleichen Versuch wie Ban schon gemacht hat, nochmals nachzustellen.
- Raspi komplett neu mit Linux Debian lite Kernel 4.14 neu aufgesetzt
- Fhem aktuellste Version fhem-5.9 nur mit im WIKI empfohlenen Paketen installiert
- Nur die Perl Module RPC::XML::Server und RPC::XML::Client für HMCCU installiert
- Als einziges Modul HMCCU mit den dazugehörigen RPC Servern (BidCos-RF,HmIP-RF,VirtualDevices) installiert
Auch nur mit dieser Minimalkonfiguration, treten die gleichen Fehler wie immer beim Neustart (wie bei Ban auch) auf.
Als ich die einzelnen Geräte noch nicht in Fhem angelegt hatte (RPC Server sind schon gelaufen) war alles noch OK und Fhem konnte problemlos neu gestartet werden.
Erst als ich meine Geräte aus der CCU3 mit dem Befehl
get d_ccu devicelist create ^.* t=dev f=HM_%n defattr save room=Homematic
in Fhem angelegt hatte, ging die CCU3 nach einem shutdown restart wieder in die Knie.
Alle meine Gerätenamen habe ich in der CCU nach folgendem Muster angelegt:
Z.B.:
EG_FKE1_Kueche (
Geschoss_Funktion_Raum) alles konsequent ohne Umlaute und Sonderzeichen und doppeltes Vorkommen, nur mit Unterstrichen.
Wenn die Gerätenamen so passen, kann von Seiten Fhem nach menschlichem Ermessen kein Userfehler mehr in Betracht kommen, denn es gibt ja keine Programmierung und keinerlei weitere Module in Fhem :).
Gibt es von irgend jemande von euch noch irgend welche Ideen welche ich versuchen könnte um Fhem in Verbindung mit der CCU3 wieder "normal" zu nutzen?Derzeit könnte ich nahezu jeden Versuch durchführen (schon aus Gründen der Verzweiflung), da ich dafür meinen Test-Raspi verwende. Neu angelernt habe ich auch schon alle Geräte auf der CCU2 in der Vergangenheit, auch daran kann es nicht liegen, da dies den Fehler nicht beseitigt hatte.
@Ban: Hast du den Versuch mit nur einigen Geräten auf der CCU3 schon durchgeführt?
Gruß Reinhard
Wir hatten ja schon das Update aller Geräte nach dem Start der RPC Server und der damit einhergehenden Überlastung der CCU als Ursache identifiziert.
Insofern: Was hast Du Dir von der Neuinstallation versprochen?
Aus irgendwelchen ominösen Gründen können einige CCUs die Vielzahl der Anfragen nicht ab, während andere CCUs damit kein Problem haben.
Hi!
Da wir immer noch nicht den Grund für das Problem kennen, wäre eine Idee, die Updates auszubremsen:
88_HMCCU.pm ab Zeile 6646 (also vor my $nam = '';) Folgendes einfügen:
Log3 $hmccu_hash->{NAME}, 5, "HMCCU: [$hmccu_hash->{NAME}] GetUpdate: Updating $addr.";
und
88_HMCCU.pm ab Zeile 2899 Folgendes einfügen:
sleep(1);
sowie in FHEM:
attr d_ccu verbose 5
Das Timing lässt sich dann im FHEM-Log beobachten:
2019.04.14 19:47:29.706 5: HMCCU: [hmccu2] GetUpdate: Updating 0007D70B9CF569.
2019.04.14 19:47:30.732 5: HMCCU: [hmccu2] GetUpdate: Updating 001858AF8C18E3.
2019.04.14 19:47:31.831 5: HMCCU: [hmccu2] GetUpdate: Updating 0010970DA3C443.
2019.04.14 19:47:32.860 5: HMCCU: [hmccu2] GetUpdate: Updating 0007D7049CF38C.
Bitte beachtet: Durch die langen Sleeps gibt es auf jeden Fall ein riesiges Freeze in FHEM, daher bitte nur auf Testsystemen ausprobieren.
Patrick
Für Tests bestimmt nicht schlecht. Als einigermaßen nachhaltiger Workaround denke ich eher an sowas:
- Update abschaltbar machen
- Update mit sleep zwischen den einzelnen Devices im Hintergrund, d.h. Non blocking ausführen
Zitat von: zap am 14 April 2019, 20:31:50
Für Tests bestimmt nicht schlecht. Als einigermaßen nachhaltiger Workaround denke ich eher an sowas:
- Update abschaltbar machen
- Update mit sleep zwischen den einzelnen Devices im Hintergrund, d.h. Non blocking ausführen
So war es gedacht. Die Sleepzeit müsste natürlich in ein Attribut. Jetzt müssen wir aber erstmal verifizieren, dass es überhaupt was bringt.
Von unterwegs gesendet.
Hallo,
bei mir passieren wieder seltsame Dinge!
Ich habe den Test wie von Patrick vorgeschlagen durchgeführt und 88_HMCCU.pm entsprechend modifiziert.
Mit diesen Änderungen hängt sich die CCU3 nicht mehr auf und Fhem steht bei mir für ca. 2 Minuten, es wurden aber alle Geräte sauber eingelesen.
Ich dachte mir, nun mache ich mal den Test mit Verbose 5 und nur der Zeile für den Logeintrag, um zu sehen, wo die timeout Fehler, bei welchem Gerät genau auftreten.
Log3 $hmccu_hash->{NAME}, 5, "HMCCU: [$hmccu_hash->{NAME}] GetUpdate: Updating $addr.";
Bei mir reicht genau diese eine Zeile in Verbindung mit Verbose 5 aus, damit die RPC-Server wieder "normal" gestartet werden können. Alle 59 Geräte werden bei mir nun in weniger als 2 Sekunden fehlerfrei gelesen.
Es würde wahrscheinlich schon ausreichen das Modul durch ein wenig Schreibarbeit ins Log zu "beschäftigen", bei mir muss es definitiv kein sleep(1) sein. Somit wäre es für uns zumindes ein kurzfristiger Workaround, bis zap irgendwann mal eine professionelle Lösung einbaut.
Ich habe dies nun mehr als 8 Mal auf dem Testsystem getestet durch "shutdown restart" mit anschließendem "set d_ccu rpcserver on"
Ich bin nun so mutig und werde dies am Dienstag auf meinem Produktivsystem testen, denn irgendwann müssen ja die RPC-Server mal neu gestartet werden.
Edit:
Kommando zurück!
Es ist doch nicht so einfach wie gedacht, bei den Tests hat irgendwie meine CCU3 gehangen, es gab keinerlei Fehler auf der WEB Oberfläche, gemerkt hatte ich es erst, als sich meine HmIP-BSM nicht mehr über RaspiMatic selbst schalten liesen.
Nach einem Neustart der CCU3 ist nun alles so wie in der Vergangenheit auch.
Auch die Wartezeit von einer Sekunde bringt bei mir nicht den gewünschten Erfolg.
2019.04.08 15:29:29 5: HMCCU: [d_ccu] GetUpdate: Updating 0000D3C995F919.
2019.04.08 15:29:29 4: HMCCU: [d_ccu] Build URL = http://192.168.1.32:8181/tclrega.exe
2019.04.08 15:29:33 2: HMCCU: [d_ccu] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.04.08 15:29:33 2: HMCCU: Update of device 0000D3C995F919 failed
2019.04.08 15:29:34 5: HMCCU: [d_ccu] GetUpdate: Updating 000A97099C16F3.
2019.04.08 15:29:34 4: HMCCU: [d_ccu] Build URL = http://192.168.1.32:8181/tclrega.exe
2019.04.08 15:29:38 2: HMCCU: [d_ccu] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.04.08 15:29:38 2: HMCCU: Update of device 000A97099C16F3 failed
2019.04.08 15:29:39 5: HMCCU: [d_ccu] GetUpdate: Updating 000A970994F8D1.
2019.04.08 15:29:39 4: HMCCU: [d_ccu] Build URL = http://192.168.1.32:8181/tclrega.exe
2019.04.08 15:29:43 2: HMCCU: [d_ccu] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.04.08 15:29:43 2: HMCCU: Update of device 000A970994F8D1 failed
Da hab ich mich zu früh gefreut.
Gruß Reinhard
Zitat von: Rewe2000 am 14 April 2019, 16:01:42
@Ban: Hast du den Versuch mit nur einigen Geräten auf der CCU3 schon durchgeführt?
Das habe ich nicht mehr versucht, aber bei mir hat sich das Verhalten auch geändert.
@Reinhard: evtl. ist es das bei dir auch das aktuelle Verhalten.
Ich kann im Moment mein fhem neustarten wie ich will, solange ich die CCU nicht neustarte, habe ich keinerlei Problem.
Testweise habe ich die CCU neugestartet und danach auch fhem. Dann tritt das Problem wieder auf.
Mit der aktuellen RaspberrymaticFirmware (3.45.5.20190330) ist ein Watchdog eingebaut worden. Da sehe ich dann auch, dass, sobald sich die CCU "aufhängt", der Wathchdog versucht ReGaHss mehrfach neu zu starten.
Sobald ich einmalig einen lauffähigen Zustand mit "rpcregister all" herstelle, kann ich danach mein fhem wieder ohne Hänger der CCU durchstarten.
Im Moment bin ich auch dabei die "Last" in der CCU zu erhöhen, da ich meine Homematic Komponenten sukzessive von VCCU nach HMCCU umziehe.
Grüße,
Ban
Mahlzeit!
Gerade ist es wieder soweit. Nach dem Raspberrymatic-Update in der vergangenen Woche lief es nach rpcregister ohne Probleme weiter. Offenbar habe ich das Problem dann nur bis zum FHEM-Neustart gerade vertagt. Dafür hat die Raspberrymatic gerade von selbst neu gestartet, offenbar wegen des Watchdogs.
Patrick
Hallo Patrick,
auch ich habe eben ein Fhem Update durchgeführt und musste dadurch zwangsweise ein "shutdown restart" durchführen.
Grundsätzich bekomme ich meine Systeme nur wieder, wie folgt zum laufen:
- Nachdem Neustart von Fhem (ca. 5-10 Minuten) iegt grundsätzlich mein RaspberryMatic am Boden (zu erkennen an mehreren Kommunikationsstörungen zu IP-Geräten"
- Grundsätzlich führe ich danach auch einen auch Neustrart der RaspberryMatic durch, auch wenn sich diese anscheinend wieder erholt hat.
- Im Anschluß dann noch, beim HMCCU Modul ein set rpcregister all, nach 10 Sekunden ist Fhem wieder bereit.
Ohne diese Vorgehensweise bekomme ich meine Systeme überhaupt nicht mehr zum laufen.
Alles total unbefriedigend, besonders auch deswegen, weil ich selbst keinerlei Ideen mehr habe um das Problem noch ein wenig einzugrenzen.
Ich habe schon echt mit dem Gedanken gespielt, einige IP-Sensoren testweise aus meiner CCU3 zu löschen, denn mir geht es absolut nicht ins Hirn, was bei uns dreien anders ist als bei den vielen anderen HMiP und Fhem Usern.
Gruß Reinhard
Hallo Reinhard!
Zitat von: Rewe2000 am 02 Mai 2019, 21:46:27
- Nachdem Neustart von Fhem (ca. 5-10 Minuten) iegt grundsätzlich mein RaspberryMatic am Boden (zu erkennen an mehreren Kommunikationsstörungen zu IP-Geräten"
- Grundsätzlich führe ich danach auch einen auch Neustrart der RaspberryMatic durch, auch wenn sich diese anscheinend wieder erholt hat.
- Im Anschluß dann noch, beim HMCCU Modul ein set rpcregister all, nach 10 Sekunden ist Fhem wieder bereit.
Alles klar, kommt auf die Verzweiflungsliste. Ich habe es gerade so gelöst, dass ich die Sub HMCCU_UpdateClients () außer Gefecht gesetzt habe.
Zitat von: Rewe2000 am 02 Mai 2019, 21:46:27
Alles total unbefriedigend, besonders auch deswegen, weil ich selbst keinerlei Ideen mehr habe um das Problem noch ein wenig einzugrenzen.
Wo kommt Ihr her? Wir könnten uns bspw. mal in Berlin treffen und ein Bier trinken :) Ich bringe auch ein HmIP-Gerät und einen Hammer mit.
@Zap:
Könntest Du evtl ein Attribut oder ccuflag spendieren, das HMCCU_UpdateClients() außer Gefecht setzt?
Patrick
Oje, Selbsthilfegruppe mit Stuhlkreis ;D
Ja, ich weiß, ich hab gut Lachen. Wenn ich das Verhalten nur nachvollziehen könnte. Aber ich kann mein FHeM und /oder meine CCU3 so oft neu starten wie ich will. Das Update meiner mittlerweile fast 80 Geräte (davon 10 HmIP) ist in max 2 Sekunden erledigt.
Das Flag zum Abschalten ist in Arbeit. Allerdings habe ich noch eine andere Großbaustelle und solange die nicht erledigt ist, kann ich die neue Version nich einchecken. Das ist noch zu instabil.
Hallo,
ich habe das Problem mittlerweile auch, angefangen hat es mit dem CCU Update 2.45.6, vorher hatte ich keinerlei Probleme. Da habe ich täglich mein FHEM geupdatet und ein shutdown restart gemacht.
Aber seitdem muss ich wie nach jedem shutdown restart, ein reboot der CCU machen und dann ein rpcregister all, dann geht es wieder. Was natürlich nicht sehr schön ist, ich habe sowohl BidCos als auch IP im Einsatz und eine virtuelle Heizungsgruppe.
Ihr seid nicht allein ;)
Grüße
Swen
Verrückt, jetzt wollte ich das gerade nochmal testen und die CCU beobachten, da läuft alles ganz normal. Also einfach FHEM restart ohne Probleme, das einzige was ich gestern an HMCCU I/O DEV geändert habe war das ccuflag nonblocking und reconnect gesetzt und beim CCU RPC HmIP-RF das ccuflag auf expert gesetzt, sonst habe ich zu gestern nichts geändert.
Und beim HMCCU I/O DEV hatte ich das attr rpcinterval auf 2 stehen, warum weiß ich nicht mehr, aber ich habe das attribute komplett gelöscht, default ist wohl 5.
Hallo Swen,
willkommen im Club.
Läuft es bei dir nun wieder "normal" beim Start oder hatte sich der Erfolg nur temporär eingestellt?
@Patrick:
Als weitere Fehlerursache können wir nun auch das Bundesland ausschließen, da ich aus Bayern (nähe Nürnberg) komme.
Das mit der Sebsthilfegruppe ist gar keine schlechte Idee, bevor einer wirklich mit dem Hammer auf das Smart Home einschlägt, könnten wir ein wenig Meditieren und unser Leid beweinen, bis uns Zap da was einbaut.
Spaß beiseite.
@Patrick: Hat denn der Einbau der Verzögerung in HMCCU (Testweise) bei dir funktioniert? Bei mir hatte das sleep() nicht dazu geführt, dass ich die Timeout Fehler losbekommen hätte. Ich würde sogar Freezes von 5-10 Minuten in Kauf nehmen, wenn ich die Systeme wieder automatisiert starten könnte.
Gruß Reinhard
Hi!
Zitat von: Rewe2000 am 03 Mai 2019, 19:01:44
@Patrick: Hat denn der Einbau der Verzögerung in HMCCU (Testweise) bei dir funktioniert? Bei mir hatte das sleep() nicht dazu geführt, dass ich die Timeout Fehler losbekommen hätte. Ich würde sogar Freezes von 5-10 Minuten in Kauf nehmen, wenn ich die Systeme wieder automatisiert starten könnte.
Bei mir hatte es bei einer Stichprobe von n=1 funktioniert. Habe es allerdings wieder rausgenommen, nachdem Du Probleme gemeldet hattest. Aktuell habe ich das volle Update komplett rausgenommen. Letztlich hat das - man korrigiere mich - nur den Nachteil, dass die Status erst etwas später eintreffen. Aber das tun sie natürlich auch wenn einem stundenlang alles um die Ohren fliegt ;)
Um das Problem weiter eingrenzen müsste man mal einen Google Spreadsheet o. ä. erstellen, für den dann jeder eine Zeile ausfüllt. Das könnte man dann schrittweise erweitern, in etwa:
User | Aufhängen der CCU | ccuflag: nonblocking |
Patrick | ja | ja |
Nutzer wie doman75 mit verschiedenen Erfahrungen bei verschiedenen Einstellungen könnten dann auch zwei Zeilen füllen.
Patrick
rpcinterval wird nur verwendet, wenn der interne RPC Server eingestellt ist.
Aber selbst dann hat es keinen Einfluss auf die CCU Kommunikation, da es lediglich das Intervall für das Abfragen der FHEM bzw HMCCU internen Eventqueue zuständig ist.
Gerade Update und restart gemacht, alles läuft wie ganz normal.
Scheinbar gehöre ich nun auch zum Club :(
https://forum.fhem.de/index.php/topic,100308.0.html
Ich vermute, dass es mit dem HMServer Prozess der CCU zusammenhängt.
Löst sich vielleicht mit dem nächsten CCU Update.
Wäre interessant zu wissen, welche Fehlermeldungen im hmserver.log der CCU stehen
Nur eine Frage: müssten dann nicht alle CCU-Benutzer dieses Problem haben?
Wie komme ich am besten an das hmserver.log ? Dann schaue ich gerne mal nach Fehlermeldungen.
Ich habe das Log über die UI exportiert.
Beispiel gestern Abend:
Neustart FHEM mit
2019.05.06 22:11:21 2: HMCCU: [ccu3] Updated devices. Success=2 Failed=25
Danach Neustart CCU.
Welche Infos benötigst Du aus der hmserver.log ?
Ergänzung:
Heute morgen um 8:00 wurden Rolladen gefahren (aus FHEM gesteuert). In FHEM keine Fehlermeldung, die Aktionen wurden auch korrekt ausgeführt.
Im hmserver.log aber:
May 7 08:00:02 ccu3-webui local0.warn ReGaHss: WARNING: XMLRPC 'setValue': rpcClient.isFault() failed (url: xmlrpc://127.0.0.1:32010, params: {"001118A9A765DD:4","LEVEL",1.000000}, result: [faultCode:-1,faultString:"Generic error (UNREACH)"]) [CallXmlrpcMethod():iseXmlRpc.cpp:2608]
May 7 08:00:02 ccu3-webui local0.err ReGaHss: ERROR: XMLRPC 'setValue' call failed (interface: 1011, params: {"001118A9A765DD:4","LEVEL",1.000000}) [CallSetValue():iseXmlRpc.cpp:1505]
May 7 08:00:02 ccu3-webui local0.err ReGaHss: ERROR: rpc.CallSetValue failed; address = 001118A9A765DD:4 [WriteValue():iseDOMdpHSS.cpp:76]
Wichtig? Interessant?
Hallo Dirk070,
willkommen im Club.
ZitatNur eine Frage: müssten dann nicht alle CCU-Benutzer dieses Problem haben?
Hier zermartere ich mir schon Wochenlag mein Hirn, denn wenn es auch mit einem neu aufgesetzten Linux incl. Fhem und nur mit dem HMCCU Modul auftritt, kann es ja nicht an einer fehlerhaften Programmierung/Parametrierung unter Fhem liegen . Selbst auf CCU Seite trat der Fehler bei mir mit CCU2, CCU3 und RaspberryMatic auf. Hätte ich nun exotische Dinge auf der CCU3 installiert, so wäre das auch erklärbar, aber bei mir gibt es da nix, außer Standard.
Ich habe mir derzeit grundsätzlich angewöhnt, nachdem ich Fhem neu starten musste, auch nach einigen Minuten (achdem Fhem wieder über WEB erreichbar ist) auch noch an der CCU3 (RaspberryMatic) einen Neustart auszuführen, auch wenn im ersten Moment keine Probleme sichtbar sind. Nachdem die CCU3 wieder über WEB erreichbar ist, führe ich unter Fhem (beim HMCCU Modul) nur ein
set rpcregister all aus, nach 10 Sekunden einfrieren waren bisher immer die Systeme wieder syncron.
@zap:
Weshalb hast du die Hoffnung beim nächsten CCU Update wäre der Fehler nicht mehr vorhanden?
Hast du da irgendwelche Infos?
Die Hoffnung habe ich ehrlich gesagt schon aufgegeben.
Gruß Reinhard
Bei EQ3 kann man nur hoffen. Konkrete Infos habe ich keine, weiß aber, dass Rega und HMServer ziemlich verbugt sind. Mit jedem Update behebt EQ3 einige Fehler, baut aber genauso viele neue ein. Das Spiel geht so seit Jahren. Wenn man dann mal einen Fehler meldet, wird der als Einzelfall abgetan, nur um dann im übernächsten Release als gefixter Bug im Changelog aufzutauchen.
@Dirk070: im Log steht als Fehlerursache UNREACH, d.h. Das Gerät ist nicht erreichbar. Der Befehl wurde aber ausgeführt?
Ich denke, ich werde das Update je Interface steuerbar machen. Im Moment denke ich, dass der Fehler auftritt, wenn viele HMIP Devices auf einmal aktualisiert werden sollen. Ich habe derzeit nur 3 HmIP Devices aktiv.
Ggf. genügt statt einem Neustart der CCU auch ein Neustart vom HMServer.
Hallo,
ja, die Aktionen wurden trotz der Meldung ausgeführt.
Mal ein Gedanke: kann es am Routing der IP-Aktoren liegen?
Hintergrund: Ich habe meine alten Rolladen-Aktoren (10 Stück) gegen IP getauscht.
Einige wenige Aktoren liessen sich schlecht erreichen, daher habe ich in Summe 2 Steckdosen-Aktoren, bei denen ich das Routing aktiviert habe.
Gestern Abend lief z.B. eine Rollade recht spät, FHEM lieferte die Fehlermeldung:
HMCCUDEV: [CCU_EG_KU_Bl1PBU_STR] Error during CCU request. read from http://10.19.27.12:8181 timed out
Die Rollade lief aber, nur eben verzögert. Wenn ich das Vorgehen beim Routing richtig verstehe, versucht die CCU zuerst, direkt zu kommunizieren und wenn dies nicht funktioniert, wird über die Routing-Steckdosen-Aktoren gesendet.
Wilde Theorie: haben nur die, die ein Routing nutzen die Probleme? Könnte das die verhältnismäßig geringe Menge der Betroffenen erklären?
Viele Grüße
Dirk
Also ich habe routing im Einsatz, aber ich kann mittlerweile mein FHEM wieder starten wie ich will. ob es benutzt wird kann ich aber nicht sagen, aber zumindet aktviert ist es bei 2 PSM Aktoren.
Zitat von: doman75 am 08 Mai 2019, 14:37:36
Also ich habe routing im Einsatz, aber ich kann mittlerweile mein FHEM wieder starten wie ich will. ob es benutzt wird kann ich aber nicht sagen, aber zumindet aktviert ist es bei 2 PSM Aktoren.
Zitat von: doman75 am 03 Mai 2019, 09:06:51
Verrückt, jetzt wollte ich das gerade nochmal testen und die CCU beobachten, da läuft alles ganz normal. Also einfach FHEM restart ohne Probleme, das einzige was ich gestern an HMCCU I/O DEV geändert habe war das ccuflag nonblocking und reconnect gesetzt und beim CCU RPC HmIP-RF das ccuflag auf expert gesetzt, sonst habe ich zu gestern nichts geändert.
Und beim HMCCU I/O DEV hatte ich das attr rpcinterval auf 2 stehen, warum weiß ich nicht mehr, aber ich habe das attribute komplett gelöscht, default ist wohl 5.
Also "nur" durch:
- ccuflag nonblocking und reconnect
- ccuflag auf expert
- attr rpcinterval gelöscht
Korrekt
Hallo,
ZitatMal ein Gedanke: kann es am Routing der IP-Aktoren liegen?
auch ich verwende Routing über eine HmIP-PSM Schaltsteckdose, meine aber nicht, dass dies die Ursache hierfür sein kann.
Das Routing ist, wenn ich mich korrekt erinnere, grundsätzlich bei der Einrichtung von neuen Geräten aktiv und muss bewusst vom Anwender abgeschaltet werden. Ich vermute nicht, dass jeder User mit Fhem dieses Routing gezielt abschaltet.
Nachtrag:Habe das komplette Routing in meiner RaspberryMatic nun stillgelegt, nach Neustart der CCU3 nun auch Fhem neu gestartet, das Problem besteht nach wie vor.
Jemand anders, kann sich somit diesen Versuch sparen.
@zap:
Die einzige Lösung wird sein, das Update abschaltbar zu machen (ggf. pro RPC-Server getrennt). Hast du noch Hoffnung das Update mit Pausen zu verlangsamen?
Bei mir hat ja der Versuch https://forum.fhem.de/index.php/topic,98287.msg930558.html#msg930558 (https://forum.fhem.de/index.php/topic,98287.msg930558.html#msg930558) nicht geklappt.
Wenn wir da noch etwas in der Richtung testen sollen, melde dich bitte, ggf. war der Ansatz ja auch nicht optimal, wie wir das versucht haben.
Gruß Reinhard
Zitat von: Dirk070 am 08 Mai 2019, 15:38:38
Also "nur" durch:
- ccuflag nonblocking und reconnect
- ccuflag auf expert
- attr rpcinterval gelöscht
reconnect zu setzen macht Sinn, da sich der RPC Server dann automatisch neu bei der CCU registriert.
nonBlocking wird von dem initialen Geräteupdate (noch) nicht benutzt. Und wenn, dann hätte es keinen Einfluss auf die Stabilität der CCU, nur auf die von FHEM.
Nonblocking und reconnect habe ich auch gesetzt.
Ob das beim Neustart von FHEM/CCU "heilende" Wirkung hat, konnte ich noch nicht testen.
Unabhängig von Neustarts, sondern im täglichen Betrieb:
Einzelne Timeouts sehe ich immer mal wieder, immer nur bei den IP-Aktoren.
Ich denke, das dies durch das Routing geschieht. Das Routing in den Aktoren ("Routing aktiv") ist zwar per default eingeschaltet, beim Steckdosen-Aktor muss man die Funktion "Gerät dient als Router" jedoch explizit einschalten.
Da das Routing erst greift, wenn die Zentrale den Aktor nicht direkt erreicht, dauert die Kommunikation offenbar länger und FHEM meldet den Timeout, obwohl der Aktor schlussendlich reagiert.
Ich habe ccuReqTimeout mal auf 6 gesetzt....
Bei der direkten Ansteuerung der Geräte hilft sowohl nonblocking als auch die Erhöhung des Request Timeouts. Das mit dem Routing ist wirklich ein interessanter Punkt. Allerdigs dürfte das Abschalten des Routings das Problem evtl. verschlimmern, da die Geräte dann tatsächlich nicht erreichbar sind.
Hallo zusammen,
zur Sicherheit, falls jemand den Thread "HMCCU: Version 4.3 verfügbar" nicht verfolgt.
Zap hat ein Update bzgl. des Updates der Geräte beim fhem Start veröffentlicht.
https://forum.fhem.de/index.php/topic,91033.msg938922.html#msg938922
Grüße,
Ban
Danke für den Hinweis!! :)
Hallo,
auch von meiner Seite vielen Dank für den Tipp, werde es heute noch installieren.
Gruß Reinhard
Hallo,
leider ist bei mir der Test nicht sehr erfolgreich verlaufen, ich habe fast den Eindruck die RPC-Server können nur dann fehlerfrei mit ccuflags auf noInitialUpdate gestartet werden, wenn die CCU3 (mit RasperryMatic) schon länger gelaufen ist. Starte ich die CCU3 und kurz danach Fhem, so stürzt Fhem bei mir sogar ab.
Mehr dazu weiter unten.
HMCCU habe ich wie folgt definiert (RAW-Definition):
defmod CCU2 HMCCU 192.168.1.32 waitforccu=120
attr CCU2 DbLogExclude .*
attr CCU2 ccuReqTimeout 8
attr CCU2 ccuaggregate name:HmIP_battery_,filter:group=HmIP-Device,read:(Batterie),if:any=leer,else:ok,prefix=HmIP_battery_,coll:alias;;\
name:HM_battery_,filter:group=HM-Device,read:(Batterie),if:any=leer,else:ok,prefix=HM_battery_,coll:alias;;\
name:DutyCycle_,filter:group=HmIP-Device,read:(0.DUTY_CYCLE),if:any=(1|true),else:(0|false),prefix=DutyCycle_,coll:alias\
name:Unerreichbar_,filter:group=HmIP-Device,read:(0.UNREACH),if:any=(1|true),else:(0|false),prefix=Unerreichbar_,coll:alias
attr CCU2 ccuflags procrpc,nonBlocking
attr CCU2 cmdIcon on:general_an off:general_aus
attr CCU2 eventMap /rpcserver on:on/rpcserver off:off/
attr CCU2 group Hardware
attr CCU2 icon hm_ccu
attr CCU2 room Homematic
attr CCU2 rpcinterfaces BidCos-RF,HmIP-RF,VirtualDevices
attr CCU2 rpcport 2001,2010,9292
attr CCU2 rpcqueue /tmp/ccuqueue
attr CCU2 rpcserver on
attr CCU2 stateFormat rpcstate/state
attr CCU2 verbose 2
setstate CCU2 running/OK
setstate CCU2 2019-05-14 18:30:00 DutyCycle_count 54
setstate CCU2 2019-05-14 18:30:00 DutyCycle_list no match
setstate CCU2 2019-05-14 18:30:00 DutyCycle_match 0
setstate CCU2 2019-05-14 18:30:00 DutyCycle_state (0|false)
setstate CCU2 2019-05-14 18:30:00 HM_battery_count 4
setstate CCU2 2019-05-14 18:30:00 HM_battery_list no match
setstate CCU2 2019-05-14 18:30:00 HM_battery_match 0
setstate CCU2 2019-05-14 18:30:00 HM_battery_state ok
setstate CCU2 2019-05-14 18:30:00 HmIP_battery_count 54
setstate CCU2 2019-05-14 18:30:00 HmIP_battery_list no match
setstate CCU2 2019-05-14 18:30:00 HmIP_battery_match 0
setstate CCU2 2019-05-14 18:30:00 HmIP_battery_state ok
setstate CCU2 2019-05-14 18:43:50 Status_Watchdog 0
setstate CCU2 2019-05-14 18:30:00 Unerreichbar_count 54
setstate CCU2 2019-05-14 18:30:00 Unerreichbar_list HM_EG_FK1_Wohnzimmer,HM_EG_FK1_Dusche,HM_OG_FK2_Schlafzimmer,HM_OG_FK1_BueroReinhard,HM_EG_TKE1_Wohnzimmer,HM_OG_FK1_Schlafzimmer,HM_OG_FK1_Bad
setstate CCU2 2019-05-14 18:30:00 Unerreichbar_match 7
setstate CCU2 2019-05-14 18:30:00 Unerreichbar_state (1|true)
setstate CCU2 2019-05-14 18:26:45 count_channels 380
setstate CCU2 2019-05-14 18:26:45 count_devices 65
setstate CCU2 2019-05-14 18:26:45 count_groups 5
setstate CCU2 2019-05-14 18:26:45 count_interfaces 3
setstate CCU2 2019-05-14 18:26:45 count_programs 11
setstate CCU2 2019-05-14 18:41:51 iface_addr_1 PEQ1947473
setstate CCU2 2019-05-14 18:41:51 iface_addr_2 3014F711A0001F58A9A71F51
setstate CCU2 2019-05-14 18:41:51 iface_conn_1 1
setstate CCU2 2019-05-14 18:41:51 iface_conn_2 1
setstate CCU2 2019-05-14 18:41:51 iface_ducy_1 5
setstate CCU2 2019-05-14 18:41:51 iface_ducy_2 5
setstate CCU2 2019-05-14 18:41:51 iface_type_1 CCU2
setstate CCU2 2019-05-14 18:41:51 iface_type_2 HMIP_CCU2
setstate CCU2 2019-05-14 18:27:15 rpcstate running
setstate CCU2 2019-05-14 18:36:50 state OK
HMCCURPCPROC - HmIP-RF wie folgt (RAW-Definition):
defmod d_rpc001032HmIP_RF HMCCURPCPROC http://192.168.1.32 HmIP-RF
attr d_rpc001032HmIP_RF DbLogExclude .*
attr d_rpc001032HmIP_RF alias CCU RPC HmIP-RF
attr d_rpc001032HmIP_RF ccuflags noInitialUpdate
attr d_rpc001032HmIP_RF eventMap /rpcserver on:on/rpcserver off:off/
attr d_rpc001032HmIP_RF icon hm_ccu
attr d_rpc001032HmIP_RF room Homematic
attr d_rpc001032HmIP_RF stateFormat rpcstate/state
attr d_rpc001032HmIP_RF verbose 2
setstate d_rpc001032HmIP_RF running/OK
setstate d_rpc001032HmIP_RF 2019-05-14 18:27:05 rpcstate running
setstate d_rpc001032HmIP_RF 2019-05-14 18:37:02 state OK
Ich denke das sollte grundsätzlich so passen.
Meine Tests im einzelnen:
1. Neustart nur Fhem
Die CCU3 war über einen Tag in Betrieb, Fhem wurde, nach stoppen der RPC-Server, mit shutdown restart neu gestartet.
Der Start klappte bei mir genau so, wie @Ban ihn beschrieben hatte, Fhem kam sauber hoch, ohne Fehler im Log, auch die CCU3 zeigte keinerlei Abweichungen.
2. Neustart CCU3 und Fhem
Beim zweiten Test habe ich die CCU3 und Fhem gestoppt, als erstes die CCU3 gestartet und während des Hochlaufs der CCU3 habe ich Fhem gestartet. Früher startete Fhem mit Fehlern bei der HMCCU und den RPC-Servern, nach ca. 5 Minuten konnte ein shutdown restart ausgeführt werden und Fhem lief danach wieder absolut stabil.
Beim heutigen und den gleichen gestrigen Versuch, startet Fhem, nach ca. 2 Minuten hängt es sich auf und stürzt mit der Fehlermeldung
2019.05.14 17:58:11 4: HMCCU: [CCU2] Build URL =
Can't locate object method "simple_request" via package "RPC::XML::Client::new: Missing location argument" (perhaps you forgot to load "RPC::XML::Client::new: Missing location argument"?) at ./FHEM/88_HMCCU.pm line 7668.
ab.
Nach einem sudo reboot oder sudo /etc/init.d/fhem status startet danach Fhem wieder, die CCU3 ist jedoch stark "beschäftigt" und es kommen viele Servicemeldungen (unreach-fehler). Nach einem erneuten Neustart der CCU3 und set CCU2 rpcregister all läuft alles wieder stabil.
Wenn Interesse besteht, ich habe mir das Log mit Verbose 5 und stacktrace bei auftreten des Absturzes aufgehoben.
Zumindest ist jetzt wieder ein shutdown restart möglich, nachdem die CCU3 länger gelaufen ist, bisher war ja nicht einmal dies möglich.
Danke @zap für deine Mühe mit dem Patch, leider hat dieser nur einen Teilerfolg erzielt.
Bin gespannt wie die Tests bei meinen "Leidensgenossen" verlaufen sind.
Gruß Reinhard
Und wenn du bei allen RPC Devices no initial update setzt?
Hallo zap,
ZitatUnd wenn du bei allen RPC Devices no initial update setzt?
hab ich eben probiert, klappt auch nicht!
Auch das IP-Routing ist an allen Geräten abgeschaltet.
Auch das "normale"
shutdown restart (bei laufender CCU3) funktioniert nicht mehr.
Die CCU3 mit RaspberryMatic bringt > 25 Kommunikationsstörungen und musste neu gestartet werden.
Aber Fhem stürzt zumindest nicht mehr ab ;D
Wenn ich mein Fehlerlog als Laie so interpretiere, denke ich fast, es werden bei mir noch immer alle Geräte, trotz
noInitialUpdate bei allen RPC-Servern, beim Start noch abgefragt.
Eben nochmal flag noInitialUpdate bei allen RPC-Servern geprüft und erneut
shutdown restart ausgeführt, das Ergenis ändert sich jedoch nicht.
Ich häng nochmal mein LOG mit an, eventuell fällt ja jemanden noch etwas auf.
2019.05.15 18:27:21 0: HMCCU: Start of RPC server after FHEM initialization in 12 seconds
2019.05.15 18:27:21 3: Opening WAGO device 192.168.1.30:502
2019.05.15 18:27:21 3: WAGO device opened
2019.05.15 18:27:21 1: usb create starting
2019.05.15 18:27:22 3: Probing ZWDongle device /dev/serial1
2019.05.15 18:27:22 3: Probing CUL device /dev/ttyS0
2019.05.15 18:27:22 1: usb create end
2019.05.15 18:27:22 0: Featurelevel: 5.9
2019.05.15 18:27:22 0: Server started with 392 defined entities (fhem.pl:19381/2019-05-13 perl:5.024001 os:linux user:fhem pid:13337)
2019.05.15 18:27:23 1: Perfmon: possible freeze starting at 18:27:08, delay is 15.225
2019.05.15 18:27:23 3: telnetForBlockingFn_1557937643: port 33025 opened
2019.05.15 18:27:23 2: ModbusTCPServer_Parse: except (code 2)
2019.05.15 18:27:33 2: HMCCU: [CCU2] Get RPC device for interface BidCos-RF
2019.05.15 18:27:33 2: HMCCU: [CCU2] Get RPC device for interface HmIP-RF
2019.05.15 18:27:33 2: HMCCU: [CCU2] Get RPC device for interface VirtualDevices
2019.05.15 18:27:33 2: HMCCURPCPROC: [d_rpc001032BidCos_RF] RPC server process started for interface BidCos-RF with PID=13367
2019.05.15 18:27:33 2: CCURPC: [d_rpc001032BidCos_RF] Initializing RPC server CB2001001033001032 for interface BidCos-RF
2019.05.15 18:27:33 1: HMCCURPCPROC: [d_rpc001032BidCos_RF] RPC server starting
2019.05.15 18:27:33 2: HMCCURPCPROC: [d_rpc001032HmIP_RF] RPC server process started for interface HmIP-RF with PID=13368
2019.05.15 18:27:33 2: CCURPC: [d_rpc001032HmIP_RF] Initializing RPC server CB2010001033001032 for interface HmIP-RF
2019.05.15 18:27:33 1: HMCCURPCPROC: [d_rpc001032HmIP_RF] RPC server starting
2019.05.15 18:27:33 2: HMCCURPCPROC: [d_rpc001032VirtualDevices] RPC server process started for interface VirtualDevices with PID=13369
2019.05.15 18:27:33 2: CCURPC: [d_rpc001032VirtualDevices] Initializing RPC server CB9292001033001032 for interface VirtualDevices
2019.05.15 18:27:33 1: HMCCURPCPROC: [d_rpc001032VirtualDevices] RPC server starting
2019.05.15 18:27:33 2: HMCCURPCPROC: [d_rpc001032BidCos_RF] Callback server CB2001001033001032 created. Listening on port 7411
2019.05.15 18:27:33 2: CCURPC: [d_rpc001032BidCos_RF] CB2001001033001032 accepting connections. PID=13367
2019.05.15 18:27:33 2: HMCCURPCPROC: [d_rpc001032BidCos_RF] RPC server CB2001001033001032 enters server loop
2019.05.15 18:27:33 2: HMCCURPCPROC: [d_rpc001032BidCos_RF] Registering callback http://192.168.1.33:7411/fh2001 of type A with ID CB2001001033001032 at http://192.168.1.32:2001
2019.05.15 18:27:33 2: HMCCURPCPROC: [d_rpc001032HmIP_RF] Callback server CB2010001033001032 created. Listening on port 7420
2019.05.15 18:27:33 2: CCURPC: [d_rpc001032HmIP_RF] CB2010001033001032 accepting connections. PID=13368
2019.05.15 18:27:33 2: HMCCURPCPROC: [d_rpc001032VirtualDevices] Callback server CB9292001033001032 created. Listening on port 14702
2019.05.15 18:27:33 2: CCURPC: [d_rpc001032VirtualDevices] CB9292001033001032 accepting connections. PID=13369
2019.05.15 18:27:34 1: HMCCURPCPROC: [d_rpc001032BidCos_RF] RPC server CB2001001033001032 running
2019.05.15 18:27:34 1: HMCCURPCPROC: [d_rpc001032BidCos_RF] Scheduled CCU ping every 300 seconds
2019.05.15 18:27:34 2: HMCCURPCPROC: [d_rpc001032VirtualDevices] RPC server CB9292001033001032 enters server loop
2019.05.15 18:27:34 2: HMCCURPCPROC: [d_rpc001032VirtualDevices] Registering callback http://192.168.1.33:14702/fh9292 of type A with ID CB9292001033001032 at http://192.168.1.32:9292/groups
2019.05.15 18:27:34 2: CCURPC: [d_rpc001032BidCos_RF] CB2001001033001032 NewDevice received 79 device and channel specifications
2019.05.15 18:27:34 2: CCURPC: [d_rpc001032VirtualDevices] CB9292001033001032 NewDevice received 35 device and channel specifications
2019.05.15 18:27:44 1: HMCCURPCPROC: [d_rpc001032VirtualDevices] RPC server CB9292001033001032 running
2019.05.15 18:27:44 2: HMCCURPCPROC: [d_rpc001032HmIP_RF] RPC server CB2010001033001032 enters server loop
2019.05.15 18:27:44 2: HMCCURPCPROC: [d_rpc001032HmIP_RF] Registering callback http://192.168.1.33:7420/fh2010 of type A with ID CB2010001033001032 at http://192.168.1.32:2010
2019.05.15 18:27:44 1: HMCCURPCPROC: [d_rpc001032HmIP_RF] RPC server CB2010001033001032 running
2019.05.15 18:27:44 1: HMCCU: [CCU2] All RPC servers running
2019.05.15 18:27:45 2: CCURPC: [d_rpc001032HmIP_RF] CB2010001033001032 NewDevice received 331 device and channel specifications
2019.05.15 18:27:54 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.05.15 18:27:54 2: HMCCU: Update of device 000A55699D54CA failed
2019.05.15 18:28:02 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.05.15 18:28:02 2: HMCCU: Update of device 000A5709916E0D failed
2019.05.15 18:28:10 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.05.15 18:28:10 2: HMCCU: Update of device 00045709AABA11 failed
2019.05.15 18:28:23 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.05.15 18:28:23 2: HMCCU: Update of device 000BD569A36E45 failed
2019.05.15 18:28:31 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.05.15 18:28:31 2: HMCCU: Update of device 000A97099C2095 failed
2019.05.15 18:28:40 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.05.15 18:28:57 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.05.15 18:28:57 2: HMCCU: Update of device 000393C994CDFB failed
2019.05.15 18:29:05 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.05.15 18:29:05 2: HMCCU: Update of device 0000D569A4A8C0 failed
2019.05.15 18:29:26 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.05.15 18:29:26 2: HMCCU: Update of device 000915699D38CB failed
2019.05.15 18:29:48 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.05.15 18:29:48 2: HMCCU: Update of device 000855699C41DE failed
2019.05.15 18:30:04 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.05.15 18:30:04 2: HMCCU: Update of device 0000D569A4AA0C failed
2019.05.15 18:30:12 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.05.15 18:30:12 2: HMCCU: Update of device 000855699C40D9 failed
2019.05.15 18:30:21 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.05.15 18:30:21 2: HMCCU: Update of device 000A9709A0D2C2 failed
2019.05.15 18:30:29 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.05.15 18:30:37 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.05.15 18:30:37 2: HMCCU: Update of device 0000D3C995FED6 failed
2019.05.15 18:30:51 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.05.15 18:30:51 2: HMCCU: Update of device 000A55699D6F4F failed
2019.05.15 18:30:59 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.05.15 18:30:59 2: HMCCU: Update of device 000B5569A27E19 failed
2019.05.15 18:31:29 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.05.15 18:31:29 2: HMCCU: Update of device 000895699E78A7 failed
2019.05.15 18:31:40 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.05.15 18:31:40 2: HMCCU: Update of device 000855699C41D7 failed
2019.05.15 18:31:48 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.05.15 18:31:48 2: HMCCU: Update of device 0000D569A4A8DE failed
2019.05.15 18:31:57 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.05.15 18:31:57 2: HMCCU: Update of device 0000D569A4AA67 failed
2019.05.15 18:32:19 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.05.15 18:32:19 2: HMCCU: Update of device 000895699E78CF failed
2019.05.15 18:32:19 1: PERL WARNING: Use of uninitialized value $filter in concatenation (.) or string at ./FHEM/88_HMCCU.pm line 2665.
2019.05.15 18:32:19 2: HMCCU: [CCU2] Updated devices for interface filter . Success=43 Failed=22
2019.05.15 18:32:19 1: Perfmon: possible freeze starting at 18:27:35, delay is 284.799
2019.05.15 18:32:19 3: ModbusTCPServer_Timeout, request: SimpleWrite [42 DC 00 00 00 06] 00 01 42 DC 00 08
2019.05.15 18:32:20 2: Systemhinweis - Folgende Geäte sind nicht erreichbar: HM_OG_FKE1_Garderobe,HM_EG_FK1_Wohnzimmer,HM_EG_TKE1_Wohnzimmer !
2019.05.15 18:32:21 3: ModbusTCPServer_Parse: got frame for previous request: [42 DC 00 00 00 04] 00 01 01 00
2019.05.15 18:32:21 1: Perfmon: possible freeze starting at 18:32:20, delay is 1.672
2019.05.15 18:32:21 1: 192.168.1.30:502 disconnected, waiting to reappear (WAGO)
2019.05.15 18:32:22 2: AttrTemplates: got 87 entries
2019.05.15 18:32:23 1: Perfmon: possible freeze starting at 18:32:22, delay is 1.322
2019.05.15 18:32:24 1: 192.168.1.30:502 reappeared (WAGO)
2019.05.15 18:32:26 2: ModbusTCPServer_Parse: except (code 2)
2019.05.15 18:34:13 2: HMCCURPCPROC: [d_rpc001032BidCos_RF] Registering callback http://192.168.1.33:7411/fh2001 of type A with ID CB2001001033001032 at http://192.168.1.32:2001
2019.05.15 18:34:14 2: HMCCURPCPROC: [d_rpc001032HmIP_RF] Registering callback http://192.168.1.33:7420/fh2010 of type A with ID CB2010001033001032 at http://192.168.1.32:2010
2019.05.15 18:34:14 2: HMCCURPCPROC: [d_rpc001032VirtualDevices] Registering callback http://192.168.1.33:14702/fh9292 of type A with ID CB9292001033001032 at http://192.168.1.32:9292/groups
2019.05.15 18:34:14 2: CCURPC: [d_rpc001032BidCos_RF] CB2001001033001032 NewDevice received 79 device and channel specifications
2019.05.15 18:34:14 2: CCURPC: [d_rpc001032VirtualDevices] CB9292001033001032 NewDevice received 35 device and channel specifications
2019.05.15 18:34:15 2: CCURPC: [d_rpc001032HmIP_RF] CB2010001033001032 NewDevice received 331 device and channel specifications
2019.05.15 18:34:24 1: Perfmon: possible freeze starting at 18:34:14, delay is 10.122
Beim stoppen der RPC-Server ist mir eben die Meldung im Log aufgefallen, Fehler in Fhem hatte ich aber keine bemerkt.
2019.05.15 20:07:46 2: CCURPC: [d_rpc001032HmIP_RF] Number of I/O errors = 91
Gruß Reinhard
ok, da ist noch ein Fehler drin. Wenn bei allen RPC Devices noInitialUpdate gesetzt ist, werden statt keine alle Devices aktualisiert.
Bis ich das gefixt habe, setze das Flag überall außer z.B. für das Interface VirtualDevices.
Hallo zap.
danke für die Info, ich dachte schon ich mache da irgend etwas falsch.
Ich warte lieber bis du die berichtigte Version einstellst, mittlerweile können wir uns ja helfen.
Mich wundert nur ein wenig, dass die Rückmeldungen von einigen anderen Usern positiv ausfielen. Eigentlich sollten doch alle HMCCU.. Versionen beim letzten Update gleich gewesen sein.
Gruß Reinhard
Vermutlich hat es bei den anderen genügt, für HmIP noInitialUpdate zu setzen.
Hi!
Kann es sein, dass noInitialUpdate immer noch Probleme macht?
Bekam gerade nach dem Restart eine Armada von tclrega-Zugriffen obwohl das Flag auf beiden RPCs gesetzt ist.
Patrick
Hallo Patrick,
so wie ich es verstanden habe hat zap da noch einen Fehler im Modul. https://forum.fhem.de/index.php/topic,98287.msg940304.html#msg940304 (https://forum.fhem.de/index.php/topic,98287.msg940304.html#msg940304)
Ich habe bisher keine Versuche mehr gemacht und warte lieber auf die korrekte Version des Moduls, bis zap dies bereitstellt.
Nachdem alle "Leidensgenossen" geschwiegen haben, dachte ich echt, ich bin wieder der einzige mit dem Problem.
Gruß Reinhard
Das Flag funktioniert derzeit nur, wenn es bei mindestens einem RPC Server nicht gesetzt ist.
Hallo zap,
vielen Dank für das gestrige Update des Moduls HMCCU.
Nun klappt das ausblenden mit noInitialUpdate bei allen RPC-Servern, beim Neustart von Fhem.
Bisher läuft alles bestens und so wie in der Vergangenheit auch gewohnt.
Ich kann gut damit leben, wenn sich die Geräte innerhalb der nächten Stunden mit dem aktuellen Zustand melden, wenn ich diesen sofort brauche, so betätige ich eben das Gerät und der aktuelle Zustand wird sofort gesendet.
Gruß Reinhard
Freut mich. Demnächst gibt es noch einen Versuch mit dem initialen Update. Muss aber erst noch etwas testen.
Kurze Statusmeldung zu den Time Outs bei mir:
Ich habe ab und zu weiterhin das Problem mit den "timed out" Meldungen. Die Aktoren reagieren aber eigentlich immer.
Beispiel:
Eine Schaltung über einen DOIF löst um 20:00 Uhr mehrere SET CONTROL für meine Rolladen aus und schaltet 2 Lampen an.
Die Rolladen sind HMIP-Aktoren, die Lampen noch die alten HM.
Vielleicht ein oder zweimal im Monat gehen die Lampen um 20:00 Uhr an und die Rolladen fahren aber 1 Minute oder so später.
In Summe sind also immer nur die IP-Aktoren betroffen. Im Log finden sich dann die "timed out" Meldungen.
In der HMCCU steht der ccuReqTimeout bereits auf 8.
D.h. die set Befehle werden für unterschiedliche Devices ausgeführt?
Ja genau, ein separater SET pro Rollade und pro Licht.
Über den Daumen 2 Aktoren Licht (keine IP) und 7 Rolladen (IP).
Du könntest Dir ein Homematic Script schreiben das all diese Aufgaben erledigt. Der Vorteil: ein solches Script wird mit einem einzigen Request an die CCU geschickt und ausgeführt. Parameter können auch übergeben werden.
Alternativ kannst Du auch ein Gruppendevice für die Rollläden und eins für die Lichter anlegen. Wichtig dabei ist, dass alle Geräte in einer Gruppe den Datenpunkt, den Du setzen willst, im gleichen Kanal verfügbar haben.
Also: Wenn Du 3 Rollläden hast und alle werden über den Datenpunkt 1.LEVEL gesteuert, kannst Du folgendes tun:
define allBlinds HMCCUDEV virtual group=Adr1,Adr2,Adr3
Wenn Du nun folgenden Befehl absetzt, werden alle 3 Datapoint Set Befehle in nur einem Request an die CCU geschickt, z.B.
set allBlinds datapoint 1.LEVEL 100
Außerdem wird es voraussichtlich mit der nächsten Version eine Möglichkeit geben, beliebige CCU Geräte in einem einzigen Request zu schalten.
Zitat von: zap am 10 August 2019, 19:03:39
Außerdem wird es voraussichtlich mit der nächsten Version eine Möglichkeit geben, beliebige CCU Geräte in einem einzigen Request zu schalten.
Vielen Dank für die Tipps und Infos, die Funktion im nächsten Release wäre natürlich perfekt. :)
Laut Log setzt FHEM die Befehle aller in der selben Sekunde ab, ich vermute, dass die CCU für die Verzögerungen verantwortlich ist.
DutyCycle kann ich ausschließen (wird geloggt). Die Verzögerungen ergeben sich max. in 10% der Fälle, dann sind die Non-IP Geräte immer schneller.
Ich bin mal gespannt, ob die Problematik mit dem Senden in einem Request erledigt ist, oder es wirklich die CCU ist.
Eine Info war ich noch schuldig: die Aktoren werden zwar alle geschaltet, aber durchaus mit jeweils individuellen Werten.
Also einige Rolladen auf 80%, andere auf 50% etc.
Ok, bei unterschiedlichen Werten macht eine Gruppe keinen Sinn.
In dem Fall wird es die kommende Erweiterung lösen.
Ich bin dem Thema auch noch mal nachgegangen. Aufgrund von vergangenen Test hatte ich bei den Rolladenaktoren die Eventverzögerung und den Zufallsanteil auf "Nicht aktiv" in der CCU.
Dies habe ich gestern auf 1Sek. und 3.Sek. geändert. Der erste Lauf am gestrigen Abend war dann tatsächlich zügiger und mit dem Schalten des Lichts parallel.
Eventuell hatten sich durch die Einstellungen tatsächlich Funk-Kollisionen ergeben. Ich beobachte den Verlauf über die nächsten Tage und Wochen, dann lässt sich eine verlässliche Aussage formulieren.
Die Ergänzung im Modul ist natürlich trotzdem eine willkommene Neuerung ;)
Jetzt verfügbar.