HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:

Begonnen von Rewe2000, 08 März 2019, 20:40:43

Vorheriges Thema - Nächstes Thema

Rewe2000

Hallo,

hat sich da grundlegend am Start der HMCCU mit den RPC-Servern etwas geändert?
Ein alleiniger shutdown restart (bei laufender CCU2) ist bei mir, ohne händische Nacharbeit, seit neuem nicht mehr möglich.

Nach der Fehlermeldung:
HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
wird die Initialisierung vom HMCCU-device um 180 Sekunden verzögert.
Nach Ablauf der 180 Sekunden wird HMCCU initialisiert und die RPC-Server werden gestartet, irgendwann kommt aber dann nochmals der "..../tclrega.exe: Select timeout/error:" und einige Geräte können nich fehlerfrei gelesen werden.

Erst nachdem ich beim HMCCU Device einen nochmaligen stop und start ausführe werden alle Geräte fehlerfrei gelesen und Fhem läuft fehlerfrei.

Mehr fällt mir in meinem Startlog nicht auf, habt ihr einen Tipp für mich woran dieses Verhalten liegen könnte?
Kann es sein, dass die CCU2 die ersten 10 Minuten nach einem Neustart so mit sich selbst beschäftigt ist, dass die Daten nicht schnell genug an HMCCU gegeben werden?

Nach einem shutdown restart sieht mein Log wie folgt aus:
2019.03.08 19:29:54 2: DbLog old_DBLogging - continuing shutdown sequence
2019.03.08 19:29:57 2: Perfmon: ready to watch out for delays greater than one second
2019.03.08 19:29:57 1: Including fhem.cfg
2019.03.08 19:29:57 3: telnetPort: port 7072 opened
2019.03.08 19:29:57 3: WEBphone: port 8084 opened
2019.03.08 19:29:57 3: WEBtablet: port 8085 opened
2019.03.08 19:29:57 2: eventTypes: loaded 5219 events from ./log/eventTypes.txt
2019.03.08 19:29:58 3: Opening COC device /dev/ttyAMA0
2019.03.08 19:29:58 3: Setting COC serial parameters to 38400,8,N,1
2019.03.08 19:29:58 3: COC: Possible commands: mBbCFiAZGMYRTVWXefltuxz
2019.03.08 19:29:58 3: COC device opened
2019.03.08 19:29:58 2: Switched COC rfmode to HomeMatic
2019.03.08 19:29:59 1: HMCCU: [CCU2] Initialized version 4.3.014
2019.03.08 19:29:59 1: HMCCU: [CCU2] HMCCU: Initializing device
2019.03.08 19:30:03 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.08 19:30:03 1: HMCCU: [CCU2] HMCCU: Error while reading device list from CCU 192.168.1.32
2019.03.08 19:30:03 1: HMCCU: [CCU2] Scheduling delayed initialization in 180 seconds
2019.03.08 19:30:04 2: HMCCUDEV: [HM_OG_FKE1_BueroReinhard] Cannot detect IO device, maybe CCU not ready. Trying later
...
....
....
....
2019.03.08 19:30:08 1: Including ./log/fhem.save
2019.03.08 19:30:09 1: configfile: Invalid port or interface BidCos-RF
Please define d_rpcBidCos_RF 5c47772f-f33f-7df9-9416-c8e5708aac277440 first
Invalid port or interface HmIP-RF
Please define d_rpcHmIP_RF 5c47772f-f33f-7df9-45a3-b70730c169004d7a first
Invalid port or interface VirtualDevices
Please define d_rpcVirtualDevices 5c47772f-f33f-7df9-9f1c-a7cf7c567bf67874 first
./log/fhem.save: Please define d_rpc001032BidCos_RF first
Please define d_rpc001032BidCos_RF first
Please define d_rpc001032BidCos_RF first
Please define d_rpc001032HmIP_RF first
Please define d_rpc001032HmIP_RF first
Please define d_rpc001032HmIP_RF first
Please define d_rpc001032VirtualDevices first
Please define d_rpc001032VirtualDevices first
Please define d_rpc001032VirtualDevices first

2019.03.08 19:30:09 3: Device HM_4DC29E added to ActionDetector with 000:10 time
2019.03.08 19:30:11 0: HMCCU: Start of RPC server after FHEM initialization in 200 seconds
2019.03.08 19:30:11 3: Opening WAGO device 192.168.1.30:502
2019.03.08 19:30:11 3: WAGO device opened
2019.03.08 19:30:11 1: usb create starting
2019.03.08 19:30:11 3: Probing ZWDongle device /dev/serial1
2019.03.08 19:30:12 3: Probing CUL device /dev/ttyS0
2019.03.08 19:30:12 1: usb create end
2019.03.08 19:30:12 0: Featurelevel: 5.9
2019.03.08 19:30:12 0: Server started with 383 defined entities (fhem.pl:18623/2019-02-17 perl:5.024001 os:linux user:fhem pid:12037)
2019.03.08 19:30:12 1: Perfmon: possible freeze starting at 19:29:58, delay is 14.933
2019.03.08 19:30:13 2: ModbusTCPServer_Parse: except (code 2)
2019.03.08 19:30:16 3: telnetForBlockingFn_1552069816: port 40771 opened
2019.03.08 19:33:03 1: HMCCU: [CCU2] HMCCU: Initializing devices
2019.03.08 19:33:07 2: HMCCU: [CCU2] Initializing 65 client devices in state 'pending'
2019.03.08 19:33:07 1: PERL WARNING: Argument "Initialized" isn't numeric in multiplication (*) at (eval 1664) line 1.
2019.03.08 19:33:08 1: PERL WARNING: Argument "Initialized" isn't numeric in multiplication (*) at (eval 1692) line 1.
2019.03.08 19:33:08 1: PERL WARNING: Argument "Initialized" isn't numeric in multiplication (*) at (eval 1702) line 1.
2019.03.08 19:33:08 1: PERL WARNING: Argument "Initialized" isn't numeric in multiplication (*) at (eval 1706) line 1.
2019.03.08 19:33:08 1: PERL WARNING: Argument "Initialized" isn't numeric in multiplication (*) at (eval 1714) line 1.
2019.03.08 19:33:09 1: HMCCU: [CCU2] HMCCU: Read 64 devices with 329 channels from CCU 192.168.1.32
2019.03.08 19:33:09 1: HMCCU: [CCU2] HMCCU: Read 3 interfaces from CCU 192.168.1.32
2019.03.08 19:33:09 1: HMCCU: [CCU2] HMCCU: Read 12 programs from CCU 192.168.1.32
2019.03.08 19:33:09 1: HMCCU: [CCU2] HMCCU: Read 5 virtual groups from CCU 192.168.1.32
2019.03.08 19:33:09 1: Perfmon: possible freeze starting at 19:33:04, delay is 5.416
2019.03.08 19:33:31 2: HMCCU: [CCU2] Get RPC device for interface BidCos-RF
2019.03.08 19:33:31 1: HMCCU: [CCU2] No RPC device defined for interface BidCos-RF
2019.03.08 19:33:31 1: HMCCU: [CCU2] Creating new RPC device d_rpc001032BidCos_RF
2019.03.08 19:33:31 1: HMCCURPCPROC: [d_rpc001032BidCos_RF] Initialized version 1.7.001 for interface BidCos-RF with I/O device CCU2
2019.03.08 19:33:31 2: HMCCU: [CCU2] Get RPC device for interface HmIP-RF
2019.03.08 19:33:31 1: HMCCU: [CCU2] No RPC device defined for interface HmIP-RF
2019.03.08 19:33:31 1: HMCCU: [CCU2] Creating new RPC device d_rpc001032HmIP_RF
2019.03.08 19:33:31 1: HMCCURPCPROC: [d_rpc001032HmIP_RF] Initialized version 1.7.001 for interface HmIP-RF with I/O device CCU2
2019.03.08 19:33:31 2: HMCCU: [CCU2] Get RPC device for interface VirtualDevices
2019.03.08 19:33:31 1: HMCCU: [CCU2] No RPC device defined for interface VirtualDevices
2019.03.08 19:33:31 1: HMCCU: [CCU2] Creating new RPC device d_rpc001032VirtualDevices
2019.03.08 19:33:31 1: HMCCURPCPROC: [d_rpc001032VirtualDevices] Initialized version 1.7.001 for interface VirtualDevices with I/O device CCU2
2019.03.08 19:33:31 1: HMCCU: [CCU2] Saving FHEM config
2019.03.08 19:33:31 2: HMCCURPCPROC: [d_rpc001032BidCos_RF] RPC server process started for interface BidCos-RF with PID=12145
2019.03.08 19:33:31 2: CCURPC: [d_rpc001032BidCos_RF] Initializing RPC server CB2001001033001032 for interface BidCos-RF
2019.03.08 19:33:31 1: HMCCURPCPROC: [d_rpc001032BidCos_RF] RPC server starting
2019.03.08 19:33:32 2: HMCCURPCPROC: [d_rpc001032HmIP_RF] RPC server process started for interface HmIP-RF with PID=12146
2019.03.08 19:33:32 2: CCURPC: [d_rpc001032HmIP_RF] Initializing RPC server CB2010001033001032 for interface HmIP-RF
2019.03.08 19:33:32 1: HMCCURPCPROC: [d_rpc001032HmIP_RF] RPC server starting
2019.03.08 19:33:32 2: HMCCURPCPROC: [d_rpc001032VirtualDevices] RPC server process started for interface VirtualDevices with PID=12147
2019.03.08 19:33:32 2: CCURPC: [d_rpc001032VirtualDevices] Initializing RPC server CB9292001033001032 for interface VirtualDevices
2019.03.08 19:33:32 1: HMCCURPCPROC: [d_rpc001032VirtualDevices] RPC server starting
2019.03.08 19:33:32 2: HMCCURPCPROC: [d_rpc001032BidCos_RF] Callback server CB2001001033001032 created. Listening on port 7411
2019.03.08 19:33:32 2: CCURPC: [d_rpc001032BidCos_RF] CB2001001033001032 accepting connections. PID=12145
2019.03.08 19:33:32 2: HMCCURPCPROC: [d_rpc001032BidCos_RF] RPC server CB2001001033001032 enters server loop
2019.03.08 19:33:32 2: HMCCURPCPROC: [d_rpc001032BidCos_RF] Registering callback http://192.168.1.33:7411/fh2001 of type A with ID CB2001001033001032 at http://192.168.1.32:2001
2019.03.08 19:33:32 2: HMCCURPCPROC: [d_rpc001032HmIP_RF] Callback server CB2010001033001032 created. Listening on port 7420
2019.03.08 19:33:32 2: CCURPC: [d_rpc001032HmIP_RF] CB2010001033001032 accepting connections. PID=12146
2019.03.08 19:33:32 2: HMCCURPCPROC: [d_rpc001032VirtualDevices] Callback server CB9292001033001032 created. Listening on port 14702
2019.03.08 19:33:32 2: CCURPC: [d_rpc001032VirtualDevices] CB9292001033001032 accepting connections. PID=12147
2019.03.08 19:33:32 1: HMCCURPCPROC: [d_rpc001032BidCos_RF] RPC server CB2001001033001032 running
2019.03.08 19:33:32 1: HMCCURPCPROC: [d_rpc001032BidCos_RF] Scheduled CCU ping every 300 seconds
2019.03.08 19:33:32 2: HMCCURPCPROC: [d_rpc001032HmIP_RF] RPC server CB2010001033001032 enters server loop
2019.03.08 19:33:32 2: HMCCURPCPROC: [d_rpc001032HmIP_RF] Registering callback http://192.168.1.33:7420/fh2010 of type A with ID CB2010001033001032 at http://192.168.1.32:2010
2019.03.08 19:33:32 1: HMCCURPCPROC: [d_rpc001032HmIP_RF] RPC server CB2010001033001032 running
2019.03.08 19:33:32 2: HMCCURPCPROC: [d_rpc001032VirtualDevices] RPC server CB9292001033001032 enters server loop
2019.03.08 19:33:32 2: HMCCURPCPROC: [d_rpc001032VirtualDevices] Registering callback http://192.168.1.33:14702/fh9292 of type A with ID CB9292001033001032 at http://192.168.1.32:9292/groups
2019.03.08 19:33:32 2: CCURPC: [d_rpc001032BidCos_RF] CB2001001033001032 NewDevice received 79 device and channel specifications
2019.03.08 19:33:34 2: CCURPC: [d_rpc001032VirtualDevices] CB9292001033001032 NewDevice received 35 device and channel specifications
2019.03.08 19:33:36 2: CCURPC: [d_rpc001032HmIP_RF] CB2010001033001032 NewDevice received 279 device and channel specifications
2019.03.08 19:33:42 1: HMCCURPCPROC: [d_rpc001032VirtualDevices] RPC server CB9292001033001032 running
2019.03.08 19:33:42 1: HMCCU: [CCU2] All RPC servers running
2019.03.08 19:34:00 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.08 19:34:08 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.08 19:34:24 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.08 19:34:24 2: HMCCU: Update of device 000A9709A0D2C2 failed
2019.03.08 19:34:32 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.08 19:34:32 2: HMCCU: Update of device 0000D3C995FEEC failed
2019.03.08 19:34:48 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.08 19:34:48 2: HMCCU: Update of device 000BD569A36E45 failed
2019.03.08 19:34:56 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.08 19:34:56 2: HMCCU: Update of device 0000D3C995F8F8 failed
2019.03.08 19:35:04 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.08 19:35:12 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.08 19:35:12 2: HMCCU: Update of device 000A55699D69DB failed
2019.03.08 19:35:28 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.08 19:35:28 2: HMCCU: Update of device 000855699C40D9 failed
2019.03.08 19:35:37 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.08 19:35:37 2: HMCCU: Update of device 000A55699D54CA failed
2019.03.08 19:35:45 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.08 19:35:45 2: HMCCU: Update of device 0000D569A4A8E8 failed
2019.03.08 19:36:02 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.08 19:36:02 2: HMCCU: Update of device 000995698BD842 failed
2019.03.08 19:36:10 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.08 19:36:10 2: HMCCU: Update of device 000A5709916E86 failed
2019.03.08 19:36:24 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.08 19:36:32 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.08 19:36:32 2: HMCCU: Update of device 000895699E78CF failed
2019.03.08 19:36:41 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.08 19:36:41 2: HMCCU: Update of device 0000D569A4A8CE failed
2019.03.08 19:36:54 2: HMCCU: [CCU2] Updated devices. Success=49 Failed=16
2019.03.08 19:36:54 1: Perfmon: possible freeze starting at 19:33:33, delay is 201.383
2019.03.08 19:36:54 3: ModbusTCPServer_Timeout, request: SimpleWrite [40 01 00 00 00 06] 00 01 40 01 00 08
2019.03.08 19:36:54 3: ModbusTCPServer_Parse: got frame for previous request:  [40 01 00 00 00 04] 00 01 01 00
2019.03.08 19:36:55 1: 192.168.1.30:502 disconnected, waiting to reappear (WAGO)
2019.03.08 19:36:56 1: 192.168.1.30:502 reappeared (WAGO)
2019.03.08 19:36:56 2: ModbusTCPServer_Parse: except (code 2)
2019.03.08 19:37:25 2: AttrTemplates: got 64 entries
2019.03.08 19:40:22 1: HMCCURPCPROC: [d_rpc001032BidCos_RF] Stopping RPC server CB2001001033001032
2019.03.08 19:40:22 1: HMCCURPCPROC: [d_rpc001032BidCos_RF] Deregistering RPC server http://192.168.1.33:7411/fh2001 with ID CB2001001033001032 at http://192.168.1.32:2001
2019.03.08 19:40:22 1: HMCCURPCPROC: [d_rpc001032BidCos_RF] Callback for RPC server CB2001001033001032 deregistered
2019.03.08 19:40:22 2: HMCCURPCPROC: [d_rpc001032BidCos_RF] Sending signal INT to RPC server process CB2001001033001032 with PID=12145
2019.03.08 19:40:22 2: HMCCURPCPROC: [d_rpc001032BidCos_RF] Scheduling cleanup in 30 seconds
2019.03.08 19:40:22 2: CCURPC: [d_rpc001032BidCos_RF] CB2001001033001032 received signal INT
2019.03.08 19:40:22 1: CCURPC: [d_rpc001032BidCos_RF] RPC server CB2001001033001032 stopped handling connections. PID=12145
2019.03.08 19:40:22 2: CCURPC: [d_rpc001032BidCos_RF] Number of I/O errors = 0
2019.03.08 19:40:23 1: HMCCURPCPROC: [d_rpc001032HmIP_RF] Stopping RPC server CB2010001033001032
2019.03.08 19:40:23 1: HMCCURPCPROC: [d_rpc001032HmIP_RF] Deregistering RPC server http://192.168.1.33:7420/fh2010 with ID CB2010001033001032 at http://192.168.1.32:2010
2019.03.08 19:40:23 1: HMCCURPCPROC: [d_rpc001032HmIP_RF] Callback for RPC server CB2010001033001032 deregistered
2019.03.08 19:40:23 2: HMCCURPCPROC: [d_rpc001032HmIP_RF] Sending signal INT to RPC server process CB2010001033001032 with PID=12146
2019.03.08 19:40:23 2: CCURPC: [d_rpc001032HmIP_RF] CB2010001033001032 received signal INT
2019.03.08 19:40:23 1: CCURPC: [d_rpc001032HmIP_RF] RPC server CB2010001033001032 stopped handling connections. PID=12146
2019.03.08 19:40:23 2: CCURPC: [d_rpc001032HmIP_RF] Number of I/O errors = 88
2019.03.08 19:40:23 2: HMCCURPCPROC: [d_rpc001032HmIP_RF] Scheduling cleanup in 30 seconds
2019.03.08 19:40:24 1: HMCCURPCPROC: [d_rpc001032VirtualDevices] Stopping RPC server CB9292001033001032
2019.03.08 19:40:24 1: HMCCURPCPROC: [d_rpc001032VirtualDevices] Deregistering RPC server http://192.168.1.33:14702/fh9292 with ID CB9292001033001032 at http://192.168.1.32:9292/groups
2019.03.08 19:40:24 1: HMCCURPCPROC: [d_rpc001032VirtualDevices] Callback for RPC server CB9292001033001032 deregistered
2019.03.08 19:40:24 2: HMCCURPCPROC: [d_rpc001032VirtualDevices] Sending signal INT to RPC server process CB9292001033001032 with PID=12147
2019.03.08 19:40:24 2: HMCCURPCPROC: [d_rpc001032VirtualDevices] Scheduling cleanup in 30 seconds
2019.03.08 19:40:24 2: CCURPC: [d_rpc001032VirtualDevices] CB9292001033001032 received signal INT
2019.03.08 19:40:24 1: CCURPC: [d_rpc001032VirtualDevices] RPC server CB9292001033001032 stopped handling connections. PID=12147
2019.03.08 19:40:24 2: CCURPC: [d_rpc001032VirtualDevices] Number of I/O errors = 0
2019.03.08 19:40:25 1: Perfmon: possible freeze starting at 19:40:23, delay is 2.751
2019.03.08 19:40:25 1: HMCCURPCPROC: [d_rpc001032VirtualDevices] RPC server process CB9292001033001032 terminated.
2019.03.08 19:40:25 2: HMCCURPCPROC: [d_rpc001032VirtualDevices] Stop I/O handling
2019.03.08 19:40:25 1: HMCCURPCPROC: [d_rpc001032HmIP_RF] RPC server process CB2010001033001032 terminated.
2019.03.08 19:40:25 2: HMCCURPCPROC: [d_rpc001032HmIP_RF] Stop I/O handling
2019.03.08 19:40:25 1: HMCCURPCPROC: [d_rpc001032BidCos_RF] RPC server process CB2001001033001032 terminated.
2019.03.08 19:40:25 1: HMCCU: [CCU2] All RPC servers inactive
2019.03.08 19:40:25 2: HMCCURPCPROC: [d_rpc001032BidCos_RF] Stop I/O handling
2019.03.08 19:40:36 2: HMCCU: [CCU2] Get RPC device for interface BidCos-RF
2019.03.08 19:40:36 2: HMCCU: [CCU2] Get RPC device for interface HmIP-RF
2019.03.08 19:40:36 2: HMCCU: [CCU2] Get RPC device for interface VirtualDevices
2019.03.08 19:40:36 2: HMCCURPCPROC: [d_rpc001032BidCos_RF] RPC server process started for interface BidCos-RF with PID=12281
2019.03.08 19:40:36 2: CCURPC: [d_rpc001032BidCos_RF] Initializing RPC server CB2001001033001032 for interface BidCos-RF
2019.03.08 19:40:36 1: HMCCURPCPROC: [d_rpc001032BidCos_RF] RPC server starting
2019.03.08 19:40:36 2: HMCCURPCPROC: [d_rpc001032HmIP_RF] RPC server process started for interface HmIP-RF with PID=12282
2019.03.08 19:40:36 2: CCURPC: [d_rpc001032HmIP_RF] Initializing RPC server CB2010001033001032 for interface HmIP-RF
2019.03.08 19:40:36 2: HMCCURPCPROC: [d_rpc001032BidCos_RF] Callback server CB2001001033001032 created. Listening on port 7411
2019.03.08 19:40:36 2: CCURPC: [d_rpc001032BidCos_RF] CB2001001033001032 accepting connections. PID=12281
2019.03.08 19:40:36 1: HMCCURPCPROC: [d_rpc001032HmIP_RF] RPC server starting
2019.03.08 19:40:36 2: HMCCURPCPROC: [d_rpc001032VirtualDevices] RPC server process started for interface VirtualDevices with PID=12283
2019.03.08 19:40:36 2: CCURPC: [d_rpc001032VirtualDevices] Initializing RPC server CB9292001033001032 for interface VirtualDevices
2019.03.08 19:40:36 1: HMCCURPCPROC: [d_rpc001032VirtualDevices] RPC server starting
2019.03.08 19:40:36 2: HMCCURPCPROC: [d_rpc001032HmIP_RF] Callback server CB2010001033001032 created. Listening on port 7420
2019.03.08 19:40:36 2: CCURPC: [d_rpc001032HmIP_RF] CB2010001033001032 accepting connections. PID=12282
2019.03.08 19:40:36 2: HMCCURPCPROC: [d_rpc001032BidCos_RF] RPC server CB2001001033001032 enters server loop
2019.03.08 19:40:36 2: HMCCURPCPROC: [d_rpc001032VirtualDevices] Callback server CB9292001033001032 created. Listening on port 14702
2019.03.08 19:40:36 2: CCURPC: [d_rpc001032VirtualDevices] CB9292001033001032 accepting connections. PID=12283
2019.03.08 19:40:36 2: HMCCURPCPROC: [d_rpc001032BidCos_RF] Registering callback http://192.168.1.33:7411/fh2001 of type A with ID CB2001001033001032 at http://192.168.1.32:2001
2019.03.08 19:40:36 1: HMCCURPCPROC: [d_rpc001032BidCos_RF] RPC server CB2001001033001032 running
2019.03.08 19:40:36 1: HMCCURPCPROC: [d_rpc001032BidCos_RF] Scheduled CCU ping every 300 seconds
2019.03.08 19:40:36 2: HMCCURPCPROC: [d_rpc001032HmIP_RF] RPC server CB2010001033001032 enters server loop
2019.03.08 19:40:36 2: HMCCURPCPROC: [d_rpc001032HmIP_RF] Registering callback http://192.168.1.33:7420/fh2010 of type A with ID CB2010001033001032 at http://192.168.1.32:2010
2019.03.08 19:40:36 1: HMCCURPCPROC: [d_rpc001032HmIP_RF] RPC server CB2010001033001032 running
2019.03.08 19:40:36 2: HMCCURPCPROC: [d_rpc001032VirtualDevices] RPC server CB9292001033001032 enters server loop
2019.03.08 19:40:36 2: HMCCURPCPROC: [d_rpc001032VirtualDevices] Registering callback http://192.168.1.33:14702/fh9292 of type A with ID CB9292001033001032 at http://192.168.1.32:9292/groups
2019.03.08 19:40:37 2: CCURPC: [d_rpc001032BidCos_RF] CB2001001033001032 NewDevice received 79 device and channel specifications
2019.03.08 19:40:37 2: CCURPC: [d_rpc001032VirtualDevices] CB9292001033001032 NewDevice received 35 device and channel specifications
2019.03.08 19:40:39 2: CCURPC: [d_rpc001032HmIP_RF] CB2010001033001032 NewDevice received 279 device and channel specifications
2019.03.08 19:40:47 1: HMCCURPCPROC: [d_rpc001032VirtualDevices] RPC server CB9292001033001032 running
2019.03.08 19:40:47 1: HMCCU: [CCU2] All RPC servers running
2019.03.08 19:40:52 2: HMCCU: [CCU2] Updated devices. Success=65 Failed=0
2019.03.08 19:40:52 1: Perfmon: possible freeze starting at 19:40:37, delay is 15.75


Anbei noch eine RAW-Definition meines HMCCU Devices.
defmod CCU2 HMCCU 192.168.1.32 waitforccu=120
attr CCU2 DbLogExclude .*
attr CCU2 ccuReqTimeout 8
attr CCU2 ccuaggregate name:HmIP_battery_,filter:group=HmIP-Device,read:(Batterie),if:any=leer,else:ok,prefix=HmIP_battery_,coll:alias;;\
name:HM_battery_,filter:group=HM-Device,read:(Batterie),if:any=leer,else:ok,prefix=HM_battery_,coll:alias;;\
name:DutyCycle_,filter:group=HmIP-Device,read:(0.DUTY_CYCLE),if:any=(1|true),else:(0|false),prefix=DutyCycle_,coll:alias\
name:Unerreichbar_,filter:group=HmIP-Device,read:(0.UNREACH),if:any=(1|true),else:(0|false),prefix=Unerreichbar_,coll:alias
attr CCU2 ccuflags procrpc,nonBlocking
attr CCU2 cmdIcon on:general_an off:general_aus
attr CCU2 eventMap /rpcserver on:on/rpcserver off:off/
attr CCU2 group Hardware
attr CCU2 icon hm_ccu
attr CCU2 room Homematic
attr CCU2 rpcinterfaces BidCos-RF,HmIP-RF,VirtualDevices
attr CCU2 rpcport 2001,2010,9292
attr CCU2 rpcqueue /tmp/ccuqueue
attr CCU2 rpcserver on
attr CCU2 stateFormat rpcstate/state

setstate CCU2 running/OK
setstate CCU2 2019-03-08 20:30:00 DutyCycle_count 54
setstate CCU2 2019-03-08 20:30:00 DutyCycle_list no match
setstate CCU2 2019-03-08 20:30:00 DutyCycle_match 0
setstate CCU2 2019-03-08 20:30:00 DutyCycle_state (0|false)
setstate CCU2 2019-03-08 20:30:00 HM_battery_count 4
setstate CCU2 2019-03-08 20:30:00 HM_battery_list no match
setstate CCU2 2019-03-08 20:30:00 HM_battery_match 0
setstate CCU2 2019-03-08 20:30:00 HM_battery_state ok
setstate CCU2 2019-03-08 20:30:00 HmIP_battery_count 54
setstate CCU2 2019-03-08 20:30:00 HmIP_battery_list no match
setstate CCU2 2019-03-08 20:30:00 HmIP_battery_match 0
setstate CCU2 2019-03-08 20:30:00 HmIP_battery_state ok
setstate CCU2 2019-03-08 20:32:07 Status_Watchdog 1
setstate CCU2 2019-03-08 20:30:00 Unerreichbar_count 54
setstate CCU2 2019-03-08 20:30:00 Unerreichbar_list no match
setstate CCU2 2019-03-08 20:30:00 Unerreichbar_match 0
setstate CCU2 2019-03-08 20:30:00 Unerreichbar_state (0|false)
setstate CCU2 2019-03-08 19:33:09 count_channels 329
setstate CCU2 2019-03-08 19:33:09 count_devices 64
setstate CCU2 2019-03-08 19:33:09 count_groups 5
setstate CCU2 2019-03-08 19:33:09 count_interfaces 3
setstate CCU2 2019-03-08 19:33:09 count_programs 12
setstate CCU2 2019-03-08 20:30:08 iface_addr_1 NEQ1574270
setstate CCU2 2019-03-08 20:30:08 iface_addr_2 3014F711A000035569A16D7E
setstate CCU2 2019-03-08 20:30:08 iface_conn_1 1
setstate CCU2 2019-03-08 20:30:08 iface_conn_2 1
setstate CCU2 2019-03-08 20:30:08 iface_ducy_1 17
setstate CCU2 2019-03-08 20:30:08 iface_ducy_2 18
setstate CCU2 2019-03-08 20:30:08 iface_type_1 CCU2
setstate CCU2 2019-03-08 20:30:08 iface_type_2 HMIP_CCU2
setstate CCU2 2019-03-08 19:40:47 rpcstate running
setstate CCU2 2019-03-08 19:40:52 state OK


Ich hoffe ihr habt noch einen Tipp für mich, oder hab ich da eine Änderung von zap nicht mitbekommen.

Nachtrag:
Ich denke es ist eine zu sehr beschäftigte CCU2 (kurz nach dem Neustart), nachdem diese nun eine Stunde läuft, startet nun auch Fhem normal. Es bleibt bei den 180 Sekunden Wartezeit, bevor HMCCU initialisiert werden kann, aber ich muss zumindest nicht mehr von Hand eingreifen.

Ich verwende derzeit folgende Versionen der Module:
88_HMCCU.pm           18745 2019-02-26 17:33:23Z zap
88_HMCCUDEV.pm        18552 2019-02-10 11:52:28Z zap
88_HMCCURPCPROC.pm    18745 2019-02-26 17:33:23Z zap


Gruß Reinhard
Fhem 6.3 auf Raspberry Pi4 SSD mit Raspbian Bookworm, Homematic, Homematic IP, CCU3 mit RapberryMatic, WAGO 750-880, E3DC S10E Hauskraftwerk, E3DC Wallbox, my-PV AC ELWA-E Heizstab, Fritz!Box 7590, KIA Bluelinky

zap

Die Fehlermeldung kommt von den Httputils. Die CCU scheint hier tatsächlich etwas langsam zu antworten und dadurch die verzögerte Initialisierung von HMCCU zu provozieren. Kann das nicht nachvollziehen, habe eine CCU3.

Du könntest das Attribut ccuReqTimeout auf einen Wert >5 setzen. Bringt vielleicht was.
2xCCU3, Fenster, Rollläden, Themostate, Stromzähler, Steckdosen ...)
Entwicklung: FHEM auf AMD NUC (Ubuntu)
Produktiv inzwischen auf Home Assistant gewechselt.
Maintainer: FULLY, Meteohub, HMCCU, AndroidDB

Rewe2000

Hallo zap,

ich gehe aber davon aus, du hast in den letzten 2 Wochen, am HMCCU Modul selbst nichts in die Richtung geändert. Der verzögerte Start der RPC-Server war vorher auch schon eingebaut, mir ist das nur nicht aufgefallen da die Antwort schneller von der CCU2 kam. Somit muss sich eindeutig meine CCU2 verlangsamt haben, denn an so ein Verhalten kann ich mich früher nicht erinnern.

Ich beobachte im Log dieser CCU2 viele Fehler, in einem anderen Thread https://forum.fhem.de/index.php/topic,98329.0.html wollte ich dazu mal nachfragen, ob die bei anderen Usern auch auftreten.

Gruß Reinhard
Fhem 6.3 auf Raspberry Pi4 SSD mit Raspbian Bookworm, Homematic, Homematic IP, CCU3 mit RapberryMatic, WAGO 750-880, E3DC S10E Hauskraftwerk, E3DC Wallbox, my-PV AC ELWA-E Heizstab, Fritz!Box 7590, KIA Bluelinky

zap

Mit dem letzten Release habe ich die Unterstützung für Delayed Shutdown eingebaut. FHEM wartet dann beim Shutdown, bis die RPC Server korrekt beendet wurden. Dürfte mit deinem Problem nicht zusammen hängen.
2xCCU3, Fenster, Rollläden, Themostate, Stromzähler, Steckdosen ...)
Entwicklung: FHEM auf AMD NUC (Ubuntu)
Produktiv inzwischen auf Home Assistant gewechselt.
Maintainer: FULLY, Meteohub, HMCCU, AndroidDB

Rewe2000

Hallo,

irgendwie mysteriös das ganze, die Probleme bestehen bei mir jetzt immer nach einen shutdown restart, bei der ersten Abrfage der HMCCU kommt immer der Timeout Fehler, nach 3 Minuten werden dann die RPC-Server gestartet und alles passt wieder.

Nur nachdem die CCU2 auch neu gestartet wurde, hängt Fhem und die CCU2 für ca. 4-5 Minuten beim Start der RPC-Server und es werden nicht alle Geräte eingelesen, es treten immer noch Timeout Fehler auf. Erst durch ein nochmaliges Stop/Start der RPC-Server kommen alle Geräte fehlerfrei an.

In der CCU2 erscheinen im Log, beim Timeout folgende Meldungen:
***** hmserver.log *****
Mar 10 09:29:16 de.eq3.cbcs.legacy.bidcos.rpc.LegacyServiceHandler INFO  [vert.x-worker-thread-0] (un)registerCallback on LegacyServiceHandler called from url: http://192.168.1.33:7420/fh2010
Mar 10 09:29:16 de.eq3.cbcs.legacy.bidcos.rpc.LegacyServiceHandler INFO  [vert.x-worker-thread-0] Removed InterfaceId: CB2010001033001032
Mar 10 09:29:16 de.eq3.cbcs.legacy.bidcos.rpc.LegacyServiceHandler INFO  [vert.x-worker-thread-0] init finished
Mar 10 09:29:17 de.eq3.ccu.virtualdevice.service.internal.rega.VirtualDeviceHandlerRega INFO  [vert.x-eventloop-thread-2] (un)registerCallback on VirtualDeviceHandlerRega called from url: http://192.168.1.33:14702/fh9292
Mar 10 09:29:17 de.eq3.ccu.virtualdevice.service.internal.rega.VirtualDeviceHandlerRega INFO  [vert.x-eventloop-thread-2] Removed InterfaceId: null


Wenn mir da jemand bei der Interpretation helfen könnte wäre das prima.

Egal was ich mache, das Verhalten bleibt gleich, folgende Maßnahmen habe ich nacheinander durchgeführt. Nachdem der Fehler nicht verschwunden war, habe ich die vorhergehenden Einstellungen, vor dem nächsten Schritt, wieder rückgangig gemacht.

   - ccuReqTimeout bei HMCCU Device von 8 auf 60 hochgesezt
   - Virenscanner und Firewall am Windows Rechner abgeschaltet (bringt wahrscheinlich nichts, da Fhem ja auf Raspi läuft, aber man greift ja nach jedem Strohhalm)
   - RASPI und CCU2 Vollzugriff ins Internet (hinter der FritzBox) gegeben, jegliche Filter deaktiviert
   - CCU2 Firmware 2.31.25 und das letzte Backup der Firmware vom Juni 2018 eingespielt
   - HMCCU Device mit RPC-Server auf Standardeinstellungen gesetzt

Die selben Fehler treten bei meinen zwei gleichen CCU2 identisch auf, ich bin nun echt am Ende und hab keine Ahnung mehr, was ich noch machen oder prüfen soll.
Das einzige was mir noch einfällt ist ein Restore von Fhem auf eine Version von einigen Monaten um auszuschließen, dass es mit Fhem zu tun hat.

Gruß Reinhard
   
Fhem 6.3 auf Raspberry Pi4 SSD mit Raspbian Bookworm, Homematic, Homematic IP, CCU3 mit RapberryMatic, WAGO 750-880, E3DC S10E Hauskraftwerk, E3DC Wallbox, my-PV AC ELWA-E Heizstab, Fritz!Box 7590, KIA Bluelinky

Rewe2000

Hallo,

irgendwie absolut verrückt das ganze, ich dachte mir eben, jetzt mach ich mal noch ein aktuelles Update, auf das kommt er nun auch nicht mehr darauf an.

Und siehe da, der shutdown restart läuft absolut sauber durch, so wie immer, obwohl sich bei den HMCCU Device nichts geändert hat (kein Update war da). Kann es sein, dass sich hier Probleme von anderen Modulen in der Art bei mir gezeigt haben?
Was ich nicht verstehe ist, weshalb ich anscheinend der einzige mit dem Problem war.

Fragen wir nicht lange, ich bin froh, dass es wieder läuft.
Was hätte ich bei dem Sauwetter nur gemacht, wenn ich Fhem nich hätte. :)

Gruß Reinhard
Fhem 6.3 auf Raspberry Pi4 SSD mit Raspbian Bookworm, Homematic, Homematic IP, CCU3 mit RapberryMatic, WAGO 750-880, E3DC S10E Hauskraftwerk, E3DC Wallbox, my-PV AC ELWA-E Heizstab, Fritz!Box 7590, KIA Bluelinky

Rewe2000

Hallo,

da hab ich mich zu früh gefreut, den Fehler gibt es nach wie vor bei mir.
2019.03.14 16:56:15 1: HMCCU: [CCU2] Initialized version 4.3.014
2019.03.14 16:56:15 1: HMCCU: [CCU2] HMCCU: Initializing device
2019.03.14 16:56:19 2: HMCCU: [CCU2] HMScript failed. http://192.168.1.32:8181/tclrega.exe: Select timeout/error:
2019.03.14 16:56:19 1: HMCCU: [CCU2] HMCCU: Error while reading device list from CCU 192.168.1.32
2019.03.14 16:56:19 1: HMCCU: [CCU2] Scheduling delayed initialization in 180 seconds
....
....
nach ca. 3 Minuten weiter im LOG
....
2019.03.14 16:59:19 1: HMCCU: [CCU2] HMCCU: Initializing devices
2019.03.14 16:59:26 2: HMCCU: [CCU2] Initializing 65 client devices in state 'pending'
2019.03.14 16:59:26 1: PERL WARNING: Argument "Initialized" isn't numeric in multiplication (*) at (eval 1665) line 1.
2019.03.14 16:59:26 1: PERL WARNING: Argument "Initialized" isn't numeric in multiplication (*) at (eval 1679) line 1.
2019.03.14 16:59:27 1: PERL WARNING: Argument "Initialized" isn't numeric in multiplication (*) at (eval 1704) line 1.
2019.03.14 16:59:27 1: PERL WARNING: Argument "Initialized" isn't numeric in multiplication (*) at (eval 1733) line 1.
2019.03.14 16:59:27 1: PERL WARNING: Argument "Initialized" isn't numeric in multiplication (*) at (eval 1742) line 1.
2019.03.14 16:59:29 1: HMCCU: [CCU2] HMCCU: Read 64 devices with 329 channels from CCU 192.168.1.32


Hat jemand eine Ahnung was die PERL WARNING bedeuten, könnte dies ev. die Ursache für mein Verhalten sein?
[Vermutung]
Könnten es meine 5 virtuellen Heizgruppen sein, welche beim Start auf "Initialized" stehen, aber dagegen kann ich ja nichts machen.
[/Vermutung]

Folgende Beobachtungen / Maßnahmen habe ich bisher gemacht.

  • Starte ich zusätzlich noch kurz vorher die CCU2 neu ist das Chaos perfekt, auch die CCU2 hängt sich dann auf und diese erkennt selbst nicht mal mehr geöffnete Fensterkontakte. Diese erholt sich nicht mehr, ein nochmaliger Neustart ist dann obligatorisch.
  • An meiner CCU2 kanns nicht liegen, da bei meinen 2 CCU2 das Problem in gleicher Form auftritt
  • Auch habe ich alle Geräte bereits abgelernt und wieder neu an die CCU2 angelernt (Verzweiflung pur)
  • Alle Einstellungen in der CCU2 (Firewall, Kennwort, etc.) gemäß Wiki geprüft
  • Wartet die HMCCU nach dem ersten Timeout 180 Sekunden und kommen beim Start der RPC-Server keine Timeouts mehr, läuft die CCU2 und Fhem stabil
  • Firewalleinstellungen können es meines Erachtens nicht sein, sonnst würden die RPC-Server überhaupt nie laufen.

Das ganze ist so Zeitraubend zu testen, da die CCU2 fast 10 Minuten nach dem Neustart benötigt, bevor diese wieder läuft.
Gibt es noch eine Möglichkeit genauer zu sehen weshalb der erste Timeout auftritt, Verbose 5 und stacktrace gibt überhaupt nichts her. Sind euch noch Diagnosemöglichkeiten bekannt, welche ich anwenden könnte?

Bin ich tatsächlich der einzige mit dem beschriebenen Fehler?
Habt ihr noch eine Idee was ich noch prüfen könnte?
Was würdet ihr noch unternehmen um den Fehler einzugrenzen?
Ich dachte schon an ein "nacktes" Fhem auf einer formatierten Speicherkarte, nur mit den notwendigen HMCCU Modulen.

Bin echt verzweifelt dass ich den ominösen Fehler alleine nicht eingrenzen kann.

Gruß Reinhard

Fhem 6.3 auf Raspberry Pi4 SSD mit Raspbian Bookworm, Homematic, Homematic IP, CCU3 mit RapberryMatic, WAGO 750-880, E3DC S10E Hauskraftwerk, E3DC Wallbox, my-PV AC ELWA-E Heizstab, Fritz!Box 7590, KIA Bluelinky

zap

Du könntest im IO Device ccuflags zusätzlich zu procrpc noch auf trace setzen. Dann gibt es vielleicht mehr Logmeldungen. Und lass die CCU mal in Ruhe, also nicht neu starten.

Könnten auch Netzwerkprobleme sein. Ist FHEM per WLAN oder LAN angebunden?

Sieht jedenfalls nach simplen Timeouts aus. Wo die Perl Fehler herkommen, weiß ich nicht.
2xCCU3, Fenster, Rollläden, Themostate, Stromzähler, Steckdosen ...)
Entwicklung: FHEM auf AMD NUC (Ubuntu)
Produktiv inzwischen auf Home Assistant gewechselt.
Maintainer: FULLY, Meteohub, HMCCU, AndroidDB

Rewe2000

Hallo zap,

zu deinen Fragen:
Raspi (Fhem) und die CCU2 hängt über LAN an der FritzBox, habe auch schon ein neues Netzwerkkabel versucht (wie gesagt Verzweiflung).

anbei noch das Fehlerlog der CCU2, in der Zeitspanne, von den HMCCU anfragen wo der Timeout auftritt. Was mir hier auffällt, ist der Eintrag mit dem "Removed InterfaceId: null" aber Removed bedeutet ja entfernen.

Mar 14 16:55:55 de.eq3.cbcs.legacy.bidcos.rpc.LegacyServiceHandler INFO  [vert.x-worker-thread-4] (un)registerCallback on LegacyServiceHandler called from url: http://192.168.1.33:7420/fh2010
Mar 14 16:55:55 de.eq3.cbcs.legacy.bidcos.rpc.LegacyServiceHandler INFO  [vert.x-worker-thread-4] Removed InterfaceId: CB2010001033001032
Mar 14 16:55:55 de.eq3.cbcs.legacy.bidcos.rpc.LegacyServiceHandler INFO  [vert.x-worker-thread-4] init finished
Mar 14 16:55:56 de.eq3.ccu.virtualdevice.service.internal.rega.VirtualDeviceHandlerRega INFO  [vert.x-eventloop-thread-4] (un)registerCallback on VirtualDeviceHandlerRega called from url: http://192.168.1.33:14702/fh9292
Mar 14 16:55:56 de.eq3.ccu.virtualdevice.service.internal.rega.VirtualDeviceHandlerRega INFO  [vert.x-eventloop-thread-4] Removed InterfaceId: null
Mar 14 16:58:44 de.eq3.cbcs.server.core.otau.DeviceBackgroundUpdateSubsystem INFO  [vert.x-eventloop-thread-1] SYSTEM: 0 Accesspoints in Queue
Mar 14 16:58:44 de.eq3.cbcs.server.core.otau.DeviceBackgroundUpdateSubsystem INFO  [vert.x-eventloop-thread-1] SYSTEM: Permanent-/Burstlistener Handler utilization: 0/50 used
Mar 14 16:58:44 de.eq3.cbcs.server.core.otau.DeviceBackgroundUpdateSubsystem INFO  [vert.x-eventloop-thread-1] SYSTEM: Eventlistener Handler utilization: 0/50 used
Mar 14 16:59:48 de.eq3.cbcs.legacy.bidcos.rpc.LegacyServiceHandler INFO  [vert.x-worker-thread-0] (un)registerCallback on LegacyServiceHandler called from url: http://192.168.1.33:7420/fh2010
Mar 14 16:59:48 de.eq3.cbcs.legacy.bidcos.rpc.LegacyServiceHandler INFO  [vert.x-worker-thread-0] init finished
Mar 14 16:59:48 de.eq3.cbcs.legacy.bidcos.rpc.internal.InterfaceInitializer INFO  [vert.x-worker-thread-3] Added InterfaceId: CB2010001033001032
Mar 14 16:59:48 de.eq3.ccu.virtualdevice.service.internal.rega.VirtualDeviceHandlerRega INFO  [vert.x-eventloop-thread-4] (un)registerCallback on VirtualDeviceHandlerRega called from url: http://192.168.1.33:14702/fh9292
Mar 14 16:59:48 de.eq3.ccu.virtualdevice.service.internal.rega.VirtualDeviceHandlerRega INFO  [vert.x-eventloop-thread-4] Added InterfaceId: CB9292001033001032
Mar 14 16:59:49 de.eq3.ccu.virtualdevice.service.internal.rega.BackendWorker INFO  [vert.x-worker-thread-15] Execute BackendCommand: de.eq3.ccu.virtualdevice.service.internal.rega.BackendUpdateDevicesCommand
Mar 14 16:59:50 de.eq3.ccu.virtualdevice.service.internal.rega.BackendUpdateDevicesCommand INFO  [vert.x-worker-thread-15] updateDevicesForClient -> 35 device addresses will be added
Mar 14 16:59:51 de.eq3.cbcs.legacy.bidcos.rpc.internal.DeviceUtil INFO  [vert.x-worker-thread-3] updateDevicesForClient CB2010001033001032 -> 279 device addresses will be added
Mar 14 16:59:51 de.eq3.ccu.virtualdevice.service.internal.rega.BackendUpdateDevicesCommand INFO  [vert.x-worker-thread-15] set ready config of INT0000001


Ich setze jetzt noch ccuflags auf trace und sehe mir mal die Meldungen an, wenn mehr angezeigt wird, poste ich es hier.

Die Ausbeute war nicht sehr ernüchternd, lediglich eine CUL Meldung kam noch hinzu, hat aber mit dem ccuflags nichts zu tun.
2019.03.14 18:48:34 1: PERL WARNING: Useless use of hash element in void context at ./FHEM/10_CUL_HM.pm line 4069, <$fh> line 146.

Gruß Reinhard
Fhem 6.3 auf Raspberry Pi4 SSD mit Raspbian Bookworm, Homematic, Homematic IP, CCU3 mit RapberryMatic, WAGO 750-880, E3DC S10E Hauskraftwerk, E3DC Wallbox, my-PV AC ELWA-E Heizstab, Fritz!Box 7590, KIA Bluelinky

zap

Hab nochmal nachgeschaut. Die Meldung "select timeout/error" kommt von Httputils.pm. Die Gegenseite (CCU) antwortet nicht oder zu langsam.

Keine Ahnung, woran das liegt. Ist bei mir auch nicht aufgetreten, als ich noch eine CCU2 hatte.
2xCCU3, Fenster, Rollläden, Themostate, Stromzähler, Steckdosen ...)
Entwicklung: FHEM auf AMD NUC (Ubuntu)
Produktiv inzwischen auf Home Assistant gewechselt.
Maintainer: FULLY, Meteohub, HMCCU, AndroidDB

Rewe2000

Hallo zap,

hab noch alle meine Modbus Abfragen von bisher 1 Sekunde auf 10 Sekunden gesetzt (belastet ja auch das LAN), hat aber wie vermutet auch nichts gebracht.

Als einzige Möglichkeit meine Netzwerkgeschwindigkeit (jeweils über die Fritz Box) zu testen, ist mir nur eingefallen eine 100 MB Datei mit Filezilla vom PC per FTP einmal auf den Raspi und einmal auf die CCU2 zu kopieren.

Die Zeiten wie folgt.
CCU2 1,6 Mib/s - 60 Sekunden Kopierdauer
Raspi 5,0 Mib/s - 22 Sekunden Kopierdauer
Ich denke, da die CCU2 eh deutlich Leistungsschwächer ist, sollten die Werte eigentlich so passen.

Was mich so sehr wundert, bei mir scheitert immer zu 100% die erste Anfrage an die CCU2 mit timeout/error.
Wurde die CCU2 nicht auch vorher gestartet, so klappt die 2. Anfrage nach 180 Sekunden ohne Probleme.

Ich werde nun anfangen mit älteren Fhem Backups zu testen und diese unter der jetzigen Linux Version mit Restore zurückzuschreiben.
Denn mein Problem muss eindeutig bei Fhem oder dem Raspi liegen. Die CCU2 hatte ich ja schon getauscht, alle Geräte neu angelernt und bin auf eine alte Firmware der CCU2 zurückgegangen.

Du bist von CCU2 auf CCU3 oder Raspimatic umgestiegen?
Bist du mit dem Funkempfang zufrieden?
Ich habe bereits an meiner CCU2 eine externe Antenne gelötet, da ich Empfangsprobleme hatte, die CCU3 soll ja keinesfalls Empfangsstärker sein, was man so liest.

Schön langsam gehen mir echt auch die Ideen aus, was ich noch testen könnte, überlege mir schon eine Lösung in Richtung einer CCU3.
Gruß Reinhard
Fhem 6.3 auf Raspberry Pi4 SSD mit Raspbian Bookworm, Homematic, Homematic IP, CCU3 mit RapberryMatic, WAGO 750-880, E3DC S10E Hauskraftwerk, E3DC Wallbox, my-PV AC ELWA-E Heizstab, Fritz!Box 7590, KIA Bluelinky

Rewe2000

Hallo,

hat denn echt niemand sonst ähnliche Probleme?
Bei mir ist es derzeit so dramatisch, dass sich nun immer zu 100% die CCU2 aufhängt, wenn ich die RPC-Server starte. Diese reagiert dann nicht mehr auf HmIP-Geräte, nur ein Neustart der CCU2 behebt das Problem wieder.

Habe heute mal zur gleichen Zeit mit Filezilla meine letzten Backups vom Raspi geholt, die Dateien wurden mit ca. 8 Mib/s geladen, somit glaube ich nicht, dass mein LAN z.B. die laufende Modbuskommunikation zu stark belastet ist.

Für irgendwelche Ideen wo ich noch suchen könnte wäre ich euch echt dankbar, denn ich bin nun mit meinem Latein am Ende.

Ich sehe nun keine andere Möglichkeit mehr, als ältere Backups als Restore einzuspielen um dann zu sehen, ob es irgendwann wieder funktioniert. In jeden Fall hab ich mir mal eine CCU3 und eine Antenne bestellt, diese soll morgen kommen.

Ich würde gerne auch die HMCCU und die RPC-Server entfernen und dann neu installieren, aber ich vermute das wird nicht so einfach möglich sein. Die HMCCU ist schon ziemlich tief im System vergraben.

Ich hoffe euch fällt noch etwas ein.

Gruß Reinhard
Fhem 6.3 auf Raspberry Pi4 SSD mit Raspbian Bookworm, Homematic, Homematic IP, CCU3 mit RapberryMatic, WAGO 750-880, E3DC S10E Hauskraftwerk, E3DC Wallbox, my-PV AC ELWA-E Heizstab, Fritz!Box 7590, KIA Bluelinky

zap

Was versprichst Du Dir von einer Neuinstallation von HMCCU? Wenn Du jetztz schon den letzten Stand verwendest, ändert sich dadurch nichts.
Die RPC Devices kannst Du einfach löschen. Die werden beim nächsten Start der RPC Server wieder angelegt.
Wie machst Du die CCU Migration? Backup / Restore birgt die Gefahr , dass du eine evetuell verbogene CCU2 Config auf die CCU3 übernimmst. Alle Geräte neu anlernen könnte sich negativ auf in FhEM definierte Devices auswirken. Die musst Du dann neu definieren, wenn es hakt.
2xCCU3, Fenster, Rollläden, Themostate, Stromzähler, Steckdosen ...)
Entwicklung: FHEM auf AMD NUC (Ubuntu)
Produktiv inzwischen auf Home Assistant gewechselt.
Maintainer: FULLY, Meteohub, HMCCU, AndroidDB

Rewe2000

Hallo zap,

da ich alle meine Geräte letzte Woche neu an die CCU2 angelernt habe, wollte ich die Migration mit Backup CCU2 und Restore auf die CCU3 durchführen. Auf der CCU2 habe ich nur 5 Heizgruppen keinerlei Scripts und nur 3 Miniaturprogramme.
Siehst du da ein Problem?
Ich könnte auch meine Geräte alle neu anlernen, ist dank guter Übung in 5 Stunden erledigt.

Betreibst du die CCU3 mit der Originalsoftware oder Raspimatic, wenn das überhaupt möglich ist.

Bei mir ist das höchtst misteriös, folgende Maßnahmen haben überhaupt nichts gebracht:

  • Alle Geräte neu an die CCU2 anlernen
  • CCU2 Hardware gewechselt
  • Firmware und Restore von Dezember 2018 in CCU2 gespielt
  • Neue Patchkabel für LAN Verkabelung verwendet (mit WLAN ist nur der PC angebunden, welcher auf die Webseiten guckt)
  • Betrieb aller Komponenten (Raspi, CCU2, WAGO) mit statischer IP 192.168.1.xx, ohne FritzBox über switch
  • Fhem Restore von Dezember 2018 auf halbwegs aktuelles Linux Stretch
  • Linux neues Update eingespielt
  • anderen Raspi (nur Hardware) gewechselt, Speicherkarte mit Linux und Fhem ist mit umgezogen
  • Umzug auf CCU3 mit Backup / Restore von CCU2
  • RaspberryMatic auf neuer Speicherkarte auf CCU3 installiert

Alle diese Maßnahmen wurden nicht gleichzeitig, sondern nacheinander durchgeführt.

Als nächstes bringe ich mein Linux auf den neuesten Stand und wenn das nichts bringt, wechsle ich noch den Raspi mit Speicherkarte.
Mehr kann ich dann nicht mehr machen.

Gruß Reinhard
Fhem 6.3 auf Raspberry Pi4 SSD mit Raspbian Bookworm, Homematic, Homematic IP, CCU3 mit RapberryMatic, WAGO 750-880, E3DC S10E Hauskraftwerk, E3DC Wallbox, my-PV AC ELWA-E Heizstab, Fritz!Box 7590, KIA Bluelinky

zap

Ich habe eine original CCU3 und ein Charly Set. Beides ist ein Raspi. Du kannst Rasperrymatic auch auf der original CCU3 installieren. Ich habe allerdings die CCU3 original belassen.
Versuch es halt mal mit Backup Restore und schau ob es läuft. FHEM seitig würde ich die RPC Devices löschen und neu anlegen lassen
2xCCU3, Fenster, Rollläden, Themostate, Stromzähler, Steckdosen ...)
Entwicklung: FHEM auf AMD NUC (Ubuntu)
Produktiv inzwischen auf Home Assistant gewechselt.
Maintainer: FULLY, Meteohub, HMCCU, AndroidDB