Hauptmenü

Neueste Beiträge

#1
Solaranlagen / Aw: 76_SolarForecast - Informa...
Letzter Beitrag von DS_Starter - 11 Oktober 2025, 15:17:32
Ja, diese theoretischen Vorteile sind mir bewusst. Was ich eher meinte ist ein unmittelbarer Vorteil der den AUFWAND einer solchen Umstellung lohnt. Man muß sich bewusst sein, dass diese grundlegende Änderung von Readingsinhalten bzw. ihrer Datenpendants in den internen Strukturen (currentVal, Nexthours, Circular, History, ...), die Erstellung von Routinen zum Parsen von Readinginhalten sowie das Überprüfen/Nachziehen von Doku etc. inklusive der dazugehörigen Tests und Fehlerbereinigungen viele Stunden Freizeit bis zu einigen Tagen dieser wertvollen Zeit verschlingen können.

Deswegen hinterfrage ich den Nutzen von solchen Vorschlägen sehr genau. Das ist kein böser Wille, aber es geht um meine Zeit...

Wenn es mal weitere Funktionen geben sollte, die eine gewisse "Notwendigkeit" (ähnlich den zusammengesetzten Attributen) einer solchen Zusammenfassung erfordern, kann man darüber nachdenken.

Unmittelbar ließen sich thematisch gleiche Anforderungen in einem vorhandenen Reading darstellen, zum Beispiel eine Ladeanforderung im Reading Battery_ChargeRequest_XX -> 0 - keine, 1 - normale Anforderung (SoC < upSoC), 2 - dringende Anforderung/Notladung (SoC < lowSoC). Auch hier wären einige Codeänderungen nötig, weil eine einfache Prüfung true/false nicht mehr reicht, aber der Umfang wäre überschaubar. Aber wie gesagt "nice to have" ist einfach zu wenig.
Wenn jemand sagt es würde mir wirklich sehr helfen weil "..." wenn ich diese oder jene Funktionalität hätte, bin ich der letzte der sich querstellt.
#2
Homematic / Homematic via CCU reagiert nic...
Letzter Beitrag von stobor - 11 Oktober 2025, 14:30:18
Hallo,

im FHEM-Log erhalte ich seit 2 Tagen diese Fehler, ohne dass sich an der CCU oder FHEM etwas geändert hat:

2025.10.11 09:56:02 2: HMCCURPCPROC [d_rpc179011BidCos_RF] Sending data to FHEM failed 100 times. select found no reader
2025.10.11 09:57:46 2: HMCCURPCPROC [d_rpc179011BidCos_RF] Sending data to FHEM failed 100 times. select found no reader
2025.10.11 11:53:57 2: HMCCURPCPROC [d_rpc179011BidCos_RF] Received no events from interface CB2001179010179011 for 600.063524007797 seconds
2025.10.11 12:00:12 2: HMCCURPCPROC [d_rpc179011BidCos_RF] Received no events from interface CB2001179010179011 for 600.061312913895 seconds
2025.10.11 12:10:12 2: HMCCURPCPROC [d_rpc179011BidCos_RF] Received no events from interface CB2001179010179011 for 600.049233198166 seconds
2025.10.11 12:20:12 2: HMCCURPCPROC [d_rpc179011BidCos_RF] Received no events from interface CB2001179010179011 for 600.042794942856 seconds
2025.10.11 12:30:12 2: HMCCURPCPROC [d_rpc179011BidCos_RF] Received no events from interface CB2001179010179011 for 600.069442987442 seconds
2025.10.11 12:40:12 2: HMCCURPCPROC [d_rpc179011BidCos_RF] Received no events from interface CB2001179010179011 for 600.059836149216 seconds
2025.10.11 12:50:13 2: HMCCURPCPROC [d_rpc179011BidCos_RF] Received no events from interface CB2001179010179011 for 600.053718090057 seconds
2025.10.11 13:00:13 2: HMCCURPCPROC [d_rpc179011BidCos_RF] Received no events from interface CB2001179010179011 for 600.04188990593 seconds
2025.10.11 13:10:13 2: HMCCURPCPROC [d_rpc179011BidCos_RF] Received no events from interface CB2001179010179011 for 600.046332836151 seconds
2025.10.11 13:20:13 2: HMCCURPCPROC [d_rpc179011BidCos_RF] Received no events from interface CB2001179010179011 for 600.057385921478 seconds
2025.10.11 13:30:13 2: HMCCURPCPROC [d_rpc179011BidCos_RF] Received no events from interface CB2001179010179011 for 600.060159921646 seconds
2025.10.11 13:40:13 2: HMCCURPCPROC [d_rpc179011BidCos_RF] Received no events from interface CB2001179010179011 for 600.05544090271 seconds
2025.10.11 13:50:13 2: HMCCURPCPROC [d_rpc179011BidCos_RF] Received no events from interface CB2001179010179011 for 600.056032180786 seconds
2025.10.11 14:00:13 2: HMCCURPCPROC [d_rpc179011BidCos_RF] Received no events from interface CB2001179010179011 for 600.044595003128 seconds
2025.10.11 14:00:13 4: HMCCURPCPROC [d_rpc179011BidCos_RF] Read stopped after 1 events read: no data

Ich kann über FHEM weder Befehle via CCU an Homwmatic-Geräte senden noch empfängt FHEM Statusänderungen von der CCU.
Ich habe sowohl die CCU als auch FHEM schon neu gestartet, doch nach ein paar Stunden tritt das Problem wieder auf.

Auch wenn ich nur HMCCU (d_ccu) stoppe und starte, läuft wieder alles. Log-Auszug nach dem Restart per FHEM (set d_ccu off dann set d_ccu on):
2025.10.11 14:15:23 4: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 accepting connections
2025.10.11 14:15:23 1: HMCCURPCPROC [d_rpc179011HmIP_RF] Stopping RPC server CB2010179010179011
2025.10.11 14:15:23 1: HMCCURPCPROC [d_rpc179011HmIP_RF] Deregistering RPC server http://192.168.179.10:7420/fh2010 with ID CB2010179010179011 at http://192.168.179.11:2010
2025.10.11 14:15:23 1: HMCCURPCPROC [d_rpc179011HmIP_RF] Callback for RPC server CB2010179010179011 deregistered
2025.10.11 14:15:23 2: HMCCURPCPROC [d_rpc179011HmIP_RF] Sending signal INT to RPC server process CB2010179010179011 with PID=1997
2025.10.11 14:15:23 2: HMCCURPCPROC [d_rpc179011HmIP_RF] Scheduling cleanup in 30 seconds
2025.10.11 14:15:23 2: HMCCURPCPROC [d_rpc179011HmIP_RF] CB2010179010179011 received signal INT
2025.10.11 14:15:24 4: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 accepting connections
2025.10.11 14:15:24 1: HMCCURPCPROC [d_rpc179011BidCos_RF] Stopping RPC server CB2001179010179011
2025.10.11 14:15:24 4: HMCCURPCPROC [d_rpc179011BidCos_RF] Set state to busy
2025.10.11 14:15:24 1: HMCCURPCPROC [d_rpc179011BidCos_RF] Deregistering RPC server http://192.168.179.10:7411/fh2001 with ID CB2001179010179011 at http://192.168.179.11:2001
2025.10.11 14:15:24 1: HMCCURPCPROC [d_rpc179011BidCos_RF] Callback for RPC server CB2001179010179011 deregistered
2025.10.11 14:15:24 4: HMCCURPCPROC [d_rpc179011BidCos_RF] Set rpcstate to deregistered
2025.10.11 14:15:24 2: HMCCURPCPROC [d_rpc179011BidCos_RF] Sending signal INT to RPC server process CB2001179010179011 with PID=1996
2025.10.11 14:15:24 4: HMCCURPCPROC [d_rpc179011BidCos_RF] Set rpcstate to stopping
2025.10.11 14:15:24 2: HMCCURPCPROC [d_rpc179011BidCos_RF] Scheduling cleanup in 30 seconds
2025.10.11 14:15:24 2: HMCCURPCPROC [d_rpc179011BidCos_RF] CB2001179010179011 received signal INT
2025.10.11 14:15:24 1: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 stopped handling connections. PID=1996 run=0
2025.10.11 14:15:24 4: HMCCURPCPROC [d_rpc179011BidCos_RF] Event statistics = 691|191|0|0|0|0|0|0|0|0|0
2025.10.11 14:15:24 4: HMCCURPCPROC [d_rpc179011BidCos_RF] CB2001179010179011 event type = EV: 448
2025.10.11 14:15:24 4: HMCCURPCPROC [d_rpc179011BidCos_RF] CB2001179010179011 event type = ND: 242
2025.10.11 14:15:24 4: HMCCURPCPROC [d_rpc179011BidCos_RF] CB2001179010179011 event type = DD: 0
2025.10.11 14:15:24 4: HMCCURPCPROC [d_rpc179011BidCos_RF] CB2001179010179011 event type = RD: 0
2025.10.11 14:15:24 4: HMCCURPCPROC [d_rpc179011BidCos_RF] CB2001179010179011 event type = RA: 0
2025.10.11 14:15:24 4: HMCCURPCPROC [d_rpc179011BidCos_RF] CB2001179010179011 event type = UD: 0
2025.10.11 14:15:24 4: HMCCURPCPROC [d_rpc179011BidCos_RF] CB2001179010179011 event type = IN: 0
2025.10.11 14:15:24 4: HMCCURPCPROC [d_rpc179011BidCos_RF] CB2001179010179011 event type = EX: 1
2025.10.11 14:15:24 4: HMCCURPCPROC [d_rpc179011BidCos_RF] CB2001179010179011 event type = SL: 1
2025.10.11 14:15:24 4: HMCCURPCPROC [d_rpc179011BidCos_RF] CB2001179010179011 event type = TO: 0
2025.10.11 14:15:24 2: HMCCURPCPROC [d_rpc179011BidCos_RF] Number of I/O errors = 0
2025.10.11 14:15:25 1: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server process CB2001179010179011 terminated.
2025.10.11 14:15:25 4: HMCCURPCPROC [d_rpc179011BidCos_RF] Set rpcstate to inactive
2025.10.11 14:15:25 2: HMCCURPCPROC [d_rpc179011BidCos_RF] Stop I/O handling
2025.10.11 14:15:25 3: HMCCURPCPROC [d_rpc179011BidCos_RF] Close child socket
2025.10.11 14:15:25 3: HMCCURPCPROC [d_rpc179011BidCos_RF] Close parent socket
2025.10.11 14:15:25 4: HMCCURPCPROC [d_rpc179011BidCos_RF] Set state to OK
2025.10.11 14:15:25 2: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server stopped. Cancel delayed shutdown.
2025.10.11 14:15:53 1: HMCCURPCPROC [d_rpc179011HmIP_RF] Housekeeping called. Cleaning up RPC environment
2025.10.11 14:15:53 2: HMCCURPCPROC [d_rpc179011HmIP_RF] CB2010179010179011 received signal INT
2025.10.11 14:15:53 1: HMCCURPCPROC [d_rpc179011HmIP_RF] RPC server CB2010179010179011 stopped handling connections. PID=1997 run=0
2025.10.11 14:15:53 2: HMCCURPCPROC [d_rpc179011HmIP_RF] Number of I/O errors = 0
2025.10.11 14:15:55 2: HMCCURPCPROC [d_rpc179011HmIP_RF] RPC server process CB2010179010179011 deleted
2025.10.11 14:15:55 1: HMCCU [d_ccu] All RPC servers inactive
2025.10.11 14:15:55 2: HMCCURPCPROC [d_rpc179011HmIP_RF] Stop I/O handling
2025.10.11 14:15:55 2: HMCCURPCPROC [d_rpc179011HmIP_RF] RPC server stopped. Cancel delayed shutdown.
2025.10.11 14:15:57 1: PERL WARNING: Use of uninitialized value in sprintf at (eval 881545) line 1.
2025.10.11 14:16:01 2: HMCCU [d_ccu] RPC device for interface HmIP-RF: d_rpc179011HmIP_RF
2025.10.11 14:16:01 2: HMCCU [d_ccu] RPC device for interface BidCos-RF: d_rpc179011BidCos_RF
2025.10.11 14:16:01 2: HMCCURPCPROC [d_rpc179011HmIP_RF] RPC server process started for interface HmIP-RF with PID=2005
2025.10.11 14:16:01 1: HMCCURPCPROC [d_rpc179011HmIP_RF] RPC server starting
2025.10.11 14:16:01 2: HMCCURPCPROC [d_rpc179011HmIP_RF] Initializing RPC server CB2010179010179011 for interface HmIP-RF
2025.10.11 14:16:01 2: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server process started for interface BidCos-RF with PID=2006
2025.10.11 14:16:01 4: HMCCURPCPROC [d_rpc179011BidCos_RF] Set state to busy
2025.10.11 14:16:01 1: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server starting
2025.10.11 14:16:01 4: HMCCURPCPROC [d_rpc179011BidCos_RF] Set rpcstate to starting
2025.10.11 14:16:01 2: HMCCU [d_ccu] RPC server start: 2 started, 0 already running, 0 failed to start
2025.10.11 14:16:01 2: HMCCURPCPROC [d_rpc179011BidCos_RF] Initializing RPC server CB2001179010179011 for interface BidCos-RF
2025.10.11 14:16:01 2: HMCCURPCPROC [d_rpc179011HmIP_RF] Callback server CB2010179010179011 created. Listening on port 7420
2025.10.11 14:16:01 2: HMCCURPCPROC [d_rpc179011HmIP_RF] RPC server CB2010179010179011 enters server loop
2025.10.11 14:16:01 2: HMCCURPCPROC [d_rpc179011HmIP_RF] Registering callback http://192.168.179.10:7420/fh2010 of type A with ID CB2010179010179011 at http://192.168.179.11:2010
2025.10.11 14:16:01 2: HMCCURPCPROC [d_rpc179011HmIP_RF] CB2010179010179011 accepting connections. PID=2005
2025.10.11 14:16:01 1: HMCCURPCPROC [d_rpc179011HmIP_RF] RPC server CB2010179010179011 running
2025.10.11 14:16:01 2: HMCCURPCPROC [d_rpc179011BidCos_RF] Callback server CB2001179010179011 created. Listening on port 7411
2025.10.11 14:16:01 4: HMCCURPCPROC [d_rpc179011BidCos_RF] Adding callback for events for server CB2001179010179011
2025.10.11 14:16:01 4: HMCCURPCPROC [d_rpc179011BidCos_RF] Adding callback for new devices for server CB2001179010179011
2025.10.11 14:16:01 4: HMCCURPCPROC [d_rpc179011BidCos_RF] Adding callback for deleted devices for server CB2001179010179011
2025.10.11 14:16:01 4: HMCCURPCPROC [d_rpc179011BidCos_RF] Adding callback for modified devices for server CB2001179010179011
2025.10.11 14:16:01 4: HMCCURPCPROC [d_rpc179011BidCos_RF] Adding callback for replaced devices for server CB2001179010179011
2025.10.11 14:16:01 4: HMCCURPCPROC [d_rpc179011BidCos_RF] Adding callback for readded devices for server CB2001179010179011
2025.10.11 14:16:01 4: HMCCURPCPROC [d_rpc179011BidCos_RF] Adding callback for list devices for server CB2001179010179011
2025.10.11 14:16:01 2: HMCCURPCPROC [d_rpc179011BidCos_RF] CB2001179010179011 accepting connections. PID=2006
2025.10.11 14:16:01 4: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 accepting connections
2025.10.11 14:16:01 2: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 enters server loop
2025.10.11 14:16:01 4: HMCCURPCPROC [d_rpc179011BidCos_RF] Set rpcstate to working
2025.10.11 14:16:01 2: HMCCURPCPROC [d_rpc179011BidCos_RF] Registering callback http://192.168.179.10:7411/fh2001 of type A with ID CB2001179010179011 at http://192.168.179.11:2001
2025.10.11 14:16:01 4: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 processing request
2025.10.11 14:16:01 4: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 accepting connections
2025.10.11 14:16:01 4: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 processing request
2025.10.11 14:16:01 4: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 accepting connections
2025.10.11 14:16:01 4: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 processing request
2025.10.11 14:16:01 1: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 running
2025.10.11 14:16:01 4: HMCCURPCPROC [d_rpc179011BidCos_RF] Set rpcstate to running
2025.10.11 14:16:01 1: HMCCU [d_ccu] All RPC servers running
2025.10.11 14:16:01 2: HMCCU [d_ccu] Updating 50 of 81 devices matching devexp=.* filter=ccudevstate=active,ccuif=HmIP-RF|BidCos-RF nonBlocking
2025.10.11 14:16:01 2: HMCCU [d_ccu] CCU device list 2b updated: HM-RC-Auto-Mirko,HM-HT-Wohnzimmer-West,HM-SC-Schuppen-West,HM-HT-Arbeitszimmer,HmIP-PIR-CarportOst,HM-HT-Schlafzimmer,HM-WS-Kueche-Boden,HM-HT-Flur,HM-PIR-Sued-Ost,HM-HT-Wohnzimmer-Sued,HM-HT-Kinderzimmer,HmIP-HWR-8fachSender,HM-SC-Kinderzimmer,HM-RM-Flur-EG,HM-SC-Kueche-Sued,HM-RM-Schlafzimmer,HM-SC-Schlafzimmer,HM-RC-Auto-Julia,HM-SC-Wohnzimmer-Sued,HM-SC-Badezimmer,HM-SC-Arbeitszimmer,HM-RM-Kind,HM-RM-Arbeitszimmer,HM-WS-HWR,HmIP-HWR-8fachReceiver,HM-SC-Wohnzimmer-West-Nord,HmIP-PS-2_Steckdose1,HM-PIR-Carport-Ost,HM-SC-Wohnzimmer-West-Sued,HM-Temperatur-Pool,HM-Sw-Kueche-Sued,HM-SC-Haustuer,HM-RM-Flur-OG,HM-RC-Schuppen,HM-SC-HWR-Tuer,HM-WT-Wohnzimmer,HM-SC-GaesteWC,HM-HT-Kueche,HM-SC-HWR-Fenster,HM-SC-Schuppen-Carport,HM-SC-Wohnzimmer-Terrassentuer,HM-WT-Bad,HM-HT-GaesteWC,HM-TH-Garten,HM-Sw-Kueche-West,HM-RM-HWR,HM-WS-Kueche-Schrank,HM-SC-Kueche-Ost,HM-HT-Bad,HM-PIR-Wohnzimmer
2025.10.11 14:16:01 2: HMCCU [d_ccu] FHEM device list 2b updated: HM_SC_EG_HWRFenster,HM_SC_Schuppen_West,HM_TH_Garten,HM_RC1_Btn_04,HM_SC_EG_WohnzimmerSued,HmIP_PIR_CarportOst,HM_Sw_Kueche_West,HmIP_MOD_RC8_00145F29B409A2_5,HM_SC_EG_HWRTuer,HM_HT_Wohnzimmer_West,HmIP_MOD_OC8_000D20C9A8C464_21_TasterGruen_LED,HmIP_MOD_OC8_000D20C9A8C464_29,HM_SC_OG_Arbeitszimmer,HM_HT_GaesteWC,HM_HT_Kueche,HM_SC_EG_WohnzimmerWestSued,HmIP_MOD_RC8_00145F29B409A2_4,HM_RM_Flur_EG,HM_SC_OG_Schlafzimmer,HmIP_MOD_RC8_00145F29B409A2_8,HM_RM_HWR,HM_6C104A_Btn_03,HmIP_MOD_RC8_00145F29B409A2_2,HM_6C104A_Btn_05,HM_RM_Arbeitszimmer,HM_SC_EG_Haustuer,HM_WDS30_OT2_SM_UEQ1875731_1,HM_SC_EG_WohnzimmerTerrassentuer,HM_WDS30_OT2_SM_UEQ1875731_2,HM_RM_Flur_OG,HmIP_MOD_OC8_000D20C9A8C464_17_verzoegerteUeberwachung_LED,HM_PIR_Wohnzimmer,HM_SC_OG_Kinderzimmer,HmIP_MOD_OC8_000D20C9A8C464_33_BlinkLED,HmIP_MOD_OC8_000D20C9A8C464_13_Tuersummer_LED,HM_6C104A_Btn_02,HM_RM_Schlafzimmer,HM_SC_Schuppen_Carport,HmIP_MOD_RC8_00145F29B409A2_6,HM_HT_Flur,HM_RC2_Btn_04,HM_HT_Bad,HM_WDS30_OT2_SM_UEQ1875731_3,HM_WT_Wohnzimmer,HM_6C104A_Btn_04,HmIP_FensterbankWohnzimmer,HmIP_MOD_OC8_000D20C9A8C464_9_CarportLicht_LED,HM_6C104A_Btn_07,HM_HT_Arbeitszimmer,HM_Bewegungsmelder_Carport_Ost,HM_6C104A_Btn_06,HmIP_MOD_OC8_000D20C9A8C464_37,HM_RC2_Btn_01,HM_WT_Bad,HM_RC1_Btn_02,HM_WS_HWR,HM_RM_Kind,HM_RC1_Btn_03,HM_WS_Kueche_Boden,HM_HT_Schlafzimmer,HmIP_MOD_OC8_000D20C9A8C464_25_TasterSchwarz_LED,Bewegungsmelder_Sued_HM,HM_WDS30_OT2_SM_UEQ1875731_5,HM_RC2_Btn_03,HM_SC_OG_Badezimmer,HM_WDS30_OT2_SM_UEQ1875731_4,HM_WS_Kueche_Schrank,HM_RC2_Btn_02,HM_6C104A_Btn_08,HM_RC1_Btn_01,HM_SC_EG_KuecheSued,HmIP_MOD_RC8_00145F29B409A2_1,HM_Sw_Kueche_Sued,HmIP_MOD_RC8_00145F29B409A2_7,HM_SC_EG_GaesteWC,HM_SC_EG_WohnzimmerWestNord,HM_HT_Wohnzimmer_Sued,HM_6C104A_Btn_01,HmIP_MOD_RC8_00145F29B409A2_3,HM_HT_Kinderzimmer,HM_SC_EG_KuecheOst
2025.10.11 14:16:01 4: HMCCURPCPROC [d_rpc179011BidCos_RF] Set state to OK
2025.10.11 14:16:01 1: HMCCURPCPROC [d_rpc179011BidCos_RF] Scheduled CCU ping every 300 seconds
2025.10.11 14:16:01 4: HMCCURPCPROC [d_rpc179011BidCos_RF] Read stopped after 1 events read: no data
2025.10.11 14:16:01 2: HMCCURPCPROC [d_rpc179011HmIP_RF] CB2010179010179011 NewDevice received 146 device and channel specifications
2025.10.11 14:16:01 2: HMCCURPCPROC [d_rpc179011BidCos_RF] CB2001179010179011 NewDevice received 242 device and channel specifications
2025.10.11 14:16:02 4: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 accepting connections
2025.10.11 14:16:02 2: HMCCU [d_ccu] Update success=81 failed=0
2025.10.11 14:16:02 2: HMCCU [d_ccu] Updated devices: HM-SC-Schuppen-Carport,HM-HT-Wohnzimmer-Sued,HM-TH-Garten,HmIP-PIR-CarportOst,HM-SC-Haustuer,HM-SC-Kinderzimmer,HM-SC-Schlafzimmer,HmIP-HWR-8fachSender,HM-RM-Arbeitszimmer,HM-SC-HWR-Fenster,HM-HT-Flur,HM-SC-Wohnzimmer-Terrassentuer,HmIP-PS-2_Steckdose1,HM-SC-Schuppen-West,HM-PIR-Sued-Ost,HM-HT-Bad,HmIP-HWR-8fachReceiver,HM-SC-Arbeitszimmer,HM-HT-Schlafzimmer,HM-Temperatur-Pool,HM-RM-Kind,HM-SC-Wohnzimmer-Sued,HM-RM-Schlafzimmer,HM-SC-Kueche-Sued,HM-RC-Auto-Mirko,HM-SC-GaesteWC,HM-HT-Wohnzimmer-West,HM-WS-Kueche-Schrank,HM-HT-GaesteWC,HM-PIR-Carport-Ost,HM-RM-HWR,HM-RC-Schuppen,HM-HT-Kueche,HM-WS-Kueche-Boden,HM-WS-HWR,HM-WT-Bad,HM-SC-Kueche-Ost,HM-RM-Flur-OG,HM-RC-Auto-Julia,HM-PIR-Wohnzimmer,HM-WT-Wohnzimmer,HM-SC-Wohnzimmer-West-Sued,HM-HT-Arbeitszimmer,HM-Sw-Kueche-Sued,HM-Sw-Kueche-West,HM-RM-Flur-EG,HM-SC-Wohnzimmer-West-Nord,HM-SC-HWR-Tuer,HM-SC-Badezimmer,HM-HT-Kinderzimmer
2025.10.11 14:16:02 2: HMCCU [d_ccu] Update failed for:
2025.10.11 14:16:02 4: HMCCURPCPROC [d_rpc179011BidCos_RF] Read stopped after 100 events
2025.10.11 14:16:02 4: HMCCURPCPROC [d_rpc179011BidCos_RF] Read stopped after 100 events
2025.10.11 14:16:02 4: HMCCURPCPROC [d_rpc179011BidCos_RF] Read stopped after 40 events read: no data
2025.10.11 14:16:03 4: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 accepting connections
2025.10.11 14:16:04 4: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 accepting connections
2025.10.11 14:16:05 4: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 accepting connections
2025.10.11 14:16:06 4: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 accepting connections
2025.10.11 14:16:07 4: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 accepting connections
2025.10.11 14:16:08 4: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 accepting connections
2025.10.11 14:16:09 4: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 accepting connections
2025.10.11 14:16:10 4: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 accepting connections
2025.10.11 14:16:11 4: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 accepting connections
2025.10.11 14:16:12 4: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 accepting connections
2025.10.11 14:16:13 4: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 accepting connections
2025.10.11 14:16:14 4: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 accepting connections
2025.10.11 14:16:15 4: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 accepting connections
2025.10.11 14:16:16 4: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 accepting connections
2025.10.11 14:16:17 4: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 accepting connections
2025.10.11 14:16:18 4: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 accepting connections
2025.10.11 14:16:19 4: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 accepting connections
2025.10.11 14:16:19 4: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 processing request
2025.10.11 14:16:19 4: HMCCURPCPROC [d_rpc179011BidCos_RF] Read stopped after 1 events read: no data
2025.10.11 14:16:19 4: HMCCURPCPROC [d_rpc179011BidCos_RF] Read stopped after 1 events read: no data
2025.10.11 14:16:20 4: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 accepting connections
2025.10.11 14:16:21 4: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 accepting connections
2025.10.11 14:16:22 4: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 accepting connections
2025.10.11 14:16:23 4: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 accepting connections
2025.10.11 14:16:24 4: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 accepting connections
2025.10.11 14:16:25 4: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 accepting connections
2025.10.11 14:16:26 4: HMCCURPCPROC [d_rpc179011BidCos_RF] RPC server CB2001179010179011 accepting connections
...


Meine FHEM.cfg für die CCU-Anbindung sieht so aus:
####################################################################################################################
#
# Homematic via CCU

define d_ccu HMCCU 192.168.179.11
setuuid d_ccu 67658243-f33f-2cfb-13c4-7e39c5fbb59dfb67
attr d_ccu ccuGetVars 60:D.*
attr d_ccu ccuflags logCommand
attr d_ccu event-on-change-reading .*
attr d_ccu room Homematic
attr d_ccu rpcinterfaces BidCos-RF,HmIP-RF
attr d_ccu rpcserver on
attr d_ccu stateFormat rpcstate/state
attr d_ccu verbose 3
# NEU:

define FileLog_d_ccu FileLog ./log/d_ccu-%Y-%m.log d_ccu:DutyC.*
setuuid FileLog_d_ccu 67b6cf7b-f33f-2cfb-d184-f7efde5991b5fb6f
attr FileLog_d_ccu logtype text
attr FileLog_d_ccu room Logs,Homematic



define d_rpc179011HmIP_RF HMCCURPCPROC http://192.168.179.11 HmIP-RF
setuuid d_rpc179011HmIP_RF 67658243-f33f-2cfb-cb96-326106ac99baff20
attr d_rpc179011HmIP_RF alias CCU 179011 RPC HmIP-RF
attr d_rpc179011HmIP_RF eventMap /rpcserver on:on/rpcserver off:off/
attr d_rpc179011HmIP_RF room Homematic
attr d_rpc179011HmIP_RF stateFormat rpcstate/state
attr d_rpc179011HmIP_RF verbose 2

define d_rpc179011BidCos_RF HMCCURPCPROC http://192.168.179.11 BidCos-RF
setuuid d_rpc179011BidCos_RF 6765824c-f33f-2cfb-70d5-6ba11d197fdacbf6
attr d_rpc179011BidCos_RF alias CCU 179011 RPC BidCos-RF
attr d_rpc179011BidCos_RF eventMap /rpcserver on:on/rpcserver off:off/
attr d_rpc179011BidCos_RF room Homematic
attr d_rpc179011BidCos_RF stateFormat rpcstate/state
attr d_rpc179011BidCos_RF verbose 4


#define d_rpc179011CUxD HMCCURPCPROC http://192.168.179.11 CUxD
#setuuid d_rpc179011CUxD 6765824d-f33f-2cfb-6443-d76eb73a86c49063
#attr d_rpc179011CUxD alias CCU 179011 RPC CUxD
#attr d_rpc179011CUxD eventMap /rpcserver on:on/rpcserver off:off/
#attr d_rpc179011CUxD room Homematic
#attr d_rpc179011CUxD stateFormat rpcstate/state
#attr d_rpc179011CUxD verbose 2

define d_rpc179011VirtualDevices HMCCURPCPROC http://192.168.179.11 VirtualDevices
setuuid d_rpc179011VirtualDevices 6765824d-f33f-2cfb-8691-f78bd3bd0e52e514
attr d_rpc179011VirtualDevices alias CCU 179011 RPC VirtualDevices
attr d_rpc179011VirtualDevices eventMap /rpcserver on:on/rpcserver off:off/
attr d_rpc179011VirtualDevices room Homematic
attr d_rpc179011VirtualDevices stateFormat rpcstate/state
attr d_rpc179011VirtualDevices verbose 2



Hat jemand eine Idee, warum ich auf einmal diese Probleme haben könnte?

Danke für eure Hilfe.
#3
Solaranlagen / Aw: 76_SolarForecast - Informa...
Letzter Beitrag von Parallix - 11 Oktober 2025, 14:25:34
Zitat von: DS_Starter am 11 Oktober 2025, 13:29:18
ZitatAbschließend möchte ich außerdem noch anregen, die binäre Readings, die sich auf ein Device beziehen und wie z.B.  Battery_ChargeAbort_01, Battery_ChargeRequest_01 und Battery_ChargeRequest_01 das Vorliegen einer Sondersituation signalisieren, in ein einziges Reading zu überführen
Worin besteht der Unterschied zwei Readings auszuwerten oder nur ein Reading bezüglich seines Wertes, der verschiedene Status repräsentiert?
Was ist denn der überragende Vorteil einer solchen Änderung gegenüber dem Nachteil alle Codes, sämtliche Onlinehilfen und Wikibeschreibungen ändern/anpassen müssen?
Kannst du das bitte darlegen? Ich bin bei vielen Dingen gern bereit mitzugehen, will aber verstehen wofür ich meine Freizeit/Lebenszeit verbrennen soll.

  • Eine zu behandelnde Sondersituation lässt sich durch Abfrage eines Readings feststellen (Readingwert > 0), was auch bei einer künftige Erweiterung von Sondersituationen weiter so wäre. Die Anzahl an Readings würde reduziert. (Datensparsamkeit)
  • Bei einer Konfiguration ggf, nicht relevante oder genutzte Readings würden nicht mehr angezeigt (Übersichtlichkeit)
  • Spezifischere Angaben lassen sich ohne zusätzliche Readings machen, z.B. dringende Ladeempfehlung wg. SOC < lowSOC, Anregung zur Ladung aus dem Netz, um den Speicher in den "Wartungszustand" zu bringen. (Detailliertheit)
#4
Solaranlagen / Aw: 76_SolarForecast - Informa...
Letzter Beitrag von DS_Starter - 11 Oktober 2025, 14:10:12
ZitatAußerhalb z.B. das zwangsweise Beladen des Speichers aus dem Netz, was innerhalb von SF durch ein Reading (oder Bit innerhalb eines Readings) z.B. empfohlen werden könnte.
Fragezeichen im Kopf ... das ist doch schon gegeben -> Das Reading Battery_ChargeRequest_XX signalisiert doch bereits das Ladeverlangen. Vllt. stehe ich einfach nur auf dem Schlauch...
#5
Solaranlagen / Aw: 76_SolarForecast - Informa...
Letzter Beitrag von Parallix - 11 Oktober 2025, 14:05:41
Zitat von: DS_Starter am 11 Oktober 2025, 13:29:18
ZitatWenn dann noch ein Attribut, z.B.  careCycleTolerance, existiert, mit dem die tolerierte Überschreitung des Wartungstermins angegeben werden kann, könnten weitere sinnvolle Funktionen bzw. Readings in oder außerhalb von SF realisiert werden.
Was wäre das beispielsweise?

Außerhalb z.B. das zwangsweise Beladen des Speichers aus dem Netz, was innerhalb von SF durch ein Reading (oder Bit innerhalb eines Readings) z.B. empfohlen werden könnte.
#6
Solaranlagen / Aw: 76_SolarForecast - Informa...
Letzter Beitrag von Parallix - 11 Oktober 2025, 14:02:15
Zitat von: DS_Starter am 11 Oktober 2025, 13:29:18
ZitatNach meinem Erfahrungen und bei meiner Anlagenkonfiguration wird dieser Zustand bei einem nicht zu kurz eingestellten careCycle, der in meinem Fall bei 14 Tagen liegt, auch ohne Anhebung des Mindest-SOC hinreichend oft erreicht.
Bei mir nicht da ich eine sehr hohe Speicherkapazität gegenüber der installierten PV-Leistung habe was mir allerdings viele Vorteile bietet.
Ja! Dass das bei Dir so ist, das glaube ich Dir! Meinerseits hatte ich ja auch geschrieben: "Um SF an möglichst viele [andere] Konfigurationen und Anwendungsfälle  anpassen zu können" ...
#7
Solaranlagen / Aw: 76_SolarForecast - Informa...
Letzter Beitrag von DS_Starter - 11 Oktober 2025, 13:58:07
Zitatdass es sich um einen optimalen unteren SOC handelt.
BatOptMinSoC_XX
Ja, da könnte ich auch auch mitgehen.  ;)
#8
ESP Familie / Mittelwertbildung im Tasmota s...
Letzter Beitrag von DerD - 11 Oktober 2025, 13:55:48
Hi zusammen,

ich habe für einen ESP32-C3 Tasmota 15.0.1 inklusive Scripting kompiliert um SML meiner PV auszulesen. Das funktioniert soweit mit dem folgenden Standardscript für meinen Landis + Gyr E320.

>D
>B
=>sensor53 r
>M 1
+1,4,s,20,9600,E320
1,77070100020800ff@1000,Total Delivered,kWh,Total_out,3
1,77070100010800ff@1000,Total Consumed,kWh,Total_in,3
1,77070100100700ff@-1,Current power,W,Power_in,0
1,77070100600100ff@#,Server-ID,,Meter_Number,0   
#

Gesendet wird über MQTT alle 300s wie in der Telemetrie eingestellt.

Ausgelesen werden die Daten vom Smartmeter im Sekundentakt und auch im Tasmota Webinterface aktualisiert. Nun möchte ich aber nicht alle 5min den aktuellen Leistungswert schicken, sondern den Mittelwert der letzten 5 Minuten.
Jede Sekunde die Daten verschicken und in FHEM dann glätten ginge zwar, finde ich aber nicht ganz so hübsch ;)

Hier hat Ralf etwas in die Richtung "Rechnen im Script" erwähnt, schlau werde ich allerdings nicht daraus, und auch nicht so recht aus den Beispielen in der Tasmota scripting Beschreibung.

Wäre toll, wenn mir da jemand einen hilfreichen Tipp geben könnte
#9
Solaranlagen / Aw: 76_SolarForecast - Informa...
Letzter Beitrag von Parallix - 11 Oktober 2025, 13:54:42
Zitat von: DS_Starter am 11 Oktober 2025, 13:29:18
ZitatWenn ich das richtig sehe, dann wird Battery_OptimumTargetSoC_XX – eine nach meinem Empfinden sehr schlechte Bezeichnung für das Reading – schrittweise angehoben, damit der erforderliche obere SOC zur Batteriepflege auch erreicht werden kann.
Ja, jedoch nicht nur das. Es wird tatsächlich optimaler SoC berechnet, der auf die PV Erzeugung der nächsten zwei Tage reagiert. Das führt dazu, dass in dieser für PV armen Zeit dennoch im Normalfall genügend Speicherplatz verfügbar ist um den Wechsel von schlechten zu sehr guten Erzeugungslagen (die gibt es tatsächlich  ;) ) zu managen. Das ist der große Vorteil gegenüber (kommerziellen) Lösungen die einen statischen SoC einstellen. Deswegen ist die Namensgebung auch absolut richtig und passend.
Ja! SF kann sehr viel und in der Tat deutlich mehr als kommerzielle Lösungen und das im übrigen auch mit sehr wenig Datentransport nach außen! Den Readingnamen finde ich deshalb schlecht, da aus ihm überhaupt nicht hervorgeht, dass es sich um einen optimalen unteren SOC handelt. Hier wäre z.B. BatOptMinSoC_XX (ggf, auch weniger abgekürzt) greifbarer - man könnte auch "optimaler" sagen ;-)
#10
Codeschnipsel / Aw: Anzeige von BMW-Fahrzeugda...
Letzter Beitrag von pldemon - 11 Oktober 2025, 13:34:23
Zitat von: satprofi am 04 Oktober 2025, 22:25:16auch sind nur 20 abfragen täglich erlaubt. wie steuert man das?
weiters habe ich nur einmal "opened" im Status gehabt, daten kamen aber keine. seither immer disconnected.

Hi,

BMW bietet zwei verschiedene Arten an, wie man auf die Daten zugreifen kann: MQTT und cardata

Cardata ist auf 50 API-Abfragen beschränkt. Die Beschreibung gibt es hier:
https://bmw-cardata.bmwgroup.com/customer/public/api-documentation

Man definiert zuerst einen Container und kann dann die darin definierten Daten abrufen:
curl -X 'GET' \
  'https://api-cardata.bmwgroup.com/customers/vehicles/VIN/telematicData?containerId=V00NUMMER' \
  -H 'accept: application/json' \
  -H 'x-version: v1' \
  -H 'Authorization: Bearer ACCESS_TOKEN'

Die zweite Art ist MQTT. Bei der Verwendung von MQTT sendet BMW bei Änderungen des Zustands des Fahrzeugs Daten direkt an dich (siehe Beschreibung oben). Der Umfang der Daten sollte für die meisten reichen, wer aber mehr haben will, muss auf den Container zurückgreifen. Dabei gilt allerdings wie bereits erwähnt die Einschänkung von 50 Calls/Tag.

Gruß