HMCCU 5.0 im SVN verfügbar

Begonnen von zap, 26 Oktober 2021, 19:01:00

Vorheriges Thema - Nächstes Thema

frank

vermutlich auch abhängig vom benutzten gateway, denke ich.
FHEM: 6.0(SVN) => Pi3(buster)
IO: CUL433|CUL868|HMLAN|HMUSB2|HMUART
CUL_HM: CC-TC|CC-VD|SEC-SD|SEC-SC|SEC-RHS|Sw1PBU-FM|Sw1-FM|Dim1TPBU-FM|Dim1T-FM|ES-PMSw1-Pl
IT: ITZ500|ITT1500|ITR1500|GRR3500
WebUI [HMdeviceTools.js (hm.js)]: https://forum.fhem.de/index.php/topic,106959.0.html

juemuc

Zitat von: Reinhard.M am 06 April 2023, 12:10:59
Zitat von: Ryker am 06 April 2023, 10:34:28
Zitat von: Reinhard.M am 05 April 2023, 13:19:57Das ist ja ganz interessant aber wie komme ich an die zugehörige ID ... ?

Du macht im FHEM an deinem HMCCU-Device ein "ccuDevices". Dann bekommst du alle CCU-Device in dem fenster aufgelistet. Das mit dem Namen "HmIP-CCU3" hat in der 4. Spalte die Seriennummer stehen, die du dafür brauchst. Wenn es da nicht auftaucht, dann ist deine CCU-Version nicht auf der Version oder höher, die das als Feature mitgebraucht hat, oder in der virtuellen CCU geht das nicht.

Ryker
Danke für dein Feedback,
ich hatte allerdings in meinen Antworten zuvor geschrieben, dass ich das alles bereits überprüft habe. Bei mir fehlt schon in der CCU3 das Device. Für mich wäre interessant zu erfahren mit welchem Typ CCU ihr arbeitet. Ich arbeite mit pivccu3 in einer Docker Instanz auf Rapi 4 Bullseye. Versionstechnisch alles auf dem aktuellsten Stand. Wie sieht eure Konstellation aus? Das würde mir bei der Fehlersuche bzw. -eingrenzung helfen.

Reinhard

Ich nutze pivccu3 direkt auf einem Pi3 ohne Docker

Viele Grüße
Jürgen
3x Sonos Play 1, 1x Sonos Arc + Sub, 1 Sonos-One, 1x Sonos Playbar
FB6690 + FB7490 mit 4x Dect 200 und 3 Dect-ULE-Thermostate,  raspberry3B+, HM Funkmodul HM-MOD-RPI-PCB, HM Klingelsensor HM-Sen-DB-PCB, HM (IP) Fensterkontakte und  Amazon Echo Dot,  piVCCU, pi OS (bookworm).

Reinhard.M

#587
Die Wege der CCU sind (für mich) tief und unergründlich :)
Ich verwende das HM-MOD-RPI-PCB Funkmodul. Dessen ID fängt bei mir mit " 61A7DA" an, also etwas ganz anderes als "001F9D8". In der CCU3 wird es nicht angezeigt (eventuell habe ich auch nicht den passenden Schalter gefunden). Mit "get ccuDevices" sehe ich aber ein "HM-MOD-UART" mit der obigen ID. Das lässt sich bei mir auch anlegen und zeigt dann die entsprechenden Werte an.

Danke für den Hinweis
Reinhard

Update:
Gerade habe ich das Device im Posteingang der CCU gefunden, ist also auch auf der CCU Seite vorhanden :)

SamNitro

#588
Hey ich habe das log voller solcher einträge:

2023.04.09 01:09:08 2: N/A [N/A] Argument  or 1.01 isn't numeric in HMCCU_Min  HMCCU_Min:10017 HMCCU_MinMax:9436 HMCCU_ScaleValue:4794 HMCCU_UpdateParamsetReadings:4959 HMCCU_UpdateMultipleDevices:878 HMCCURPCPROC_Read:3978 CallFn:784
2023.04.09 01:09:08 2: N/A [N/A] Argument  or 1.01 isn't numeric in HMCCU_Min  HMCCU_Min:10017 HMCCU_MinMax:9436 HMCCU_ScaleValue:4794 HMCCU_UpdateParamsetReadings:4959 HMCCU_UpdateMultipleDevices:878 HMCCURPCPROC_Read:3978 CallFn:784
2023.04.09 01:09:08 2: N/A [N/A] Argument  or 1.01 isn't numeric in HMCCU_Min  HMCCU_Min:10017 HMCCU_MinMax:9436 HMCCU_ScaleValue:4794 HMCCU_UpdateParamsetReadings:4959 HMCCU_UpdateMultipleDevices:878 HMCCURPCPROC_Read:3978 CallFn:784
2023.04.09 01:09:08 2: N/A [N/A] Argument  or 1.01 isn't numeric in HMCCU_Min  HMCCU_Min:10017 HMCCU_MinMax:9436 HMCCU_ScaleValue:4794 HMCCU_UpdateParamsetReadings:4959 HMCCU_UpdateMultipleDevices:878 HMCCURPCPROC_Read:3978 CallFn:784

kann es an meinem userReadings liegen??? möchte nicht alle löschen um es zu testen  :-[
attr HmIPW_Rollo_Wohnzimmer userReadings pct_neu {if(ReadingsVal($name,"hmstate","") eq "closed") {return 0} elsif (ReadingsVal($name,"hmstate","") eq "open") {return 100} else {ReadingsVal($name,"hmstate","")} }
Okay ist auch bei einem neuen Gerät, habe sonst nix verändert außer RaspbarryMatic Geupdatet...
(Intel-Nuc Proxmox) (Homematic) (EnOcean) (CUL868) (CUL433) (Zigbee2MQTT) (ESP8266) (Echo) (DUOFERN)

SamNitro

Hat noch jemand RaspberryMatic und kann das bestätigen? Ab dem 7.4. hatte ich das Update und die Meldungen im Log.
(Intel-Nuc Proxmox) (Homematic) (EnOcean) (CUL868) (CUL433) (Zigbee2MQTT) (ESP8266) (Echo) (DUOFERN)

Miami

#590
Nein. Ich habe RaspberryMatic auf einem Pi4 laufen, FHEM und Diverses anderes auf einem weiteren Pi4 und ich habe keine solche Einträge im Log.

FHEM Version 6.2 (fhem.pl:27410/2023-04-07 perl:5.032001 os:linux user:fhem)
HMCCU Version 5.0 222930908
RaspberryMatic Version: 3.69.6.20230407 (rpi4)

############
Update: Tritt nun auch bei mir auf. Die Versionen sind gleich geblieben.

SamNitro

Okay danke. Dann muss ich mal weiter suchen.
(Intel-Nuc Proxmox) (Homematic) (EnOcean) (CUL868) (CUL433) (Zigbee2MQTT) (ESP8266) (Echo) (DUOFERN)

nog76

Zitat von: SamNitro am 10 April 2023, 18:22:48Hat noch jemand RaspberryMatic und kann das bestätigen? Ab dem 7.4. hatte ich das Update und die Meldungen im Log.

Ja, ich habe diese Meldungen auch seit dem Update auf die aktuellste Raspberrymatic-Version (3.69.6.20230407) am 8.4.2023.
Bei mir laufen FHEM und Raspberrymatic in Proxmox-VMs auf einem NUC.

2023.04.10 20:17:22 2: N/A [N/A] Argument  or 1.01 isn't numeric in HMCCU_Min  HMCCU_Min:10017 HMCCU_MinMax:9436 HMCCU_ScaleValue:4794 HMCCU_UpdateParamsetReadings:4959 HMCCU_UpdateMultipleDevices:9654 HMCCU_UpdateCB:9042 HMCCU_HMScriptCB:755 __ANON__:781

SamNitro

Zitat von: nog76 am 10 April 2023, 20:25:19Bei mir laufen FHEM und Raspberrymatic in Proxmox-VMs auf einem NUC.

bei mir auch
(Intel-Nuc Proxmox) (Homematic) (EnOcean) (CUL868) (CUL433) (Zigbee2MQTT) (ESP8266) (Echo) (DUOFERN)

Henne16

Hallo zusammen,

bei mir ist der gleiche Eintrag im Log.
Ich hatte im Reading rssidevice und rssipeer stelleweise den Eintrag N/A, die ich gefunden habe, habe ich auch gelöscht, nur der Eintrag im Log kommt immer noch.

LG Henrik
FHEM 6 PI4, Fhem2Fhem, Homematic IP CCU3, HMLAN, div. Thermostate, HM IP Wired Ein-Ausgang, Dimmer

isy

Nur zur Info. Bei mir ist alles OK.
RaspberryMatic auf separatem PI
Ein Weg wird erst zu einem Weg, wenn man ihn geht

SamNitro

#596
Was mir aufgedfallen ist, Henne hat auch HmIP-Wired. Kann zufall sein...

Wenn ich bei meinem Rollo nur auf stop drücke kommt alleine schon 4mal die meldung.
(Intel-Nuc Proxmox) (Homematic) (EnOcean) (CUL868) (CUL433) (Zigbee2MQTT) (ESP8266) (Echo) (DUOFERN)

nog76

Zitat von: SamNitro am 14 April 2023, 19:30:49Was mir aufgedfallen ist, Henne hat auch HmIP-Wired. Kann zufall sein...

Trifft für mich nicht zu - ich habe nur HmIP und Homematic/Bidcos Devices...

SamNitro

#598
Ich bekomme es aber auch über verbose nicht abgestellt über 70 mb an log dateien jeden tag

EDIT: ignoreRegexp greift auch nicht
(Intel-Nuc Proxmox) (Homematic) (EnOcean) (CUL868) (CUL433) (Zigbee2MQTT) (ESP8266) (Echo) (DUOFERN)

nog76

Ich habe einen Anhaltspunkt:
Habe FileLog für einen Großteil meiner Sensoren/Aktoren aktiv - habe daher mal geschaut, welche Sensoren/Aktoren zeitgleich zu der Fehlermeldung auch Daten schicken.

Beispiel:

# grep "08:14:10" *
fhem.log:2023.04.15 08:14:10 2: N/A [N/A] Argument  or 1.01 isn't numeric in HMCCU_Min  HMCCU_Min:10017 HMCCU_MinMax:9436 HMCCU_ScaleValue:4794 HMCCU_UpdateParamsetReadings:4959 HMCCU_UpdateMultipleDevices:878 HMCCURPCPROC_Read:3980 CallFn:784
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD activity: alive
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD rssidevice: -78
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD devstate: ok
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD hmstate: closed
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD 7.WEEK_PROGRAM_CHANNEL_LOCKS: 0
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD devstate: ok
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD hmstate: closed
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD rssidevice: -78
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD activity: alive
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD devstate: ok
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD hmstate: closed
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD closed
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD 3.LEVEL: closed
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD pct: 0
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD level: closed
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD 3.ACTIVITY_STATE: UNKNOWN
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD 3.SECTION:
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD 3.SECTION_STATUS: UNKNOWN
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD 3.LEVEL_STATUS: UNKNOWN
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD 3.PROCESS: STABLE
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD devstate: ok
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD hmstate: closed
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD control: closed
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD 4.LEVEL: closed
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD pct: 0
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD level: closed
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD 4.LEVEL_STATUS: NORMAL
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD 4.PROCESS: STABLE
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD 4.SECTION_STATUS: NORMAL
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD 4.SECTION: 0
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD 4.ACTIVITY_STATE: STABLE
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD devstate: ok
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD hmstate: closed
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD 5.LEVEL: closed
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD 5.LEVEL_STATUS: NORMAL
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD 5.PROCESS: STABLE
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD 5.ACTIVITY_STATE: STABLE
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD 5.SECTION: 0
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD 5.SECTION_STATUS: NORMAL
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD devstate: ok
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD hmstate: closed
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD 6.LEVEL_STATUS: NORMAL
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD 6.PROCESS: STABLE
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD 6.SECTION_STATUS: NORMAL
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD 6.ACTIVITY_STATE: STABLE
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD 6.SECTION: 0
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD 6.LEVEL: closed
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD devstate: ok
Rollladen_BAD.log:2023-04-15_08:14:10 Rollladen_BAD hmstate: closed


Ergebnis war - dass es immer Rollladenaktoren (HmIP-FROLL) waren - zusätzlich waren dies die Rollläden, die wir aktuell nur selten öffnen/schließen.
Nachdem ich diese Rollläden einmal geschlossen/geöffnet habe - waren die Fehlermeldungen weg.

Fazit:
Die nicht genutzten Rollladenaktoren hatten aufgrund der nicht erfolgten Nutzung nach Update von Raspberrymatic inkonsistente Stati (z.B. obwohl komplett geöffnet, standen diese auf closed bzw. 10%).

Bitte probiert das mal aus :-)