FHEM Forum

FHEM - Hausautomations-Systeme => Homematic => Thema gestartet von: merasil am 27 April 2019, 13:55:48

Titel: Bekomme keine Geräte mehr gepairt
Beitrag von: merasil am 27 April 2019, 13:55:48
Servus,

habe aktuell ein Problem, bei dem ich die Hilfe von Profis brauche. Ich habe mir ein neues Homematic HM-CC-RT-DN zugelegt und wollte es an die letzte verbliebene Heizung anbauen, welche noch nicht mit den Thermostaten ausgestattet war. Leider bekomme ich das Teil nicht mehr vernünftig gepairt. Fhem erkennt das Gerät zwar und legt es auch korrekt an, das Gerät selbst verweigert aber meine Fhem-Installation als Zentrale. Um auszuschließen, dass ich ne defekte Einheit bekommen habe, hab ich nochmal ein zusätzliches Thermostat schicken lassen... selbes Ergebnis. Ich hab dann mal getestet, ob es evtl an dem HM-MOD-UART (das RaspPi Hardwaremodul) liegt und einen alten Fenstersensor zurückgesetzt, aus Fhem gelöscht und dann nochmal neu gepairt. Hier klappt es komischerweise.

In Fhem steht bei dem Gerät nur, dass 13 CMDs pending sind. R-pairCentral ist set_0x241724. Was für Infos braucht ihr noch um ne vernünftige Analyse durchzuführen? Ich bin da leider komplett planlos :(

Viele liebe Grüße

Merasil
Titel: Antw:Kriege keine Geräte mehr gepairt
Beitrag von: MadMax-FHEM am 27 April 2019, 14:26:57
Wenn cmds pending sind: warten oder immer wieder mal den "Boost" Knopf wie beim anlernen (ohne pair in fhem) und warten (evtl. Browser refresh) bis keine cmds mehr pending sind...

Wenn das nicht hilft: list des bis dahin "erkannten" Thermostaten und von HMOD und (falls vorhanden) vccu...

(wenn neu gekauft sollte das zwar nicht sein aber evtl. schon mal mit anderer Zentrale verbunden, dann zurück setzen und noch mal pairen. Vorher die cms pending mit clear löschen)

Kurz da nur Handy grad...

Gruß, Joachim
Titel: Antw:Kriege keine Geräte mehr gepairt
Beitrag von: merasil am 27 April 2019, 17:29:12
Zitat von: MadMax-FHEM am 27 April 2019, 14:26:57
Wenn cmds pending sind: warten oder immer wieder mal den "Boost" Knopf wie beim anlernen (ohne pair in fhem) und warten (evtl. Browser refresh) bis keine cmds mehr pending sind...
Hab ich alles bereits vorher probiert :/ Ich hab es auch schon komplett zurückgesetzt etc. Bringt alles irgendwie nix. Das komische ist: Bisher war es immer so ich hab in der HM-MOD immer zuerst das pairing gestartet und danach bin ich an das Gerät und hab es in den Anlernmodus versetzt. Bei den Thermostaten ist dann immer kurz der Countdown erschienen und gleich wieder verschwunden. Das passiert bei den neuen Geräten nicht.
Zitat von: MadMax-FHEM am 27 April 2019, 14:26:57
Wenn das nicht hilft: list des bis dahin "erkannten" Thermostaten und von HMOD und (falls vorhanden) vccu...
Ich bin mir leider nicht ganz sicher was das heißt :/
Titel: Antw:Kriege keine Geräte mehr gepairt
Beitrag von: MadMax-FHEM am 27 April 2019, 17:43:56
list NameHMOD

list NameVCCU

list NameErkanntesGerät

In fhem-Web eingeben und die Ausgaben hier in code-Tags (das '#' im Menü) posten.

Resetten ist nicht hilfreich, weil die Nachrichten weiterhin im Puffer (bei fhem) bleiben.

Also:
hmpair
Anlernmodus Gerät
Nochmal Anlermmodus Gerät (Boost-Taste)
Solange bis keine cmds mehr pending sind...

VORHER: messages löschen (geht am Gerät/fhem Device)

EDIT: wie hast du zurückgesetzt?

Gruß, Joachim
Titel: Antw:Kriege keine Geräte mehr gepairt
Beitrag von: merasil am 28 April 2019, 11:48:21
HMMOD:
Internals:
   AssignedPeerCnt 28
   CNT        92
   Clients    :CUL_HM:
   DEF        /dev/ttyAMA0
   DEVCNT     92
   DevState   99
   DevType    UART
   DeviceName /dev/ttyAMA0@115200
   FD         4
   FUUID      5c571fd5-f33f-9cd3-ffde-6743559580882a1e
   LastOpen   1556365280.02345
   NAME       HMUART
   NOTIFYDEV  global
   NR         19
   NTFY_ORDER 50-HMUART
   PARTIAL   
   RAWMSG     040200
   RSSI       -29
   STATE      opened
   TYPE       HMUARTLGW
   XmitOpen   1
   model      HM-MOD-UART
   msgLoadCurrent 0
   msgLoadHistory 0/0/0/0/0/0/0/0/0/0/0/0
   msgLoadHistoryAbs 0/0/0/0/0/0/0/0/0/0/0/0/0
   owner      241724
   Helper:
     CreditTimer 5298
     FW         66561
     Initialized 1
     SendCnt    204
     AckPending:
     LastSendLen:
       3
       3
     Log:
       IDs:
     PendingCMD:
     RoundTrip:
       Delay      0.0028231143951416
     loadLvl:
       lastHistory 1556444484.08835
   MatchList:
     1:CUL_HM   ^A......................
   Peers:
     4D9E7E     +4D9E7E,00,01,18
     50631C     +50631C,00,01,00
     506444     +506444,00,01,00
     50C656     +50C656,00,01,00
     50C884     +50C884,00,01,00
     50C88A     +50C88A,00,01,00
     50C88E     +50C88E,00,01,00
     50C893     +50C893,00,01,00
     51BA7F     +51BA7F,00,01,00
     53B8AA     +53B8AA,00,01,00
     53B8C3     +53B8C3,00,01,00
     53C4DB     +53C4DB,00,01,00
     53C89E     +53C89E,00,01,00
     53C9C6     +53C9C6,00,01,00
     53CACD     +53CACD,00,01,00
     53CBBE     +53CBBE,00,01,00
     546727     +546727,01,01,00
     54B9FA     +54B9FA,01,01,00
     54EA5E     +54EA5E,01,01,00
     5594B5     +5594B5,00,01,00
     559BC7     +559BC7,00,01,00
     56BE99     +56BE99,00,01,00
     5B68A6     +5B68A6,00,01,00
     5B6AD9     +5B6AD9,00,01,00
     5D23A9     +5D23A9,01,01,02
     62147E     +62147E,00,01,00
     64BB50     +64BB50,02,01,00
     66522D     +66522D,00,01,00
   READINGS:
     2019-04-27 13:41:24   D-HMIdAssigned  241724
     2019-04-27 13:41:24   D-HMIdOriginal  582DB1
     2019-04-27 13:41:24   D-firmware      1.4.1
     2019-04-27 13:41:24   D-serialNr      OEQ0302829
     2019-04-27 13:41:10   D-type          HM-MOD-UART
     2019-04-27 13:41:24   cond            ok
     2019-04-28 10:02:12   load            0
     2019-04-27 13:41:24   loadLvl         low
     2019-04-27 13:41:20   state           opened
   helper:
Attributes:
   group      Zentrale
   hmId       241724
   hmKey      01:a414xxxxxxxxxxxxxxxxxxxxxx
   room       1.9_Haus


Thermostat:
Internals:
   CFGFN     
   DEF        64BB50
   FUUID      5cc4443c-f33f-9cd3-d0c5-348a4cc381e70b9a
   HMUART_MSGCNT 2
   HMUART_RAWMSG 0500002501840064BB500000001400954F4551323039353533355900FFFF
   HMUART_RSSI -37
   HMUART_TIME 2019-04-27 14:01:08
   IODev      HMUART
   LASTInputDev HMUART
   MSGCNT     2
   NAME       HM_64BB50
   NOTIFYDEV  global
   NR         350
   STATE      CMDs_pending
   TYPE       CUL_HM
   channel_01 HM_64BB50_Weather
   channel_02 HM_64BB50_Climate
   channel_03 HM_64BB50_WindowRec
   channel_04 HM_64BB50_Clima
   channel_05 HM_64BB50_ClimaTeam
   channel_06 HM_64BB50_remote
   lastMsg    No:01 - t:00 s:64BB50 d:000000 1400954F4551323039353533355900FFFF
   protCmdPend 3 CMDs_pending
   protLastRcv 2019-04-27 13:59:56
   protRcv    2 last_at:2019-04-27 13:59:56
   protState  CMDs_pending
   rssi_at_HMUART cnt:3 min:-46 max:-37 avg:-43 lst:-37
   READINGS:
     2019-04-27 14:19:56   Activity        dead
     2019-04-27 13:59:56   D-firmware      1.4
     2019-04-27 13:59:56   D-serialNr      OEQ2095535
     2019-04-27 13:59:56   R-pairCentral   set_0x241724
     2019-04-27 13:59:56   state           CMDs_pending
   cmdStack:
     ++A00124172464BB5000050000000000
     ++A00124172464BB50000802010A240B170C24
     ++A00124172464BB500006
   helper:
     HM_CMDNR   1
     PONtest    1
     mId        0095
     peerFriend
     peerOpt    -:thermostat
     regLst     0
     rxType     140
     supp_Pair_Rep 0
     expert:
       def        1
       det        0
       raw        1
       tpl        0
     io:
       newChn     +64BB50,02,01,00
       nextSend   1556366468.59029
       prefIO     
       rxt        2
       vccu       
       p:
         64BB50
         00
         01
         00
     mRssi:
       mNo        01
       io:
         HMUART:
           -29
           -29
     prt:
       bErr       0
       sProc      2
     q:
       qReqConf   00
       qReqStat   
     role:
       dev        1
       prs        1
     rssi:
       at_HMUART:
         avg        -43
         cnt        3
         lst        -37
         max        -37
         min        -46
     shRegW:
       07         04
     shadowReg:
       RegL_00.    02:01 0A:24 0B:17 0C:24
Attributes:
   IODev      HMUART
   actCycle   000:10
   actStatus  dead
   autoReadReg 4_reqStatus
   expert     2_raw
   firmware   1.4
   model      HM-CC-RT-DN
   room       CUL_HM
   serialNr   OEQ2095535
   subType    thermostat
   webCmd     getConfig:clear msgEvents:burstXmit


Zitat von: MadMax-FHEM am 27 April 2019, 17:43:56
In fhem-Web eingeben und die Ausgaben hier in code-Tags (das '#' im Menü) posten.

Resetten ist nicht hilfreich, weil die Nachrichten weiterhin im Puffer (bei fhem) bleiben.

Also:
hmpair
Anlernmodus Gerät
Nochmal Anlermmodus Gerät (Boost-Taste)
Solange bis keine cmds mehr pending sind...

VORHER: messages löschen (geht am Gerät/fhem Device)

EDIT: wie hast du zurückgesetzt?

Gruß, Joachim

Das ist es ja, die CMDs gehen nicht weg, auch wenn ich die Boost-Taste nochmal drücke. Ich hab den Pi schon komplett runtergefahren und die platine aus und wieder eingesteckt. Hat nichts geändert. Das mit den Messages löschen sollte doch beim Werksreset passieren oder? Batterien raus, alle drei tasten gedrückt halten und batterien rein. Dann steht irgendwann rES da.
Titel: Antw:Kriege keine Geräte mehr gepairt
Beitrag von: Otto123 am 28 April 2019, 12:02:47
Hi,

nein Messages löschen geht mit:
set HM_64BB50 clear msgEvents

Dann mal die Batterie raus aus dem dem Thermo, warten, wieder rein und nochmal anlernen.

Versuchen die Nachrichten abzuarbeiten. Dazu muss man manchmal nochmal den configTaster drücken. Ruhe bewahren! Nicht wieder Werkreset machen. Eventuell nochmal anlernen.

Gruß Otto
Titel: Antw:Kriege keine Geräte mehr gepairt
Beitrag von: MadMax-FHEM am 28 April 2019, 12:03:58
Ja Reset geht so, wenn du dann auf "ja/yes" stellst und quittierst... ;)

Ist aber nur (wenn überhaupt 1x nötig)

Löschen von Messages bezog sich auf fhem!

Dort beim Gerät clear messages...

Den Boost-Knopf drückst du aber schon so wie beim Anlernen!?
Dann sollte der Zähler wieder kurz kommen und auch gleich wieder "wegspringen"...
Dadurch wird das Gerät "geweckt" und überträgt noch fehlende Daten (cmds pending)...
Dazu ist aber KEIN weiteres Pairing seitens fhem nötig!!

Wenn der Zähler weiter zählt/ganz runter zählt sollten (erst mal) alle Daten übertragen sein und cmds pending weg sein (evtl. mal Browser refresh).

Zu viel Pair und Reset bringt nichts!
Immer schön ruhig und ein Gerät nach dem anderen...

Wenn danach noch irgendwelche set_ stehen, dann (wenn cmds pending weg) noch mal ein getconfig und wieder Boost drücken (siehe oben).

Die lists schaue ich dann mal durch...

EDIT: danke Otto für den exakten Befehl!

EDIT2: nach dem Einsetzen der Batterie etc. steht ja INS im Display, die Adaptierungsfahrt etc. machst du schon bevor du anlernst!?

Gruß, Joachim
Titel: Antw:Kriege keine Geräte mehr gepairt
Beitrag von: merasil am 28 April 2019, 21:24:27
Zitat von: MadMax-FHEM am 28 April 2019, 12:03:58
Ja Reset geht so, wenn du dann auf "ja/yes" stellst und quittierst... ;)

Ist aber nur (wenn überhaupt 1x nötig)

Löschen von Messages bezog sich auf fhem!

Hab's mal probiert so wie von Otto beschrieben. Keine Änderung.

Zitat von: MadMax-FHEM am 28 April 2019, 12:03:58
Den Boost-Knopf drückst du aber schon so wie beim Anlernen!?

Natürlich  ;D so noobig bin ich auch wieder nicht.

Zitat von: MadMax-FHEM am 28 April 2019, 12:03:58
Dann sollte der Zähler wieder kurz kommen und auch gleich wieder "wegspringen"...

Er zählt immer bis 0 runter. Wie gesagt, das Verhalten mit dem gleich wegspringen kenne ich so. Nur die neuen machen das leider nicht. Weder beim anlernen noch wenn ich die Cmds manuell übertragen will. Zählt immer runter.

Zitat von: MadMax-FHEM am 28 April 2019, 12:03:58
Wenn der Zähler weiter zählt/ganz runter zählt sollten (erst mal) alle Daten übertragen sein und cmds pending weg sein (evtl. mal Browser refresh).

Sind sie leider nicht :(

Zitat von: MadMax-FHEM am 28 April 2019, 12:03:58
EDIT2: nach dem Einsetzen der Batterie etc. steht ja INS im Display, die Adaptierungsfahrt etc. machst du schon bevor du anlernst!?

Ich wusste gar nicht, dass man überhaupt anlernen kann, ohne die Fahrt gemacht zu haben.
Titel: Antw:Kriege keine Geräte mehr gepairt
Beitrag von: MadMax-FHEM am 28 April 2019, 21:34:31
Zitat von: merasil am 28 April 2019, 21:24:27
Ich wusste gar nicht, dass man überhaupt anlernen kann, ohne die Fahrt gemacht zu haben.

Nö geht nicht (soweit ich weiß)...
Drum wollte ich es ja sicherstellen... ;)

Klingt eigenartig was du beschreibst.
Kenne ich so gar nicht...

Hast du den Thermostat fertig gekauft?
Wobei der Bausatz ja ganz ohne Löten ist, da also auch nix schief gehen kann...

Noch eigenartiger, dass es bei einem Fensterkontakt ging und bei 2 Thermostaten nicht...
...damit fällt die einfachste Erklärung: ein Defekt eher aus... :-|

Eins noch: wie aktuell ist dein fhem?

Die letzten Wochen war einiges los bzgl. Homematic mit Kanälen etc.
Ist zwar eher unwahrscheinlich aber...
...mehr fällt mir jetzt nicht ein...

Gruß, Joachim
Titel: Antw:Kriege keine Geräte mehr gepairt
Beitrag von: Otto123 am 28 April 2019, 21:56:33
klingt wie ganz kaputt oder falscher Thermostat, aber die configmessage hat er ja gesendet, sonst wäre das Gerät ja leer.

Sehr komisch.

Was sagt version?

Gruß Otto
Titel: Antw:Kriege keine Geräte mehr gepairt
Beitrag von: merasil am 30 April 2019, 08:12:00
Version sagt folgendes

Latest Revision: 19267

File                Rev   Last Change

fhem.pl             19265 2019-04-26 08:01:47Z rudolfkoenig
90_at.pm            17561 2018-10-18 14:45:30Z rudolfkoenig
98_autocreate.pm    18696 2019-02-23 12:24:04Z rudolfkoenig
10_CUL_HM.pm        19225 2019-04-20 06:53:45Z martinp876
98_dewpoint.pm      18846 2019-03-10 11:45:58Z hotbso
98_DOIF.pm          18890 2019-03-13 18:56:41Z Damian
98_dummy.pm         19197 2019-04-16 05:38:59Z rudolfkoenig
91_eventTypes.pm    14888 2017-08-13 12:07:12Z rudolfkoenig
01_FHEMWEB.pm       19148 2019-04-08 12:24:10Z rudolfkoenig
92_FileLog.pm       19102 2019-04-02 19:48:57Z rudolfkoenig
00_HMUARTLGW.pm     18838 2019-03-09 20:40:14Z mgernoth
98_HTTPMOD.pm       18644 2019-02-19 17:20:27Z StefanStrobel
30_HUEBridge.pm     19098 2019-04-02 16:38:49Z justme1968
31_HUEDevice.pm     19201 2019-04-16 19:16:57Z justme1968
98_JsonList2.pm     17230 2018-08-30 13:03:48Z rudolfkoenig
91_notify.pm        17225 2018-08-29 12:34:29Z rudolfkoenig
70_Pushover.pm      18995 2019-03-22 20:09:53Z loredo
33_readingsGroup.pm 16299 2018-03-01 08:06:55Z justme1968
39_siri.pm          14044 2017-04-20 07:48:44Z justme1968
98_structure.pm     18182 2019-01-08 18:34:06Z rudolfkoenig
99_SUNRISE_EL.pm    18732 2019-02-25 13:15:34Z rudolfkoenig
59_Twilight.pm      16005 2018-01-27 06:05:51Z igami
99_Utils.pm         18920 2019-03-16 09:58:52Z rudolfkoenig
98_version.pm       15140 2017-09-26 09:20:09Z markusbloch
59_Weather.pm       18973 2019-03-19 20:39:44Z CoolTux
98_weekprofile.pm   18778 2019-03-03 13:58:03Z Risiko

AttrTemplate.pm     19085 2019-04-01 17:00:24Z rudolfkoenig
Blocking.pm         17553 2018-10-17 15:56:35Z rudolfkoenig
Color.pm            18481 2019-02-02 09:35:08Z justme1968
DarkSkyAPI.pm       18973 2019-03-19 20:39:44Z CoolTux
DevIo.pm            18985 2019-03-21 19:00:25Z rudolfkoenig
GPUtils.pm           6653 2014-10-02 11:59:37Z ntruchsess
HMConfig.pm         19226 2019-04-20 06:54:28Z martinp876
HttpUtils.pm        17831 2018-11-24 15:09:17Z rudolfkoenig
Meta.pm             19255 2019-04-24 14:59:46Z loredo
myUtilsTemplate.pm   7570 2015-01-14 18:31:44Z rudolfkoenig
RTypes.pm           10476 2016-01-12 21:03:33Z borisneubert
SetExtensions.pm    19208 2019-04-17 19:27:09Z rudolfkoenig
TcpServerUtils.pm   19138 2019-04-07 10:17:21Z rudolfkoenig

doif.js                    15546 2017-12-03 09:57:42Z Ellert
fhemweb.js                 19114 2019-04-04 20:22:10Z rudolfkoenig
fhemweb_readingsGroup.js   15189 2017-10-03 17:53:27Z justme1968


habe aber danach nochmal ein Update gemacht und das Verhalten ist das Gleiche.
Thermostate (kein Bausatz) waren unterschiedliche Bestellungen bei Amazon. Eins hatte sogar Firmware 1.5 von Haus aus. Das andere hat 1.4.
Gibt es ne Möglichkeit 100% auszuschließen, dass es nicht an nem kaputten HMMOD oder Pi liegt? Z.B. das er keine Nachrichten mehr an Geräte senden oder empfangen kann oder das sie unvollständig empfangen oder gesendet werden. Ansonsten bestelle ich einfach nochmal ein Thermostat. Die Wahrscheinlichkeit ist zwar äußerst gering, aber vllt waren ja beide defekt.

*EDIT* Habe eben zum Test nochmal meinen Wassermelder unpaired, gelöscht, zurückgesetzt und neuangelernt und das hat ohne Probleme funktioniert. Konnte auch "get config" machen und ihn manuell anstoßen die Daten zu übertragen. Zusammen mit dem Fenstersensor macht das schon zwei die Funktionieren. Die sind nicht ganz so komplex wie die Heizungsdinger, aber damit müsste sich doch zumindest mal ausschließen lassen, dass es am HMMOD liegt oder?
Titel: Antw:Kriege keine Geräte mehr gepairt
Beitrag von: Otto123 am 30 April 2019, 11:36:13
Ich denke auch, an dem HMMOD liegt es nicht. 2 Thermostate defekt? Es gibt nichts was es nicht gibt.  ;)

Die Fenstersensoren sind auch sensibel, was anlernen betrifft. Aber sicher beim Thermo passiert mehr. Kann leider keine praktischen Tipps geben, ich habe die Thermos nicht.

Gruß Otto
Titel: Antw:Kriege keine Geräte mehr gepairt
Beitrag von: MadMax-FHEM am 30 April 2019, 13:56:47
Zitat von: Otto123 am 30 April 2019, 11:36:13
Ich denke auch, an dem HMMOD liegt es nicht. 2 Thermostate defekt? Es gibt nichts was es nicht gibt.  ;)

Die Fenstersensoren sind auch sensibel, was anlernen betrifft...

Wäre/war auch mein Verdacht...
...obwohl halt gleich 2...

Aber: man weiß ja nie.

Da andere funktionieren (und der Fenstersensor [zumindest beim allerersten Mal mit noch "original gesetzten" Registern] ist wirklich "sensibel", wei Otto ja schon angemerkt hat) und nur die nicht...


Zitat von: Otto123 am 30 April 2019, 11:36:13
Die Fenstersensoren sind auch sensibel, was anlernen betrifft. Aber sicher beim Thermo passiert mehr. Kann leider keine praktischen Tipps geben, ich habe die Thermos nicht.

Ich habe welche und mehr als die gegebenen Tipps gibt es (von mir) nicht.
Klar gehen mehr Infos hin und her, daher muss ich schon so 1x oder 2x den Boost noch mal drücken bevor er angelernt ist, evtl. noch mal (wenn die "Anlern-cmds" durch sind) ein get config (inkl. Boost)...
...aber das war's normalerweise (bislang immer).

Und ich hab einige davon und auch erst vor ein paar Monaten (so 1-3) einen angelernt...

Gruß, Joachim
Titel: Antw:Kriege keine Geräte mehr gepairt
Beitrag von: DeeSPe am 30 April 2019, 14:30:08
Nur mal ein Zwischenruf weil ich heute schon zum Xten Mal einen Schreck Schock bekommen habe weil ich "Kriege" lese.
Kriege sind das was u.a. die NATO auf unserem Planeten veranstaltet!
Im Zusammenhang mit dem Pairing von Homematic Devices würde ich eher von "Bekomme" statt "Kriege" sprechen. ;)

Gruß
Dan
Titel: Antw:Kriege keine Geräte mehr gepairt
Beitrag von: MadMax-FHEM am 30 April 2019, 15:09:13
OT:

Wobei es ja mit den Thermostaten schon ein ganz schöner Kampf ist...
...dann würde es wieder passen... ;)

Gruß, Joachim
Titel: Antw:Kriege keine Geräte mehr gepairt
Beitrag von: pc1246 am 30 April 2019, 15:11:17
Moin
Kurze frage von mir. Die Batterien sind gut? Der meldet ja "dead", macht er doch nur wenn er nicht erreichbar ist!
Ansonsten so, wie von Joachim beschrieben:
- Pair absetzen, Boost druecken bis Timer laeuft, kurz warten
- Boost druecken bis Timer laeuft, kurz warten
- Boost druecken bis Timer laeuft, kurz warten, normalerweise sollten nach dem 3. Mal alle cmds-pending weg sein, sonst noch einmal wiederholen
- getConfig absetzen, Bosst druecken bis Timer laeuft, kurz warten
- manchmal muss auch hier ein weiteres Mal Boost gedrueckt werden
Dann sollte der durch sein! Habe ich vor einen 3/4 Jahr mit 9 Stueck so durchgefuehrt, um die fuer einen Kumpel vorzubereiten!
Das Wichtigste ist, dass man Ruhe bewart, und lieber einmal zuviel die Boost Taaste drueckt, bis keine cmds pending mehr da sind. Falls ein NACK dazwischenkommt einfach von vorne anfangen!
Gruss Christoph
Titel: Antw:Kriege keine Geräte mehr gepairt
Beitrag von: MadMax-FHEM am 30 April 2019, 15:15:20
Da kann ich nur noch hinzufügen, dass ab und an (je nachdem "wo" man "steht") auch mal den Browser refreshen sollte bzw. die Detailansicht des Gerätes aktualisiert...
...ansonsten bleibt das cmds pending auch schon mal stehen, obwohl die cmds schon "weg sind"...

Aber eigentlich sollte es so gehen...
...ging zumindest immer so...

Gruß, Joachim
Titel: Antw:Kriege keine Geräte mehr gepairt
Beitrag von: merasil am 30 April 2019, 15:30:50
Zitat von: pc1246 am 30 April 2019, 15:11:17
Moin
Kurze frage von mir. Die Batterien sind gut? Der meldet ja "dead", macht er doch nur wenn er nicht erreichbar ist!

Jop sind ganz frische. Er meldet dead weil er seit nem Tag keine Antwort von dem Teil bekommen hat vermute ich.

Zitat von: pc1246 am 30 April 2019, 15:11:17
- Pair absetzen, Boost druecken bis Timer laeuft, kurz warten
- Boost druecken bis Timer laeuft, kurz warten
- Boost druecken bis Timer laeuft, kurz warten, normalerweise sollten nach dem 3. Mal alle cmds-pending weg sein, sonst noch einmal wiederholen
- getConfig absetzen, Bosst druecken bis Timer laeuft, kurz warten
- manchmal muss auch hier ein weiteres Mal Boost gedrueckt werden

Genauso gemacht. Hab ja noch 7 andere Thermostate in FHEM drin die ohne Probs funktionieren. Das neue arbeitet aber keine CMDs ab. Der Timer läuft immer durch (30->0), sowohl beim pairen als auch beim manuellen Anstoßen. Es ist auch keine kleine Antenne im Display des Thermostates abgebildet. Das zeigt ja meines Wissens nach an, dass er erkennt, dass es eine Zentrale gibt mit der er gepairt ist. Browser refresh natürlich schon gemacht. Gibt es irgend ne Möglichkeit wie ich ne genauere Analyse machen kann was schief läuft? Es scheint ja so als ob FHEM und der HMMOD was von dem Gerät empfangen, nur umgekehrt klappt es nicht. Ich vermute aber das ich aus der Gerät keine weiteren Logs rausbekomme oder?

Zitat von: DeeSPe am 30 April 2019, 14:30:08
Nur mal ein Zwischenruf weil ich heute schon zum Xten Mal einen Schreck Schock bekommen habe weil ich "Kriege" lese.
Kriege sind das was u.a. die NATO auf unserem Planeten veranstaltet!
Im Zusammenhang mit dem Pairing von Homematic Devices würde ich eher von "Bekomme" statt "Kriege" sprechen. ;)

Gruß
Dan

*EDIT* kann ein Mod den Titel ändern? Von "Kriege" in "Bekomme". Ich will ja niemanden verschrecken :P
Titel: Antw:Kriege keine Geräte mehr gepairt
Beitrag von: MadMax-FHEM am 30 April 2019, 15:48:18
Du kannst höchstens mal Messages mitsniffen...
...wie steht im Wiki.

Evtl. (wobei die Werte soweit ich mal in Erinnerung hab gut sind) den Thermostaten nach der Ada-Fahrt abschrauben und mal etwas näher (aber auch nicht zu nah ;)  ) an den fhem Server/HMOD gehen und anlernen.

Muss eigentlich nichts gelöscht/resettet werden, sondern einfach noch mal "drüber pairen"...

Ansonsten (wenn andere Geräte gehen, es eigentlich nicht schwer ist die anzulernen, du ja bereits welche hast und weißt wie es geht, ...) eher mal (auch wenn gleich 2) von Defekt ausgehen...
...außer jemand sieht noch was (evtl. aus dem Sniffen).

EDIT: außer evtl. noch ein fhem Update (falls nicht schon gemacht und ich nicht mehr weiß, dass ich's schon gelesen hab ;)  ). War ja einiges in letzter Zeit. Wobei das vorhandene list nicht so schlecht aussieht. Es gab ja etwas "Durcheinander" bzgl. Model/Type etc. wegen Groß-/Kleinschreibung. Wobei der Thermostat davon nicht betroffen sein sollte, der war schon immer "nur groß" ;)

Gruß, Joachim
Titel: Antw:Kriege keine Geräte mehr gepairt
Beitrag von: Otto123 am 30 April 2019, 17:46:16
Zitat von: merasil am 30 April 2019, 15:30:50
*EDIT* kann ein Mod den Titel ändern? Von "Kriege" in "Bekomme". Ich will ja niemanden verschrecken :P
Kannst Du - zumindest im ersten Post.
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: merasil am 01 Mai 2019, 07:38:37
Hab mal mitgesnifft.
Das ist alles was mit dem Thermostat zusammenhängt:
2019.05.01 07:24:23.887 0: HMUARTLGW HMUART send: 01 0664BB50010000
2019.05.01 07:24:23.893 0: HMUARTLGW HMUART recv: 01 04070101000AFFFFFFFFFFFFFFFF, state 90
2019.05.01 07:24:23.894 0: HMUARTLGW HMUART GetSet Ack: 07, state 90
2019.05.01 07:24:23.894 0: HMUARTLGW HMUART added peer: 64BB50, aesChannels: FFFFFFFFFFFFFFFF
2019.05.01 07:24:23.895 0: HMUARTLGW HMUART send: 01 0664BB50010000
2019.05.01 07:24:23.901 0: HMUARTLGW HMUART recv: 01 04070101000AFFFFFFFFFFFFFFFF, state 93
2019.05.01 07:24:23.901 0: HMUARTLGW HMUART GetSet Ack: 07, state 93
2019.05.01 07:24:23.901 0: HMUARTLGW HMUART added peer: 64BB50, aesChannels: FFFFFFFFFFFFFFFF
2019.05.01 07:24:23.902 0: HMUARTLGW HMUART send: 01 064D9E7E010000
2019.05.01 07:24:23.907 0: HMUARTLGW HMUART recv: 01 04070101000BFFFFFFFFFFFFFFE7, state 90
2019.05.01 07:24:23.908 0: HMUARTLGW HMUART GetSet Ack: 07, state 90

2019.05.01 07:24:25.678 0: HMUARTLGW HMUART send: 01 0664BB50010000
2019.05.01 07:24:25.683 0: HMUARTLGW HMUART recv: 01 04070101001CFFFFFFFFFFFFFFFF, state 90
2019.05.01 07:24:25.684 0: HMUARTLGW HMUART GetSet Ack: 07, state 90
2019.05.01 07:24:25.684 0: HMUARTLGW HMUART added peer: 64BB50, aesChannels: FFFFFFFFFFFFFFFF
2019.05.01 07:24:25.685 0: HMUARTLGW HMUART send: 01 0664BB50010000
2019.05.01 07:24:25.691 0: HMUARTLGW HMUART recv: 01 04070101001CFFFFFFFFFFFFFFFF, state 93
2019.05.01 07:24:25.691 0: HMUARTLGW HMUART GetSet Ack: 07, state 93
2019.05.01 07:24:25.691 0: HMUARTLGW HMUART added peer: 64BB50, aesChannels: FFFFFFFFFFFFFFFF
2019.05.01 07:24:25.692 0: HMUARTLGW HMUART send: 01 065594B5010000
2019.05.01 07:24:25.697 0: HMUARTLGW HMUART recv: 01 04070101001CFFFFFFFFFFFFFFFF, state 90
2019.05.01 07:24:25.698 0: HMUARTLGW HMUART GetSet Ack: 07, state 90

2019.05.01 07:29:35.873 0: HMUARTLGW HMUART send: 01 0664BB50010100
2019.05.01 07:29:35.928 0: HMUARTLGW HMUART recv: 01 04070101001CFFFFFFFFFFFFFFFF, state 90
2019.05.01 07:29:35.928 0: HMUARTLGW HMUART GetSet Ack: 07, state 90
2019.05.01 07:29:35.928 0: HMUARTLGW HMUART added peer: 64BB50, aesChannels: FFFFFFFFFFFFFFFF
2019.05.01 07:29:35.929 0: HMUARTLGW HMUART send: 01 0664BB50010100
2019.05.01 07:29:35.935 0: HMUARTLGW HMUART recv: 01 04070101001CFFFFFFFFFFFFFFFF, state 93
2019.05.01 07:29:35.935 0: HMUARTLGW HMUART GetSet Ack: 07, state 93
2019.05.01 07:29:35.936 0: HMUARTLGW HMUART added peer: 64BB50, aesChannels: FFFFFFFFFFFFFFFF
2019.05.01 07:29:41.965 0: HMUARTLGW HMUART send: 00 08
2019.05.01 07:29:41.969 0: HMUARTLGW HMUART recv: 00 040202, state 98
2019.05.01 07:29:41.969 0: HMUARTLGW HMUART GetSet Ack: 02, state 98
2019.05.01 07:29:41.969 0: HMUARTLGW HMUART roundtrip delay: 0.0028
2019.05.01 07:29:47.188 0: HMUARTLGW HMUART recv: 01 05 00 00 34 msg: 12 84 70 5B6AD9 000000 00D338
2019.05.01 07:29:51.988 0: HMUARTLGW HMUART recv: 01 05 00 00 32 msg: 01 84 00 64BB50 000000 1400954F4551323039353533355900FFFF
2019.05.01 07:29:52.090 0: HMUARTLGW HMUART send: 01 02 00 00 00 msg: 29 A0 01 241724 64BB50 00050000000000
2019.05.01 07:29:52.096 0: HMUARTLGW HMUART recv: 01 0408, state 100
2019.05.01 07:29:52.096 0: HMUARTLGW HMUART IO currently busy, trying again in a bit
2019.05.01 07:29:52.147 0: HMUARTLGW HMUART send: 01 02 00 00 00 msg: 29 A0 01 241724 64BB50 00050000000000
2019.05.01 07:29:52.153 0: HMUARTLGW HMUART recv: 01 0408, state 100
2019.05.01 07:29:52.153 0: HMUARTLGW HMUART IO currently busy, trying again in a bit
2019.05.01 07:29:52.204 0: HMUARTLGW HMUART send: 01 02 00 00 00 msg: 29 A0 01 241724 64BB50 00050000000000
2019.05.01 07:29:52.209 0: HMUARTLGW HMUART recv: 01 0408, state 100
2019.05.01 07:29:52.210 0: HMUARTLGW HMUART IO currently busy, trying again in a bit
2019.05.01 07:29:52.261 0: HMUARTLGW HMUART send: 01 02 00 00 00 msg: 29 A0 01 241724 64BB50 00050000000000
2019.05.01 07:29:52.266 0: HMUARTLGW HMUART recv: 01 0408, state 100
2019.05.01 07:29:52.267 0: HMUARTLGW HMUART IO currently busy, trying again in a bit
2019.05.01 07:29:52.318 0: HMUARTLGW HMUART send: 01 02 00 00 00 msg: 29 A0 01 241724 64BB50 00050000000000
2019.05.01 07:29:52.323 0: HMUARTLGW HMUART recv: 01 0408, state 100
2019.05.01 07:29:52.324 0: HMUARTLGW HMUART IO currently busy, trying again in a bit
2019.05.01 07:29:52.375 0: HMUARTLGW HMUART send: 01 02 00 00 00 msg: 29 A0 01 241724 64BB50 00050000000000
2019.05.01 07:29:52.380 0: HMUARTLGW HMUART recv: 01 0408, state 100
2019.05.01 07:29:52.380 0: HMUARTLGW HMUART IO currently busy, trying again in a bit
2019.05.01 07:29:52.431 0: HMUARTLGW HMUART send: 01 02 00 00 00 msg: 29 A0 01 241724 64BB50 00050000000000
2019.05.01 07:29:52.437 0: HMUARTLGW HMUART recv: 01 0408, state 100
2019.05.01 07:29:52.437 0: HMUARTLGW HMUART IO currently busy, trying again in a bit
2019.05.01 07:29:52.488 0: HMUARTLGW HMUART send: 01 02 00 00 00 msg: 29 A0 01 241724 64BB50 00050000000000
2019.05.01 07:29:52.645 0: HMUARTLGW HMUART recv: 01 04 03 00 2F msg: 29 80 02 64BB50 241724 00
2019.05.01 07:29:52.743 0: HMUARTLGW HMUART send: 01 02 00 00 00 msg: 2A A0 01 241724 64BB50 00080A000B000C00
2019.05.01 07:29:52.913 0: HMUARTLGW HMUART recv: 01 04 03 00 2F msg: 2A 80 02 64BB50 241724 00
2019.05.01 07:29:53.011 0: HMUARTLGW HMUART send: 01 02 00 00 00 msg: 2B A0 01 241724 64BB50 0006
2019.05.01 07:29:53.180 0: HMUARTLGW HMUART recv: 01 04 03 00 30 msg: 2B 80 02 64BB50 241724 00
2019.05.01 07:29:53.277 0: HMUARTLGW HMUART send: 01 02 00 00 00 msg: 2C A0 01 241724 64BB50 00040000000000
2019.05.01 07:29:54.207 0: HMUARTLGW HMUART recv: 01 0404, state 100
2019.05.01 07:29:54.207 0: HMUARTLGW HMUART can't send due to unknown problem (no response?)
2019.05.01 07:29:55.273 0: HMUARTLGW HMUART recv: 01 05 00 00 26 msg: E2 86 10 50C88E 000000 0AA8E50D0F00
2019.05.01 07:29:56.969 0: HMUARTLGW HMUART send: 00 08
2019.05.01 07:29:56.973 0: HMUARTLGW HMUART recv: 00 040203, state 98
2019.05.01 07:29:56.973 0: HMUARTLGW HMUART GetSet Ack: 02, state 98
2019.05.01 07:29:56.973 0: HMUARTLGW HMUART roundtrip delay: 0.0027
2019.05.01 07:29:57.043 0: HMUARTLGW HMUART send: 01 0664BB50010100
2019.05.01 07:29:57.102 0: HMUARTLGW HMUART recv: 01 04070101001CFFFFFFFFFFFFFFFF, state 90
2019.05.01 07:29:57.103 0: HMUARTLGW HMUART GetSet Ack: 07, state 90
2019.05.01 07:29:57.103 0: HMUARTLGW HMUART added peer: 64BB50, aesChannels: FFFFFFFFFFFFFFFF
2019.05.01 07:29:57.104 0: HMUARTLGW HMUART send: 01 0664BB50010100
2019.05.01 07:29:57.110 0: HMUARTLGW HMUART recv: 01 04070101001CFFFFFFFFFFFFFFFF, state 93
2019.05.01 07:29:57.110 0: HMUARTLGW HMUART GetSet Ack: 07, state 93
2019.05.01 07:29:57.111 0: HMUARTLGW HMUART added peer: 64BB50, aesChannels: FFFFFFFFFFFFFFFF
2019.05.01 07:30:02.033 0: HMUARTLGW HMUART recv: 01 05 00 00 27 msg: 2C 86 70 56BE99 000000 00A43D
2019.05.01 07:30:11.973 0: HMUARTLGW HMUART send: 00 08
2019.05.01 07:30:11.976 0: HMUARTLGW HMUART recv: 00 040203, state 98
2019.05.01 07:30:11.977 0: HMUARTLGW HMUART GetSet Ack: 02, state 98
2019.05.01 07:30:11.977 0: HMUARTLGW HMUART roundtrip delay: 0.0027
2019.05.01 07:30:22.936 0: HMUARTLGW HMUART recv: 01 05 00 00 31 msg: 01 84 00 64BB50 000000 1400954F4551323039353533355900FFFF
2019.05.01 07:30:23.033 0: HMUARTLGW HMUART send: 01 02 00 00 00 msg: 29 A0 01 241724 64BB50 00040000000000
2019.05.01 07:30:23.039 0: HMUARTLGW HMUART recv: 01 0408, state 100
2019.05.01 07:30:23.039 0: HMUARTLGW HMUART IO currently busy, trying again in a bit
2019.05.01 07:30:23.090 0: HMUARTLGW HMUART send: 01 02 00 00 00 msg: 29 A0 01 241724 64BB50 00040000000000
2019.05.01 07:30:23.096 0: HMUARTLGW HMUART recv: 01 0408, state 100
2019.05.01 07:30:23.096 0: HMUARTLGW HMUART IO currently busy, trying again in a bit
2019.05.01 07:30:23.147 0: HMUARTLGW HMUART send: 01 02 00 00 00 msg: 29 A0 01 241724 64BB50 00040000000000
2019.05.01 07:30:23.153 0: HMUARTLGW HMUART recv: 01 0408, state 100
2019.05.01 07:30:23.153 0: HMUARTLGW HMUART IO currently busy, trying again in a bit
2019.05.01 07:30:23.204 0: HMUARTLGW HMUART send: 01 02 00 00 00 msg: 29 A0 01 241724 64BB50 00040000000000
2019.05.01 07:30:23.209 0: HMUARTLGW HMUART recv: 01 0408, state 100
2019.05.01 07:30:23.210 0: HMUARTLGW HMUART IO currently busy, trying again in a bit
2019.05.01 07:30:23.261 0: HMUARTLGW HMUART send: 01 02 00 00 00 msg: 29 A0 01 241724 64BB50 00040000000000
2019.05.01 07:30:23.266 0: HMUARTLGW HMUART recv: 01 0408, state 100
2019.05.01 07:30:23.267 0: HMUARTLGW HMUART IO currently busy, trying again in a bit
2019.05.01 07:30:23.318 0: HMUARTLGW HMUART send: 01 02 00 00 00 msg: 29 A0 01 241724 64BB50 00040000000000
2019.05.01 07:30:23.323 0: HMUARTLGW HMUART recv: 01 0408, state 100
2019.05.01 07:30:23.323 0: HMUARTLGW HMUART IO currently busy, trying again in a bit
2019.05.01 07:30:23.374 0: HMUARTLGW HMUART send: 01 02 00 00 00 msg: 29 A0 01 241724 64BB50 00040000000000
2019.05.01 07:30:23.380 0: HMUARTLGW HMUART recv: 01 0408, state 100
2019.05.01 07:30:23.380 0: HMUARTLGW HMUART IO currently busy, trying again in a bit
2019.05.01 07:30:23.431 0: HMUARTLGW HMUART send: 01 02 00 00 00 msg: 29 A0 01 241724 64BB50 00040000000000
2019.05.01 07:30:24.349 0: HMUARTLGW HMUART recv: 01 0404, state 100
2019.05.01 07:30:24.349 0: HMUARTLGW HMUART can't send due to unknown problem (no response?)
2019.05.01 07:30:26.978 0: HMUARTLGW HMUART send: 00 08
2019.05.01 07:30:26.981 0: HMUARTLGW HMUART recv: 00 040203, state 98
2019.05.01 07:30:26.982 0: HMUARTLGW HMUART GetSet Ack: 02, state 98
2019.05.01 07:30:26.982 0: HMUARTLGW HMUART roundtrip delay: 0.0027
2019.05.01 07:30:27.992 0: HMUARTLGW HMUART send: 01 0664BB50010100
2019.05.01 07:30:28.052 0: HMUARTLGW HMUART recv: 01 04070101001CFFFFFFFFFFFFFFFF, state 90
2019.05.01 07:30:28.052 0: HMUARTLGW HMUART GetSet Ack: 07, state 90
2019.05.01 07:30:28.053 0: HMUARTLGW HMUART added peer: 64BB50, aesChannels: FFFFFFFFFFFFFFFF
2019.05.01 07:30:28.054 0: HMUARTLGW HMUART send: 01 0664BB50010100
2019.05.01 07:30:28.059 0: HMUARTLGW HMUART recv: 01 04070101001CFFFFFFFFFFFFFFFF, state 93
2019.05.01 07:30:28.060 0: HMUARTLGW HMUART GetSet Ack: 07, state 93
2019.05.01 07:30:28.060 0: HMUARTLGW HMUART added peer: 64BB50, aesChannels: FFFFFFFFFFFFFFFF
2019.05.01 07:30:41.991 0: HMUARTLGW HMUART send: 00 08
2019.05.01 07:30:41.994 0: HMUARTLGW HMUART recv: 00 040203, state 98
2019.05.01 07:30:41.994 0: HMUARTLGW HMUART GetSet Ack: 02, state 98
2019.05.01 07:30:41.995 0: HMUARTLGW HMUART roundtrip delay: 0.0027
2019.05.01 07:30:55.052 0: HMUARTLGW HMUART send: 01 0664BB50010000
2019.05.01 07:30:55.058 0: HMUARTLGW HMUART recv: 01 04070101001CFFFFFFFFFFFFFFFF, state 90
2019.05.01 07:30:55.058 0: HMUARTLGW HMUART GetSet Ack: 07, state 90
2019.05.01 07:30:55.059 0: HMUARTLGW HMUART added peer: 64BB50, aesChannels: FFFFFFFFFFFFFFFF
2019.05.01 07:30:55.060 0: HMUARTLGW HMUART send: 01 0664BB50010000
2019.05.01 07:30:55.065 0: HMUARTLGW HMUART recv: 01 04070101001CFFFFFFFFFFFFFFFF, state 93
2019.05.01 07:30:55.066 0: HMUARTLGW HMUART GetSet Ack: 07, state 93
2019.05.01 07:30:55.066 0: HMUARTLGW HMUART added peer: 64BB50, aesChannels: FFFFFFFFFFFFFFFF
2019.05.01 07:30:56.993 0: HMUARTLGW HMUART send: 00 08
2019.05.01 07:30:56.996 0: HMUARTLGW HMUART recv: 00 040203, state 98
2019.05.01 07:30:56.997 0: HMUARTLGW HMUART GetSet Ack: 02, state 98
2019.05.01 07:30:56.997 0: HMUARTLGW HMUART roundtrip delay: 0.0027
2019.05.01 07:31:10.240 0: HMUARTLGW HMUART send: 01 0664BB50010100
2019.05.01 07:31:10.269 0: HMUARTLGW HMUART recv: 01 04070101001CFFFFFFFFFFFFFFFF, state 90
2019.05.01 07:31:10.269 0: HMUARTLGW HMUART GetSet Ack: 07, state 90
2019.05.01 07:31:10.269 0: HMUARTLGW HMUART added peer: 64BB50, aesChannels: FFFFFFFFFFFFFFFF
2019.05.01 07:31:10.270 0: HMUARTLGW HMUART send: 01 0664BB50010100
2019.05.01 07:31:10.309 0: HMUARTLGW HMUART recv: 01 04070101001CFFFFFFFFFFFFFFFF, state 93
2019.05.01 07:31:10.309 0: HMUARTLGW HMUART GetSet Ack: 07, state 93
2019.05.01 07:31:10.310 0: HMUARTLGW HMUART added peer: 64BB50, aesChannels: FFFFFFFFFFFFFFFF
2019.05.01 07:31:11.997 0: HMUARTLGW HMUART send: 00 08
2019.05.01 07:31:12.001 0: HMUARTLGW HMUART recv: 00 040203, state 98
2019.05.01 07:31:12.002 0: HMUARTLGW HMUART GetSet Ack: 02, state 98
2019.05.01 07:31:12.002 0: HMUARTLGW HMUART roundtrip delay: 0.0036
2019.05.01 07:31:18.654 0: HMUARTLGW HMUART recv: 01 05 00 00 2E msg: 2E 86 10 50C656 000000 0AA8CA0F6400
2019.05.01 07:31:22.676 0: HMUARTLGW HMUART recv: 01 05 00 00 23 msg: 01 84 00 64BB50 000000 1400954F4551323039353533355900FFFF


Da steht irgendwas von "cant send due unknown problem" also doch der HMMOD? Das war ein unpair (was er witzigerweiße mit nem AC im Display bestätigt hat) und ein erneutes pairing.

*EDIT* Beim Durchschauen der Logs ist mir aufgefallen das immer bei diesem "IO currently busy, trying again in a bit" in dem Recv-Teil der State auf 100 ist. Kann es sein das die Zentrale überlastet ist und die 100 bedeutet das 100% des Sendekontingents ausgeschöpft ist? Würde mich zwar stark wundern, da ich kaum Burst-Geräte habe und ansonsten vorher keine (aktiv von mir ausgelöste) Kommunikation gab. Immer wenn der State unter 100 war, scheint die Kommunikation nämlich geklappt zu haben.
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: merasil am 03 Mai 2019, 08:54:22
*PUSH*

ich weiß das ist eig ein Unding, aber vllt kann mir ja zumindest jemand bestätigen, ob meine Vermutung richtig ist mit der überlasteten Zentrale. Oder ist es doch das Gerät?
Und wie ist es mit der Übertragung? Macht es einen Unterschied (Sende- bzw. Empfangstechnisch) ob ich ein Gerät paire oder ob ich ihm einen Befehl sende (z.B. einen neuen Heizplan oder bei meinem Winmatic das er das Fenster öffnen soll)?
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: MadMax-FHEM am 03 Mai 2019, 10:34:22
Kein Unding... ;)

Leider bin ich in der Kommunikation nicht so tief drin um sehen zu können, ob da was (und wenn wo) nicht passt...

Einen Befehl senden, den das Gerät auch annehmen soll, geht erst, wenn gepaired ist!
Davor kannst du/fhem zwar empfangen (und tut es auch) und weist auch den zugehörigen Geräten die empfangenen Werte zu, mehr nicht.
(führt oft dazu, dass "Leute" denken ihre Geräte [gerade "Sensoren", z.B. Fensterkontakte] wären gepaired / sind es aber oft nicht / fällt dann manchmal auf, wenn "peering-Kommandos" geschickt werden und die dann [nat.] nicht gehen)

Also musst du leider warten, bis jemand vorbei schaut, der den Kommunikationsverkehr deuten kann...

Gruß, Joachim
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: frank am 03 Mai 2019, 10:44:22
ich hatte mal "busy" meldungen beim sendeversuch des hmuart, weil die fw des hmuart zuerst "eigene" messages gesendet hat.

https://forum.fhem.de/index.php/topic,54511.msg472288.html#msg472288 (https://forum.fhem.de/index.php/topic,54511.msg472288.html#msg472288)

die "eigenen" messages des hmuart kann man mit einem zweiten io monitoren. wäre ja eventuell interessant mit wem und was der hmuart "quatschen" muss.

ich habe keine rt zum testen, ob das beim pairen eines rt "normal" ist.
bei deinem unpair gab es ja auch erst busy meldungen und anschliessend hat die kommunikation mit fhem funktioniert. das anschliessende, automatische getconfig allerdings nicht mehr, wahrscheinlich weil das unpair funktioniert hat.

ein pairing versuch sehe ich allerdings nicht.

um einen defekt der rt auszuschliessen, könntest du ja mit einem deiner funktionierenden rt testen.

die credits siehst du doch beim hmuart, zb in den readings.
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: merasil am 03 Mai 2019, 16:53:48
Du meinst also ein funktionierendes rt unpairen, reseten, löschen und neu anlernen? Wenn das klappt, sollte es mit hoher W'keit ein defektes Thermostat sein?

Ok hab ich gemacht und das Ergebnis ist: altes funktionierendes Thermostat lässt sich nicht pairen. Woher weiß ich denn jetzt an was es liegt? Software oder Hardware? Könnte es der HMMOD sein?
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: pc1246 am 04 Mai 2019, 14:14:49
Moin
Ich denke es ist eher die SW. Du kannst ja andere devices pairen! Aber ein zweiter HM-Mod kann ja nicht schaden, um da sicher zu sein!
Gruss Christoph
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: frank am 04 Mai 2019, 14:31:42
sniffe doch noch mal ein pairing versuch und poste diesen plus ein aktuelles list von dem entsprechenden rt.
hast du ein 2. io, zb ein cul, das beim sniffen mitlauschen kann?

ich würde auch auf die sw tippen. allerdings sollten dann mehr klagen im forum existieren. also müsste es an etwas speziellem liegen, das in deinem system wirkt.
das wäre zb dein gesetzter aes key und das fehlen einer vccu. vielleicht verhält sich fhem mit vccu anders.
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: merasil am 05 Mai 2019, 09:17:08
Ich habe um mal eine Fehlconfig auszuschließen eine zweite SD-Card genommen und da das aktuelle Raspian-light installiert. Ich bin nach der Anleitung https://wiki.fhem.de/wiki/Raspberry_Pi (https://wiki.fhem.de/wiki/Raspberry_Pi) für die Installation und nach Ottos Blog http://heinz-otto.blogspot.com/2016/07/raspberry-pi-homematic-modul.html (http://heinz-otto.blogspot.com/2016/07/raspberry-pi-homematic-modul.html) für die Konfig vom HMMOD vorgegangen.
Selbes Ergebnis. Ich hatte nur den HMMOD und das eine ungepairte Thermostat (natürlich vorher resetet) als Test benutzt. AES wird nicht benutzt

Sniff vom pairing:
2019.05.05 08:06:48.240 1: Including fhem.cfg
2019.05.05 08:06:49.313 1: Including ./log/fhem.save
2019.05.05 08:06:49.369 0: Featurelevel: 5.9
2019.05.05 08:06:49.369 0: Server started with 8 defined entities (fhem.pl:19328/2019-05-04 perl:5.024001 os:linux user:fhem pid:662)
2019.05.05 08:06:50.369 0: HMUARTLGW myHmUART send: 00 00
2019.05.05 08:06:50.372 0: HMUARTLGW myHmUART recv: 00 0402436F5F4350555F424C, state 1
2019.05.05 08:06:50.372 0: HMUARTLGW myHmUART currently running Co_CPU_BL
2019.05.05 08:06:50.373 0: HMUARTLGW myHmUART send: 00 03
2019.05.05 08:06:50.798 0: HMUARTLGW myHmUART recv: 00 0401, state 2
2019.05.05 08:06:50.810 0: HMUARTLGW myHmUART recv: 00 00436F5F4350555F417070, state 2
2019.05.05 08:06:50.810 0: HMUARTLGW myHmUART currently running Co_CPU_App
2019.05.05 08:06:51.314 0: HMUARTLGW myHmUART recv: 01 05 00 00 2F msg: 34 86 70 56BE99 000000 009C3D
2019.05.05 08:06:51.811 0: HMUARTLGW myHmUART send: 01 00012345
2019.05.05 08:06:51.815 0: HMUARTLGW myHmUART recv: 01 0401, state 4
2019.05.05 08:06:51.815 0: HMUARTLGW myHmUART GetSet Ack: 01, state 4
2019.05.05 08:06:51.816 0: HMUARTLGW myHmUART send: 01 01
2019.05.05 08:06:51.819 0: HMUARTLGW myHmUART recv: 01 04070101012345, state 5
2019.05.05 08:06:51.820 0: HMUARTLGW myHmUART GetSet Ack: 07, state 5
2019.05.05 08:06:51.821 0: HMUARTLGW myHmUART send: 01 10
2019.05.05 08:06:51.824 0: HMUARTLGW myHmUART recv: 01 04070101582DB1, state 6
2019.05.05 08:06:51.825 0: HMUARTLGW myHmUART GetSet Ack: 07, state 6
2019.05.05 08:06:51.826 0: HMUARTLGW myHmUART send: 00 0E5CCE8B8B02
2019.05.05 08:06:51.829 0: HMUARTLGW myHmUART recv: 00 0401, state 7
2019.05.05 08:06:51.830 0: HMUARTLGW myHmUART GetSet Ack: 01, state 7
2019.05.05 08:06:51.830 0: HMUARTLGW myHmUART send: 00 02
2019.05.05 08:06:51.834 0: HMUARTLGW myHmUART recv: 00 0402010003010401, state 8
2019.05.05 08:06:51.834 0: HMUARTLGW myHmUART GetSet Ack: 02, state 8
2019.05.05 08:06:51.835 0: HMUARTLGW myHmUART send: 00 06
2019.05.05 08:06:51.838 0: HMUARTLGW myHmUART recv: 00 0401, state 10
2019.05.05 08:06:51.838 0: HMUARTLGW myHmUART GetSet Ack: 01, state 10
2019.05.05 08:06:51.839 0: HMUARTLGW myHmUART send: 00 0B
2019.05.05 08:06:51.843 0: HMUARTLGW myHmUART recv: 00 04024F455130333032383239, state 9
2019.05.05 08:06:51.843 0: HMUARTLGW myHmUART GetSet Ack: 02, state 9
2019.05.05 08:06:51.844 0: HMUARTLGW myHmUART send: 00 0A00
2019.05.05 08:06:51.847 0: HMUARTLGW myHmUART recv: 00 0401, state 11
2019.05.05 08:06:51.847 0: HMUARTLGW myHmUART GetSet Ack: 01, state 11
2019.05.05 08:06:51.847 0: HMUARTLGW myHmUART send: 00 0901
2019.05.05 08:06:51.850 0: HMUARTLGW myHmUART recv: 00 0401, state 12
2019.05.05 08:06:51.851 0: HMUARTLGW myHmUART GetSet Ack: 01, state 12
2019.05.05 08:06:51.851 0: HMUARTLGW myHmUART send: 00 08
2019.05.05 08:06:51.854 0: HMUARTLGW myHmUART recv: 00 040200, state 13
2019.05.05 08:06:51.854 0: HMUARTLGW myHmUART GetSet Ack: 02, state 13
2019.05.05 08:06:51.855 0: HMUARTLGW myHmUART send: 01 030000000000000000000000000000000000
2019.05.05 08:06:51.861 0: HMUARTLGW myHmUART recv: 01 0401, state 14
2019.05.05 08:06:51.862 0: HMUARTLGW myHmUART GetSet Ack: 01, state 14
2019.05.05 08:06:51.862 0: HMUARTLGW myHmUART send: 01 0F0000000000000000000000000000000000
2019.05.05 08:06:51.868 0: HMUARTLGW myHmUART recv: 01 0401, state 15
2019.05.05 08:06:51.868 0: HMUARTLGW myHmUART GetSet Ack: 01, state 15
2019.05.05 08:06:51.869 0: HMUARTLGW myHmUART send: 01 0B0000000000000000000000000000000000
2019.05.05 08:06:51.874 0: HMUARTLGW myHmUART recv: 01 0401, state 16
2019.05.05 08:06:51.874 0: HMUARTLGW myHmUART GetSet Ack: 01, state 16
2019.05.05 08:06:52.875 0: HMUARTLGW myHmUART send: 00 08
2019.05.05 08:06:52.914 0: HMUARTLGW myHmUART recv: 00 040200, state 98
2019.05.05 08:06:52.914 0: HMUARTLGW myHmUART GetSet Ack: 02, state 98
2019.05.05 08:06:52.914 0: HMUARTLGW myHmUART roundtrip delay: 0.0079
2019.05.05 08:06:55.258 0: HMUARTLGW myHmUART recv: 01 05 00 00 2E msg: F3 86 10 50C88A 000000 0AA8D3110000
2019.05.05 08:06:57.362 0: HMUARTLGW myHmUART recv: 01 05 00 00 3A msg: 21 84 70 5B6AD9 000000 00D336
2019.05.05 08:07:07.909 0: HMUARTLGW myHmUART send: 00 08
2019.05.05 08:07:07.913 0: HMUARTLGW myHmUART recv: 00 040200, state 98
2019.05.05 08:07:07.913 0: HMUARTLGW myHmUART GetSet Ack: 02, state 98
2019.05.05 08:07:07.913 0: HMUARTLGW myHmUART roundtrip delay: 0.0027
2019.05.05 08:07:22.921 0: HMUARTLGW myHmUART send: 00 08
2019.05.05 08:07:22.925 0: HMUARTLGW myHmUART recv: 00 040200, state 98
2019.05.05 08:07:22.925 0: HMUARTLGW myHmUART GetSet Ack: 02, state 98
2019.05.05 08:07:22.925 0: HMUARTLGW myHmUART roundtrip delay: 0.0027
2019.05.05 08:07:25.997 0: HMUARTLGW myHmUART recv: 01 05 00 00 2D msg: 01 84 00 64BB50 000000 1400954F4551323039353533355900FFFF
2019.05.05 08:07:28.001 0: HMUARTLGW myHmUART recv: 01 05 00 00 23 msg: 28 86 10 50C884 000000 0AA8D10E3C00
2019.05.05 08:07:31.022 0: HMUARTLGW myHmUART send: 01 0664BB50000100
2019.05.05 08:07:31.060 0: HMUARTLGW myHmUART recv: 01 040701010001FFFFFFFFFFFFFFFF, state 90
2019.05.05 08:07:31.060 0: HMUARTLGW myHmUART GetSet Ack: 07, state 90
2019.05.05 08:07:31.060 0: HMUARTLGW myHmUART added peer: 64BB50, aesChannels: FFFFFFFFFFFFFFFF
2019.05.05 08:07:31.061 0: HMUARTLGW myHmUART send: 01 0664BB50000100
2019.05.05 08:07:31.067 0: HMUARTLGW myHmUART recv: 01 040701010001FFFFFFFFFFFFFFFF, state 93
2019.05.05 08:07:31.067 0: HMUARTLGW myHmUART GetSet Ack: 07, state 93
2019.05.05 08:07:31.067 0: HMUARTLGW myHmUART added peer: 64BB50, aesChannels: FFFFFFFFFFFFFFFF
2019.05.05 08:07:37.262 0: HMUARTLGW myHmUART recv: 01 05 00 00 27 msg: 40 86 10 50C656 000000 0AA8D10F3C00
2019.05.05 08:07:37.924 0: HMUARTLGW myHmUART send: 00 08
2019.05.05 08:07:37.927 0: HMUARTLGW myHmUART recv: 00 040200, state 98
2019.05.05 08:07:37.928 0: HMUARTLGW myHmUART GetSet Ack: 02, state 98
2019.05.05 08:07:37.928 0: HMUARTLGW myHmUART roundtrip delay: 0.0026
2019.05.05 08:07:52.926 0: HMUARTLGW myHmUART send: 00 08
2019.05.05 08:07:52.930 0: HMUARTLGW myHmUART recv: 00 040200, state 98
2019.05.05 08:07:52.930 0: HMUARTLGW myHmUART GetSet Ack: 02, state 98
2019.05.05 08:07:52.930 0: HMUARTLGW myHmUART roundtrip delay: 0.0027
2019.05.05 08:07:58.848 0: HMUARTLGW myHmUART recv: 01 05 00 00 27 msg: FD 86 10 50C88E 000000 0AA8E30D0C00
2019.05.05 08:08:01.578 0: HMUARTLGW myHmUART recv: 01 05 00 00 27 msg: AE 86 10 51BA7F 000000 0AB0F7080300
2019.05.05 08:08:07.928 0: HMUARTLGW myHmUART send: 00 08
2019.05.05 08:08:07.932 0: HMUARTLGW myHmUART recv: 00 040200, state 98
2019.05.05 08:08:07.932 0: HMUARTLGW myHmUART GetSet Ack: 02, state 98
2019.05.05 08:08:07.932 0: HMUARTLGW myHmUART roundtrip delay: 0.0026
2019.05.05 08:08:18.931 0: HMUARTLGW myHmUART recv: 01 05 00 00 29 msg: 03 86 5A 5B68A6 000000 A8D234
2019.05.05 08:08:22.930 0: HMUARTLGW myHmUART send: 00 08
2019.05.05 08:08:22.934 0: HMUARTLGW myHmUART recv: 00 040200, state 98
2019.05.05 08:08:22.934 0: HMUARTLGW myHmUART GetSet Ack: 02, state 98
2019.05.05 08:08:22.934 0: HMUARTLGW myHmUART roundtrip delay: 0.0027


List vom HMMOD:

Internals:
   AssignedPeerCnt 1
   CNT        50
   Clients    :CUL_HM:
   DEF        /dev/ttyAMA0
   DEVCNT     47
   DevState   99
   DevType    UART
   DeviceName /dev/ttyAMA0@115200
   FD         4
   FUUID      5cce8942-f33f-3a67-3ad4-1b1f62a478039775
   LastOpen   1557040009.36769
   NAME       myHmUART
   NOTIFYDEV  global
   NR         14
   NTFY_ORDER 50-myHmUART
   PARTIAL   
   RAWMSG     0500002906865A5B68A6000000A8D234
   RSSI       -41
   STATE      opened
   TYPE       HMUARTLGW
   XmitOpen   1
   model      HM-MOD-UART
   msgLoadCurrent 1
   msgLoadHistory 1/-/-/-/-/-/-/-/-/-/-/-
   msgLoadHistoryAbs 1/0/-/-/-/-/-/-/-/-/-/-/-
   owner      012345
   Helper:
     CreditTimer 33
     FW         66561
     Initialized 1
     AckPending:
     LastSendLen:
       3
       3
     Log:
       IDs:
         all
         sys
     RoundTrip:
       Delay      0.00266408920288086
     loadLvl:
       lastHistory 1557040311.85503
   MatchList:
     1:CUL_HM   ^A......................
   Peers:
     64BB50     +64BB50,02,00,00
   READINGS:
     2019-05-05 08:06:51   D-HMIdAssigned  012345
     2019-05-05 08:06:51   D-HMIdOriginal  582DB1
     2019-05-05 08:06:51   D-firmware      1.4.1
     2019-05-05 08:06:51   D-serialNr      OEQ0302829
     2019-05-05 08:06:48   D-type          HM-MOD-UART
     2019-05-05 08:06:51   cond            ok
     2019-05-05 08:11:53   load            1
     2019-05-05 08:06:51   loadLvl         low
     2019-05-05 08:06:49   state           opened
   helper:
Attributes:
   hmId       012345
   logIDs     all,sys


List vom nicht gepairtem Thermostat:
Internals:
   CFGFN     
   DEF        64BB50
   FUUID      5cce8bad-f33f-3a67-9e68-0f1049d120ab3107
   IODev      myHmUART
   LASTInputDev myHmUART
   MSGCNT     1
   NAME       HM_64BB50
   NOTIFYDEV  global
   NR         24
   STATE      CMDs_pending
   TYPE       CUL_HM
   channel_01 HM_64BB50_Weather
   channel_02 HM_64BB50_Climate
   channel_03 HM_64BB50_WindowRec
   channel_04 HM_64BB50_Clima
   channel_05 HM_64BB50_ClimaTeam
   channel_06 HM_64BB50_remote
   lastMsg    No:01 - t:00 s:64BB50 d:000000 1400954F4551323039353533355900FFFF
   myHmUART_MSGCNT 1
   myHmUART_RAWMSG 0500002D01840064BB500000001400954F4551323039353533355900FFFF
   myHmUART_RSSI -45
   myHmUART_TIME 2019-05-05 08:07:26
   protCmdPend 3 CMDs_pending
   protLastRcv 2019-05-05 08:07:26
   protRcv    2 last_at:2019-05-05 08:07:26
   protState  CMDs_pending
   rssi_at_myHmUART cnt:2 min:-45 max:-45 avg:-45 lst:-45
   READINGS:
     2019-05-05 08:07:26   Activity        alive
     2019-05-05 08:07:26   D-firmware      1.4
     2019-05-05 08:07:26   D-serialNr      OEQ2095535
     2019-05-05 08:07:26   R-pairCentral   set_0x012345
     2019-05-05 08:07:26   state           CMDs_pending
   cmdStack:
     ++A00101234564BB5000050000000000
     ++A00101234564BB50000802010A010B230C45
     ++A00101234564BB500006
   helper:
     HM_CMDNR   1
     PONtest    1
     mId        0095
     peerFriend
     peerOpt    -:thermostat
     regLst     0
     rxType     140
     supp_Pair_Rep 0
     expert:
       def        1
       det        0
       raw        1
       tpl        0
     io:
       newChn     +64BB50,02,00,00
       nextSend   1557040046.088
       prefIO     
       rxt        2
       vccu       
       p:
         64BB50
         00
         00
         00
     mRssi:
       mNo        01
       io:
         myHmUART:
           -37
           -37
     prt:
       bErr       0
       sProc      2
     q:
       qReqConf   00
       qReqStat   
     role:
       dev        1
       prs        1
     rssi:
       at_myHmUART:
         avg        -45
         cnt        2
         lst        -45
         max        -45
         min        -45
     shRegW:
       07         04
     shadowReg:
       RegL_00.    02:01 0A:01 0B:23 0C:45
Attributes:
   IODev      myHmUART
   actCycle   000:10
   actStatus  alive
   autoReadReg 4_reqStatus
   expert     2_raw
   firmware   1.4
   model      HM-CC-RT-DN
   room       CUL_HM
   serialNr   OEQ2095535
   subType    thermostat
   webCmd     getConfig:clear msgEvents:burstXmit


Ich hab noch n CUL-Nano rumfahren. Würde mit dem das sniffen gehen? Wenn ja, genauso wie ich es bisher gemacht hab, nur auf nem separaten PC?

*EDIT* Also wenn ich jetzt rein logisch vorgehen würde, würde ich echt auf nen HW Defekt schließen. Hab ein neues OS installiert, welches sich sogar von meinem hauptsächlichen OS unterscheidet (nutze Arch Arm). Frisches FHEM, alles ganz simpel gehalten und trotzdem geht das pairen nicht. Muss doch dann eig der Pi oder der HMMOD sein oder?
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: frank am 05 Mai 2019, 11:11:31
den cul einfach im normalen fhem betreiben, homematic mode einschalten und verbose=4 am cul setzen.

im log ist weiterhin kein pairing versuch zu sehen, keine message von fhem. nur die anlernmessage vom rt. hast du überhaupt vorher hmPairForSec ausgelöst?

die pairing messages sind noch im device pending. solange pending cmds existieren musst du natürlich durch knöpfchen drücken die cmds abarbeiten. oder sehr lange warten.
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: mgernoth am 05 Mai 2019, 11:12:20
Hallo,

Zitat von: merasil am 05 Mai 2019, 09:17:08

2019.05.05 08:07:25.997 0: HMUARTLGW myHmUART recv: 01 05 00 00 2D msg: 01 84 00 64BB50 000000 1400954F4551323039353533355900FFFF


Setzt Du den HM-MOD-UART in den Pairing-Modus (set myHmUART hmPairForSec 60), bevor Du versuchst den RT zu pairen?

Viele Grüße
  Michael
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: merasil am 05 Mai 2019, 13:08:45
Zitat von: mgernoth am 05 Mai 2019, 11:12:20
Hallo,

Setzt Du den HM-MOD-UART in den Pairing-Modus (set myHmUART hmPairForSec 60), bevor Du versuchst den RT zu pairen?

Viele Grüße
  Michael

Ja mache ich. Es kommt mir auch so vor, dass log Nachrichten fehlen, wenn ich verbiss auf 1 statt 3 stelle.
Der log ist komplett von Fhem-Start über Start von Pairing-Modus bis am Thermostat die 30s abgelaufen sind
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: andreas_n am 05 Mai 2019, 15:04:33
Habe versucht die Situation nachzustellen. 

In diesem Zuge habe bei ein laufendes Thermostat  zurückgesetzt und versucht dieses neu an HMLAN1 zu pairen.
-> Geht nicht, Device erkannt aber nicht gepaired -> "R-pairCentral  set_0x2BAC06" und "state CMDs_pending"
Ich glaube ich habe nun die gleiche Situation....   

Denke ich habe jetzt alle Möglichkeiten die das Forum zu bieten hat durchgespielt. (5h)
Incl. Werkseinstellung (rES) am Menu und via Batterie entfernen.

Es geht einfach nicht mehr. Dabei stellt sich die Situation wie oben beschrieben dar. (Nach dem Start wird einfach von 30->0 runtergezählt)

Update:
Ich habe es nun doch noch geschafft :-). Logisch ist es zwar nicht aber ich habe nach dem Erkennen des Thermostats...
set clear readings
set clear trigger
set clear msgEvents
set clear msgErrors
Danach den Anlernprocess nochmals vollständig angestoßen (ohne das Termostat zuvor zu löschen)
-> Erfolg


Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: merasil am 05 Mai 2019, 17:26:53
Kann bestätigen, dass das funktioniert!!!! Danke Andreas! Also doch ein Bug in der Software???

Hat sowohl mit dem neuen als auch mit dem alten geklappt!
Scheint auch nur die Thermostate (HM-CC-RT-DN) zu betreffen. Ich habe extra nochmal die optischen und magnetischen Fenstersensoren + den Wassermelder überprüft. Bei denen geht das Pairing ohne Probleme.
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: merasil am 21 September 2019, 07:32:41
Sorry, dass ich das alte Ding nochmal hoch hole, aber...
geht es sonst niemandem so, dass er die Thermostate nicht richtig angelernt bekommt? Es ist echt mega nervig neue Teile so einfügen zu müssen, wie andreas das beschrieben hat. Ich hab ja wirklich etliche Sachen ausprobiert inkl. neuem PI und neu aufgespieltem OS und FHEM. Das muss doch ein Bug im Modul sein oder etwa nicht?
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: Nitaro am 29 September 2019, 19:24:51
Hallo zusammen,

ich stolper heute über selbiges Problem.
Neue Thermos kann ich nicht vernünftig pairen, 3 ganz neue versucht. Alte kann ich auch nicht mehr
pairen, auch nicht mit dem beschriebenen Prozedere.

Heute ist mir dabei aufgefallen, das mir alle vorhandenen Thermos "Missing ACK" anzeigen obwohl
mal alle problemlos funktioniert haben.

Dabei motzen alle:
missing register list
    HM_6A0A87_Clima: RegL_01.,RegL_07.
    HM_6A0A87_ClimaTeam: RegL_01.
    HM_6A0A87_WindowRec: RegL_03.HM_7B9004_chn-01,RegL_01.,RegL_07.HM_7B9004_chn-01
    HM_6A0A87_remote: RegL_01.
    HM_6A0AA6_Clima: RegL_01.,RegL_07.
    HM_6A0AA6_ClimaTeam: RegL_01.
    HM_6A0AA6_Climate: RegL_01.
    HM_6A0AA6_Weather: RegL_01.
    HM_6A0AA6_WindowRec: RegL_03.HM_2701A3_chn-01,RegL_03.HM_AE4099_chn-01,RegL_01.,RegL_07.HM_2701A3_chn-01,RegL_07.HM_AE4099_chn-01
    HM_6A0AA6_remote: RegL_01.
    HM_6A0B14: RegL_00.
    HM_6A0B14_Clima: RegL_01.,RegL_07.
    HM_6A0B14_ClimaTeam: RegL_01.
    HM_6A0B14_Climate: RegL_01.
    HM_6A0B14_Weather: RegL_01.
    HM_6A0B14_WindowRec: RegL_03.HM_7B9004_chn-01,RegL_01.,RegL_07.HM_7B9004_chn-01
    HM_6A0B14_remote: RegL_01.
    HM_6A1F49_Clima: RegL_07.
    HM_6A1F49_ClimaTeam: RegL_01.
    HM_6A1F49_WindowRec: RegL_03.HM_8800C3_chn-01,RegL_07.HM_8800C3_chn-01
    HM_6A1F49_remote: RegL_01.


Ein getConfig führt dann irgendwann unweigerlich wieder zu einem "MISSSING ACK".

Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: MadMax-FHEM am 29 September 2019, 19:30:26
Was für ein IODev?

Einen CUL etc. oder was "Richtiges" (also "echtes" Homematic-Modul)!?

EDIT: aber generell mal alle Message-Queues leeren -> clear und dann langsam Gerät für Gerät entweder noch mal "drüber pairen" (ohne Löschen/Resetten etc.) oder wenn bereits gepaired (R-PairCentral bzw. PairedTo die HMID OHNE set_ ) ein getConfig. Warten oder evtl. mal den "Konfig-Knopf" drücken bis cmds_pending weg ist. Und nochmal: langsam und Gerät für Gerät!!

EDIT2: wenn CUL, dann kann es sein, dass es aktuell einfach "zu viel" ist... Bei Homematic ist das Timing entscheidend! Und bei einem CUL ist fhem IMMER beteiligt (Telegramm auswerten und Ack schicken) bei einem "echten" IO geht einiges "automatisch" und da stimmt dann das Timing gerade bzgl. Acks etc.

Gruß, Joachim
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: Nitaro am 29 September 2019, 19:34:14
Hallo Joachim,

einen Cube
Internals:
   CMDS       BbCFiAZNEkGMKLUYRTVWXOefhltxz
   Clients    :CUL_HM:HMS:CUL_IR:STACKABLE_CC:TSSTACKED:STACKABLE:
   Cube_MSGCNT 250
   Cube_TIME  2019-09-29 19:32:09
   DEF        192.168.1.132:2323 1134
   DeviceName 192.168.1.132:2323
   FD         46
   FHTID      1134
   FUUID      5cee651d-f33f-bf55-5900-013aa26d8068bf21
   NAME       Cube
   NR         264
   NR_CMD_LAST_H 51
   PARTIAL   
   RAWMSG     A0F3386106A1F490000000AB0CE0C640032
   RSSI       -49
   STATE      Initialized
   TYPE       CUL
   VERSION    V 1.26.05 a-culfw Build: 311 (2018-12-09_19-12-53) CUBe (F-Band: 868MHz)
   initString X21
Ar
   owner_CCU  VCCU
   MatchList:
     1:CUL_HM   ^A....................
     8:HMS      ^810e04....(1|5|9).a001
     D:CUL_IR   ^I............
     H:STACKABLE_CC ^\*
     M:TSSTACKED ^\*
     N:STACKABLE ^\*
   READINGS:
     2019-05-29 13:03:48   ccconf          freq:868.300MHz bWidth:101KHz rAmpl:33dB sens:8dB
     2019-09-29 19:06:44   cmds             B b C F i A Z N E k G M K L U Y R T V W X O e f h l t x z
     2019-06-25 08:33:56   raw             No answer
     2019-09-29 19:32:09   state           Initialized
     2019-09-29 11:46:10   uptime          0 00:06:04
     2019-06-25 08:34:01   version         V 1.26.05 a-culfw Build: 311 (2018-12-09_19-12-53) CUBe (F-Band: 868MHz)
   XMIT_TIME:
     1569776825.86026
     1569776847.11491
     1569776866.94006
     1569776867.21624
     1569776867.68119
     1569776868.17591
     1569776951.17032
     1569777016.57249
     1569777023.5088
     1569777125.82855
     1569777165.46568
     1569777171.4373
     1569777171.90714
     1569777286.11909
     1569777293.05319
     1569777312.13041
     1569777345.08007
     1569777417.47217
     1569777417.91722
     1569777432.03949
     1569777432.31051
     1569777436.27177
     1569777436.52217
     1569777436.9937
     1569777438.23147
     1569777438.50337
     1569777438.97574
     1569777439.47031
     1569777462.53731
     1569777462.78327
     1569777463.25618
     1569777463.52728
     1569777463.99773
     1569777464.26953
     1569777464.74095
     1569777465.0137
     1569777465.48426
     1569777465.76654
     1569777466.22815
     1569777466.50046
     1569777466.97058
     1569777467.46502
     1569777482.10648
     1569777482.35559
     1569777482.82594
     1569777483.32063
     1569777513.79378
     1569777532.87059
     1569777563.59109
     1569777744.6913
     1569777911.17655
   helper:
     2009D2:
       QUEUE:
     6A0AA6:
       QUEUE:
     6A0B14:
       QUEUE:
     6A1F49:
       QUEUE:
Attributes:
   hmId       00A100
   icon       wuerfel
   rfmode     HomeMatic
   room       CUL_HM


Noch einen Cube:
Internals:
   CMDS       BbCFiAZNEkGMKLUYRTVWXOefhltxz
   Clients    :CUL_HM:HMS:CUL_IR:STACKABLE_CC:TSSTACKED:STACKABLE:
   Cube_Ankleide_MSGCNT 305
   Cube_Ankleide_TIME 2019-09-29 19:33:31
   DEF        192.168.1.137:2323 3361
   DeviceName 192.168.1.137:2323
   FD         48
   FHTID      3361
   FUUID      5d1da3e4-f33f-bf55-2fa8-17d68feb5a2fcaee
   NAME       Cube_Ankleide
   NR         273
   NR_CMD_LAST_H 7
   PARTIAL   
   RAWMSG     A0CB984702009D16A0A8700CF47FD
   RSSI       -75.5
   STATE      Initialized
   TYPE       CUL
   VERSION    V 1.26.05 a-culfw Build: 311 (2018-12-09_19-12-53) CUBe (F-Band: 868MHz)
   initString X21
Ar
   owner_CCU  VCCU
   MatchList:
     1:CUL_HM   ^A....................
     8:HMS      ^810e04....(1|5|9).a001
     D:CUL_IR   ^I............
     H:STACKABLE_CC ^\*
     M:TSSTACKED ^\*
     N:STACKABLE ^\*
   READINGS:
     2019-09-29 19:06:44   cmds             B b C F i A Z N E k G M K L U Y R T V W X O e f h l t x z
     2019-09-29 19:33:31   state           Initialized
     2019-07-04 09:03:17   version         V 1.26.05 a-culfw Build: 311 (2018-12-09_19-12-53) CUBe (F-Band: 868MHz)
   XMIT_TIME:
     1569776844.88824
     1569776996.0153
     1569777132.76513
     1569777196.93024
     1569777255.15021
     1569777425.59771
     1569778060.0707
   helper:
     2009D3:
       QUEUE:
     2009D4:
       QUEUE:
     6A0A87:
       QUEUE:
Attributes:
   hmId       00A100
   icon       wuerfel
   rfmode     HomeMatic
   room       CUL_HM


Und eine VCCU:
Internals:
   Cube_Ankleide_MSGCNT 62
   Cube_Ankleide_RAWMSG A0F7486106AC4F20000000AA8CD0F2F00::-61:Cube_Ankleide
   Cube_Ankleide_RSSI -61
   Cube_Ankleide_TIME 2019-09-29 19:32:04
   Cube_MSGCNT 18
   Cube_RAWMSG A0F7486106AC4F20000000AA8CD0F2F00::-73:Cube
   Cube_RSSI  -73
   Cube_TIME  2019-09-29 19:32:04
   DEF        00A100
   FUUID      5c6c0501-f33f-bf55-5f9a-a348e23485a39728
   IODev      Cube_Ankleide
   LASTInputDev Cube_Ankleide
   MSGCNT     80
   NAME       VCCU
   NOTIFYDEV  global
   NR         208
   NTFY_ORDER 50-VCCU
   STATE      Cube_Ankleide:ok,Cube:ok
   TYPE       CUL_HM
   assignedIOs Cube,Cube_Ankleide
   channel_01 VCCU_Btn1
   lastMsg    No:51 - t:02 s:00A100 d:2009D4 00
   protLastRcv 2019-09-29 19:27:40
   protRcv    54 last_at:2019-09-29 19:27:40
   rssi_at_Cube cnt:7 min:-55 max:-53.5 avg:-54 lst:-54.5
   rssi_at_Cube_Ankleide cnt:51 min:-53.5 max:-50 avg:-51.78 lst:-52.5
   READINGS:
     2019-09-29 19:27:40   CommandAccepted yes
     2019-09-29 19:06:45   IOopen          2
     2019-09-29 19:06:45   state           Cube_Ankleide:ok,Cube:ok
     2019-05-24 15:40:27   unknown_10204D  received
     2019-05-24 19:29:26   unknown_154EA3  received
     2019-07-26 03:45:50   unknown_1A8470  received
     2019-07-14 16:13:38   unknown_2008D0  received
     2019-05-02 12:56:34   unknown_200901  received
     2019-05-02 12:45:12   unknown_200902  received
     2019-02-21 19:20:42   unknown_2009D3  received
     2019-02-22 19:47:42   unknown_2009D4  received
     2019-03-01 10:40:09   unknown_200BD0  received
     2019-05-24 20:11:32   unknown_2701A3  received
     2019-05-24 19:00:40   unknown_2EA1CE  received
     2019-05-24 14:50:56   unknown_3EF29B  received
     2019-06-03 19:33:51   unknown_5B120A  received
     2019-09-29 19:32:04   unknown_6AC4F2  received
     2019-09-28 19:32:59   unknown_6AC508  received
     2019-09-29 18:13:31   unknown_6AC557  received
     2019-05-24 15:21:46   unknown_7497FD  received
     2019-05-23 16:51:17   unknown_7B9004  received
     2019-05-24 16:40:16   unknown_AE4099  received
     2019-05-23 19:11:13   unknown_FD0445  received
   helper:
     HM_CMDNR   81
     mId        FFF0
     peerFriend peerSens,peerAct
     peerOpt    -:virtual
     regLst     0
     rxType     1
     supp_Pair_Rep 0
     ack:
     expert:
       def        1
       det        0
       raw        1
       tpl        0
     io:
       nextSend   1569778060.41661
       prefIO     
       vccu       VCCU
       ioList:
         Cube_Ankleide
         Cube
     mRssi:
       mNo        51
       io:
         Cube:
           -54.5
           -54.5
         Cube_Ankleide:
           -46.5
     prt:
       bErr       0
       sProc      0
       rspWait:
     q:
       qReqConf   
       qReqStat   
     role:
       dev        1
       vrt        1
     rssi:
       at_Cube:
         avg        -54
         cnt        7
         lst        -54.5
         max        -53.5
         min        -55
       at_Cube_Ankleide:
         avg        -51.7843137254902
         cnt        51
         lst        -52.5
         max        -50
         min        -53.5
     tmpl:
Attributes:
   IODev      Cube_Ankleide
   IOList     Cube_Ankleide,Cube
   IOgrp      VCCU
   expert     2_raw
   icon       mqtt_broker
   model      CCU-FHEM
   room       CUL_HM
   subType    virtual
   webCmd     virtual:update

Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: Nitaro am 29 September 2019, 19:54:57
Zitat von: MadMax-FHEM am 29 September 2019, 19:30:26
EDIT: aber generell mal alle Message-Queues leeren -> clear und dann langsam Gerät für Gerät entweder noch mal "drüber pairen" (ohne Löschen/Resetten etc.) oder wenn bereits gepaired (R-PairCentral bzw. PairedTo die HMID OHNE set_ ) ein getConfig. Warten oder evtl. mal den "Konfig-Knopf" drücken bis cmds_pending weg ist. Und nochmal: langsam und Gerät für Gerät!!

Ich melde mich dann in ein paar Tagen wieder, das wird dauern  :'(
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: Otto123 am 29 September 2019, 20:02:33
Zitat von: Nitaro am 29 September 2019, 19:54:57
Ich melde mich dann in ein paar Tagen wieder, das wird dauern  :'(
Nein, erstmal NUR EINEN probieren. Polepole wie die Kenianer sagen ;)

zeig doch mal ein list von einem
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: Nitaro am 29 September 2019, 20:24:37
Zitat von: Otto123 am 29 September 2019, 20:02:33
Nein, erstmal NUR EINEN probieren. Polepole wie die Kenianer sagen ;)

Das führt ja leider zu einem MISSING ACK.

Hier ist ein Device:


Internals:
   CHANGED   
   Cube_Ankleide_MSGCNT 17
   Cube_Ankleide_RAWMSG A0F4986106A1F490000000AB0CE0C6400::-52.5:Cube_Ankleide
   Cube_Ankleide_RSSI -52.5
   Cube_Ankleide_TIME 2019-09-29 20:19:37
   Cube_MSGCNT 17
   Cube_RAWMSG A0F4986106A1F490000000AB0CE0C6400::-48:Cube
   Cube_RSSI  -48
   Cube_TIME  2019-09-29 20:19:37
   DEF        6A1F49
   FUUID      5c51eb41-f33f-bf55-2463-70df08e4f4e9e612
   IODev      Cube_Ankleide
   LASTInputDev Cube
   MSGCNT     34
   NAME       HM_6A1F49
   NOTIFYDEV  global
   NR         164
   NTFY_ORDER 50-HM_6A1F49
   STATE      MISSING ACK
   TYPE       CUL_HM
   channel_01 HM_6A1F49_Weather
   channel_02 HM_6A1F49_Climate
   channel_03 HM_6A1F49_WindowRec
   channel_04 HM_6A1F49_Clima
   channel_05 HM_6A1F49_ClimaTeam
   channel_06 HM_6A1F49_remote
   lastMsg    No:49 - t:10 s:6A1F49 d:000000 0AB0CE0C6400
   protCmdDel 6
   protLastRcv 2019-09-29 20:19:37
   protRcv    13 last_at:2019-09-29 20:19:37
   protResnd  5 last_at:2019-09-29 20:14:42
   protResndFail 1 last_at:2019-09-29 20:17:18
   protSnd    14 last_at:2019-09-29 20:17:15
   protState  CMDs_done_Errors:1
   rssi_at_Cube cnt:17 min:-49 max:-48 avg:-48.64 lst:-48
   rssi_at_Cube_Ankleide cnt:17 min:-52.5 max:-52.5 avg:-52.5 lst:-52.5
   READINGS:
     2019-09-29 20:14:42   Activity        alive
     2019-09-29 20:09:48   CommandAccepted yes
     2019-05-24 08:50:18   D-firmware      1.5
     2019-05-24 08:50:18   D-serialNr      PEQ1191777
     2019-08-30 03:33:24   PairedTo        0x00A100
     2019-05-24 08:51:39   R-backOnTime    10 s
     2019-05-24 08:51:39   R-burstRx       on
     2019-05-24 08:51:39   R-cyclicInfoMsg on
     2019-05-24 08:51:39   R-cyclicInfoMsgDis 0
     2019-05-24 08:51:39   R-pairCentral   0x00A100
     2019-08-30 03:33:24   RegL_00.        00:00 01:01 02:01 09:01 0A:00 0B:A1 0C:00 0E:0A 0F:00 11:00 12:15 16:01 18:00 19:00 1A:00
     2019-09-29 20:19:37   actuator        100
     2019-09-29 20:19:37   battery         ok
     2019-09-29 20:19:37   batteryLevel    2.7
     2019-09-29 20:19:37   desired-temp    22.0
     2019-09-29 20:19:37   measured-temp   20.6
     2019-09-29 20:19:37   motorErr        ok
     2019-08-29 06:54:14   powerOn         2019-08-29 06:54:14
     2019-08-29 06:54:14   recentStateType info
     2019-09-29 20:17:18   state           MISSING ACK
     2019-09-21 23:48:14   time-request    -
     RegL_07.:
       VAL       
   helper:
     HM_CMDNR   73
     cSnd       0100A1006A1F4900040000000007,0100A1006A1F4900040000000007
     mId        0095
     peerFriend
     peerOpt    -:thermostat
     regLst     0
     rxType     140
     supp_Pair_Rep 0
     ack:
     expert:
       def        1
       det        0
       raw        1
       tpl        0
     io:
       newChn     +6A1F49,00,00,00
       nextSend   1569781177.30322
       rxt        2
       vccu       VCCU
       p:
         6A1F49
         00
         00
         00
       prefIO:
         Cube_Ankleide
         Cube
     mRssi:
       mNo        49
       io:
         Cube:
           -48
           -48
         Cube_Ankleide:
           -46.5
           -46.5
     prt:
       bErr       0
       sProc      0
     q:
       qReqConf   
       qReqStat   
     role:
       dev        1
       prs        1
     rssi:
       at_Cube:
         avg        -48.6470588235294
         cnt        17
         lst        -48
         max        -48
         min        -49
       at_Cube_Ankleide:
         avg        -52.5
         cnt        17
         lst        -52.5
         max        -52.5
         min        -52.5
     shRegW:
       07         04
     tmpl:
Attributes:
   IODev      Cube_Ankleide
   IOgrp      VCCU:Cube_Ankleide,Cube
   actCycle   000:10
   actStatus  alive
   alias      Bad_Heizung
   autoReadReg 5_readMissing
   event-on-change-reading .*
   expert     2_raw
   firmware   1.5
   icon       sani_heating
   model      HM-CC-RT-DN
   serialNr   PEQ1191777
   subType    thermostat
   webCmd     getConfig:clear msgEvents:burstXmit

Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: pc1246 am 30 September 2019, 07:34:47
Moin
Hmmmmm, gepairt ist er!
Cube ist ja nicht zwingend ein natives IO-dev.
Hast du auch welche mit FW 1.4? Das ist auf die Schnelle was mir aufgefallen ist!
Gruss Christoph
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: Nitaro am 30 September 2019, 07:37:42
Moin Christoph,

die haben alle Version 1.5. Fensterkontakte und Temperatursensoren
haben keinerlei Probleme. Nur die Thermostate.

ein ConfigCheck sagt dann folgendes:
missing register list
    HM_6A0A87_Clima: RegL_07.
    HM_6A0A87_ClimaTeam: RegL_01.
    HM_6A0A87_remote: RegL_01.
    HM_6A0AA6_Clima: RegL_01.,RegL_07.
    HM_6A0AA6_ClimaTeam: RegL_01.
    HM_6A0AA6_remote: RegL_01.
    HM_6A0B14_Clima: RegL_01.,RegL_07.
    HM_6A0B14_ClimaTeam: RegL_01.
    HM_6A0B14_remote: RegL_01.
    HM_6A1F49_Clima: RegL_01.,RegL_07.
    HM_6A1F49_ClimaTeam: RegL_01.
    HM_6A1F49_remote: RegL_01.
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: Nitaro am 30 September 2019, 11:20:43
Hat mal jemand noch einen Hinweis für mich wie ich die umgeflashten MaxCube CUL_HM
sniffen kann ? Ich habe die Einstellungen aus dem Wiki genommen aber sehe da nicht viel
außer resndfail und MISSING ACK.

Jemand hat auch gefragt ob was "richtiges" genommen wird.
Was ist denn was "richtiges" für Homematic ? Ein RPI mit dem Homematic Modul ?
Da hat aber der Threadersteller ja auch das Problem.



Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: Otto123 am 30 September 2019, 11:32:15
Die Thermostate sind gepairt, es fehlen offenbar "nur" Register.
Es gibt einige HM Geräte die sind sensibel  mit der Datenübertragung, je mehr Daten umso sensibler. Die Homematic IOs (es gibt defakto derzeit nur zwei: das RPI Modul und das Langateway) sind um Längen besser als ein CUL & Co.

Du kannst versuchen die fehlenden Register einzeln zu lesen. Dabei hat der CUL eine bessere Chance, denke ich.
Beispiel:
set HM_6A1F49_remote getRegRaw List1
Wenn das klappt versuch mal die anderen nach diesem Schema. RegL_01. -> List1

Gruß Otto
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: frank am 30 September 2019, 11:45:20
der configcheck wird ja langsam auch immer besser. es fehlen ja "nur" noch register der chn 4-6.

ohne timing deiner gateways kann es ewig dauern, bis die vielen daten der rt ausgelesen sind.

tip: mach besser getconfig in den channels, die noch angemeckert werden.

denn ein getconfig im hauptdevice pollt immer alle daten von allen channels. bei abbruch der kommunikation, zb wegen timing, ist die wahrscheinlichkeit sehr gross, dass die daten der letzten channel dann nicht mehr kommen.

wenn das immer noch sehr zäh ist, würde ich noch attr burstAccess=1_auto einschalten. das sollte alles beschleunigen.

wenn der configcheck dann clean ist, alle burstaccess attribute löschen und fhem save ausführen, damit die readings im statefile gesichert werden.

bedenke: durch jedes unnötige device löschen und clear readings muss erneut wieder aufwändig das device ausgelesen werden.

ich würde mir wenigstens ein gateway besorgen, das timing kann. zb ein hmuart.
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: MadMax-FHEM am 30 September 2019, 13:26:25
War die FW 1.5 bei den HK nicht mal "nur so eine wieder zurückgezogene FW"!?

Da gab's doch sogar mal eine Diskussion im Forum...

Aber ja: ein Cube ist auch kein "natives HM-IO".

Gruß, Joachim
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: frank am 30 September 2019, 13:44:40
wie kann man eine fw zurückziehen, wenn sie bereits auf dem device installiert und ausgeliefert ist?

soweit ich weiss, haben nur einige user das neue regelverhalten bemängelt und selber wieder 1.4 geflasht. allerdings hat keiner von denen die genutzten regelparametereinstellungen beider fw verglichen.
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: Nitaro am 30 September 2019, 13:50:45
Also bei mir wurden die bereits mit 1.5 geliefert, da hab ich nichts verändert.

Vielen Dank für Eure Tips, ich versuche die gerade mal umzusetzen.

Bei
set HM_6A1F49_remote getRegRaw List7

bekomme ich aber ein

Enter valid List0-6

Bei List6 gibts ein NACK.
Gibts das HM_6A1F49_Clima:   RegL_07. gar nicht mehr und er motzt deshalb ?
Ein getConfig im Clima Channel führt zum RESPONSE TIMEOUT:RegisterRead.

Für _remote und _ClimaTeam hat es bei dem besagtem funktioniert.

PS: Ich hab mal ein HM-MOD-RPI-PCB geordert um zukünftige Probleme zu minimieren.
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: frank am 30 September 2019, 14:29:31
im remote chn wird bei deinen configchecks ja nur liste1 angemeckert.  ;)
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: Nitaro am 30 September 2019, 14:31:24
Ich meinte natürlich

set HM_6A1F49_Clima getRegRaw List7

gerade nochmal abgesetzt. Ergibt ein

Enter valid List0-6
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: MadMax-FHEM am 30 September 2019, 14:59:51
Zitat von: frank am 30 September 2019, 13:44:40
wie kann man eine fw zurückziehen, wenn sie bereits auf dem device installiert und ausgeliefert ist?

soweit ich weiss, haben nur einige user das neue regelverhalten bemängelt und selber wieder 1.4 geflasht. allerdings hat keiner von denen die genutzten regelparametereinstellungen beider fw verglichen.

Ausgeliefert ja aber offiziell runterladen kann man nur die 1.4: https://www.eq-3.de/service/downloads.html?id=86

Und es gab mal eine Diskussion hier wo es eben hieß, dass die FW auch mal zum Runterladen war...
...aber irgendwann zum Runterladen verschwunden ist... ;)

Wollte das nur hier anmerken...
...aber richtig hat mit dem eigentlichen Problem wohl nichts zu tun. Sorry...

Gruß, Joachim
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: frank am 30 September 2019, 15:19:59
fw 1.5 liegt auf einem anderen server, nicht bei eq3. siehe 1. post https://forum.fhem.de/index.php/topic,93074.msg856590.html#msg856590 (https://forum.fhem.de/index.php/topic,93074.msg856590.html#msg856590)

fw 1.5 könnte schon ein problem mit fhem haben. da würde ich aber mehr problemmeldungen erwarten. vor allem als viele das update gemacht haben.
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: Nitaro am 30 September 2019, 15:55:52
Soho,
vielen Dank nochmal für Eure Hilfe,
etwas hat sich getan. Übrig bleibt jetzt noch:

missing register list
    HM_6A0A87_Clima: RegL_07.
    HM_6A0AA6_Clima: RegL_07.
    HM_6A0B14_Clima: RegL_07.
    HM_6A1F49_Clima: RegL_07.


Ein getConfig in _Clima führt zum
RESPONSE TIMEOUT:RegisterRead

Das set HM_6A1F49_Clima getRegRaw List7
führt zu
Enter valid List0-6

Ich habe mal ein
set HM_6A1F49_Clima clear all
versucht, führt dann beim getconfig aber wieder zum Timeout.

Warum sagt der Kollege denn das es die List7 nicht gibt bzw. nur 0-6 valid ist ?
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: frank am 30 September 2019, 17:05:33
eine aussage ist sicherlich falsch.
dein fhem ist aktuell? siehe zb befehl version.

zeig mal ein list von einem clima chn.
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: Nitaro am 30 September 2019, 17:43:50
Ja, ich halte es aktuell.
Latest Revision: 20280

File                   Rev   Last Change

fhem.pl                20069 2019-08-27 08:36:02Z rudolfkoenig
98_alarmclock.pm       16981 2018-07-14 09:35:07Z FlorianZ
90_at.pm               17561 2018-10-18 14:45:30Z rudolfkoenig
98_autocreate.pm       19372 2019-05-11 15:13:59Z rudolfkoenig
57_Calendar.pm         19937 2019-08-02 19:03:44Z neubert
57_CALVIEW.pm          17605 2018-10-23 16:37:40Z chris1284
00_CUL.pm              17559 2018-10-18 07:45:07Z rudolfkoenig
10_CUL_HM.pm           19983 2019-08-11 13:48:33Z martinp876
98_dummy.pm            19585 2019-06-09 08:04:48Z rudolfkoenig
55_DWD_OpenData.pm     19336 2019-05-05 18:26:34Z jensb
No Id found for 32_EspLedController.pm
91_eventTypes.pm       14888 2017-08-13 12:07:12Z rudolfkoenig
01_FHEMWEB.pm          20273 2019-09-29 08:41:37Z rudolfkoenig
92_FileLog.pm          19102 2019-04-02 19:48:57Z rudolfkoenig
98_freezemon.pm        18762 2019-02-28 22:29:15Z KernSani
72_FRITZBOX.pm         17437 2018-09-30 18:24:58Z tupol
89_FULLY.pm            20232 2019-09-23 17:26:18Z zap
98_HMinfo.pm           19495 2019-05-30 09:17:45Z martinp876
95_holiday.pm          19729 2019-06-28 09:50:49Z rudolfkoenig
98_HTTPMOD.pm          19978 2019-08-10 12:51:48Z StefanStrobel
02_HTTPSRV.pm          20110 2019-09-05 17:30:20Z neubert
98_IF.pm               12944 2017-01-03 12:56:17Z Damian
10_IT.pm               19761 2019-07-02 18:37:03Z bjoernh
36_KeyValueProtocol.pm 20039 2019-08-21 12:14:56Z HCS
36_LaCrosse.pm         20217 2019-09-21 09:53:25Z HCS
36_LaCrosseGateway.pm  18291 2019-01-17 09:34:30Z HCS
91_notify.pm           19374 2019-05-11 17:48:03Z rudolfkoenig
73_PRESENCE.pm         18314 2019-01-18 13:49:05Z markusbloch
59_PROPLANTA.pm        18714 2019-02-24 16:08:46Z tupol
33_readingsGroup.pm    19774 2019-07-04 14:10:53Z justme1968
98_statistics.pm       16438 2018-03-18 18:51:57Z tupol
99_SUNRISE_EL.pm       18732 2019-02-25 13:15:34Z rudolfkoenig
98_SVG.pm              19688 2019-06-23 07:17:03Z rudolfkoenig
98_telnet.pm           17529 2018-10-14 12:57:06Z rudolfkoenig
99_Utils.pm            18920 2019-03-16 09:58:52Z rudolfkoenig
77_UWZ.pm              19869 2019-07-20 13:59:38Z CoolTux
98_version.pm          15140 2017-09-26 09:20:09Z markusbloch
98_weekprofile.pm      19318 2019-05-03 17:54:58Z Risiko

AttrTemplate.pm        20206 2019-09-20 10:48:29Z rudolfkoenig
Blocking.pm            17553 2018-10-17 15:56:35Z rudolfkoenig
Color.pm               18481 2019-02-02 09:35:08Z justme1968
DevIo.pm               20174 2019-09-16 18:04:03Z rudolfkoenig
FritzBoxUtils.pm       16691 2018-05-05 17:11:26Z rudolfkoenig
GPUtils.pm             19666 2019-06-20 11:17:29Z CoolTux
HMConfig.pm            19226 2019-04-20 06:54:28Z martinp876
HttpUtils.pm           20037 2019-08-21 05:34:45Z rudolfkoenig
Meta.pm                20009 2019-08-17 11:06:17Z loredo
myUtilsTemplate.pm      7570 2015-01-14 18:31:44Z rudolfkoenig
RTypes.pm              10476 2016-01-12 21:03:33Z borisneubert
SetExtensions.pm       19208 2019-04-17 19:27:09Z rudolfkoenig
SubProcess.pm          14334 2017-05-20 23:11:06Z neubert
TcpServerUtils.pm      19138 2019-04-07 10:17:21Z rudolfkoenig

console.js                 19950 2019-08-04 20:03:37Z rudolfkoenig
fhemweb.js                 19957 2019-08-06 09:10:17Z rudolfkoenig
fhemweb_readingsGroup.js   15189 2017-10-03 17:53:27Z justme1968


Hier ist ein list von einem:
Internals:
   CHANGED   
   DEF        6A1F4904
   FUUID      5c51eb41-f33f-bf55-2663-c7ddd93d3788761a
   NAME       HM_6A1F49_Clima
   NOTIFYDEV  global
   NR         173
   NTFY_ORDER 50-HM_6A1F49_Clima
   STATE      T: 20.6 desired: 21.0 valve: 78
   TYPE       CUL_HM
   chanNo     04
   device     HM_6A1F49
   READINGS:
     2019-09-30 15:47:26   R-sign          off
     2019-09-30 16:12:04   R_tempList_State incomplete
     2019-09-30 17:41:26   ValvePosition   78
     2019-09-30 17:41:26   boostTime       -
     2019-09-30 17:41:26   controlMode     auto
     2019-09-30 17:41:26   desired-temp    21.0
     2019-09-30 17:41:26   measured-temp   20.6
     2019-09-30 17:41:26   partyEnd        -
     2019-09-30 17:41:26   partyStart      -
     2019-09-30 17:41:26   partyTemp       -
     2019-09-30 17:41:26   state           T: 20.6 desired: 21.0 valve: 78
     2019-09-30 17:39:59   tempTmplSet     none
   helper:
     getCfgListNo
     peerFriend peerRTteam2
     peerOpt    p:thermostat
     regLst     1,7
     expert:
       def        1
       det        0
       raw        1
       tpl        0
     prt:
       brstWu     1
     role:
       chn        1
     shRegR:
       07         00
     tmpl:
Attributes:
   event-on-change-reading .*
   model      HM-CC-RT-DN
   peerIDs    00000000,
      tempListTmpl none


Und noch von einem anderen:

Internals:
   CHANGED   
   DEF        6A0B1404
   FUUID      5c556c1f-f33f-bf55-3433-66892504dbe2608e
   NAME       HM_6A0B14_Clima
   NOTIFYDEV  global
   NR         197
   NTFY_ORDER 50-HM_6A0B14_Clima
   STATE      T: 21.0 desired: 21.0 valve: 0
   TYPE       CUL_HM
   chanNo     04
   device     HM_6A0B14
   READINGS:
     2019-05-16 18:10:59   CommandAccepted yes
     2019-03-16 13:00:38   R-boostPos      80 %
     2019-04-01 09:11:20   R-btnNoBckLight off
     2019-02-02 11:12:02   R-dayTemp       21 C
     2019-02-02 11:12:02   R-daylightSaveTime on
     2019-02-02 11:12:02   R-modePrioManu  all
     2019-02-02 11:12:02   R-modePrioParty all
     2019-02-02 11:12:02   R-nightTemp     17 C
     2019-02-02 11:12:02   R-noMinMax4Manu off
     2019-02-02 11:12:02   R-regAdaptive   on
     2019-02-02 11:12:02   R-showInfo      time
     2019-02-02 11:11:58   R-sign          off
     2019-04-01 09:11:20   R-tempOffset    0.0K
     2019-02-02 11:12:02   R-valveOffsetRt 0 %
     2019-02-02 11:12:02   R-winOpnBoost   off
     2019-07-07 09:00:50   R_0_tempListSat 07:00 17.0 22:00 21.0 24:00 17.0
     2019-07-07 09:00:50   R_1_tempListSun 07:00 17.0 22:00 21.0 24:00 17.0
     2019-07-07 09:00:50   R_2_tempListMon 05:00 17.0 07:30 21.0 13:00 17.0 19:00 21.0 22:00 21.0 24:00 17.0
     2019-07-07 09:00:50   R_3_tempListTue 05:00 17.0 07:30 21.0 13:00 17.0 19:00 21.0 22:00 21.0 24:00 17.0
     2019-07-07 09:00:50   R_4_tempListWed 05:00 17.0 07:30 21.0 13:00 17.0 19:00 21.0 22:00 21.0 24:00 17.0
     2019-07-07 09:00:50   R_5_tempListThu 05:00 17.0 07:30 21.0 13:00 17.0 19:00 21.0 22:00 21.0 24:00 17.0
     2019-07-07 09:00:50   R_6_tempListFri 05:00 17.0 07:30 21.0 13:00 17.0 19:00 21.0 22:00 21.0 24:00 17.0
     2019-07-07 09:00:50   R_tempList_State verified
     2019-09-30 17:41:29   ValvePosition   0
     2019-09-30 17:41:29   boostTime       -
     2019-09-30 17:41:29   controlMode     auto
     2019-09-30 17:41:29   desired-temp    21.0
     2019-09-30 17:41:29   measured-temp   21.0
     2019-09-30 17:41:29   partyEnd        -
     2019-09-30 17:41:29   partyStart      -
     2019-09-30 17:41:29   partyTemp       -
     2019-05-16 18:10:59   recentStateType ack
     2019-09-30 17:41:29   state           T: 21.0 desired: 21.0 valve: 0
     2019-09-30 17:39:59   tempTmplSet     none
   helper:
     getCfgListNo
     peerFriend peerRTteam2
     peerOpt    p:thermostat
     regLst     1,7
     expert:
       def        1
       det        0
       raw        1
       tpl        0
     prt:
       brstWu     1
     role:
       chn        1
     shRegR:
       07         00
     tmpl:
Attributes:
   event-on-change-reading .*
   model      HM-CC-RT-DN
   peerIDs    00000000,
   tempListTmpl none
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: Nitaro am 30 September 2019, 18:18:27
Boah Leute...
ich habe jetzt mal meinen alten USB nanoCul angeschlossen und zack...alles bestens  :-[
Warum, wieso, weshalb...keine Ahnung.
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: frank am 30 September 2019, 22:57:00
das heisst mit cul ist der configcheck nun sauber?

da 2 cube bei 4 rt jeweils regelmässig den clima channel nicht auslesen können, sollte das problem in der fw vom cube stecken. eventuell hat die länge der messages einen einfluss, da liste 7 sicher ziehmlich lang ist.

ich würde mal ein getconfig im clima chn mit cul und cube sniffen und vergleichen.

edit: vielleicht gibt verbose5 beim cube auch hinweise in fhem.log.
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: Nitaro am 01 Oktober 2019, 10:26:46
Ja, der configCheck ist jetzt sauber.
Mit Verbose 5 sehe ich schonmal mehr, aber die RTs sind gerade auf dem nanoCUL
"verbunden". Da muss ich heute abend mal ran und den ziehen und dann nochmal
verbose 5 einstellen.
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: Nitaro am 01 Oktober 2019, 18:05:17
Tja, das Verbose 5 brachte keinen gewünschten Einblick.
Steht leider das gleiche wie im Positiv-Fall über den nanoCUL.
Ich habe die Cubes auch gerade mal geupdated, leider das gleiche Problem.

Hier https://forum.fhem.de/index.php/topic,38404.0.html (https://forum.fhem.de/index.php/topic,38404.0.html) ist ja das Thema für die culfw
für den Cube. Ich werde es mal dort platzieren.

Herzlichen Dank für Eure Hilfe !
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: merasil am 04 Oktober 2019, 08:07:38
Hab ich richtig verstanden, dass es bei dir an deinem Hardwaremodul lag? Hattest du das RPi-Aufsteckding?
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: Nitaro am 04 Oktober 2019, 08:38:59
Gute Frage.
Ich habe zwei Max!Cube umgeflasht auf Homematic mit der a-culfw.
Bei beiden Cubes tritt das Problem auf. Dann habe ich in dem Thread dafür das Problem geschildert,
mir wurde aber nur geantwortet das es kein Problem geben sollte.
Mit einem selbstgebauten nanoCUL mit a-culfw tritt der Fehler nicht auf.
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: frank am 04 Oktober 2019, 10:05:18
Zitat von: frank am 30 September 2019, 22:57:00
ich würde mal ein getconfig im clima chn mit cul und cube sniffen und vergleichen.
zeig doch mal.
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: Nitaro am 04 Oktober 2019, 11:27:56
Verbose 5 sagt über den nanoCUL (also wo es funktioniert)
Zitat
2019.10.01 09:40:22 4: CUL_Parse: nanoCUL A 0B CF 8010 6A1F49 00A100 030032 -49
2019.10.01 09:40:22 5: nanoCUL: dispatch A0BCF80106A1F4900A1000300::-49:nanoCUL
2019.10.01 09:40:22 5: CUL_HM HM_6A1F49 protEvent:CMDs_done

Und über den Cube (wo es nicht geht)
2019.10.01 09:44:34 5: Cube_Ankleide sending As0BC1A00100A1006A1F490403
2019.10.01 09:44:34 5: CUL 6A1F49 dly:98ms
2019.10.01 09:44:34 5: SW: As0BC1A00100A1006A1F490403
2019.10.01 09:44:34 5: CUL_HM HM_6A1F49 protEvent:CMDs_processing... pending:2
2019.10.01 09:44:34 5: CUL/RAW: /A09C0B11200A1006A1F491C
A0AC080026A1F4900A100002A


Leider nicht mehr  :(

Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: MadMax-FHEM am 04 Oktober 2019, 11:31:13
Nicht verbose 5 sondern "sniffen"! ;)

https://wiki.fhem.de/wiki/Homematic_Nachrichten_sniffen

Wobei (nochmal?) der Hinweis: ein CUL ist für Homematic eh nicht so und die aCUL-FW für den CUL ist eben eine Portierung auf arm (soweit ich weiß), vielleicht ist da auch nicht alles identisch/gleich...

Gruß, Joachim
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: Nitaro am 04 Oktober 2019, 11:41:48
Ich weiß jetzt gar nicht warum ich vom sniffen abgekommen bin,
mache ich wenn ich wieder zu Hause (noch-)mal.

Der nanoCUL macht ja gar keine Probleme. Nur die Cubes.
Durchaus möglich dass es da Unterschiede gibt.

Aber nochmal die Frage: Was ist denn ein gut funktionierendes natives Device für Homematic ?

Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: Otto123 am 04 Oktober 2019, 11:45:10
Es gibt aktuell nur zwei: https://wiki.fhem.de/wiki/HomeMatic#FHEM_als_Zentrale
Oder was gebrauchtes
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: Nitaro am 04 Oktober 2019, 13:52:44
Den HM-MOD-RPI-PCB habe ich bestellt, wurde auch schon geliefert.
Habe ich aber noch nicht "eingebaut". Im moment habe ich die RTs auf
dem nanoCUL und die Tempsensoren und FKs auf die Cubes verteilt (mit IOgrp).
So funktioniert ja erstmal alles, nur sollte eigentlich alles nur über die Cubes
laufen, so der eigentliche Plan.

Und warum das nicht geht ist jetzt so ein persönliches Ding das herauszufinden,
sonst krieg ich das nicht aus dem Kopf  ;D Der ein oder andere kennt das bestimmt.
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: Nitaro am 05 Oktober 2019, 11:39:08
Hallo zusammen,

ich habe das Sniffen eingestellt wie im Wiki 
attr global verbose 1
attr global mseclog 1
attr <cul> verbose 4


Das log leider nicht viel her.
Hier der Fehlschlag (Clima Channel Register Read:Timeout)
2019.10.05 11:10:32.941 4: CUL_Parse: Cube_Ankleide A 0F C7 8610 6A1F49 000000 0A60C90C000038 -46
2019.10.05 11:10:41.612 4: CUL_Parse: Cube_Ankleide A 0C 7D 8470 2009D4 00A100 00C93517 -62.5
2019.10.05 11:10:54.494 4: CUL_Parse: Cube_Ankleide A 0C 60 8470 2009D2 00A100 00D63FF8 -78
2019.10.05 11:11:10.598 4: CUL_Parse: Cube_Ankleide A 0A C8 8002 6A1F49 00A100 0037 -46.5
2019.10.05 11:11:10.724 4: CUL_Parse: Cube_Ankleide A 0F AC 8610 6A0A87 000000 0AA8DA0C000021 -57.5
2019.10.05 11:11:11.075 4: CUL_Parse: Cube_Ankleide A 0E C9 8010 6A1F49 00A100 010000000037 -46.5
2019.10.05 11:11:11.341 4: CUL_Parse: Cube_Ankleide A 0E CA 8010 6A1F49 00A100 020800000037 -46.5
2019.10.05 11:11:11.813 4: CUL_Parse: Cube_Ankleide A 1A CB A010 6A1F49 00A100 03012A22093D18030016073000640F050037 -46.5
2019.10.05 11:11:12.061 4: CUL_Parse: Cube_Ankleide A 1A CB A010 6A1F49 00A100 03012A22093D18030016073000640F050037 -46.5
2019.10.05 11:11:12.308 4: CUL_Parse: Cube_Ankleide A 1A CB A010 6A1F49 00A100 03012A22093D18030016073000640F050037 -46.5
2019.10.05 11:11:13.323 4: CUL_Parse: Cube_Ankleide A 0C 7E 8470 2009D4 00A100 00C83419 -61.5
2019.10.05 11:11:14.313 4: CUL_Parse: Cube_Ankleide A 0A CC 8002 6A1F49 00A100 0038 -46
2019.10.05 11:11:14.786 4: CUL_Parse: Cube_Ankleide A 1A CB A010 6A1F49 00A100 03012A22093D18030016073000640F050037 -46.5
2019.10.05 11:11:15.036 4: CUL_Parse: Cube_Ankleide A 1A CB A010 6A1F49 00A100 03012A22093D18030016073000640F050037 -46.5
2019.10.05 11:11:15.281 4: CUL_Parse: Cube_Ankleide A 1A CB A010 6A1F49 00A100 03012A22093D18030016073000640F050037 -46.5
2019.10.05 11:11:17.287 4: CUL_Parse: Cube_Ankleide A 0A CC 8002 6A1F49 00A100 0037 -46.5
2019.10.05 11:11:17.758 4: CUL_Parse: Cube_Ankleide A 1A CB A010 6A1F49 00A100 03012A22093D18030016073000640F050038 -46
2019.10.05 11:11:18.008 4: CUL_Parse: Cube_Ankleide A 1A CB A010 6A1F49 00A100 03012A22093D18030016073000640F050037 -46.5
2019.10.05 11:11:18.255 4: CUL_Parse: Cube_Ankleide A 1A CB A010 6A1F49 00A100 03012A22093D18030016073000640F050038 -46
2019.10.05 11:11:20.259 4: CUL_Parse: Cube_Ankleide A 0A CC 8002 6A1F49 00A100 0037 -46.5
2019.10.05 11:11:20.732 4: CUL_Parse: Cube_Ankleide A 1A CB A010 6A1F49 00A100 03012A22093D18030016073000640F050037 -46.5
2019.10.05 11:11:20.979 4: CUL_Parse: Cube_Ankleide A 1A CB A010 6A1F49 00A100 03012A22093D18030016073000640F050037 -46.5
2019.10.05 11:11:21.226 4: CUL_Parse: Cube_Ankleide A 1A CB A010 6A1F49 00A100 03012A22093D18030016073000640F050037 -46.5
2019.10.05 11:11:24.471 4: CUL_Parse: Cube_Ankleide A 0C B9 8470 2009D3 00A100 00CA3D28 -54


Und hier der Erfolg über den nanoCUL
2019.10.05 11:20:49.999 4: CUL_Parse: nanoCUL A 0A CC 8002 6A1F49 00A100 0044 -40
2019.10.05 11:20:50.287 4: CUL_Parse: nanoCUL A 0E CD 8010 6A1F49 00A100 010000000044 -40
2019.10.05 11:20:50.575 4: CUL_Parse: nanoCUL A 0E CE 8010 6A1F49 00A100 020800000044 -40
2019.10.05 11:20:50.879 4: CUL_Parse: nanoCUL A 1A CF A010 6A1F49 00A100 03012A22093D18030016073000640F050044 -40
2019.10.05 11:20:51.135 4: CUL_Parse: nanoCUL A 1A D0 A010 6A1F49 00A100 03100000090E4454586C54E4590845204544 -40
2019.10.05 11:20:51.391 4: CUL_Parse: nanoCUL A 1A D1 A010 6A1F49 00A100 031F20452045204520452045204520452043 -40.5
2019.10.05 11:20:51.647 4: CUL_Parse: nanoCUL A 1A D2 A010 6A1F49 00A100 032E4454586C54E459084520452045204543 -40.5
2019.10.05 11:20:51.919 4: CUL_Parse: nanoCUL A 1A D3 A010 6A1F49 00A100 033D2045204520452045204520443C585A43 -40.5
2019.10.05 11:20:52.175 4: CUL_Parse: nanoCUL A 1A D4 A010 6A1F49 00A100 034C44A854E4590845204520452045204543 -40.5
2019.10.05 11:20:52.431 4: CUL_Parse: nanoCUL A 1A D5 A010 6A1F49 00A100 035B20452045204520443C585A44A854E443 -40.5
2019.10.05 11:20:52.687 4: CUL_Parse: nanoCUL A 1A D6 A010 6A1F49 00A100 036A59084520452045204520452045204544 -40
2019.10.05 11:20:52.943 4: CUL_Parse: nanoCUL A 1A D7 A010 6A1F49 00A100 0379204520443C585A44A854E45908452043 -40.5
2019.10.05 11:20:53.199 4: CUL_Parse: nanoCUL A 1A D8 A010 6A1F49 00A100 038845204520452045204520452045204444 -40
2019.10.05 11:20:53.471 4: CUL_Parse: nanoCUL A 1A D9 A010 6A1F49 00A100 03973C585A44A854E4590845204520452044 -40
2019.10.05 11:20:53.727 4: CUL_Parse: nanoCUL A 1A DA A010 6A1F49 00A100 03A645204520452045204520443C585A4444 -40
2019.10.05 11:20:53.983 4: CUL_Parse: nanoCUL A 1A DB A010 6A1F49 00A100 03B5A854E459084520452045204520452044 -40
2019.10.05 11:20:54.240 4: CUL_Parse: nanoCUL A 17 DC A010 6A1F49 00A100 03C445204520452012212D12212C44 -40
2019.10.05 11:20:54.479 4: CUL_Parse: nanoCUL A 0B DD 8010 6A1F49 00A100 030044 -40


Mir ist dabei aber folgendes aufgefallen:
Ist der nanoCUL in fhem definiert, funktioniert ein getConfig des Clima Channels über den Cube einwandfrei.
Ist der nanoCUL in fhem nicht definiert (gelöscht über Delete this Device), führt ein getConfig über den Cube zum Timeout.
Das sieht so aus, als würde es alleine an der Präsenz des nanoCULs liegen auch wenn die RTs über die Cubes funken.
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: frank am 05 Oktober 2019, 12:27:54
die logs sind leider unvollständig.
es fehlen mindestens alle gesendeten msgs. hast du "gefiltert"?

unklar ist auch die einstellung von attr IOgrp des rt. hier wird das sendende io eingestellt. empfangen können immer alle io im system. am besten jeweils ein prefered io einstellen, um sicher zu stellen, dass jeweils ein bestimmtes io sendet.

mach jetzt mal einen versuch mit nur einem cube im system, also alle anderen io löschen und die vccu anpassen, dann setze diesen als prefered io am rt. dann mit verbose=5 am cube alles aus fhem.log posten.
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: Nitaro am 05 Oktober 2019, 15:24:31
Ok, los gehts. Gefiltert hatte ich nichts, nur den Block genommen wo das HM_6A1F49 gelogged wurde.

Verbose jeweils 5, mseclog 1, VCCU IOlist Cube_Ankleide, HM_6A1F49 IOgrp VCCU:Cube_Ankleide.
Cube_Anleide ist das alleinige IO Device im System

2019.10.05 15:05:34.485 3: CUL_HM set HM_6A1F49_Clima getConfig
2019.10.05 15:05:34.486 5: Cube_Ankleide sending As0927B11200A1006A1F49
2019.10.05 15:05:34.486 5: SW: As0927B11200A1006A1F49
2019.10.05 15:05:34.488 5: CUL_HM HM_6A1F49 protEvent:CMDs_processing... pending:6
2019.10.05 15:05:34.498 4: WEB_192.168.1.125_52100 GET /fhem?detail=HM_6A1F49_Clima&fw_id=; BUFLEN:0
2019.10.05 15:05:34.521 4: WEB: /fhem?detail=HM_6A1F49_Clima&fw_id= / RL:6771 / text/html; charset=UTF-8 / Content-Encoding: gzip
/ Cache-Control: no-cache, no-store, must-revalidate

2019.10.05 15:05:34.612 4: WEB_192.168.1.125_52100 GET /fhem?cmd=%7BReadingsVal(%22HM_6A1F49_Clima%22%2C%22burstXmit%22%2C%22%22)%7D&XHR=1; BUFLEN:0
2019.10.05 15:05:34.613 5: Cmd: >{ReadingsVal("HM_6A1F49_Clima","burstXmit","")}<
2019.10.05 15:05:34.613 4: WEB: /fhem?cmd=%7BReadingsVal(%22HM_6A1F49_Clima%22%2C%22burstXmit%22%2C%22%22)%7D&XHR=1 / RL:21 / text/plain; charset=UTF-8 / Content-Encoding: gzip
/ Cache-Control: no-cache, no-store, must-revalidate

2019.10.05 15:05:34.616 4: WEB_192.168.1.125_52100 GET /fhem?cmd=%7BAttrVal(%22HM_6A1F49_Clima%22%2C%22room%22%2C%22%22)%7D&XHR=1; BUFLEN:0
2019.10.05 15:05:34.617 5: Cmd: >{AttrVal("HM_6A1F49_Clima","room","")}<
2019.10.05 15:05:34.617 4: WEB: /fhem?cmd=%7BAttrVal(%22HM_6A1F49_Clima%22%2C%22room%22%2C%22%22)%7D&XHR=1 / RL:31 / text/plain; charset=UTF-8 / Content-Encoding: gzip
/ Cache-Control: no-cache, no-store, must-revalidate

2019.10.05 15:05:34.725 4: WEB_192.168.1.125_52100 GET /fhem?XHR=1&inform=type=status;filter=HM_6A1F49_Clima;since=1570280733;fmt=JSON&fw_id=311&timestamp=1570280734904; BUFLEN:0
2019.10.05 15:05:35.069 5: CUL/RAW: /A0A2780026A1F4900A100003B

2019.10.05 15:05:35.069 4: CUL_Parse: Cube_Ankleide A 0A 27 8002 6A1F49 00A100 003B -44.5
2019.10.05 15:05:35.070 5: Cube_Ankleide: dispatch A0A2780026A1F4900A10000::-44.5:Cube_Ankleide
2019.10.05 15:05:35.072 5: Cube_Ankleide sending As0B28A00100A1006A1F490403
2019.10.05 15:05:35.072 5: CUL 6A1F49 dly:97ms
2019.10.05 15:05:35.170 5: SW: As0B28A00100A1006A1F490403
2019.10.05 15:05:35.172 5: CUL_HM HM_6A1F49 protEvent:CMDs_processing... pending:5
2019.10.05 15:05:35.565 5: CUL/RAW: /A0E2880106A1F4900A10001000000003A

2019.10.05 15:05:35.565 4: CUL_Parse: Cube_Ankleide A 0E 28 8010 6A1F49 00A100 01000000003A -45
2019.10.05 15:05:35.565 5: Cube_Ankleide: dispatch A0E2880106A1F4900A1000100000000::-45:Cube_Ankleide
2019.10.05 15:05:35.567 5: Cube_Ankleide sending As1029A00100A1006A1F4904040000000001
2019.10.05 15:05:35.568 5: CUL 6A1F49 dly:97ms
2019.10.05 15:05:35.666 5: SW: As1029A00100A1006A1F4904040000000001
2019.10.05 15:05:35.668 5: CUL_HM HM_6A1F49 protEvent:CMDs_processing... pending:4
2019.10.05 15:05:35.834 5: LaCrosseGateway: dispatch OK 9 1 1 4 196 65
2019.10.05 15:05:35.836 5: Starting notify loop for LaCrosse_01, 1 event(s), first is humidity: 65
2019.10.05 15:05:35.836 5: createNotifyHash
2019.10.05 15:05:35.839 5: BatterieStatus: not on any display, ignoring notify
2019.10.05 15:05:35.840 5: Motor_Status: not on any display, ignoring notify
2019.10.05 15:05:35.842 5: End notify loop for LaCrosse_01
2019.10.05 15:05:36.060 5: CUL/RAW: /A0E2980106A1F4900A10002080000003A

2019.10.05 15:05:36.060 4: CUL_Parse: Cube_Ankleide A 0E 29 8010 6A1F49 00A100 02080000003A -45
2019.10.05 15:05:36.061 5: Cube_Ankleide: dispatch A0E2980106A1F4900A1000208000000::-45:Cube_Ankleide
2019.10.05 15:05:36.063 5: Cube_Ankleide sending As102AA00100A1006A1F4900040000000007
2019.10.05 15:05:36.063 5: CUL 6A1F49 dly:97ms
2019.10.05 15:05:36.161 5: SW: As102AA00100A1006A1F4900040000000007
2019.10.05 15:05:36.163 5: CUL_HM HM_6A1F49 protEvent:CMDs_processing... pending:3
2019.10.05 15:05:36.556 5: CUL/RAW: /A1A2AA0106A1F4900A10003012A22093D18030016073000640F05003A

2019.10.05 15:05:36.556 4: CUL_Parse: Cube_Ankleide A 1A 2A A010 6A1F49 00A100 03012A22093D18030016073000640F05003A -45
2019.10.05 15:05:36.556 5: Cube_Ankleide: dispatch A1A2AA0106A1F4900A10003012A22093D18030016073000640F0500::-45:Cube_Ankleide
2019.10.05 15:05:36.558 5: Cube_Ankleide sending As0A2A800200A1006A1F4900
2019.10.05 15:05:36.558 5: CUL 6A1F49 dly:97ms
2019.10.05 15:05:36.656 5: SW: As0A2A800200A1006A1F4900
2019.10.05 15:05:36.658 5: CUL_HM HM_6A1F49 protEvent:CMDs_processing... pending:3
2019.10.05 15:05:36.658 5: CUL_HM HM_6A1F49 sent ACK:2
2019.10.05 15:05:36.688 5: CUL/RAW: /A1A2AA0106A1F4900A10003012A22093D18030016073000640F05003A

2019.10.05 15:05:36.688 4: CUL_Parse: Cube_Ankleide A 1A 2A A010 6A1F49 00A100 03012A22093D18030016073000640F05003A -45
2019.10.05 15:05:36.689 5: Cube_Ankleide: dispatch A1A2AA0106A1F4900A10003012A22093D18030016073000640F0500::-45:Cube_Ankleide
2019.10.05 15:05:36.689 4: CUL_HM HM_6A1F49 dupe: dont process
2019.10.05 15:05:37.051 5: CUL/RAW: /A1A2BA0106A1F4900A10003100000090E4454586C54E459084520453A

2019.10.05 15:05:37.051 4: CUL_Parse: Cube_Ankleide A 1A 2B A010 6A1F49 00A100 03100000090E4454586C54E459084520453A -45
2019.10.05 15:05:37.052 5: Cube_Ankleide: dispatch A1A2BA0106A1F4900A10003100000090E4454586C54E45908452045::-45:Cube_Ankleide
2019.10.05 15:05:37.054 5: Cube_Ankleide sending As0A2B800200A1006A1F4900
2019.10.05 15:05:37.054 5: CUL 6A1F49 dly:97ms
2019.10.05 15:05:37.152 5: SW: As0A2B800200A1006A1F4900
2019.10.05 15:05:37.154 5: CUL_HM HM_6A1F49 protEvent:CMDs_processing... pending:3
2019.10.05 15:05:37.154 5: CUL_HM HM_6A1F49 sent ACK:2
2019.10.05 15:05:37.178 5: CUL/RAW: /A1A2BA0106A1F4900A10003100000090E4454586C54E459084520453A

2019.10.05 15:05:37.178 4: CUL_Parse: Cube_Ankleide A 1A 2B A010 6A1F49 00A100 03100000090E4454586C54E459084520453A -45
2019.10.05 15:05:37.179 5: Cube_Ankleide: dispatch A1A2BA0106A1F4900A10003100000090E4454586C54E45908452045::-45:Cube_Ankleide
2019.10.05 15:05:37.180 4: CUL_HM HM_6A1F49 dupe: dont process
2019.10.05 15:05:37.547 5: CUL/RAW: /A1A2BA0106A1F4900A10003100000090E4454586C54E459084520453A

2019.10.05 15:05:37.547 4: CUL_Parse: Cube_Ankleide A 1A 2B A010 6A1F49 00A100 03100000090E4454586C54E459084520453A -45
2019.10.05 15:05:37.547 5: Cube_Ankleide: dispatch A1A2BA0106A1F4900A10003100000090E4454586C54E45908452045::-45:Cube_Ankleide
2019.10.05 15:05:37.548 5: Cube_Ankleide sending As0A2B800200A1006A1F4900
2019.10.05 15:05:37.548 5: CUL 6A1F49 dly:98ms
2019.10.05 15:05:37.647 5: SW: As0A2B800200A1006A1F4900
2019.10.05 15:05:37.649 5: CUL_HM HM_6A1F49 protEvent:CMDs_processing... pending:3
2019.10.05 15:05:37.650 4: CUL_HM HM_6A1F49 dupe: repeat 2 ack, dont process
2019.10.05 15:05:39.054 4: CUL_HM_Resend: HM_6A1F49 nr 2
2019.10.05 15:05:39.055 5: Cube_Ankleide sending As092CB11200A1006A1F49
2019.10.05 15:05:39.055 5: SW: As092CB11200A1006A1F49
2019.10.05 15:05:39.057 5: CUL_HM HM_6A1F49 protEvent:CMDs_processing... pending:3
2019.10.05 15:05:39.449 4: Connection closed for WEB_192.168.1.125_52100: EOF
2019.10.05 15:05:39.467 4: WEB_192.168.1.125_52098 GET /fhem?detail=HM_6A1F49; BUFLEN:0
2019.10.05 15:05:39.493 4: WEB: /fhem?detail=HM_6A1F49 / RL:7941 / text/html; charset=UTF-8 / Content-Encoding: gzip
/ Cache-Control: no-cache, no-store, must-revalidate

2019.10.05 15:05:39.597 4: WEB_192.168.1.125_52098 GET /fhem?cmd=%7BReadingsVal(%22HM_6A1F49%22%2C%22assignHmKey%22%2C%22%22)%7D&XHR=1; BUFLEN:0
2019.10.05 15:05:39.598 5: Cmd: >{ReadingsVal("HM_6A1F49","assignHmKey","")}<
2019.10.05 15:05:39.598 4: WEB: /fhem?cmd=%7BReadingsVal(%22HM_6A1F49%22%2C%22assignHmKey%22%2C%22%22)%7D&XHR=1 / RL:21 / text/plain; charset=UTF-8 / Content-Encoding: gzip
/ Cache-Control: no-cache, no-store, must-revalidate

2019.10.05 15:05:39.600 4: Connection accepted from WEB_192.168.1.125_52103
2019.10.05 15:05:39.600 4: WEB_192.168.1.125_52098 GET /fhem?cmd=%7BAttrVal(%22HM_6A1F49%22%2C%22room%22%2C%22%22)%7D&XHR=1; BUFLEN:0
2019.10.05 15:05:39.600 5: Cmd: >{AttrVal("HM_6A1F49","room","")}<
2019.10.05 15:05:39.601 4: WEB: /fhem?cmd=%7BAttrVal(%22HM_6A1F49%22%2C%22room%22%2C%22%22)%7D&XHR=1 / RL:41 / text/plain; charset=UTF-8 / Content-Encoding: gzip
/ Cache-Control: no-cache, no-store, must-revalidate

2019.10.05 15:05:39.699 4: WEB_192.168.1.125_52098 GET /fhem?XHR=1&inform=type=status;filter=HM_6A1F49;since=1570280738;fmt=JSON&fw_id=310&timestamp=1570280739887; BUFLEN:0
2019.10.05 15:05:39.776 5: CUL/RAW: /A0A2C80026A1F4900A100003A

2019.10.05 15:05:39.777 4: CUL_Parse: Cube_Ankleide A 0A 2C 8002 6A1F49 00A100 003A -45
2019.10.05 15:05:39.777 5: Cube_Ankleide: dispatch A0A2C80026A1F4900A10000::-45:Cube_Ankleide
2019.10.05 15:05:39.778 5: Cube_Ankleide sending As102AA00100A1006A1F4900040000000007
2019.10.05 15:05:39.778 5: CUL 6A1F49 dly:98ms
2019.10.05 15:05:39.877 5: SW: As102AA00100A1006A1F4900040000000007
2019.10.05 15:05:39.882 5: LaCrosseGateway: dispatch OK 9 1 1 4 196 65
2019.10.05 15:05:40.099 4: Connection accepted from WEB_192.168.1.125_52104
2019.10.05 15:05:40.271 5: LaCrosseGateway: dispatch OK 9 10 1 4 148 58
2019.10.05 15:05:40.273 5: CUL/RAW: /A1A2AA0106A1F4900A10003012A22093D18030016073000640F05003A

2019.10.05 15:05:40.274 4: CUL_Parse: Cube_Ankleide A 1A 2A A010 6A1F49 00A100 03012A22093D18030016073000640F05003A -45
2019.10.05 15:05:40.274 5: Cube_Ankleide: dispatch A1A2AA0106A1F4900A10003012A22093D18030016073000640F0500::-45:Cube_Ankleide
2019.10.05 15:05:40.275 1: waiting for: RegisterRead, got:RegisterRead # await msgNo:43, rec:42
2019.10.05 15:05:40.275 5: Cube_Ankleide sending As0A2A800200A1006A1F4900
2019.10.05 15:05:40.275 5: CUL 6A1F49 dly:98ms
2019.10.05 15:05:40.374 5: SW: As0A2A800200A1006A1F4900
2019.10.05 15:05:40.376 5: CUL_HM HM_6A1F49 protEvent:CMDs_processing... pending:3
2019.10.05 15:05:40.376 5: CUL_HM HM_6A1F49 sent ACK:2
2019.10.05 15:05:40.401 5: CUL/RAW: /A1A2AA0106A1F4900A10003012A22093D18030016073000640F05003B

2019.10.05 15:05:40.401 4: CUL_Parse: Cube_Ankleide A 1A 2A A010 6A1F49 00A100 03012A22093D18030016073000640F05003B -44.5
2019.10.05 15:05:40.402 5: Cube_Ankleide: dispatch A1A2AA0106A1F4900A10003012A22093D18030016073000640F0500::-44.5:Cube_Ankleide
2019.10.05 15:05:40.402 4: CUL_HM HM_6A1F49 dupe: dont process
2019.10.05 15:05:40.767 5: CUL/RAW: /A1A2BA0106A1F4900A10003100000090E4454586C54E459084520453A

2019.10.05 15:05:40.768 4: CUL_Parse: Cube_Ankleide A 1A 2B A010 6A1F49 00A100 03100000090E4454586C54E459084520453A -45
2019.10.05 15:05:40.768 5: Cube_Ankleide: dispatch A1A2BA0106A1F4900A10003100000090E4454586C54E45908452045::-45:Cube_Ankleide
2019.10.05 15:05:40.770 5: Cube_Ankleide sending As0A2B800200A1006A1F4900
2019.10.05 15:05:40.770 5: CUL 6A1F49 dly:97ms
2019.10.05 15:05:40.868 5: SW: As0A2B800200A1006A1F4900
2019.10.05 15:05:40.870 5: CUL_HM HM_6A1F49 protEvent:CMDs_processing... pending:3
2019.10.05 15:05:40.870 5: CUL_HM HM_6A1F49 sent ACK:2
2019.10.05 15:05:40.894 5: CUL/RAW: /A1A2BA0106A1F4900A10003100000090E4454586C54E459084520453A

2019.10.05 15:05:40.895 4: CUL_Parse: Cube_Ankleide A 1A 2B A010 6A1F49 00A100 03100000090E4454586C54E459084520453A -45
2019.10.05 15:05:40.895 5: Cube_Ankleide: dispatch A1A2BA0106A1F4900A10003100000090E4454586C54E45908452045::-45:Cube_Ankleide
2019.10.05 15:05:40.896 4: CUL_HM HM_6A1F49 dupe: dont process
2019.10.05 15:05:41.263 5: CUL/RAW: /A1A2BA0106A1F4900A10003100000090E4454586C54E459084520453A

2019.10.05 15:05:41.263 4: CUL_Parse: Cube_Ankleide A 1A 2B A010 6A1F49 00A100 03100000090E4454586C54E459084520453A -45
2019.10.05 15:05:41.264 5: Cube_Ankleide: dispatch A1A2BA0106A1F4900A10003100000090E4454586C54E45908452045::-45:Cube_Ankleide
2019.10.05 15:05:41.264 5: Cube_Ankleide sending As0A2B800200A1006A1F4900
2019.10.05 15:05:41.265 5: CUL 6A1F49 dly:98ms
2019.10.05 15:05:41.364 5: SW: As0A2B800200A1006A1F4900
2019.10.05 15:05:41.365 5: CUL_HM HM_6A1F49 protEvent:CMDs_processing... pending:3
2019.10.05 15:05:41.366 4: CUL_HM HM_6A1F49 dupe: repeat 2 ack, dont process
2019.10.05 15:05:41.670 5: LaCrosseGateway: dispatch OK 9 39 1 4 200 59
2019.10.05 15:05:42.058 5: LaCrosseGateway: dispatch OK 9 56 1 4 200 59
2019.10.05 15:05:42.697 5: LaCrosseGateway: dispatch OK WS 0 4 4 204 50 255 255 255 255 255 255 255 255 0 3 247 255 255 255 255 255 255 255 255 255
2019.10.05 15:05:42.699 5: Starting notify loop for BME280, 1 event(s), first is temps: 22.8
2019.10.05 15:05:42.699 5: createNotifyHash
2019.10.05 15:05:42.702 5: BatterieStatus: not on any display, ignoring notify
2019.10.05 15:05:42.703 5: Motor_Status: not on any display, ignoring notify
2019.10.05 15:05:42.704 5: End notify loop for BME280
2019.10.05 15:05:42.705 5: LaCrosseGateway: dispatch OK VALUES LGW 14762105 UpTimeSeconds=50742,UpTimeText=0Tg. 14Std. 5Min. 42Sek. ,WIFI=XCore,ReceivedFrames=21882,FramesPerMinute=28,RSSI=-76,FreeHeap=26544,LD.Min=0.60,LD.Avg=0.62,LD.Max=24.65,OLED=none
2019.10.05 15:05:42.724 5: LaCrosseGateway: dispatch OK 9 17 130 4 193 125
2019.10.05 15:05:42.726 5: Starting notify loop for LaCrosse_07, 1 event(s), first is temps2: 21.7
2019.10.05 15:05:42.726 5: BatterieStatus: not on any display, ignoring notify
2019.10.05 15:05:42.727 5: Motor_Status: not on any display, ignoring notify
2019.10.05 15:05:42.729 5: End notify loop for LaCrosse_07
2019.10.05 15:05:42.770 4: CUL_HM_Resend: HM_6A1F49 nr 3
2019.10.05 15:05:42.771 5: Cube_Ankleide sending As092CB11200A1006A1F49
2019.10.05 15:05:42.771 5: SW: As092CB11200A1006A1F49
2019.10.05 15:05:42.773 5: CUL_HM HM_6A1F49 protEvent:CMDs_processing... pending:3
2019.10.05 15:05:43.492 5: CUL/RAW: /A0A2C80026A1F4900A100003A

2019.10.05 15:05:43.493 4: CUL_Parse: Cube_Ankleide A 0A 2C 8002 6A1F49 00A100 003A -45
2019.10.05 15:05:43.493 5: Cube_Ankleide: dispatch A0A2C80026A1F4900A10000::-45:Cube_Ankleide
2019.10.05 15:05:43.494 5: Cube_Ankleide sending As102AA00100A1006A1F4900040000000007
2019.10.05 15:05:43.494 5: CUL 6A1F49 dly:98ms
2019.10.05 15:05:43.593 5: SW: As102AA00100A1006A1F4900040000000007
2019.10.05 15:05:43.870 5: LaCrosseGateway: dispatch OK 9 1 1 4 196 65
2019.10.05 15:05:43.988 5: CUL/RAW: /A1A2AA0106A1F4900A10003012A22093D18030016073000640F05003A

2019.10.05 15:05:43.988 4: CUL_Parse: Cube_Ankleide A 1A 2A A010 6A1F49 00A100 03012A22093D18030016073000640F05003A -45
2019.10.05 15:05:43.988 5: Cube_Ankleide: dispatch A1A2AA0106A1F4900A10003012A22093D18030016073000640F0500::-45:Cube_Ankleide
2019.10.05 15:05:43.989 1: waiting for: RegisterRead, got:RegisterRead # await msgNo:43, rec:42
2019.10.05 15:05:43.990 5: Cube_Ankleide sending As0A2A800200A1006A1F4900
2019.10.05 15:05:43.990 5: CUL 6A1F49 dly:98ms
2019.10.05 15:05:44.088 5: SW: As0A2A800200A1006A1F4900
2019.10.05 15:05:44.090 5: CUL_HM HM_6A1F49 protEvent:CMDs_processing... pending:3
2019.10.05 15:05:44.091 5: CUL_HM HM_6A1F49 sent ACK:2
2019.10.05 15:05:44.115 5: CUL/RAW: /A1A2AA0106A1F4900A10003012A22093D18030016073000640F05003A

2019.10.05 15:05:44.115 4: CUL_Parse: Cube_Ankleide A 1A 2A A010 6A1F49 00A100 03012A22093D18030016073000640F05003A -45
2019.10.05 15:05:44.116 5: Cube_Ankleide: dispatch A1A2AA0106A1F4900A10003012A22093D18030016073000640F0500::-45:Cube_Ankleide
2019.10.05 15:05:44.116 4: CUL_HM HM_6A1F49 dupe: dont process
2019.10.05 15:05:44.483 5: CUL/RAW: /A1A2BA0106A1F4900A10003100000090E4454586C54E459084520453A

2019.10.05 15:05:44.484 4: CUL_Parse: Cube_Ankleide A 1A 2B A010 6A1F49 00A100 03100000090E4454586C54E459084520453A -45
2019.10.05 15:05:44.486 5: Cube_Ankleide: dispatch A1A2BA0106A1F4900A10003100000090E4454586C54E45908452045::-45:Cube_Ankleide
2019.10.05 15:05:44.488 5: Cube_Ankleide sending As0A2B800200A1006A1F4900
2019.10.05 15:05:44.488 5: CUL 6A1F49 dly:97ms
2019.10.05 15:05:44.586 5: SW: As0A2B800200A1006A1F4900
2019.10.05 15:05:44.588 5: CUL_HM HM_6A1F49 protEvent:CMDs_processing... pending:3
2019.10.05 15:05:44.588 5: CUL_HM HM_6A1F49 sent ACK:2
2019.10.05 15:05:44.611 5: CUL/RAW: /A1A2BA0106A1F4900A10003100000090E4454586C54E459084520453B

2019.10.05 15:05:44.612 4: CUL_Parse: Cube_Ankleide A 1A 2B A010 6A1F49 00A100 03100000090E4454586C54E459084520453B -44.5
2019.10.05 15:05:44.612 5: Cube_Ankleide: dispatch A1A2BA0106A1F4900A10003100000090E4454586C54E45908452045::-44.5:Cube_Ankleide
2019.10.05 15:05:44.613 4: CUL_HM HM_6A1F49 dupe: dont process
2019.10.05 15:05:44.614 4: Connection closed for WEB_192.168.1.125_52103: EOF
2019.10.05 15:05:44.979 5: CUL/RAW: /A1A2BA0106A1F4900A10003100000090E4454586C54E459084520453A

2019.10.05 15:05:44.979 4: CUL_Parse: Cube_Ankleide A 1A 2B A010 6A1F49 00A100 03100000090E4454586C54E459084520453A -45
2019.10.05 15:05:44.980 5: Cube_Ankleide: dispatch A1A2BA0106A1F4900A10003100000090E4454586C54E45908452045::-45:Cube_Ankleide
2019.10.05 15:05:44.980 5: Cube_Ankleide sending As0A2B800200A1006A1F4900
2019.10.05 15:05:44.981 5: CUL 6A1F49 dly:98ms
2019.10.05 15:05:45.080 5: SW: As0A2B800200A1006A1F4900
2019.10.05 15:05:45.082 5: CUL_HM HM_6A1F49 protEvent:CMDs_processing... pending:3
2019.10.05 15:05:45.082 4: CUL_HM HM_6A1F49 dupe: repeat 2 ack, dont process
2019.10.05 15:05:45.227 5: CUL/RAW: /A0C3584702009D16A0B1400E1341D

2019.10.05 15:05:45.227 4: CUL_Parse: Cube_Ankleide A 0C 35 8470 2009D1 6A0B14 00E1341D -59.5
2019.10.05 15:05:45.227 5: Cube_Ankleide: dispatch A0C3584702009D16A0B1400E134::-59.5:Cube_Ankleide
2019.10.05 15:05:45.229 5: Starting notify loop for HM_2009D1, 1 event(s), first is temperature: 22.5
2019.10.05 15:05:45.230 5: BatterieStatus: not on any display, ignoring notify
2019.10.05 15:05:45.231 5: Motor_Status: not on any display, ignoring notify
2019.10.05 15:05:45.243 5: End notify loop for HM_2009D1
2019.10.05 15:05:45.474 5: CUL/RAW: /A0C3584702009D16A0A8700E1341D

2019.10.05 15:05:45.475 4: CUL_Parse: Cube_Ankleide A 0C 35 8470 2009D1 6A0A87 00E1341D -59.5
2019.10.05 15:05:45.475 5: Cube_Ankleide: dispatch A0C3584702009D16A0A8700E134::-59.5:Cube_Ankleide
2019.10.05 15:05:46.489 4: CUL_HM_Resend: HM_6A1F49 nr 4
2019.10.05 15:05:46.489 5: Cube_Ankleide sending As092CB11200A1006A1F49
2019.10.05 15:05:46.489 5: SW: As092CB11200A1006A1F49
2019.10.05 15:05:46.491 5: CUL_HM HM_6A1F49 protEvent:CMDs_processing... pending:3
2019.10.05 15:05:47.208 5: CUL/RAW: /A0A2C80026A1F4900A100003A

2019.10.05 15:05:47.209 4: CUL_Parse: Cube_Ankleide A 0A 2C 8002 6A1F49 00A100 003A -45
2019.10.05 15:05:47.209 5: Cube_Ankleide: dispatch A0A2C80026A1F4900A10000::-45:Cube_Ankleide
2019.10.05 15:05:47.210 5: Cube_Ankleide sending As102AA00100A1006A1F4900040000000007
2019.10.05 15:05:47.211 5: CUL 6A1F49 dly:98ms
2019.10.05 15:05:47.309 5: SW: As102AA00100A1006A1F4900040000000007
2019.10.05 15:05:47.704 5: CUL/RAW: /A1A2AA0106A1F4900A10003012A22093D18030016073000640F05003A

2019.10.05 15:05:47.704 4: CUL_Parse: Cube_Ankleide A 1A 2A A010 6A1F49 00A100 03012A22093D18030016073000640F05003A -45
2019.10.05 15:05:47.705 5: Cube_Ankleide: dispatch A1A2AA0106A1F4900A10003012A22093D18030016073000640F0500::-45:Cube_Ankleide
2019.10.05 15:05:47.706 1: waiting for: RegisterRead, got:RegisterRead # await msgNo:43, rec:42
2019.10.05 15:05:47.706 5: Cube_Ankleide sending As0A2A800200A1006A1F4900
2019.10.05 15:05:47.707 5: CUL 6A1F49 dly:98ms
2019.10.05 15:05:47.805 5: SW: As0A2A800200A1006A1F4900
2019.10.05 15:05:47.807 5: CUL_HM HM_6A1F49 protEvent:CMDs_processing... pending:3
2019.10.05 15:05:47.807 5: CUL_HM HM_6A1F49 sent ACK:2
2019.10.05 15:05:47.831 5: CUL/RAW: /A1A2AA0106A1F4900A10003012A22093D18030016073000640F05003A

2019.10.05 15:05:47.832 4: CUL_Parse: Cube_Ankleide A 1A 2A A010 6A1F49 00A100 03012A22093D18030016073000640F05003A -45
2019.10.05 15:05:47.832 5: Cube_Ankleide: dispatch A1A2AA0106A1F4900A10003012A22093D18030016073000640F0500::-45:Cube_Ankleide
2019.10.05 15:05:47.833 4: CUL_HM HM_6A1F49 dupe: dont process
2019.10.05 15:05:48.167 5: LaCrosseGateway: dispatch OK 9 53 1 4 201 57
2019.10.05 15:05:48.200 5: CUL/RAW: /A1A2BA0106A1F4900A10003100000090E4454586C54E459084520453A

2019.10.05 15:05:48.200 4: CUL_Parse: Cube_Ankleide A 1A 2B A010 6A1F49 00A100 03100000090E4454586C54E459084520453A -45
2019.10.05 15:05:48.200 5: Cube_Ankleide: dispatch A1A2BA0106A1F4900A10003100000090E4454586C54E45908452045::-45:Cube_Ankleide
2019.10.05 15:05:48.202 5: Cube_Ankleide sending As0A2B800200A1006A1F4900
2019.10.05 15:05:48.202 5: CUL 6A1F49 dly:97ms
2019.10.05 15:05:48.300 5: SW: As0A2B800200A1006A1F4900
2019.10.05 15:05:48.302 5: CUL_HM HM_6A1F49 protEvent:CMDs_processing... pending:3
2019.10.05 15:05:48.303 5: CUL_HM HM_6A1F49 sent ACK:2
2019.10.05 15:05:48.333 5: CUL/RAW: /A1A2BA0106A1F4900A10003100000090E4454586C54E459084520453A

2019.10.05 15:05:48.333 4: CUL_Parse: Cube_Ankleide A 1A 2B A010 6A1F49 00A100 03100000090E4454586C54E459084520453A -45
2019.10.05 15:05:48.334 5: Cube_Ankleide: dispatch A1A2BA0106A1F4900A10003100000090E4454586C54E45908452045::-45:Cube_Ankleide
2019.10.05 15:05:48.334 4: CUL_HM HM_6A1F49 dupe: dont process
2019.10.05 15:05:48.430 5: LaCrosseGateway: dispatch OK 9 10 1 4 148 58
2019.10.05 15:05:48.695 5: CUL/RAW: /A1A2BA0106A1F4900A10003100000090E4454586C54E459084520453A

2019.10.05 15:05:48.695 4: CUL_Parse: Cube_Ankleide A 1A 2B A010 6A1F49 00A100 03100000090E4454586C54E459084520453A -45
2019.10.05 15:05:48.695 5: Cube_Ankleide: dispatch A1A2BA0106A1F4900A10003100000090E4454586C54E45908452045::-45:Cube_Ankleide
2019.10.05 15:05:48.696 5: Cube_Ankleide sending As0A2B800200A1006A1F4900
2019.10.05 15:05:48.696 5: CUL 6A1F49 dly:99ms
2019.10.05 15:05:48.795 5: SW: As0A2B800200A1006A1F4900
2019.10.05 15:05:48.797 5: CUL_HM HM_6A1F49 protEvent:CMDs_processing... pending:3
2019.10.05 15:05:48.798 4: CUL_HM HM_6A1F49 dupe: repeat 2 ack, dont process
2019.10.05 15:05:50.203 5: Starting notify loop for HM_6A1F49, 1 event(s), first is ResndFail
2019.10.05 15:05:50.204 5: BatterieStatus: not on any display, ignoring notify
2019.10.05 15:05:50.205 5: Motor_Status: not on any display, ignoring notify
2019.10.05 15:05:50.211 5: End notify loop for HM_6A1F49
2019.10.05 15:05:50.212 5: Starting notify loop for HM_6A1F49, 1 event(s), first is CMDs_done_Errors:1
2019.10.05 15:05:50.212 5: BatterieStatus: not on any display, ignoring notify
2019.10.05 15:05:50.213 5: Motor_Status: not on any display, ignoring notify
2019.10.05 15:05:50.219 5: End notify loop for HM_6A1F49
2019.10.05 15:05:50.219 5: CUL_HM HM_6A1F49 protEvent:CMDs_done_Errors:1
2019.10.05 15:05:50.219 5: Starting notify loop for HM_6A1F49, 1 event(s), first is RESPONSE TIMEOUT:RegisterRead
2019.10.05 15:05:50.220 5: BatterieStatus: not on any display, ignoring notify
2019.10.05 15:05:50.220 5: Motor_Status: not on any display, ignoring notify
2019.10.05 15:05:50.226 5: End notify loop for HM_6A1F49


Verbose jeweils 5, mseclog 1, VCCU IOlist nanoCUL, HM_6A1F49 IOgrp VCCU:nanoCUL.
nanoCUL ist das alleinige IO Device im System

2019.10.05 15:12:24.084 3: CUL_HM set HM_6A1F49_Clima getConfig
2019.10.05 15:12:24.085 5: nanoCUL sending As09CAB11200A1006A1F49
2019.10.05 15:12:24.085 5: SW: As09CAB11200A1006A1F49
2019.10.05 15:12:24.087 5: CUL_HM HM_6A1F49 protEvent:CMDs_processing... pending:3
2019.10.05 15:12:24.093 4: WEB_192.168.1.125_52161 GET /fhem?detail=HM_6A1F49_Clima&fw_id=; BUFLEN:0
2019.10.05 15:12:24.116 4: WEB: /fhem?detail=HM_6A1F49_Clima&fw_id= / RL:6758 / text/html; charset=UTF-8 / Content-Encoding: gzip
/ Cache-Control: no-cache, no-store, must-revalidate

2019.10.05 15:12:24.201 4: WEB_192.168.1.125_52161 GET /fhem?cmd=%7BReadingsVal(%22HM_6A1F49_Clima%22%2C%22burstXmit%22%2C%22%22)%7D&XHR=1; BUFLEN:0
2019.10.05 15:12:24.201 5: Cmd: >{ReadingsVal("HM_6A1F49_Clima","burstXmit","")}<
2019.10.05 15:12:24.202 4: WEB: /fhem?cmd=%7BReadingsVal(%22HM_6A1F49_Clima%22%2C%22burstXmit%22%2C%22%22)%7D&XHR=1 / RL:21 / text/plain; charset=UTF-8 / Content-Encoding: gzip
/ Cache-Control: no-cache, no-store, must-revalidate

2019.10.05 15:12:24.203 4: WEB_192.168.1.125_52160 GET /fhem?cmd=%7BAttrVal(%22HM_6A1F49_Clima%22%2C%22room%22%2C%22%22)%7D&XHR=1; BUFLEN:0
2019.10.05 15:12:24.203 5: Cmd: >{AttrVal("HM_6A1F49_Clima","room","")}<
2019.10.05 15:12:24.204 4: WEB: /fhem?cmd=%7BAttrVal(%22HM_6A1F49_Clima%22%2C%22room%22%2C%22%22)%7D&XHR=1 / RL:31 / text/plain; charset=UTF-8 / Content-Encoding: gzip
/ Cache-Control: no-cache, no-store, must-revalidate

2019.10.05 15:12:24.304 4: WEB_192.168.1.125_52161 GET /fhem?XHR=1&inform=type=status;filter=HM_6A1F49_Clima;since=1570281143;fmt=JSON&fw_id=311&timestamp=1570281144492; BUFLEN:0
2019.10.05 15:12:24.582 5: LaCrosseGateway: dispatch OK 9 1 1 4 196 65
2019.10.05 15:12:24.584 5: Starting notify loop for LaCrosse_01, 1 event(s), first is temps: 22.0
2019.10.05 15:12:24.584 5: createNotifyHash
2019.10.05 15:12:24.587 5: BatterieStatus: not on any display, ignoring notify
2019.10.05 15:12:24.588 5: Triggering Kaelte_Gaeste_WC
2019.10.05 15:12:24.588 4: Kaelte_Gaeste_WC exec IF ([LaCrosse_01:temps] < "20.0" and [HM_FD0445] eq "open")
(set Tab_Wohnzimmer speak "Kältewarnung Gäste WC",set Kaelte_G_WC zukalt) ELSE (
IF ([LaCrosse_01:temps] < "20.0" and [HM_FD0445] eq "tilted")
(set Tab_Wohnzimmer speak "Kältewarnung Gäste WC",set Kaelte_G_WC zukalt)
ELSE
(set Kaelte_G_WC ok)
)
2019.10.05 15:12:24.588 5: Cmd: >IF ([LaCrosse_01:temps] < "20.0" and [HM_FD0445] eq "open")
(set Tab_Wohnzimmer speak "Kältewarnung Gäste WC",set Kaelte_G_WC zukalt) ELSE (
IF ([LaCrosse_01:temps] < "20.0" and [HM_FD0445] eq "tilted")
(set Tab_Wohnzimmer speak "Kältewarnung Gäste WC",set Kaelte_G_WC zukalt)
ELSE
(set Kaelte_G_WC ok)
)<
2019.10.05 15:12:24.589 5: Cmd: >{if(ReadingValIf('LaCrosse_01','temps','') < "20.0" and InternalIf('HM_FD0445','STATE','') eq "open"){fhem('set Tab_Wohnzimmer speak "Kältewarnung Gäste WC"');fhem('set Kaelte_G_WC zukalt')}else{fhem('IF ([LaCrosse_01:temps] < "20.0" and [HM_FD0445] eq "tilted") (set Tab_Wohnzimmer speak "Kältewarnung Gäste WC",set Kaelte_G_WC zukalt)ELSE(set Kaelte_G_WC ok)')}}<
2019.10.05 15:12:24.590 5: Cmd: >IF ([LaCrosse_01:temps] < "20.0" and [HM_FD0445] eq "tilted") (set Tab_Wohnzimmer speak "Kältewarnung Gäste WC",set Kaelte_G_WC zukalt)ELSE(set Kaelte_G_WC ok)<
2019.10.05 15:12:24.591 5: Cmd: >{if(ReadingValIf('LaCrosse_01','temps','') < "20.0" and InternalIf('HM_FD0445','STATE','') eq "tilted"){fhem('set Tab_Wohnzimmer speak "Kältewarnung Gäste WC"');fhem('set Kaelte_G_WC zukalt')}else{fhem('set Kaelte_G_WC ok')}}<
2019.10.05 15:12:24.591 5: Cmd: >set Kaelte_G_WC ok<
2019.10.05 15:12:24.592 4: dummy set Kaelte_G_WC ok
2019.10.05 15:12:24.592 5: Motor_Status: not on any display, ignoring notify
2019.10.05 15:12:24.593 5: End notify loop for LaCrosse_01
2019.10.05 15:12:24.598 5: CUL/RAW: /A0
2019.10.05 15:12:24.614 5: CUL/RAW: A0/ACA80026A1F4900A1000046

2019.10.05 15:12:24.614 4: CUL_Parse: nanoCUL A 0A CA 8002 6A1F49 00A100 0046 -39
2019.10.05 15:12:24.615 5: nanoCUL: dispatch A0ACA80026A1F4900A10000::-39:nanoCUL
2019.10.05 15:12:24.617 5: nanoCUL sending As0BCBA00100A1006A1F490403
2019.10.05 15:12:24.617 5: CUL 6A1F49 dly:97ms
2019.10.05 15:12:24.715 5: SW: As0BCBA00100A1006A1F490403
2019.10.05 15:12:24.717 5: CUL_HM HM_6A1F49 protEvent:CMDs_processing... pending:2
2019.10.05 15:12:24.886 5: CUL/RAW: /A0ECB80106A1F490
2019.10.05 15:12:24.902 5: CUL/RAW: A0ECB80106A1F490/0A100010000000047

2019.10.05 15:12:24.902 4: CUL_Parse: nanoCUL A 0E CB 8010 6A1F49 00A100 010000000047 -38.5
2019.10.05 15:12:24.903 5: nanoCUL: dispatch A0ECB80106A1F4900A1000100000000::-38.5:nanoCUL
2019.10.05 15:12:24.905 5: nanoCUL sending As10CCA00100A1006A1F4904040000000001
2019.10.05 15:12:24.905 5: CUL 6A1F49 dly:97ms
2019.10.05 15:12:25.003 5: SW: As10CCA00100A1006A1F4904040000000001
2019.10.05 15:12:25.005 5: CUL_HM HM_6A1F49 protEvent:CMDs_processing... pending:1
2019.10.05 15:12:25.006 5: CUL/RAW: /A0C3B84702009D16A0B1400DF3517

2019.10.05 15:12:25.007 4: CUL_Parse: nanoCUL A 0C 3B 8470 2009D1 6A0B14 00DF3517 -62.5
2019.10.05 15:12:25.007 5: nanoCUL: dispatch A0C3B84702009D16A0B1400DF35::-62.5:nanoCUL
2019.10.05 15:12:25.009 5: Starting notify loop for HM_2009D1, 2 event(s), first is humidity: 53
2019.10.05 15:12:25.009 5: BatterieStatus: not on any display, ignoring notify
2019.10.05 15:12:25.011 5: Motor_Status: not on any display, ignoring notify
2019.10.05 15:12:25.012 5: End notify loop for HM_2009D1
2019.10.05 15:12:25.052 4: PROPLANTA Wetter_Proplanta: HtmlAcquire.594 237490 characters captured
2019.10.05 15:12:25.059 4: PROPLANTA Wetter_Proplanta: Run.703 Start HTML parsing of captured page
2019.10.05 15:12:25.094 5: CUL/RAW: /A0C3B84702009D16A0A8700DF3516

2019.10.05 15:12:25.094 4: CUL_Parse: nanoCUL A 0C 3B 8470 2009D1 6A0A87 00DF3516 -63
2019.10.05 15:12:25.095 5: nanoCUL: dispatch A0C3B84702009D16A0A8700DF35::-63:nanoCUL
2019.10.05 15:12:25.174 5: CUL/RAW: /A0ECC8
2019.10.05 15:12:25.190 5: CUL/RAW: A0ECC8/0106A1F4900A100020800000046

2019.10.05 15:12:25.190 4: CUL_Parse: nanoCUL A 0E CC 8010 6A1F49 00A100 020800000046 -39
2019.10.05 15:12:25.191 5: nanoCUL: dispatch A0ECC80106A1F4900A1000208000000::-39:nanoCUL
2019.10.05 15:12:25.193 5: nanoCUL sending As10CDA00100A1006A1F4900040000000007
2019.10.05 15:12:25.194 5: CUL 6A1F49 dly:96ms
2019.10.05 15:12:25.291 5: SW: As10CDA00100A1006A1F4900040000000007
2019.10.05 15:12:25.293 5: CUL_HM HM_6A1F49 protEvent:CMDs_processing... pending:0
2019.10.05 15:12:25.478 5: CUL/RAW: /A1ACDA0106A1F4900A10003012
2019.10.05 15:12:25.494 5: CUL/RAW: A1ACDA0106A1F4900A10003012/A22093D18030016073000640F050046

2019.10.05 15:12:25.494 4: CUL_Parse: nanoCUL A 1A CD A010 6A1F49 00A100 03012A22093D18030016073000640F050046 -39
2019.10.05 15:12:25.495 5: nanoCUL: dispatch A1ACDA0106A1F4900A10003012A22093D18030016073000640F0500::-39:nanoCUL
2019.10.05 15:12:25.497 5: nanoCUL sending As0ACD800200A1006A1F4900
2019.10.05 15:12:25.497 5: CUL 6A1F49 dly:97ms
2019.10.05 15:12:25.595 5: SW: As0ACD800200A1006A1F4900
2019.10.05 15:12:25.596 5: CUL_HM HM_6A1F49 sent ACK:2
2019.10.05 15:12:25.734 5: CUL/RAW: /A1ACEA0106A1F490
2019.10.05 15:12:25.750 5: CUL/RAW: A1ACEA0106A1F490/0A10003100000090E4454586C54E4590845204546

2019.10.05 15:12:25.750 4: CUL_Parse: nanoCUL A 1A CE A010 6A1F49 00A100 03100000090E4454586C54E4590845204546 -39
2019.10.05 15:12:25.751 5: nanoCUL: dispatch A1ACEA0106A1F4900A10003100000090E4454586C54E45908452045::-39:nanoCUL
2019.10.05 15:12:25.753 5: nanoCUL sending As0ACE800200A1006A1F4900
2019.10.05 15:12:25.753 5: CUL 6A1F49 dly:97ms
2019.10.05 15:12:25.851 5: SW: As0ACE800200A1006A1F4900
2019.10.05 15:12:25.852 5: CUL_HM HM_6A1F49 sent ACK:2
2019.10.05 15:12:25.854 4: WEB_192.168.1.125_52160 GET /fhem?detail=HM_6A1F49; BUFLEN:0
2019.10.05 15:12:25.880 4: WEB: /fhem?detail=HM_6A1F49 / RL:7881 / text/html; charset=UTF-8 / Content-Encoding: gzip
/ Cache-Control: no-cache, no-store, must-revalidate

2019.10.05 15:12:25.881 4: Connection closed for WEB_192.168.1.125_52161: EOF
2019.10.05 15:12:25.962 4: WEB_192.168.1.125_52160 GET /fhem?cmd=%7BReadingsVal(%22HM_6A1F49%22%2C%22assignHmKey%22%2C%22%22)%7D&XHR=1; BUFLEN:0
2019.10.05 15:12:25.962 5: Cmd: >{ReadingsVal("HM_6A1F49","assignHmKey","")}<
2019.10.05 15:12:25.962 4: WEB: /fhem?cmd=%7BReadingsVal(%22HM_6A1F49%22%2C%22assignHmKey%22%2C%22%22)%7D&XHR=1 / RL:21 / text/plain; charset=UTF-8 / Content-Encoding: gzip
/ Cache-Control: no-cache, no-store, must-revalidate

2019.10.05 15:12:25.969 4: WEB_192.168.1.125_52160 GET /fhem?cmd=%7BAttrVal(%22HM_6A1F49%22%2C%22room%22%2C%22%22)%7D&XHR=1; BUFLEN:0
2019.10.05 15:12:25.969 5: Cmd: >{AttrVal("HM_6A1F49","room","")}<
2019.10.05 15:12:25.970 4: WEB: /fhem?cmd=%7BAttrVal(%22HM_6A1F49%22%2C%22room%22%2C%22%22)%7D&XHR=1 / RL:41 / text/plain; charset=UTF-8 / Content-Encoding: gzip
/ Cache-Control: no-cache, no-store, must-revalidate

2019.10.05 15:12:25.990 5: CUL/RAW: /A1ACFA
2019.10.05 15:12:26.006 5: CUL/RAW: A1ACFA/0106A1F4900A100031F20452045204520452045204520452046

2019.10.05 15:12:26.006 4: CUL_Parse: nanoCUL A 1A CF A010 6A1F49 00A100 031F20452045204520452045204520452046 -39
2019.10.05 15:12:26.007 5: nanoCUL: dispatch A1ACFA0106A1F4900A100031F204520452045204520452045204520::-39:nanoCUL
2019.10.05 15:12:26.009 5: nanoCUL sending As0ACF800200A1006A1F4900
2019.10.05 15:12:26.009 5: CUL 6A1F49 dly:97ms
2019.10.05 15:12:26.107 5: SW: As0ACF800200A1006A1F4900
2019.10.05 15:12:26.109 5: CUL_HM HM_6A1F49 sent ACK:2
2019.10.05 15:12:26.110 4: WEB_192.168.1.125_52160 GET /fhem?XHR=1&inform=type=status;filter=HM_6A1F49;since=1570281144;fmt=JSON&fw_id=310&timestamp=1570281146257; BUFLEN:0
2019.10.05 15:12:26.262 5: CUL/RAW: /A1AD0A0106A1F4900A100032E4454586C54E459084520452045204546
2019.10.05 15:12:26.278 5: CUL/RAW: A1AD0A0106A1F4900A100032E4454586C54E459084520452045204546/

2019.10.05 15:12:26.278 4: CUL_Parse: nanoCUL A 1A D0 A010 6A1F49 00A100 032E4454586C54E459084520452045204546 -39
2019.10.05 15:12:26.279 5: nanoCUL: dispatch A1AD0A0106A1F4900A100032E4454586C54E4590845204520452045::-39:nanoCUL
2019.10.05 15:12:26.280 5: nanoCUL sending As0AD0800200A1006A1F4900
2019.10.05 15:12:26.280 5: CUL 6A1F49 dly:98ms
2019.10.05 15:12:26.379 5: SW: As0AD0800200A1006A1F4900
2019.10.05 15:12:26.380 5: CUL_HM HM_6A1F49 sent ACK:2
2019.10.05 15:12:26.382 5: LaCrosseGateway: dispatch OK 9 39 1 4 200 59
2019.10.05 15:12:26.518 5: CUL/RAW: /A1AD1A0106A1F4900A100033D2045204520452045204520
2019.10.05 15:12:26.534 5: CUL/RAW: A1AD1A0106A1F4900A100033D2045204520452045204520/443C585A46

2019.10.05 15:12:26.534 4: CUL_Parse: nanoCUL A 1A D1 A010 6A1F49 00A100 033D2045204520452045204520443C585A46 -39
2019.10.05 15:12:26.535 5: nanoCUL: dispatch A1AD1A0106A1F4900A100033D2045204520452045204520443C585A::-39:nanoCUL
2019.10.05 15:12:26.536 5: nanoCUL sending As0AD1800200A1006A1F4900
2019.10.05 15:12:26.537 5: CUL 6A1F49 dly:97ms
2019.10.05 15:12:26.635 5: SW: As0AD1800200A1006A1F4900
2019.10.05 15:12:26.637 5: CUL_HM HM_6A1F49 sent ACK:2
2019.10.05 15:12:26.774 5: CUL/RAW: /A1AD2A0106A1F4900A100034C44A854E45908
2019.10.05 15:12:26.790 5: CUL/RAW: A1AD2A0106A1F4900A100034C44A854E45908/45204520452045204546

2019.10.05 15:12:26.791 4: CUL_Parse: nanoCUL A 1A D2 A010 6A1F49 00A100 034C44A854E4590845204520452045204546 -39
2019.10.05 15:12:26.791 5: nanoCUL: dispatch A1AD2A0106A1F4900A100034C44A854E45908452045204520452045::-39:nanoCUL
2019.10.05 15:12:26.793 5: nanoCUL sending As0AD2800200A1006A1F4900
2019.10.05 15:12:26.793 5: CUL 6A1F49 dly:97ms
2019.10.05 15:12:26.811 4: PROPLANTA Wetter_Proplanta: HtmlAcquire.575 Start capturing of https://www.proplanta.de/Wetter/profi-wetter.php?SITEID=60&PLZ=48159&STADT=48159&WETTERaufrufen=stadt&Wtp=&SUCHE=Wetter&wT=11
2019.10.05 15:12:26.891 5: SW: As0AD2800200A1006A1F4900
2019.10.05 15:12:26.893 5: CUL_HM HM_6A1F49 sent ACK:2
2019.10.05 15:12:27.030 5: CUL/RAW: /A1AD3A0106A1F4900A100035B20
2019.10.05 15:12:27.046 5: CUL/RAW: A1AD3A0106A1F4900A100035B20/452045204520443C585A44A854E446

2019.10.05 15:12:27.047 4: CUL_Parse: nanoCUL A 1A D3 A010 6A1F49 00A100 035B20452045204520443C585A44A854E446 -39
2019.10.05 15:12:27.047 5: nanoCUL: dispatch A1AD3A0106A1F4900A100035B20452045204520443C585A44A854E4::-39:nanoCUL
2019.10.05 15:12:27.049 5: nanoCUL sending As0AD3800200A1006A1F4900
2019.10.05 15:12:27.049 5: CUL 6A1F49 dly:97ms
2019.10.05 15:12:27.147 5: SW: As0AD3800200A1006A1F4900
2019.10.05 15:12:27.149 5: CUL_HM HM_6A1F49 sent ACK:2
2019.10.05 15:12:27.286 5: CUL/RAW: /A1AD4A0106A1F4900
2019.10.05 15:12:27.302 5: CUL/RAW: A1AD4A0106A1F4900/A100036A59084520452045204520452045204547

2019.10.05 15:12:27.303 4: CUL_Parse: nanoCUL A 1A D4 A010 6A1F49 00A100 036A59084520452045204520452045204547 -38.5
2019.10.05 15:12:27.303 5: nanoCUL: dispatch A1AD4A0106A1F4900A100036A590845204520452045204520452045::-38.5:nanoCUL
2019.10.05 15:12:27.304 5: nanoCUL sending As0AD4800200A1006A1F4900
2019.10.05 15:12:27.305 5: CUL 6A1F49 dly:98ms
2019.10.05 15:12:27.403 5: SW: As0AD4800200A1006A1F4900
2019.10.05 15:12:27.405 5: CUL_HM HM_6A1F49 sent ACK:2
2019.10.05 15:12:27.407 5: CUL/RAW: /A0F2E86106A0B140000000AA8E30B0000ED

2019.10.05 15:12:27.407 4: CUL_Parse: nanoCUL A 0F 2E 8610 6A0B14 000000 0AA8E30B0000ED -83.5
2019.10.05 15:12:27.407 5: nanoCUL: dispatch A0F2E86106A0B140000000AA8E30B0000::-83.5:nanoCUL
2019.10.05 15:12:27.542 5: CUL/RAW: /A1AD5A
2019.10.05 15:12:27.558 5: CUL/RAW: A1AD5A/0106A1F4900A1000379204520443C585A44A854E45908452046

2019.10.05 15:12:27.559 4: CUL_Parse: nanoCUL A 1A D5 A010 6A1F49 00A100 0379204520443C585A44A854E45908452046 -39
2019.10.05 15:12:27.559 5: nanoCUL: dispatch A1AD5A0106A1F4900A1000379204520443C585A44A854E459084520::-39:nanoCUL
2019.10.05 15:12:27.561 5: nanoCUL sending As0AD5800200A1006A1F4900
2019.10.05 15:12:27.561 5: CUL 6A1F49 dly:97ms
2019.10.05 15:12:27.659 5: SW: As0AD5800200A1006A1F4900
2019.10.05 15:12:27.661 5: CUL_HM HM_6A1F49 sent ACK:2
2019.10.05 15:12:27.670 4: PROPLANTA Wetter_Proplanta: HtmlAcquire.594 233326 characters captured
2019.10.05 15:12:27.678 4: PROPLANTA Wetter_Proplanta: Run.703 Start HTML parsing of captured page
2019.10.05 15:12:27.757 5: LaCrosseGateway: dispatch OK 9 17 130 4 193 125
2019.10.05 15:12:27.814 5: CUL/RAW: /A1AD6A0106A1F4900A100038845204520452045204520452045204446
2019.10.05 15:12:27.830 5: CUL/RAW: A1AD6A0106A1F4900A100038845204520452045204520452045204446
/

2019.10.05 15:12:27.831 4: CUL_Parse: nanoCUL A 1A D6 A010 6A1F49 00A100 038845204520452045204520452045204446 -39
2019.10.05 15:12:27.831 5: nanoCUL: dispatch A1AD6A0106A1F4900A1000388452045204520452045204520452044::-39:nanoCUL
2019.10.05 15:12:27.833 5: nanoCUL sending As0AD6800200A1006A1F4900
2019.10.05 15:12:27.833 5: CUL 6A1F49 dly:97ms
2019.10.05 15:12:27.931 5: SW: As0AD6800200A1006A1F4900
2019.10.05 15:12:27.933 5: CUL_HM HM_6A1F49 sent ACK:2
2019.10.05 15:12:28.070 5: CUL/RAW: /A1AD7A0106A1F4900A10003973C585A44A854E4590845204
2019.10.05 15:12:28.086 5: CUL/RAW: A1AD7A0106A1F4900A10003973C585A44A854E4590845204/520452046

2019.10.05 15:12:28.086 4: CUL_Parse: nanoCUL A 1A D7 A010 6A1F49 00A100 03973C585A44A854E4590845204520452046 -39
2019.10.05 15:12:28.087 5: nanoCUL: dispatch A1AD7A0106A1F4900A10003973C585A44A854E45908452045204520::-39:nanoCUL
2019.10.05 15:12:28.088 5: nanoCUL sending As0AD7800200A1006A1F4900
2019.10.05 15:12:28.088 5: CUL 6A1F49 dly:98ms
2019.10.05 15:12:28.187 5: SW: As0AD7800200A1006A1F4900
2019.10.05 15:12:28.189 5: CUL_HM HM_6A1F49 sent ACK:2
2019.10.05 15:12:28.326 5: CUL/RAW: /A1AD8A0106A1F4900A10003A64520452045204
2019.10.05 15:12:28.342 5: CUL/RAW: A1AD8A0106A1F4900A10003A64520452045204/5204520443C585A4446

2019.10.05 15:12:28.343 4: CUL_Parse: nanoCUL A 1A D8 A010 6A1F49 00A100 03A645204520452045204520443C585A4446 -39
2019.10.05 15:12:28.343 5: nanoCUL: dispatch A1AD8A0106A1F4900A10003A645204520452045204520443C585A44::-39:nanoCUL
2019.10.05 15:12:28.345 5: nanoCUL sending As0AD8800200A1006A1F4900
2019.10.05 15:12:28.345 5: CUL 6A1F49 dly:97ms
2019.10.05 15:12:28.443 5: SW: As0AD8800200A1006A1F4900
2019.10.05 15:12:28.445 5: CUL_HM HM_6A1F49 sent ACK:2
2019.10.05 15:12:28.582 5: CUL/RAW: /A1AD9A0106A1F4900A10003B5A85
2019.10.05 15:12:28.598 5: CUL/RAW: A1AD9A0106A1F4900A10003B5A85/4E459084520452045204520452046

2019.10.05 15:12:28.599 4: CUL_Parse: nanoCUL A 1A D9 A010 6A1F49 00A100 03B5A854E459084520452045204520452046 -39
2019.10.05 15:12:28.599 5: nanoCUL: dispatch A1AD9A0106A1F4900A10003B5A854E4590845204520452045204520::-39:nanoCUL
2019.10.05 15:12:28.602 5: nanoCUL sending As0AD9800200A1006A1F4900
2019.10.05 15:12:28.602 5: CUL 6A1F49 dly:96ms
2019.10.05 15:12:28.699 5: SW: As0AD9800200A1006A1F4900
2019.10.05 15:12:28.701 5: CUL_HM HM_6A1F49 sent ACK:2
2019.10.05 15:12:28.702 5: LaCrosseGateway: dispatch OK 9 1 1 4 195 65
2019.10.05 15:12:28.704 5: Starting notify loop for LaCrosse_01, 1 event(s), first is temps: 21.9
2019.10.05 15:12:28.704 5: createNotifyHash
2019.10.05 15:12:28.706 5: BatterieStatus: not on any display, ignoring notify
2019.10.05 15:12:28.707 5: Triggering Kaelte_Gaeste_WC
2019.10.05 15:12:28.707 4: Kaelte_Gaeste_WC exec IF ([LaCrosse_01:temps] < "20.0" and [HM_FD0445] eq "open")
(set Tab_Wohnzimmer speak "Kältewarnung Gäste WC",set Kaelte_G_WC zukalt) ELSE (
IF ([LaCrosse_01:temps] < "20.0" and [HM_FD0445] eq "tilted")
(set Tab_Wohnzimmer speak "Kältewarnung Gäste WC",set Kaelte_G_WC zukalt)
ELSE
(set Kaelte_G_WC ok)
)
2019.10.05 15:12:28.707 5: Cmd: >IF ([LaCrosse_01:temps] < "20.0" and [HM_FD0445] eq "open")
(set Tab_Wohnzimmer speak "Kältewarnung Gäste WC",set Kaelte_G_WC zukalt) ELSE (
IF ([LaCrosse_01:temps] < "20.0" and [HM_FD0445] eq "tilted")
(set Tab_Wohnzimmer speak "Kältewarnung Gäste WC",set Kaelte_G_WC zukalt)
ELSE
(set Kaelte_G_WC ok)
)<
2019.10.05 15:12:28.708 5: Cmd: >{if(ReadingValIf('LaCrosse_01','temps','') < "20.0" and InternalIf('HM_FD0445','STATE','') eq "open"){fhem('set Tab_Wohnzimmer speak "Kältewarnung Gäste WC"');fhem('set Kaelte_G_WC zukalt')}else{fhem('IF ([LaCrosse_01:temps] < "20.0" and [HM_FD0445] eq "tilted") (set Tab_Wohnzimmer speak "Kältewarnung Gäste WC",set Kaelte_G_WC zukalt)ELSE(set Kaelte_G_WC ok)')}}<
2019.10.05 15:12:28.708 5: Cmd: >IF ([LaCrosse_01:temps] < "20.0" and [HM_FD0445] eq "tilted") (set Tab_Wohnzimmer speak "Kältewarnung Gäste WC",set Kaelte_G_WC zukalt)ELSE(set Kaelte_G_WC ok)<
2019.10.05 15:12:28.709 5: Cmd: >{if(ReadingValIf('LaCrosse_01','temps','') < "20.0" and InternalIf('HM_FD0445','STATE','') eq "tilted"){fhem('set Tab_Wohnzimmer speak "Kältewarnung Gäste WC"');fhem('set Kaelte_G_WC zukalt')}else{fhem('set Kaelte_G_WC ok')}}<
2019.10.05 15:12:28.709 5: Cmd: >set Kaelte_G_WC ok<
2019.10.05 15:12:28.709 4: dummy set Kaelte_G_WC ok
2019.10.05 15:12:28.710 5: Motor_Status: not on any display, ignoring notify
2019.10.05 15:12:28.710 5: End notify loop for LaCrosse_01
2019.10.05 15:12:28.839 5: CUL/RAW: /A17DAA0106A1F4900A10003C44520
2019.10.05 15:12:28.854 5: CUL/RAW: A17DAA0106A1F4900A10003C44520/4520452012212D12212B46

2019.10.05 15:12:28.855 4: CUL_Parse: nanoCUL A 17 DA A010 6A1F49 00A100 03C445204520452012212D12212B46 -39
2019.10.05 15:12:28.855 5: nanoCUL: dispatch A17DAA0106A1F4900A10003C445204520452012212D12212B::-39:nanoCUL
2019.10.05 15:12:28.857 5: nanoCUL sending As0ADA800200A1006A1F4900
2019.10.05 15:12:28.857 5: CUL 6A1F49 dly:97ms
2019.10.05 15:12:28.955 5: SW: As0ADA800200A1006A1F4900
2019.10.05 15:12:28.957 5: CUL_HM HM_6A1F49 sent ACK:2
2019.10.05 15:12:29.095 5: CUL/RAW: /A0BDB80106A1F4900A100030046

2019.10.05 15:12:29.095 4: CUL_Parse: nanoCUL A 0B DB 8010 6A1F49 00A100 030046 -39
2019.10.05 15:12:29.095 5: nanoCUL: dispatch A0BDB80106A1F4900A1000300::-39:nanoCUL
2019.10.05 15:12:29.104 5: CUL_HM HM_6A1F49 protEvent:CMDs_done
2019.10.05 15:12:29.105 5: Starting notify loop for HM_6A1F49, 1 event(s), first is CMDs_done
2019.10.05 15:12:29.105 5: BatterieStatus: not on any display, ignoring notify
2019.10.05 15:12:29.106 5: Motor_Status: not on any display, ignoring notify
2019.10.05 15:12:29.113 5: End notify loop for HM_6A1F49

Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: frank am 06 Oktober 2019, 14:56:14
global verbose 5 war natürlich nicht gewünscht. hier mal die entscheidenden abschnitte zusammengefasst:

2019.10.05 15:05:34.485 3: CUL_HM set HM_6A1F49_Clima getConfig
2019.10.05 15:05:34.486 5: SW: As0927B11200A1006A1F49
2019.10.05 15:05:35.069 4: CUL_Parse: Cube_Ankleide A 0A 27 8002 6A1F49 00A100 003B -44.5
2019.10.05 15:05:35.170 5: SW: As0B28A00100A1006A1F490403
2019.10.05 15:05:35.565 4: CUL_Parse: Cube_Ankleide A 0E 28 8010 6A1F49 00A100 01000000003A -45
2019.10.05 15:05:35.666 5: SW: As1029A00100A1006A1F4904040000000001
2019.10.05 15:05:36.060 4: CUL_Parse: Cube_Ankleide A 0E 29 8010 6A1F49 00A100 02080000003A -45

2019.10.05 15:05:36.161 5: SW: As102AA00100A1006A1F4900040000000007
2019.10.05 15:05:36.556 4: CUL_Parse: Cube_Ankleide A 1A 2A A010 6A1F49 00A100 03012A22093D18030016073000640F05003A -45
2019.10.05 15:05:36.656 5: SW: As0A2A800200A1006A1F4900

2019.10.05 15:05:36.688 4: CUL_Parse: Cube_Ankleide A 1A 2A A010 6A1F49 00A100 03012A22093D18030016073000640F05003A -45


##############################

2019.10.05 15:12:24.084 3: CUL_HM set HM_6A1F49_Clima getConfig
2019.10.05 15:12:24.085 5: SW: As09CAB11200A1006A1F49
2019.10.05 15:12:24.614 4: CUL_Parse: nanoCUL A 0A CA 8002 6A1F49 00A100 0046 -39
2019.10.05 15:12:24.715 5: SW: As0BCBA00100A1006A1F490403
2019.10.05 15:12:24.902 4: CUL_Parse: nanoCUL A 0E CB 8010 6A1F49 00A100 010000000047 -38.5
2019.10.05 15:12:25.003 5: SW: As10CCA00100A1006A1F4904040000000001
2019.10.05 15:12:25.190 4: CUL_Parse: nanoCUL A 0E CC 8010 6A1F49 00A100 020800000046 -39

2019.10.05 15:12:25.291 5: SW: As10CDA00100A1006A1F4900040000000007
2019.10.05 15:12:25.494 4: CUL_Parse: nanoCUL A 1A CD A010 6A1F49 00A100 03012A22093D18030016073000640F050046 -39
2019.10.05 15:12:25.595 5: SW: As0ACD800200A1006A1F4900

2019.10.05 15:12:25.750 4: CUL_Parse: nanoCUL A 1A CE A010 6A1F49 00A100 03100000090E4454586C54E4590845204546 -39



fazit: die latenz mit cube ist so schlecht, dass das timing beim 4. gesendeten befehl von fhem (SW:) nicht mehr funktioniert. hier wird liste 7 abgefragt, die durch ihre länge bedingt, aus vielen teilantworten des rt besteht, die jeweils mit einem ack von fhem beantwortet werden müssen.

bei der 2. teilantwort (jeweils letzte zeile) wiederholt der rt bereits die erste teilantwort, weil das ack wahrscheinlich nicht rechtzeitig ankam.

die antwortzeiten bei den befehlen 2-4 liegen mit cube bei ca. 400ms, mit cul bei ca. 200ms. also deutlich schlechter.
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: Nitaro am 07 Oktober 2019, 07:48:38
Vielen Dank !
Der Cube und der nanoCUL sind im selben Raum, also gleiche Entfernung zum RT (Raum nebenan).
Jetzt bleibt also die spannende Frage warum das beim Cube so lange dauert. Laut der anderen
Thread Anfrage sollte es zu keinen Problemen kommen.
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: frank am 07 Oktober 2019, 09:55:24
angenommen, es liegt nicht an der fw, dann muss die zeitdifferenz durch die anbindung des cubes entstehen.

also der weg des signals von fhem bis zur fw im cube. diese strecke wird 2 mal durchlaufen bei der antwortzeit.
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: Nitaro am 08 Oktober 2019, 09:26:52

Beide sind via LAN angeschlossen, 1Gbit/s, keine hohen Latenzen, keine IP Konflikte.
Works as designed quasi. Mein fhem läuft auf einem corei5 "Server",die Eventlast halte
ich mich event-on-change-reading gering. Da fällt mir jetzt erstmal nichts ein was da für
die hohe Antwortzeit verantwortlich sein könnte.
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: frank am 08 Oktober 2019, 10:43:13
Zitat1Gbit/s
dem hmlan io von homematic würde das gar nicht gefallen.
was sagt denn die BA des cube zum lan?
eventuell mal "drosseln" mit besser passendem switch / managed switch.

wenn ich richtig verstanden habe, könnte man auch usb nutzen. falls ja, würde ich das mal testen.

Zitatcorei5 "Server"
das sagt mir leider gar nichts.
wenn es mit "containern" zu tun hat, könnte das "durchreichen" der schnittstelle ein problem sein.

eventlast kann nicht das problem sein, sonst wäre der cul auch betroffen.


irgendwo muss die verzögerung ja herkommen.
Titel: Antw:Bekomme keine Geräte mehr gepairt
Beitrag von: Nitaro am 08 Oktober 2019, 14:45:35
Ich habe mich geirrt, die Cubes sind mit 100 Mbit/s verbunden.
Per USB wäre mal ein Versuch wert, muss ich aber erst lesen wie das damit geht.
Mit Corei5 wollte ich sagen, dass es nicht auf einem Raspi läuft,
container oder vm´s sind nicht im Einsatz.