Neues Modul HMCCU für Homematic CCU

Begonnen von zap, 19 August 2015, 19:45:30

Vorheriges Thema - Nächstes Thema

zap

Du verwendest den internen. Das was Du bei ps siehst ist der grep Befehl selbst. Siehe auch

ps aux | grep ccurpcd | grep -v grep

Dann gibt es keine Ausgabe.

Aber ein "ps aux | grep fhem" sollte mindestens 2 fhem.pl Prozesse liefern. Einmal der normale und einmal der geforkte RPC Prozess. Wenn Du im Attribut rpcport mehrere Ports angegeben hast, entsprechend mehr fhem Prozesse.

Ich muss mir Deine Logs morgen mal in Ruhe anschauen. Auf den ersten Blick sieht alles ok aus. Bei mir läuft der RPC Server (3 Prozesse) wochenlang ohne Probleme.
2xCCU3 mit ca. 100 Aktoren, Sensoren
Entwicklung: FHEM auf Proxmox Debian VM
Produktiv inzwischen auf Home Assistant gewechselt.
Maintainer: HMCCU, (Fully, AndroidDB)

Nic0205

Hallo zap,

folgendes bringt ps aux:

pi@linado_home:~ $ ps aux | grep fhem
fhem      5969  0.2  3.7  40920 35964 ?        S    Aug07   1:07 /usr/bin/perl fhem.pl fhem.cfg
fhem      5970  0.0  1.5  19320 14828 ?        Ss   Aug07   0:01 /usr/bin/perl fhem.pl fhem.cfg
fhem      5974  0.6  3.8  41896 36116 ?        S    Aug07   3:11 /usr/bin/perl fhem.pl fhem.cfg
pi        7396  0.0  0.1   4612  1844 pts/0    S+   06:02   0:00 grep --color=auto fhem


also drei Prozesse.

zap

Wenn bei Dir im FHEM Log die Meldung kommt:


2016.08.06 21:33:16 2: HMCCU: Received no events from CCU since 300 seconds


dann häufen sich in Deiner CCU die Meldungen:


Aug  6 21:29:03 homematic-ccu2 user.err rfd: XmlRpcClient error calling event({[methodName:"event",params:{"CB2001","LEQ0002140:1","HUMIDITY",54}],[methodName:"event",params:{"CB2001","IEQ0171822:2","ADJUSTING_COMMAND",0}],[methodName:"event",params:{"CB2001","IEQ0171822:2",
Aug  6 21:29:03 homematic-ccu2 user.err rfd: XmlRpc transport error


Das heißt: Die CCU möchte ein Update für einen Datenpunkt an FHEM schicken. Das klappt aber nicht ("transport error"). Bleibt noch die Frage nach der Ursache ...

Fragen:

Welche Firmware Version hat Deine CCU?

Gibt es im Systemlog /var/log/messages zur gleichen Zeit irgendwelche Fehlermeldungen?

In Deinem /tmp Verzeichnis ist genug Platz?

2xCCU3 mit ca. 100 Aktoren, Sensoren
Entwicklung: FHEM auf Proxmox Debian VM
Produktiv inzwischen auf Home Assistant gewechselt.
Maintainer: HMCCU, (Fully, AndroidDB)

Nic0205

#678
Firmware: 2.19.9
Speicher in /tmp auf der CCU:

# df /tmp
Filesystem                Size      Used Available Use% Mounted on
tmpfs                   124.7M    180.0K    124.5M   0% /tmp
#


Das Log von /var/log/messages habe ich ja schon geposted.

/tmp auf dem fhem server:pi@linado_home:~ $ sudo df /tmp
Dateisystem    1K-Blöcke Benutzt Verfügbar Verw% Eingehängt auf
/dev/root       30337356 1858436  27216812    7% /
pi@linado_home:~ $


Hilft Dir das weiter?

zap

Die Firmware ist ziemlich alt, 2.21.10 ist aktuell. Wird aber vermutlich nicht helfen, da es mit Deiner Version bei mir auch schon gelaufen ist.

Ich meinte nicht das messages File der CCU sondern das das FHEM Servers.
Aber wenn da keine Fehlermeldungen drinnstehen, bringt das nichts. Wäre eh nur ein Strohhalm gewesen.

Läuft auf dem FHEM Server noch irgendwas anderes neben FHEM, evtl eine andere Software, die sich an die CCU andockt?
2xCCU3 mit ca. 100 Aktoren, Sensoren
Entwicklung: FHEM auf Proxmox Debian VM
Produktiv inzwischen auf Home Assistant gewechselt.
Maintainer: HMCCU, (Fully, AndroidDB)

Nic0205

auf dem FHEM Server läuft nur FHEM, Smartvisu und Fronthem.

Kann man irgendwie überprüfen, ob es Kommunikationsprobleme gibt?

zap

Zitat von: Nic0205 am 08 August 2016, 20:44:09
auf dem FHEM Server läuft nur FHEM, Smartvisu und Fronthem.

Kann man irgendwie überprüfen, ob es Kommunikationsprobleme gibt?

Naja, "xmlrpc transport error" sind definitiv Kommunikationsprobleme. Die Frage ist: was ist die Ursache? Und warum funktioniert es eine Zeit lang und dann plötzlich nicht mehr.
Der RPC Server nimmt anscheinend keine Requests mehr entgegen. Was Du noch prüfen könntest: Wenn mal wieder dieser Effekt auftritt (viele Transport Errors in /var/log/messages auf der CCU und die Meldung, dass seit 300 Sekunden keine Events mehr kamen im fhem.log): Läuft der RPC Server überhaupt noch? D.h. "ps aux | grep fhem". Die ProzessIDs mit dem abgleichen, was in FHEM im IO Device im Internal RPCPID angezeigt wird.
2xCCU3 mit ca. 100 Aktoren, Sensoren
Entwicklung: FHEM auf Proxmox Debian VM
Produktiv inzwischen auf Home Assistant gewechselt.
Maintainer: HMCCU, (Fully, AndroidDB)

xxxONURISxxx

Ich habe es nun endlich geschafft, dass define <name> HMCCU <hostname_or_IP> nicht mit irgendeiner Fehlermeldung quittiert wird und der DeviceOverview geladen wird. (es lag an fehlerhaft heruntergeladenen Dateien)

Aber was mache ich jetzt? Aus der Anleitung im .txt werde  ich nicht schlau. Gibt es irgendwo eine Anleitung für noobs wie mich? Ich habe keine Ahnung, was ich nun als nächstes machen muss.

Gruß
Daniel

zap

Zitat von: xxxONURISxxx am 08 August 2016, 22:47:00

Aber was mache ich jetzt? Aus der Anleitung im .txt werde  ich nicht schlau. Gibt es irgendwo eine Anleitung für noobs wie mich? Ich habe keine Ahnung, was ich nun als nächstes machen muss.


Als nächstes musst Du für die CCU Geräte und Kanäle, die Du in FHEM haben möchtest, mit Hilfe von HMCCUDEV und HMCCUCHN Client Devices in FHEM anlegen. Einige Beispiele findest Du hier:

https://forum.fhem.de/index.php/topic,51339.0.html

Danach wäre es ratsam, den RPC-Server zu starten (set rpcserver on), damit die neu angelegten Client Devices mit Daten aus der CCU versorgt werden. Vorher solltest Du noch das Attribut rpcport auf die Liste der Schnittstellen setzen, die Deine CCU verwendet (also BidCos, HM-IP oder Wired).

Wenn ich mal die Zeit finde, werde ich den ein oder anderen Wiki Artikel schreiben. Momentan bin ich aber mit der neuen Version beschäftigt.


2xCCU3 mit ca. 100 Aktoren, Sensoren
Entwicklung: FHEM auf Proxmox Debian VM
Produktiv inzwischen auf Home Assistant gewechselt.
Maintainer: HMCCU, (Fully, AndroidDB)

zap

Habe ein Update von 88_HMCCU.pm im Contrib Zweig eingecheckt. Gab leider einen Bug beim Update von Readings in bestimmten Konstellationen.
2xCCU3 mit ca. 100 Aktoren, Sensoren
Entwicklung: FHEM auf Proxmox Debian VM
Produktiv inzwischen auf Home Assistant gewechselt.
Maintainer: HMCCU, (Fully, AndroidDB)

zap

Eine Warnung bzgl. der aktuellen CCU2 Firmware 2.21.10: Mit dieser Version wird für Homematic IP Komponenten der Kanal 0 hinzugefügt. Das hat zumindest bei mir dazu geführt, dass einige der anderen Kanäle von HM-IP Schaltsteckdosen auf ihren Default Namen zurück gesetzt wurden. Dadurch konnte ich in HMCCU nicht mehr darauf zugreifen. Nach Korrektur der Namen auf den alten Stand vor dem Update hat wieder alles funktioniert.
2xCCU3 mit ca. 100 Aktoren, Sensoren
Entwicklung: FHEM auf Proxmox Debian VM
Produktiv inzwischen auf Home Assistant gewechselt.
Maintainer: HMCCU, (Fully, AndroidDB)

Achiim

Update auf Homematic CCU-Version 2.21.10 scheitert

Leider konnte mir die ELV-Hotline bisher nicht weiterhelfen, daher mal hier die Frage, ob dieses Problem bei euch bekannt ist.... Im Logfile der CCU2 finde ich jede Menge Einträge.... Sagt das Euch was?


Aug 15 12:09:39 homematic-ccu2 local0.err ReGaHss: Error: IseXmlRpc::GetObjectByHSSAddress: no exists device object with address= 3014F711A0000353C9952FD2 [../Platform/DOM/iseXmlRpc.cpp (2166)]
Aug 15 12:13:24 homematic-ccu2 user.warn kernel: [1866655.750000] tclsh invoked oom-killer: gfp_mask=0x201da, order=0, oom_adj=0, oom_score_adj=0
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866655.760000] Backtrace:
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866655.760000] [<c000bc20>] (dump_backtrace+0x0/0x110) from [<c02a783c>] (dump_stack+0x18/0x1c)
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866655.770000]  r6:cf9ee300 r5:00000000 r4:c2572000 r3:00000002
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866655.770000] [<c02a7824>] (dump_stack+0x0/0x1c) from [<c02a86f4>] (dump_header.isra.14+0x8c/0x1a4)
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866655.780000] [<c02a8668>] (dump_header.isra.14+0x0/0x1a4) from [<c0083814>] (oom_kill_process+0x80/0x2b4)
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866655.790000] [<c0083794>] (oom_kill_process+0x0/0x2b4) from [<c0083e84>] (out_of_memory+0x160/0x210)
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866655.800000] [<c0083d24>] (out_of_memory+0x0/0x210) from [<c0086fd8>] (__alloc_pages_nodemask+0x598/0x6ec)
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866655.810000] [<c0086a40>] (__alloc_pages_nodemask+0x0/0x6ec) from [<c00827f4>] (filemap_fault+0x2dc/0x400)
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866655.820000] [<c0082518>] (filemap_fault+0x0/0x400) from [<c0098964>] (__do_fault+0xc4/0x4b8)
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866655.830000] [<c00988a0>] (__do_fault+0x0/0x4b8) from [<c009b12c>] (handle_pte_fault+0x2a4/0xc8c)
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866655.840000] [<c009ae88>] (handle_pte_fault+0x0/0xc8c) from [<c009bbdc>] (handle_mm_fault+0xc8/0xdc)
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866655.850000] [<c009bb14>] (handle_mm_fault+0x0/0xdc) from [<c02aefc8>] (do_page_fault+0x184/0x3c0)
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866655.860000] [<c02aee44>] (do_page_fault+0x0/0x3c0) from [<c0008608>] (do_DataAbort+0x3c/0xa0)
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866655.870000] [<c00085cc>] (do_DataAbort+0x0/0xa0) from [<c02ad880>] (__dabt_usr+0x40/0x60)
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866655.880000] Exception stack(0xc2573fb0 to 0xc2573ff8)
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866655.880000] 3fa0:                                     006fe0d1 00000072 b6f17524 00000002
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866655.890000] 3fc0: 006f6640 00000004 b6f1751c 00000000 ffffffff b6f05f24 006fe0d0 b6f171e4
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866655.900000] 3fe0: b6f14a58 beb1c548 00000069 b6ed6940 a0000010 ffffffff
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866655.900000]  r7:00000000 r6:ffffffff r5:a0000010 r4:b6ed6940
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866655.910000] Mem-info:
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866655.910000] Normal per-cpu:
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866655.920000] CPU    0: hi:   90, btch:  15 usd:  68
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866655.920000] active_anon:20856 inactive_anon:39427 isolated_anon:0
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866655.920000]  active_file:14 inactive_file:21 isolated_file:0
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866655.920000]  unevictable:0 dirty:0 writeback:0 unstable:0
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866655.920000]  free:712 slab_reclaimable:427 slab_unreclaimable:1055
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866655.920000]  mapped:31 shmem:42768 pagetables:274 bounce:0
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866655.950000] Normal free:2848kB min:2036kB low:2544kB high:3052kB active_anon:83424kB inactive_anon:157708kB active_file:56kB inactive_file:84kB unevictable:0kB isolated(anon):0kB isolated(file):0kB present:260096kB mlocked
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866655.990000] lowmem_reserve[]: 0 0
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866655.990000] Normal: 148*4kB 34*8kB 24*16kB 14*32kB 6*64kB 0*128kB 1*256kB 1*512kB 0*1024kB 0*2048kB 0*4096kB = 2848kB
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866656.010000] 42803 total pagecache pages
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866656.020000] 65536 pages of RAM
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866656.030000] 1070 free pages
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866656.030000] 1688 reserved pages
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866656.030000] 1125 slab pages
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866656.040000] 129 pages shared
Aug 15 12:13:25 homematic-ccu2 user.warn kernel: [1866656.040000] 0 pages swap cached
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.040000] [ pid ]   uid  tgid total_vm      rss cpu oom_adj oom_score_adj name
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.050000] [   94]     0    94      616       26   0       0             0 crond
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.060000] [   98]     0    98      595       14   0       0             0 syslogd
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.070000] [  100]     0   100      595       17   0       0             0 klogd
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.070000] [  103]     0   103      722       96   0     -17         -1000 udevd
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.080000] [  139]     0   139      693       67   0     -17         -1000 udevd
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.090000] [  140]     0   140      693       70   0     -17         -1000 udevd
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.100000] [  141]     0   141      562       13   0       0             0 watchdog
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.100000] [  150]     0   150      595       16   0       0             0 udhcpd
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.110000] [  268]     0   268      595       16   0       0             0 udhcpc
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.120000] [  274]     0   274      494       22   0       0             0 ifplugd
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.130000] [  302]     0   302      934       31   0       0             0 eq3configd
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.140000] [  303]     0   303      928       30   0       0             0 ssdpd
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.140000] [  313]     0   313      956       38   0       0             0 ntpclient
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.150000] [  319]     0   319     1348      313   0       0             0 lighttpd
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.160000] [  324]     0   324     1072       62   0     -17         -1000 sshd
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.170000] [  362]     0   362     1353       52   0       0             0 multimacd
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.180000] [  378]     0   378     4546     2126   0       0             0 rfd
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.180000] [  384]     0   384    51154    11604   0       0             0 java
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.190000] [  468]     0   468     4365     1744   0       0             0 ReGaHss
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.200000] [  470]     0   470      992       35   0       0             0 hss_led
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.210000] [  490]     0   490      596       15   0       0             0 getty
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.220000] [  491]     0   491      596       15   0       0             0 getty
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.220000] [25507]     0 25507     1245      239   0       0             0 tclsh
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.230000] [25508]     0 25508     1011       48   0       0             0 tclsh
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.240000] [25509]     0 25509      780       47   0       0             0 tclsh
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.250000] [25510]     0 25510      780       48   0       0             0 tclsh
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.250000] [25511]     0 25511     1011       48   0       0             0 tclsh
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.260000] [25512]     0 25512     1011       51   0       0             0 tclsh
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.270000] [25513]     0 25513      780       47   0       0             0 tclsh
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.280000] [25514]     0 25514      780       48   0       0             0 tclsh
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.280000] [25515]     0 25515      780       47   0       0             0 tclsh
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.290000] [25516]     0 25516      780       48   0       0             0 tclsh
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.300000] [25517]     0 25517      780       47   0       0             0 tclsh
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.310000] [25518]     0 25518      780       47   0       0             0 tclsh
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.320000] [25519]     0 25519      780       46   0       0             0 tclsh
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.320000] [25520]     0 25520      780       34   0       0             0 tclsh
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.330000] [25521]     0 25521      780       47   0       0             0 tclsh
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.340000] [25522]     0 25522      780       46   0       0             0 tclsh
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.350000] [25523]     0 25523      780       47   0       0             0 tclsh
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.350000] [25524]     0 25524      780       47   0       0             0 tclsh
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.360000] [25525]     0 25525      780       47   0       0             0 tclsh
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.370000] [25526]     0 25526      780       47   0       0             0 tclsh
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.380000] [25527]     0 25527     1011       48   0       0             0 tclsh
Aug 15 12:13:25 homematic-ccu2 user.err kernel: [1866656.390000] Out of memory: Kill process 384 (java) score 152 or sacrifice child
Aug 15 12:13:25 homematic-ccu2 user.err kernel: [1866656.390000] Killed process 384 (java) total-vm:204616kB, anon-rss:46344kB, file-rss:72kB
Aug 15 12:13:25 homematic-ccu2 user.info kernel: [1866656.560000] eq3loop: eq3loop_close_slave() ttyS0
Aug 15 12:13:26 homematic-ccu2 user.err rfd: XmlRpcClient error calling event({[methodName:"event",params:{"BidCos-RF_java","MEQ0690196:1","FILLING_LEVEL",32}]}) on http://127.0.0.1:9292/bidcos:
Aug 15 12:13:26 homematic-ccu2 user.err rfd: XmlRpc transport error
Aug 15 12:13:26 homematic-ccu2 user.err rfd: XmlRpcClient error calling event({[methodName:"event",params:{"BidCos-RF_java","NEQ0322390:1","LUX",9757.770000}]}) on http://127.0.0.1:9292/bidcos:
Aug 15 12:13:26 homematic-ccu2 user.err rfd: XmlRpc transport error
Aug 15 12:14:36 homematic-ccu2 user.err rfd: XmlRpcClient error calling event({[methodName:"event",params:{"BidCos-RF_java","LEQ0532520:2","BOOT",true}]}) on http://127.0.0.1:9292/bidcos:
Aug 15 12:14:36 homematic-ccu2 user.err rfd: XmlRpc transport error
Aug 15 12:14:36 homematic-ccu2 user.err rfd: XmlRpcClient error calling event({[methodName:"event",params:{"BidCos-RF_java","LEQ0532520:2","ENERGY_COUNTER",1988.600000}]}) on http://127.0.0.1:9292/bidcos:
Aug 15 12:14:36 homematic-ccu2 user.err rfd: XmlRpc transport error
Aug 15 12:14:36 homematic-ccu2 user.err rfd: XmlRpcClient error calling event({[methodName:"event",params:{"BidCos-RF_java","LEQ0532520:2","POWER",0.000000}],[methodName:"event",params:{"BidCos-RF_java","LEQ0532520:2","CURRENT",0.000000}],[methodName:"event",params:{"BidCos-
Aug 15 12:14:36 homematic-ccu2 user.err rfd: XmlRpc transport error
Aug 15 12:14:51 homematic-ccu2 user.err rfd: XmlRpcClient error calling event({[methodName:"event",params:{"BidCos-RF_java","LEQ0533049:2","BOOT",true}],[methodName:"event",params:{"BidCos-RF_java","LEQ0533049:2","ENERGY_COUNTER",0.800000}],[methodName:"event",params:{"BidCo
Aug 15 12:14:51 homematic-ccu2 user.err rfd: XmlRpc transport error
Aug 15 12:15:51 homematic-ccu2 user.err rfd: XmlRpcClient error calling event({[methodName:"event",params:{"BidCos-RF_java","NEQ0322390:1","LUX",1856.140000}]}) on http://127.0.0.1:9292/bidcos:
Aug 15 12:15:51 homematic-ccu2 user.err rfd: XmlRpc transport error
Aug 15 12:16:53 homematic-ccu2 user.err rfd: XmlRpcClient error calling event({[methodName:"event",params:{"BidCos-RF_java","LEQ0532520:2","BOOT",true}],[methodName:"event",params:{"BidCos-RF_java","LEQ0532520:2","ENERGY_COUNTER",1988.600000}],[methodName:"event",params:{"Bi
Aug 15 12:16:53 homematic-ccu2 user.err rfd: XmlRpc transport error
Aug 15 12:16:53 homematic-ccu2 user.err rfd: XmlRpcClient error calling event({[methodName:"event",params:{"BidCos-RF_java","LEQ0532520:2","VOLTAGE",239.200000}]}) on http://127.0.0.1:9292/bidcos:
Aug 15 12:16:53 homematic-ccu2 user.err rfd: XmlRpc transport error
Aug 15 12:16:53 homematic-ccu2 user.err rfd: XmlRpcClient error calling event({[methodName:"event",params:{"BidCos-RF_java","LEQ0532520:2","FREQUENCY",49.990000}]}) on http://127.0.0.1:9292/bidcos:
Aug 15 12:16:53 homematic-ccu2 user.err rfd: XmlRpc transport error
Aug 15 15:01:47 homematic-ccu2 local0.err ReGaHss: Error: IseESP::ExecError= Execution failed: [-1] 0 0x00 [0] 97 0x61 [1] 0 0x00 [2] 99 0x63 [3] 0 0x00 [4] 100 0x64  [../Platform/DOM/iseESPexec.cpp (11622)]

3x Raspberry PI, 2x DUB-H7, 3x CUL868, 2x CUL433, 1x RFXTRX, 1x Jeelink, Max! 8x Wand- + 14x Heizkörperthermostate + 13x Fensterkontakte, 3x HM Schaltaktoren + Dimmer + Leistungsmessung, 8x HM Rauchmelder, Intertechno, LW12, LED Strip 5050, Foscam, FS20 Dim-Slider FS20DIS, FS20 Bewegungsmelder

chris1284

im notfall würde ich ein backup machen, ccu reset, updatem, backup wieder einspielen

was hats du den bereits mit dem elv support probiert? so sachen wie reboot denke ich schon oder?

zap

#688
Also bei mir hat dieses Update auch gezickt. Musste 2x Booten, erst dann hat alles funktioniert. Trotzdem habe ich gelegentlich Fehlermeldungen im messages File. Scheint wieder mal ein Gurken-Release von EQ-3 zu sein. Habe es nur drauf gelassen wg. Support des neuen Lichtsensors und wegen dem Statuskanal bei Homematic IP.

Spiel doch die alte Version ein und warte, bis ein Update kommt. Hast Du schon mal im Homematic Forum gefragt?

Hier gibts 30 Seiten Lesestoff:
http://homematic-forum.de/forum/viewtopic.php?f=26&t=31892

2xCCU3 mit ca. 100 Aktoren, Sensoren
Entwicklung: FHEM auf Proxmox Debian VM
Produktiv inzwischen auf Home Assistant gewechselt.
Maintainer: HMCCU, (Fully, AndroidDB)

Achiim

Hallo Jungs,

danke für die Tipps. Ich habe die Variante von chris1284 ausprobiert und war erfolgreich. Die Hotline hatte mir das so nicht empfohlen, sondern den Cache des Browsers leeren lassen, das Anti-Virenprogramm abschalten lassen.... Alles leider ohne Erfolg.

Nach dem Reset der CCU war der Firmwarestand schon aktuell auf der Version 2.21.10 und ich habe den Backup eingespielt, um meine individuellen Definitionen wieder herzustellen.
3x Raspberry PI, 2x DUB-H7, 3x CUL868, 2x CUL433, 1x RFXTRX, 1x Jeelink, Max! 8x Wand- + 14x Heizkörperthermostate + 13x Fensterkontakte, 3x HM Schaltaktoren + Dimmer + Leistungsmessung, 8x HM Rauchmelder, Intertechno, LW12, LED Strip 5050, Foscam, FS20 Dim-Slider FS20DIS, FS20 Bewegungsmelder