Dbus Fehlermeldung im Log (Restart bei Aufruf eines Raumes konnte ich finden)

Begonnen von Master_Nick, 20 Juli 2019, 23:12:23

Vorheriges Thema - Nächstes Thema

Master_Nick

Mahlzeit,

ich hab seit heut morgen eine seltsame Meldung im Log:

Zitat2019.07.20 23:08:29 0: Server started with 181 defined entities (fhem.pl:19805/2019-07-09 perl:5.028001 os:linux user:fhem pid:6235)
dbus[6623]: arguments to dbus_connection_get_object_path_data() were incorrect, assertion "connection != NULL" failed in file ../../../dbus/dbus-connection.c line 5905.
This is normally a bug in some application using the D-Bus library.

  D-Bus not built with -rdynamic so unable to print a backtrace
Aborted (core dumped)
dbus[6634]: arguments to dbus_connection_get_object_path_data() were incorrect, assertion "connection != NULL" failed in file ../../../dbus/dbus-connection.c line 5905.
This is normally a bug in some application using the D-Bus library.

  D-Bus not built with -rdynamic so unable to print a backtrace
Aborted (core dumped)

Mein FHEM läuft mittels des offiziellen Docker Images.
Bin gerade etwas ratlos :-D


*Edit*
Hatte vorhin noch einen repdoduzierbaren FHEM neustart beim öffnen eines Raumes -> war aber wohl die Hue Bridge.
Rancher K8s Cluster mit nanoCUL (a-culfw) | IObroker | IT(V1&V3), IT-PIR, THGR122NX |Co² | alexa-fhem | WOL | NFC | Harmony UltimateHub | Anwesenheitserkennnung | Roomba | 10" Touch mit Node-Red | SonOff S20 | SonOff Touch | SonOff Dual | Rolladen | Und ganz viel anderes tolles Gerödel.... ;-)

Master_Nick

#1
Soa aktuell scheint es geholfen zu haben 30_HUEBridge.pm mal raus zu nehmen.
Ob es aber nun die Bridge oder arbeitende Devices sind... mal sehen.

Ok Fehler noch da - aber ich komm in den Raum.

*EDIT* Der Dbus Fehler hat wohl nichts mit dem Absturz zu tun - der passiert direkt hier nach:

Can't use an undefined value as an ARRAY reference at ./FHEM/30_HUEBridge.pm line 934.


Der Dbus Fehler ist also noch da...
Rancher K8s Cluster mit nanoCUL (a-culfw) | IObroker | IT(V1&V3), IT-PIR, THGR122NX |Co² | alexa-fhem | WOL | NFC | Harmony UltimateHub | Anwesenheitserkennnung | Roomba | 10" Touch mit Node-Red | SonOff S20 | SonOff Touch | SonOff Dual | Rolladen | Und ganz viel anderes tolles Gerödel.... ;-)

Master_Nick

Es scheint ich habe zumindest den Auslöser eventuell gefunden - thermald

mittels ps auxwww | grep 'dbus' fand ich thermald der zumindest als Argument dbus erwähnt.
Dann habe ich den auf dem Pi mal testweise gekillt und FHEM neu gestartet -> Zack meldung weg.

Das gleiche wollte ich dann auf dem Ubuntu LTS server testen -> der stellt aber den thermald sofort wieder her ;-)
Meldung bleibt daher im Log erhalten.

Aber interessant, dass es zumindest nach diesen Erkenntnissen nicht eine Modul ist, dass das auslöst.

Rancher K8s Cluster mit nanoCUL (a-culfw) | IObroker | IT(V1&V3), IT-PIR, THGR122NX |Co² | alexa-fhem | WOL | NFC | Harmony UltimateHub | Anwesenheitserkennnung | Roomba | 10" Touch mit Node-Red | SonOff S20 | SonOff Touch | SonOff Dual | Rolladen | Und ganz viel anderes tolles Gerödel.... ;-)

Master_Nick

So und wie immer... ist man am Ende ganz schlau!  8)

Eine nicht sauber installierte oder von fehlenden Configs geplagte Installation von Bluez scheint der Fehler gewesen zu sein.
Das arbeitet mit Dbus eng zusammen.
Rancher K8s Cluster mit nanoCUL (a-culfw) | IObroker | IT(V1&V3), IT-PIR, THGR122NX |Co² | alexa-fhem | WOL | NFC | Harmony UltimateHub | Anwesenheitserkennnung | Roomba | 10" Touch mit Node-Red | SonOff S20 | SonOff Touch | SonOff Dual | Rolladen | Und ganz viel anderes tolles Gerödel.... ;-)