Ursache für erhöhten RAM bedarf finden

Begonnen von WhyTea, 20 Juli 2023, 15:11:23

Vorheriges Thema - Nächstes Thema

WhyTea

Hallo

Ich habe seit mitte März das Problem das meine FHEM Installation einen erhöhten evtl. sogar unendlichen RAM Bedarf hat.
Zunächst hatte ich HMCCU in verdacht da ich ca. zu diesem Zeitpunkt mit der Umstellung von CUL_HM auf HMCCU angefangen habe.
Siehe hier: https://forum.fhem.de/index.php?topic=133875.0

Dies scheint sich jedoch nicht zu bestätigen. Daher stellt sich mir nun die Frage wie ich analysieren kann was den RAM belegt.

Ich betreibe FHEM in einer VM. Dieser habe ich aktuell 2 CPUs und 4,5 GB RAM zugewiesen.
Bis mitte März benötigte die VM lediglich 1 GB RAM wovon ca. 500MB benutzt wurden.

Ein frisch gestarteter Fhem belegt ca. 600MB.
Innerhalb von ca. 10 Tagen, in den der RAM-Bedarf linear um ca. 400MB pro Tag an wächst, wird der gesamte verfügbare RAM belegt. Das System beginnt zunächst zu swappen bis schließlich auch der swap voll ist und der Perl Prozess beendet und neu gestartet wird.

Seit März habe ich lediglich an drei Themen gearbeitet.
- von CUL_HM auf HMCCU umgestellt
- shelly durch mqtt2 ersetzt
- einige notify durch DOIF ersetzt

Ich hoffe ihr könnt mich bei der Ursachenforschung unterstützen!

Gruß und Danke im voraus.

thgorjup

Hast du mal mit top oder htop geschaut, was am meisten RAM belegt?
Evtl werden auch Prozesse mehrfach gestartet und kommen nicht zum Ende. Also mit ps -auxf mal schauen was da los ist.
FHEM auf Ubuntu 18.04LTS, 2x nanoCUL, JeeLink, nanoPIR, MQTT, ESP-Easy, HUE.
Sensoren+Aktoren: HM, IT, Lacrosse, Multitrade-PIR, VU+, Somfy

WhyTea

Moin.
Den größten Teil belegt perl/fhem. Insgesamgt fünf Prozesse.
Einmal der Hauptprozess und vier Subprozesse (das sind die drei RPC Server für HMCCU und ich denke der vierte ist der MQTT Server).

Weitere Auffälligkeiten sehe ich nicht.

Schön zu sehen auch in der angehängten HTOP Übersicht.

root@fhem:~# ps -auxf
USER         PID %CPU %MEM    VSZ   RSS TTY      STAT START   TIME COMMAND
root           2  0.0  0.0      0     0 ?        S    Jul21   0:00 [kthreadd]
root           3  0.0  0.0      0     0 ?        I<   Jul21   0:00  \_ [rcu_gp]
root           4  0.0  0.0      0     0 ?        I<   Jul21   0:00  \_ [rcu_par_gp]
root           5  0.0  0.0      0     0 ?        I<   Jul21   0:00  \_ [slub_flushwq]
root           6  0.0  0.0      0     0 ?        I<   Jul21   0:00  \_ [netns]
root          10  0.0  0.0      0     0 ?        I<   Jul21   0:00  \_ [mm_percpu_wq]
root          11  0.0  0.0      0     0 ?        I    Jul21   0:00  \_ [rcu_tasks_kthread]
root          12  0.0  0.0      0     0 ?        I    Jul21   0:00  \_ [rcu_tasks_rude_kthread]
root          13  0.0  0.0      0     0 ?        I    Jul21   0:00  \_ [rcu_tasks_trace_kthread]
root          14  0.0  0.0      0     0 ?        S    Jul21   0:02  \_ [ksoftirqd/0]
root          15  0.0  0.0      0     0 ?        I    Jul21   1:08  \_ [rcu_preempt]
root          16  0.0  0.0      0     0 ?        S    Jul21   0:02  \_ [migration/0]
root          18  0.0  0.0      0     0 ?        S    Jul21   0:00  \_ [cpuhp/0]
root          19  0.0  0.0      0     0 ?        S    Jul21   0:00  \_ [cpuhp/1]
root          20  0.0  0.0      0     0 ?        S    Jul21   0:02  \_ [migration/1]
root          21  0.0  0.0      0     0 ?        S    Jul21   0:01  \_ [ksoftirqd/1]
root          23  0.0  0.0      0     0 ?        I<   Jul21   0:00  \_ [kworker/1:0H-events_highpri]
root          26  0.0  0.0      0     0 ?        S    Jul21   0:00  \_ [kdevtmpfs]
root          27  0.0  0.0      0     0 ?        I<   Jul21   0:00  \_ [inet_frag_wq]
root          28  0.0  0.0      0     0 ?        S    Jul21   0:00  \_ [kauditd]
root          29  0.0  0.0      0     0 ?        S    Jul21   0:00  \_ [khungtaskd]
root          30  0.0  0.0      0     0 ?        S    Jul21   0:00  \_ [oom_reaper]
root          32  0.0  0.0      0     0 ?        I<   Jul21   0:00  \_ [writeback]
root          33  0.0  0.0      0     0 ?        S    Jul21   0:12  \_ [kcompactd0]
root          34  0.0  0.0      0     0 ?        SN   Jul21   0:00  \_ [ksmd]
root          35  0.0  0.0      0     0 ?        SN   Jul21   1:09  \_ [khugepaged]
root          36  0.0  0.0      0     0 ?        I<   Jul21   0:00  \_ [kintegrityd]
root          37  0.0  0.0      0     0 ?        I<   Jul21   0:00  \_ [kblockd]
root          38  0.0  0.0      0     0 ?        I<   Jul21   0:00  \_ [blkcg_punt_bio]
root          39  0.0  0.0      0     0 ?        I<   Jul21   0:00  \_ [tpm_dev_wq]
root          40  0.0  0.0      0     0 ?        I<   Jul21   0:00  \_ [edac-poller]
root          41  0.0  0.0      0     0 ?        I<   Jul21   0:00  \_ [devfreq_wq]
root          43  0.0  0.0      0     0 ?        I<   Jul21   0:00  \_ [kworker/0:1H-kblockd]
root          44  0.0  0.0      0     0 ?        S    Jul21   0:00  \_ [kswapd0]
root          50  0.0  0.0      0     0 ?        I<   Jul21   0:00  \_ [kthrotld]
root          52  0.0  0.0      0     0 ?        I<   Jul21   0:00  \_ [acpi_thermal_pm]
root          53  0.0  0.0      0     0 ?        S    Jul21   0:00  \_ [xenbus_probe]
root          54  0.0  0.0      0     0 ?        I<   Jul21   0:00  \_ [mld]
root          55  0.0  0.0      0     0 ?        I<   Jul21   0:00  \_ [kworker/1:1H-kblockd]
root          56  0.0  0.0      0     0 ?        I<   Jul21   0:00  \_ [ipv6_addrconf]
root          61  0.0  0.0      0     0 ?        I<   Jul21   0:00  \_ [kstrp]
root          66  0.0  0.0      0     0 ?        I<   Jul21   0:00  \_ [zswap-shrink]
root          67  0.0  0.0      0     0 ?        I<   Jul21   0:00  \_ [kworker/u5:0]
root         139  0.0  0.0      0     0 ?        I<   Jul21   0:00  \_ [ata_sff]
root         140  0.0  0.0      0     0 ?        S    Jul21   0:00  \_ [scsi_eh_0]
root         141  0.0  0.0      0     0 ?        I<   Jul21   0:00  \_ [scsi_tmf_0]
root         142  0.0  0.0      0     0 ?        S    Jul21   0:00  \_ [scsi_eh_1]
root         143  0.0  0.0      0     0 ?        I<   Jul21   0:00  \_ [scsi_tmf_1]
root         145  0.0  0.0      0     0 ?        S    Jul21   0:00  \_ [scsi_eh_2]
root         146  0.0  0.0      0     0 ?        I<   Jul21   0:00  \_ [scsi_tmf_2]
root         147  0.0  0.0      0     0 ?        S    Jul21   0:00  \_ [scsi_eh_3]
root         148  0.0  0.0      0     0 ?        I<   Jul21   0:00  \_ [scsi_tmf_3]
root         149  0.0  0.0      0     0 ?        S    Jul21   0:00  \_ [scsi_eh_4]
root         150  0.0  0.0      0     0 ?        I<   Jul21   0:00  \_ [scsi_tmf_4]
root         151  0.0  0.0      0     0 ?        S    Jul21   0:00  \_ [scsi_eh_5]
root         152  0.0  0.0      0     0 ?        I<   Jul21   0:00  \_ [scsi_tmf_5]
root         153  0.0  0.0      0     0 ?        S    Jul21   0:00  \_ [scsi_eh_6]
root         154  0.0  0.0      0     0 ?        I<   Jul21   0:00  \_ [scsi_tmf_6]
root         155  0.0  0.0      0     0 ?        S    Jul21   0:00  \_ [scsi_eh_7]
root         156  0.0  0.0      0     0 ?        I<   Jul21   0:00  \_ [scsi_tmf_7]
root         165  0.0  0.0      0     0 ?        I<   Jul21   0:00  \_ [kworker/0:2H-kblockd]
root         196  0.0  0.0      0     0 ?        S    Jul21   0:00  \_ [jbd2/vda1-8]
root         197  0.0  0.0      0     0 ?        I<   Jul21   0:00  \_ [ext4-rsv-conver]
root         344  0.0  0.0      0     0 ?        I<   Jul21   0:00  \_ [cryptd]
root      157699  0.0  0.0      0     0 ?        R    06:17   0:02  \_ [kworker/1:1+events]
root      157700  0.0  0.0      0     0 ?        I    06:17   0:00  \_ [kworker/0:0]
root      158012  0.0  0.0      0     0 ?        I    06:25   0:00  \_ [kworker/u4:1-flush-254:0]
root      158017  0.0  0.0      0     0 ?        I    06:25   0:00  \_ [kworker/1:0]
root      162116  0.1  0.0      0     0 ?        I    08:15   0:02  \_ [kworker/0:1-events]
root      162191  0.0  0.0      0     0 ?        I    08:17   0:00  \_ [kworker/u4:2-events_unbound]
root      163012  0.0  0.0      0     0 ?        I    08:38   0:00  \_ [kworker/u4:0-events_unbound]
root      163015  0.0  0.0      0     0 ?        I    08:38   0:00  \_ [kworker/1:2-cgroup_destroy]
root           1  0.0  0.2 167620 12048 ?        Ss   Jul21   0:02 /sbin/init
root         234  0.0  0.2  32904 11408 ?        Ss   Jul21   0:01 /lib/systemd/systemd-journald
root         261  0.0  0.1  25332  5764 ?        Ss   Jul21   0:00 /lib/systemd/systemd-udevd
avahi        470  0.0  0.1   8624  4736 ?        Ss   Jul21   3:55 avahi-daemon: running [fhem.local]
avahi        488  0.0  0.0   8096   364 ?        S    Jul21   0:00  \_ avahi-daemon: chroot helper
root         471  0.0  0.0   6608  2628 ?        Ss   Jul21   0:00 /usr/sbin/cron -f
message+     472  0.0  0.1   9124  4952 ?        Ss   Jul21   0:00 /usr/bin/dbus-daemon --system --address=systemd: --nofork --nopidf
root         477  0.0  0.1 221772  6132 ?        Ssl  Jul21   0:00 /usr/sbin/rsyslogd -n -iNONE
Debian-+     478  0.0  0.2  24172 13312 ?        Ss   Jul21   2:59 /usr/sbin/snmpd -LOw -u Debian-snmp -g Debian-snmp -I -smux mteTri
root         480  0.0  0.1  16952  8020 ?        Ss   Jul21   0:00 /lib/systemd/systemd-logind
ntpsec       487  0.0  0.2  11016 11000 ?        SLs  Jul21   0:25 /usr/sbin/ntpd -p /run/ntpd.pid -c /etc/ntpsec/ntp.conf -g -N -u n
root         490  0.0  0.0   5872  1032 tty1     Ss+  Jul21   0:00 /sbin/agetty -o -p -- \u --noclear - linux
root         493  0.0  0.1  15400  8740 ?        Ss   Jul21   0:00 sshd: /usr/sbin/sshd -D [listener] 0 of 10-100 startups
root      163009  0.0  0.2  17956 11196 ?        Ss   08:38   0:00  \_ sshd: root@pts/0
root      163036  0.0  0.1   8232  4968 pts/0    Ss   08:38   0:00      \_ -bash
root      163137  100  0.1  12388  5500 pts/0    R+   08:40   0:00          \_ ps -auxf
fhem         506  6.3 15.0 686456 678504 ?       S    Jul21 273:17 /usr/bin/perl fhem.pl fhem.cfg
fhem         528  0.0  1.6  85340 73740 ?        S    Jul21   3:28  \_ /usr/bin/perl fhem.pl fhem.cfg
fhem         667  0.0  7.7 366220 349732 ?       S    Jul21   1:54  \_ /usr/bin/perl fhem.pl fhem.cfg
fhem         668  0.1  7.8 370144 353556 ?       S    Jul21   6:21  \_ /usr/bin/perl fhem.pl fhem.cfg
fhem         669  0.0  7.5 359768 343232 ?       S    Jul21   2:52  \_ /usr/bin/perl fhem.pl fhem.cfg
fhem         512  0.3  3.1 11834500 140576 ?     Ssl  Jul21  13:44 hb-service
fhem         568  0.1  3.3 1364068 149540 ?      Sl   Jul21   4:20  \_ homebridge
root      163013  0.0  0.2  18904 10672 ?        Ss   08:38   0:00 /lib/systemd/systemd --user
root      163016  0.0  0.0 168676  3036 ?        S    08:38   0:00  \_ (sd-pam)

thgorjup

Aber warum wurde fhem 5x gestartet?
Bei mir nur ein mal.
Hast du einen cronjob oder irgend etwas, was fhem immer wieder zusätzlich startet? Prüf das mal. Das schaukelt sich hoch...
FHEM auf Ubuntu 18.04LTS, 2x nanoCUL, JeeLink, nanoPIR, MQTT, ESP-Easy, HUE.
Sensoren+Aktoren: HM, IT, Lacrosse, Multitrade-PIR, VU+, Somfy

Wernieman

Das hat er doch beantwortet:
ZitatEinmal der Hauptprozess und vier Subprozesse (das sind die drei RPC Server für HMCCU und ich denke der vierte ist der MQTT Server).

Das er bei Dir nur 1x bedeutet nur, das DU keine "non blocking" Module verwendest ...
- Bitte um Input für Output
- When there is a Shell, there is a Way
- Wann war Dein letztes Backup?

Wie man Fragen stellt: https://tty1.net/smart-questions_de.html

Beta-User

#5 ist allerdings nicht MQTT2_SERVER, das Modul forkt afaik nicht. Andere Kandidaten: PRESENCE (!), DbLog, mpd, ....?!?
Ist aber im Detail nicht soooo wichtig (ausgenommen (nicht modifiziertes) PRESENCE, wenn man zu viele Pinger hat!)
Server: HP-elitedesk@Debian 12, aktuelles FHEM@ConfigDB | CUL_HM (VCCU) | MQTT2: ZigBee2mqtt, MiLight@ESP-GW, BT@OpenMQTTGw | ZWave | SIGNALduino | MapleCUN | RHASSPY
svn: u.a Weekday-&RandomTimer, Twilight,  div. attrTemplate-files, MySensors

WhyTea

Zitat von: Beta-User am 26 Juli 2023, 12:08:16#5 ist allerdings nicht MQTT2_SERVER, das Modul forkt afaik nicht. Andere Kandidaten: PRESENCE (!), DbLog, mpd, ....?!?
Ist aber im Detail nicht soooo wichtig (ausgenommen (nicht modifiziertes) PRESENCE, wenn man zu viele Pinger hat!)

Ja, Dblog benutze ich auch. Dann wird der vierte Fork das sein. Danke für den Hinweis. PRESENCE nutze ich ebenfalls aber diese Forks sind nur kurz da und wieder weg.

WhyTea

So ich bin wieder einen Schritt weiter aber verstehe das Verhalten dennoch nicht.

Was habe ich gamacht:
Ich habe Fhem beendet den Code etwas sortiert (nicht verändert sondern ledig die Reihenfolge verändert) und sämtliche nicht benötigten Bestandteile auskommentiert.

Beim ersten Start waren lediglich Fhem Basiskomponenten sowie DBLog und HMCCU aktiv.
-Der Fehler trat nicht auf.

Anschließend habe ich schrittweise alle Komponenten wieder aktiviert und immer wieder kontrolliert ob der Fehler auftritt.
Aktuell habe ich alle Komponenten wieder aktiv und der RAM Bedarf ist seit 16 Stunden konstant.

Ich verstehe nur nicht warum. Das einzige was mir aufgefallen ist, ist dass durch das entfernen und wieder einbinden der Komponenten deren Status nachvollziehbarerweise verloren ging.

Ich bin mir nicht sicher ob fehlerhafte Statusinformationen / Readings ein solches Verhalten verursachen können.

Gibt es eigentlich eine andere Möglichkeit den Status aller Komponenten zurück zu setzen ohne diese zu entfernen und wieder anzulegen?

Wernieman

Da fällt mir ein .. war nicht MQTT mit einer bestimmten Einstellung bekannt dafür, große Statusfiles zu schreiben?

Könntest Du uns ein  List Deines MQTT geben?
- Bitte um Input für Output
- When there is a Shell, there is a Way
- Wann war Dein letztes Backup?

Wie man Fragen stellt: https://tty1.net/smart-questions_de.html

schwatter

Das war, mein ich, wenn beim <MQTT2_SERVER> das attr respectRetain auf 1 steht.
Dieses auf 0 setzten und dann noch ein "set <MQTT2_SERVER> clearRetain"

Gruß schwatter

WhyTea

#10
hier das gewünschte list
Internals:
   CFGFN      /var/fhem/FHEM/mqtt.cfg
   CONNECTS   13
   Clients    :MQTT2_DEVICE:MQTT_GENERIC_BRIDGE:
   ClientsKeepOrder 1
   DEF        1883 global
   FD         11
   FUUID      60c70a08-f33f-a5a6-14e8-40a9311d75552b74
   NAME       MQTT2_FHEM_Server
   NR         277
   PORT       1883
   STATE      Initialized
   TYPE       MQTT2_SERVER
   eventCount 13
   MatchList:
     1:MQTT2_DEVICE ^.
     2:MQTT_GENERIC_BRIDGE ^.
   READINGS:
     2023-08-14 21:33:58   nrclients       13
     2023-08-14 21:33:53   state           Initialized
   clients:
     MQTT2_FHEM_Server_192.168.6.138_26529 1
     MQTT2_FHEM_Server_192.168.6.139_12900 1
     MQTT2_FHEM_Server_192.168.6.140_17118 1
     MQTT2_FHEM_Server_192.168.6.141_3167 1
     MQTT2_FHEM_Server_192.168.6.142_2969 1
     MQTT2_FHEM_Server_192.168.6.143_25246 1
     MQTT2_FHEM_Server_192.168.6.145_29945 1
     MQTT2_FHEM_Server_192.168.6.146_2824 1
     MQTT2_FHEM_Server_192.168.6.147_12467 1
     MQTT2_FHEM_Server_192.168.6.148_6819 1
     MQTT2_FHEM_Server_192.168.6.149_32302 1
     MQTT2_FHEM_Server_192.168.6.153_22818 1
     MQTT2_FHEM_Server_192.168.6.154_10045 1
   retain:
Attributes:
   DbLogExclude .*
   autocreate simple
   icon       mqtt_broker
   room       Zentralsysteme->Gateways
   verbose    2

Aber wie gesagt aktuell ist das Problem weg und ich weis nicht wirklich warum da ich die Konfiguration nicht verändert habe.
Sondern lediglich alles auskommentiert und später wieder reingenommen habe.

LuckyDay

ist nur ein Bsp.
aus dem anderen Beitrag von dir
Zitatfhem.pl            27498 2023-04-30 08:50:41Z rudolfkoenig

aktuell wäre
fhem.pl               27750 2023-07-11 18:30:38Z rudolfkoenig
hat das Gründe bei dir?

WhyTea

@LuckyDay
Leider weis ich spontan nicht aus welchem Betrag Du das hast aber zwischenzeitlich habe ich FHEM aktualisiert.

Ausgabe Version:
Latest Revision: 27833

File                Rev   Last Change

fhem.pl             27750 2023-07-11 18:30:38Z rudolfkoenig
60_allergy.pm       26833 2022-12-10 23:32:26Z moises
96_allowed.pm       26004 2022-04-29 19:06:05Z rudolfkoenig
90_at.pm            25248 2021-11-21 10:29:01Z rudolfkoenig
98_autocreate.pm    23727 2021-02-12 20:31:37Z rudolfkoenig
No Id found for 99_Batterycheck.pm
57_Calendar.pm      26344 2022-08-22 15:06:57Z neubert
93_DbLog.pm         27617 2023-05-25 19:56:44Z DS_Starter
93_DbRep.pm         27746 2023-07-10 22:18:10Z DS_Starter
98_DOIF.pm          27740 2023-07-10 09:31:11Z Damian
98_dummy.pm         25606 2022-02-01 10:43:57Z rudolfkoenig
70_ENIGMA2.pm       18995 2019-03-22 20:09:53Z loredo
91_eventTypes.pm    23471 2021-01-04 19:24:21Z rudolfkoenig
01_FHEMWEB.pm       27823 2023-08-07 15:28:24Z rudolfkoenig
92_FileLog.pm       27751 2023-07-11 18:43:36Z rudolfkoenig
89_FULLY.pm         25516 2022-01-20 16:00:19Z zap
98_help.pm          27491 2023-04-27 17:22:30Z betateilchen
88_HMCCU.pm         27641 2023-06-01 17:52:19Z zap
88_HMCCUCHN.pm      26565 2022-10-20 12:24:12Z zap
88_HMCCUDEV.pm      26565 2022-10-20 12:24:12Z zap
88_HMCCURPCPROC.pm  26565 2022-10-20 12:24:12Z zap
98_HTTPMOD.pm       27714 2023-06-29 15:30:07Z StefanStrobel
02_HTTPSRV.pm       20110 2019-09-05 17:30:20Z neubert
30_HUEBridge.pm     26438 2022-09-22 06:40:39Z justme1968
31_HUEDevice.pm     26730 2022-11-21 17:28:03Z justme1968
98_IF.pm            12944 2017-01-03 12:56:17Z Damian
36_JeeLink.pm       14707 2017-07-13 18:08:33Z justme1968
98_JsonList2.pm     26701 2022-11-14 09:51:02Z rudolfkoenig
36_LaCrosse.pm      25537 2022-01-21 17:54:29Z HCS
82_LGTV_WebOS.pm    27575 2023-05-16 02:31:41Z CoolTux
10_MQTT2_DEVICE.pm  27674 2023-06-12 08:33:06Z rudolfkoenig
00_MQTT2_SERVER.pm  27654 2023-06-04 15:20:06Z rudolfkoenig
75_msgConfig.pm     26965 2023-01-05 06:32:17Z CoolTux
91_notify.pm        25888 2022-03-27 10:22:58Z rudolfkoenig
73_PRESENCE.pm      20782 2019-12-19 10:51:06Z markusbloch
59_PROPLANTA.pm     23449 2021-01-01 09:56:49Z tupol
70_Pushover.pm      27466 2023-04-20 07:51:19Z rudolfkoenig
33_readingsGroup.pm 23844 2021-02-27 19:43:24Z justme1968
91_sequence.pm      27765 2023-07-14 15:28:29Z rudolfkoenig
98_serviced.pm      27227 2023-02-14 20:00:33Z DeeSPe
39_siri.pm          24071 2021-03-24 08:02:11Z justme1968
98_structure.pm     27209 2023-02-12 14:45:51Z rudolfkoenig
99_SUNRISE_EL.pm    24249 2021-04-14 05:45:49Z rudolfkoenig
98_SVG.pm           27261 2023-02-21 09:34:09Z rudolfkoenig
42_SYSMON.pm        26358 2022-08-29 21:11:26Z hexenmeister
32_SYSSTAT.pm       24779 2021-07-20 09:21:08Z justme1968
98_telnet.pm        25754 2022-02-27 16:49:52Z rudolfkoenig
74_Unifi.pm         23500 2021-01-09 15:14:50Z wuehler
74_UnifiClient.pm   19989 2019-08-12 18:25:21Z wuehler
99_Utils.pm         24128 2021-04-02 16:29:11Z rudolfkoenig
77_UWZ.pm           25306 2021-12-06 05:27:48Z CoolTux
98_version.pm       26611 2022-10-28 16:32:29Z betateilchen
91_watchdog.pm      26108 2022-06-01 08:25:03Z rudolfkoenig
98_WOL.pm           24102 2021-03-27 20:49:59Z KernSani
71_YAMAHA_AVR.pm    26846 2022-12-12 20:58:51Z Beta-User

AttrTemplate.pm     27145 2023-01-29 11:48:19Z rudolfkoenig
Blocking.pm         23268 2020-12-01 11:48:48Z rudolfkoenig
Color.pm            20813 2019-12-22 18:42:10Z justme1968
DevIo.pm            27247 2023-02-18 21:22:32Z rudolfkoenig
GPUtils.pm          19666 2019-06-20 11:17:29Z CoolTux
HMCCUConf.pm        26565 2022-10-20 12:24:12Z zap
HttpUtils.pm        27406 2023-04-07 16:52:19Z rudolfkoenig
Meta.pm             26889 2022-12-23 15:04:11Z CoolTux
msgSchema.pm        26965 2023-01-05 06:32:17Z CoolTux
myUtilsTemplate.pm   7570 2015-01-14 18:31:44Z rudolfkoenig
RTypes.pm           10476 2016-01-12 21:03:33Z borisneubert
SetExtensions.pm    25286 2021-12-03 10:16:56Z rudolfkoenig
SubProcess.pm       14334 2017-05-20 23:11:06Z neubert
TcpServerUtils.pm   25866 2022-03-21 09:01:16Z rudolfkoenig

doif.js                    24438 2021-05-14 18:08:18Z Ellert
fhemweb.js                 27117 2023-01-25 09:13:32Z rudolfkoenig
fhemweb_readingsGroup.js   15189 2017-10-03 17:53:27Z justme1968

Gruß
Daniel

WhyTea

Zitat von: WhyTea am 15 August 2023, 12:56:47So ich bin wieder einen Schritt weiter aber verstehe das Verhalten dennoch nicht.

Was habe ich gamacht:
Ich habe Fhem beendet den Code etwas sortiert (nicht verändert sondern ledig die Reihenfolge verändert) und sämtliche nicht benötigten Bestandteile auskommentiert.

Beim ersten Start waren lediglich Fhem Basiskomponenten sowie DBLog und HMCCU aktiv.
-Der Fehler trat nicht auf.

Anschließend habe ich schrittweise alle Komponenten wieder aktiviert und immer wieder kontrolliert ob der Fehler auftritt.
Aktuell habe ich alle Komponenten wieder aktiv und der RAM Bedarf ist seit 16 Stunden konstant.

Ich verstehe nur nicht warum. Das einzige was mir aufgefallen ist, ist dass durch das entfernen und wieder einbinden der Komponenten deren Status nachvollziehbarerweise verloren ging.

Ich bin mir nicht sicher ob fehlerhafte Statusinformationen / Readings ein solches Verhalten verursachen können.

Gibt es eigentlich eine andere Möglichkeit den Status aller Komponenten zurück zu setzen ohne diese zu entfernen und wieder anzulegen?

Das System läuft inzischen seit 5 Tagen ohne Probleme. Der RAM-Bedarf bleibt konstant bei knapp 1 GB.

Da ich zuvor schon alle verfügbaren Updates installiert habe und die Konfiguration nicht verändert sondern lediglich größten Teils auskommentiert und schrittweise wieder hinzugefügt habe verstehe ich nach wie vor nicht was das Problem verursacht hat. Ich tippe immernoch auf fehlerhafte Daten einer Komponente.

Daher hoffe ich auf eine Antwort ob es eine Möglichkeit gibt alle gespeicherten Informationen / Zustände der Komponenten zurückzusetzen ohne die Komponenten zu entfernen?