Raspberry Buster - RPI3B - Out of memory

Begonnen von bismosa, 28 März 2021, 09:19:41

Vorheriges Thema - Nächstes Thema

bismosa

Hallo!

Ich weiß...es gibt schon mehrere Threads dazu. Leider bin ich dadurch noch nicht weiter gekommen.

Ich habe ende letzten Jahres meinen Raspberry neu aufgesetzt um auf einen Raspi4 zu wechseln.
Das hat aus unterschiedlichen gründen nicht geklappt und ich nutze aktuell weiterhin meinen Raspberry 3B.

Meistens passiert der Absturz nach ein paar Tagen Laufzeit sobald ich einen Raum öffne bei dem es mehrere Plots gibt.
Ich hatte einige Änderungen an meinem System vorgenommen. U.a. nutze ich das inoffzielle GPIO4 das mittlerweile nonblocking arbeitet. Beim Nonblocking wird fhem ja dupliziert und hat soimit eine höhere Speicherauslastung. Vermutlich passiert das schon dadurch.

Um die Ursache der Abstürze einzugrenzen wollte ich mittels "fhemdebug memusage" versuchen herauszufinden, was wie viel Speicher verwendet.
Dieses Befehl ist nicht mehr vorhanden. In der letzten Revision wurde dies entfernt. Warum?

Ich habe schon "attr global blockingCallMax 1" gesetzt. Dadurch wurde es nur minimal besser.

Nach einem Neustart verbrauch FHEM ca. 140MB Speicher.

So sieht es bei einem Absturz in kern.log aus:

Mar 27 21:37:41 server kernel: [826441.169047] sshd invoked oom-killer: gfp_mask=0x100cca(GFP_HIGHUSER_MOVABLE), order=0, oom_score_adj=0
Mar 27 21:37:41 server kernel: [826441.169069] CPU: 1 PID: 26182 Comm: sshd Tainted: G         C        5.10.17-v7+ #1403
Mar 27 21:37:41 server kernel: [826441.169076] Hardware name: BCM2835
Mar 27 21:37:41 server kernel: [826441.169082] Backtrace:
Mar 27 21:37:41 server kernel: [826441.169105] [<809e477c>] (dump_backtrace) from [<809e4b0c>] (show_stack+0x20/0x24)
Mar 27 21:37:41 server kernel: [826441.169113]  r7:ffffffff r6:00000000 r5:60000113 r4:80ee5d54
Mar 27 21:37:41 server kernel: [826441.169123] [<809e4aec>] (show_stack) from [<809e8cb8>] (dump_stack+0xcc/0xf8)
Mar 27 21:37:41 server kernel: [826441.169131] [<809e8bec>] (dump_stack) from [<809e6fa8>] (dump_header+0x64/0x208)
Mar 27 21:37:41 server kernel: [826441.169139]  r10:80e05144 r9:00100cca r8:00000000 r7:80c13384 r6:836aa100 r5:853eae80
Mar 27 21:37:41 server kernel: [826441.169144]  r4:92225d50 r3:c6f805e5
Mar 27 21:37:41 server kernel: [826441.169155] [<809e6f44>] (dump_header) from [<802b18b0>] (oom_kill_process+0x1b4/0x1c0)
Mar 27 21:37:41 server kernel: [826441.169162]  r7:80c13384 r6:92225d50 r5:853eb400 r4:853eae80
Mar 27 21:37:41 server kernel: [826441.169171] [<802b16fc>] (oom_kill_process) from [<802b2428>] (out_of_memory+0x2b8/0x390)
Mar 27 21:37:41 server kernel: [826441.169178]  r7:80e083c0 r6:80e05008 r5:853eae80 r4:92225d50
Mar 27 21:37:41 server kernel: [826441.169191] [<802b2170>] (out_of_memory) from [<803018dc>] (__alloc_pages_nodemask+0x7ec/0x1184)
Mar 27 21:37:41 server kernel: [826441.169198]  r7:80e05784 r6:00000000 r5:ffffe000 r4:00400140
Mar 27 21:37:41 server kernel: [826441.169207] [<803010f0>] (__alloc_pages_nodemask) from [<802abde0>] (pagecache_get_page+0x10c/0x34c)
Mar 27 21:37:41 server kernel: [826441.169215]  r10:80f316db r9:00000001 r8:80e059e4 r7:87690848 r6:00100cca r5:00000044
Mar 27 21:37:41 server kernel: [826441.169220]  r4:f2700003
Mar 27 21:37:41 server kernel: [826441.169227] [<802abcd4>] (pagecache_get_page) from [<802add40>] (filemap_fault+0x638/0xb20)
Mar 27 21:37:41 server kernel: [826441.169235]  r10:80e05008 r9:92225ec8 r8:00000040 r7:85b33180 r6:92225ec8 r5:85b33180
Mar 27 21:37:41 server kernel: [826441.169239]  r4:87690738
Mar 27 21:37:41 server kernel: [826441.169250] [<802ad708>] (filemap_fault) from [<80427a9c>] (ext4_filemap_fault+0x38/0x4c)
Mar 27 21:37:41 server kernel: [826441.169258]  r10:92225fb0 r9:92225ec8 r8:00000040 r7:00000000 r6:7690b000 r5:92225ec8
Mar 27 21:37:41 server kernel: [826441.169262]  r4:87690720
Mar 27 21:37:41 server kernel: [826441.169273] [<80427a64>] (ext4_filemap_fault) from [<802e4f04>] (__do_fault+0x48/0x14c)
Mar 27 21:37:41 server kernel: [826441.169278]  r5:8360fc00 r4:92225ec8
Mar 27 21:37:41 server kernel: [826441.169287] [<802e4ebc>] (__do_fault) from [<802e9fc0>] (handle_mm_fault+0xae8/0xe30)
Mar 27 21:37:41 server kernel: [826441.169294]  r7:00000000 r6:7690b000 r5:80e05008 r4:00000254
Mar 27 21:37:41 server kernel: [826441.169303] [<802e94d8>] (handle_mm_fault) from [<809f4258>] (do_page_fault+0x144/0x314)
Mar 27 21:37:41 server kernel: [826441.169312]  r10:00000254 r9:00000000 r8:96e08a48 r7:96e08a00 r6:00000017 r5:7690b796
Mar 27 21:37:41 server kernel: [826441.169316]  r4:92225fb0
Mar 27 21:37:41 server kernel: [826441.169325] [<809f4114>] (do_page_fault) from [<80113fb8>] (do_DataAbort+0x4c/0xcc)
Mar 27 21:37:41 server kernel: [826441.169333]  r10:7eb7b174 r9:00000001 r8:92225fb0 r7:7690b796 r6:809f4114 r5:00000017
Mar 27 21:37:41 server kernel: [826441.169337]  r4:80e0abf8
Mar 27 21:37:41 server kernel: [826441.169346] [<80113f6c>] (do_DataAbort) from [<80100da4>] (__dabt_usr+0x44/0x60)
Mar 27 21:37:41 server kernel: [826441.169351] Exception stack(0x92225fb0 to 0x92225ff8)
Mar 27 21:37:41 server kernel: [826441.169357] 5fa0:                                     7693e030 7690b796 7690a870 0000005f
Mar 27 21:37:41 server kernel: [826441.169365] 5fc0: 766337c0 7693975c 76f9c8a8 00000001 7eb7b170 00000001 7eb7b174 7690b796
Mar 27 21:37:41 server kernel: [826441.169371] 5fe0: 00000119 7eb7b100 76f85b1c 76f96620 20000010 ffffffff
Mar 27 21:37:41 server kernel: [826441.169379]  r8:10c5387d r7:10c5383d r6:ffffffff r5:20000010 r4:76f96620
Mar 27 21:37:41 server kernel: [826441.169384] Mem-Info:
Mar 27 21:37:41 server kernel: [826441.169398] active_anon:47602 inactive_anon:176896 isolated_anon:0
Mar 27 21:37:41 server kernel: [826441.169398]  active_file:58 inactive_file:206 isolated_file:35
Mar 27 21:37:41 server kernel: [826441.169398]  unevictable:4 dirty:0 writeback:0
Mar 27 21:37:41 server kernel: [826441.169398]  slab_reclaimable:6250 slab_unreclaimable:5543
Mar 27 21:37:41 server kernel: [826441.169398]  mapped:3372 shmem:15481 pagetables:2359 bounce:0
Mar 27 21:37:41 server kernel: [826441.169398]  free:5100 free_pcp:228 free_cma:13
Mar 27 21:37:41 server kernel: [826441.169411] Node 0 active_anon:190408kB inactive_anon:707584kB active_file:232kB inactive_file:824kB unevictable:16kB isolated(anon):0kB isolated(file):140kB mapped:13488kB dirty:0kB writeback:0kB shmem:61924kB writeback_tmp:0kB kernel_stack:1704kB all_unreclaimable? no
Mar 27 21:37:41 server kernel: [826441.169427] DMA free:20400kB min:16384kB low:20480kB high:24576kB reserved_highatomic:0KB active_anon:190408kB inactive_anon:707584kB active_file:356kB inactive_file:436kB unevictable:16kB writepending:0kB present:1015808kB managed:991052kB mlocked:16kB pagetables:9436kB bounce:0kB free_pcp:912kB local_pcp:248kB free_cma:52kB
Mar 27 21:37:41 server kernel: [826441.169433] lowmem_reserve[]: 0 0 0
Mar 27 21:37:41 server kernel: [826441.169459] DMA: 590*4kB (UMEC) 474*8kB (UMEC) 193*16kB (UME) 151*32kB (UME) 60*64kB (UME) 13*128kB (UE) 2*256kB (UM) 0*512kB 0*1024kB 0*2048kB 0*4096kB = 20088kB
Mar 27 21:37:41 server kernel: [826441.169566] 18092 total pagecache pages
Mar 27 21:37:41 server kernel: [826441.169574] 2268 pages in swap cache
Mar 27 21:37:41 server kernel: [826441.169581] Swap cache stats: add 54027, delete 51759, find 52843126/52855248
Mar 27 21:37:41 server kernel: [826441.169587] Free swap  = 0kB
Mar 27 21:37:41 server kernel: [826441.169593] Total swap = 102396kB
Mar 27 21:37:41 server kernel: [826441.169599] 253952 pages RAM
Mar 27 21:37:41 server kernel: [826441.169605] 0 pages HighMem/MovableOnly
Mar 27 21:37:41 server kernel: [826441.169611] 6189 pages reserved
Mar 27 21:37:41 server kernel: [826441.169616] 16384 pages cma reserved
Mar 27 21:37:41 server kernel: [826441.169622] Tasks state (memory values in pages):
Mar 27 21:37:41 server kernel: [826441.169628] [  pid  ]   uid  tgid total_vm      rss pgtables_bytes swapents oom_score_adj name
Mar 27 21:37:41 server kernel: [826441.169652] [    123]     0   123     8938      582    73728      125             0 systemd-journal
Mar 27 21:37:41 server kernel: [826441.169663] [    152]     0   152     4528       95    20480      131         -1000 systemd-udevd
Mar 27 21:37:41 server kernel: [826441.169677] [    351]   100   351     5604       17    24576      146             0 systemd-timesyn
Mar 27 21:37:41 server kernel: [826441.169688] [    387]   108   387     1475       63    14336       33             0 avahi-daemon
Mar 27 21:37:41 server kernel: [826441.169699] [    390]     0   390     2034       97    16384       15             0 bash
Mar 27 21:37:41 server kernel: [826441.169709] [    391]     0   391      923       10    10240       40             0 alsactl
Mar 27 21:37:41 server kernel: [826441.169722] [    392]   104   392     1662       91    16384       46          -900 dbus-daemon
Mar 27 21:37:41 server kernel: [826441.169732] [    397] 65534   397     1080        6    14336       40             0 thd
Mar 27 21:37:41 server kernel: [826441.169742] [    398]     0   398     6479      231    20480       90             0 rsyslogd
Mar 27 21:37:41 server kernel: [826441.169752] [    400]     0   400     1994       19    18432       35             0 cron
Mar 27 21:37:41 server kernel: [826441.169763] [    403]     0   403     3359      101    20480      165             0 systemd-logind
Mar 27 21:37:41 server kernel: [826441.169773] [    411]     0   411     2686       12    20480       89             0 wpa_supplicant
Mar 27 21:37:41 server kernel: [826441.169784] [    419]   108   419     1443       12    12288       51             0 avahi-daemon
Mar 27 21:37:41 server kernel: [826441.169794] [    431]     0   431     6914       25    14336       10             0 rngd
Mar 27 21:37:41 server kernel: [826441.169804] [    478]   109   478     1952        0    16384       41             0 squeezeboxserve
Mar 27 21:37:41 server kernel: [826441.169816] [    482]   109   482    36164    23864   149504     5821             0 squeezeboxserve
Mar 27 21:37:41 server kernel: [826441.169828] [    542]     0   542      708       48    12288       40             0 dhcpcd
Mar 27 21:37:41 server kernel: [826441.169840] [    549]     0   549    32097      394   155648     1413             0 node
Mar 27 21:37:41 server kernel: [826441.169850] [    563]   110   563     2203       45    18432       89             0 mosquitto
Mar 27 21:37:41 server kernel: [826441.169860] [    571]     0   571     7995       89    40960      266             0 nmbd
Mar 27 21:37:41 server kernel: [826441.169871] [    592]     0   592     2682       30    20480      115         -1000 sshd
Mar 27 21:37:41 server kernel: [826441.169881] [    645]   999   645    72369    44375   276480    10063             0 perl
Mar 27 21:37:41 server kernel: [826441.169892] [    646]     0   646    48016     1389    51200       73             0 apache2
Mar 27 21:37:41 server kernel: [826441.169903] [    662]     0   662    14606      296    43008     1641             0 rpimonitord
Mar 27 21:37:41 server kernel: [826441.169913] [    738]  1000   738    14672      245    43008     1731             0 rpimonitord
Mar 27 21:37:41 server kernel: [826441.169923] [    739]     0   739    14639      508    43008     1437             0 rpimonitord
Mar 27 21:37:41 server kernel: [826441.169935] [    754]     0   754     3683      141    22528      111             0 systemd
Mar 27 21:37:41 server kernel: [826441.169947] [    758]     0   758    12091      486    57344      226             0 smbd
Mar 27 21:37:41 server kernel: [826441.169958] [    762]     0   762     4509       60    26624      434             0 (sd-pam)
Mar 27 21:37:41 server kernel: [826441.169969] [    875]     0   875    11357      233    53248      241             0 smbd-notifyd
Mar 27 21:37:41 server kernel: [826441.169981] [    876]     0   876    11358      237    51200      238             0 cleanupd
Mar 27 21:37:41 server kernel: [826441.169991] [    877]     0   877    12088      243    53248      247             0 lpqd
Mar 27 21:37:41 server kernel: [826441.170001] [    942]     0   942      486        3    10240       12             0 sh
Mar 27 21:37:41 server kernel: [826441.170011] [    943]     0   943    38252     7202   284672     1164             0 node
Mar 27 21:37:41 server kernel: [826441.170021] [   1042]     0  1042     2667        0    18432       96             0 sudo
Mar 27 21:37:41 server kernel: [826441.170031] [   1043]     0  1043     2667       27    16384       61             0 sudo
Mar 27 21:37:41 server kernel: [826441.170041] [   1044]     0  1044     2667       44    20480       44             0 sudo
Mar 27 21:37:41 server kernel: [826441.170052] [   1045]     0  1045     1405        0    12288       98             0 login
Mar 27 21:37:41 server kernel: [826441.170063] [   1046]     0  1046     2141      247    16384       10             0 RPiInfoFHEM.sh
Mar 27 21:37:41 server kernel: [826441.170075] [   1048]     0  1048     1919       33    16384        7             0 PowerOffGPIO.sh
Mar 27 21:37:41 server kernel: [826441.170086] [   1050]     0  1050     4271      749    22528      220             0 i2ctest2.py
Mar 27 21:37:41 server kernel: [826441.170097] [   1070]  1000  1070     3676      106    22528      147             0 systemd
Mar 27 21:37:41 server kernel: [826441.170107] [   1075]  1000  1075     4508       55    26624      451             0 (sd-pam)
Mar 27 21:37:41 server kernel: [826441.170117] [   1087]  1000  1087     2123        4    16384      225             0 bash
Mar 27 21:37:41 server kernel: [826441.170127] [   1548]   999  1548    37668     6346   229376     1292             0 node
Mar 27 21:37:41 server kernel: [826441.170139] [  21499]    33 21499    48150     1592    47104       73             0 apache2
Mar 27 21:37:41 server kernel: [826441.170149] [  21500]    33 21500    48146      893    40960       73             0 apache2
Mar 27 21:37:41 server kernel: [826441.170159] [  21501]    33 21501    48132     1315    47104       73             0 apache2
Mar 27 21:37:41 server kernel: [826441.170169] [  21503]    33 21503    48134     1364    47104       73             0 apache2
Mar 27 21:37:41 server kernel: [826441.170180] [  31394]   999 31394     3090      126    20480        0             0 ssh
Mar 27 21:37:41 server kernel: [826441.170191] [   3996]     0  3996    25087     3442    92160      168             0 smbd
Mar 27 21:37:41 server kernel: [826441.170202] [   1774]     0  1774    16333     2582    65536      182             0 smbd
Mar 27 21:37:41 server kernel: [826441.170213] [  23666]    33 23666    48146      882    40960       73             0 apache2
Mar 27 21:37:41 server kernel: [826441.170223] [  23796]    33 23796    48146     1587    47104       73             0 apache2
Mar 27 21:37:41 server kernel: [826441.170233] [  23807]    33 23807    48146      899    40960       73             0 apache2
Mar 27 21:37:41 server kernel: [826441.170243] [  24702]    33 24702    48032      837    40960       73             0 apache2
Mar 27 21:37:41 server kernel: [826441.170253] [  24717]    33 24717    48032      837    40960       73             0 apache2
Mar 27 21:37:41 server kernel: [826441.170263] [  32453]    33 32453    48032      837    40960       73             0 apache2
Mar 27 21:37:41 server kernel: [826441.170279] [  25829]     0 25829     1614       16    14336        0             0 sleep
Mar 27 21:37:41 server kernel: [826441.170289] [  26167]   999 26167    72369    44448   274432     9990             0 perl
Mar 27 21:37:41 server kernel: [826441.170300] [  26168]   999 26168    72369    44759   274432     9679             0 perl
Mar 27 21:37:41 server kernel: [826441.170311] [  26169]   999 26169    72369    44423   274432    10015             0 perl
Mar 27 21:37:41 server kernel: [826441.170321] [  26170]   999 26170    72369    44432   274432    10006             0 perl
Mar 27 21:37:41 server kernel: [826441.170331] [  26174]   999 26174    72369    44442   274432     9996             0 perl
Mar 27 21:37:41 server kernel: [826441.170341] [  26175]   999 26175    72369    44434   274432    10004             0 perl
Mar 27 21:37:41 server kernel: [826441.170351] [  26176]     0 26176     3658      114    22528        0             0 wget
Mar 27 21:37:41 server kernel: [826441.170361] [  26177]     0 26177     1614       16    14336        0             0 sleep
Mar 27 21:37:41 server kernel: [826441.170371] [  26178]   999 26178    72369    44376   274432    10062             0 perl
Mar 27 21:37:41 server kernel: [826441.170381] [  26179]     0 26179     3060      195    20480        0             0 sshd
Mar 27 21:37:41 server kernel: [826441.170391] [  26181]     0 26181     1614       16    14336        0             0 sleep
Mar 27 21:37:41 server kernel: [826441.170400] [  26182]   107 26182     2715      153    18432        0             0 sshd
Mar 27 21:37:41 server kernel: [826441.170410] [  26183]     0 26183     2682       33    18432      112             0 sshd
Mar 27 21:37:41 server kernel: [826441.170419] oom-kill:constraint=CONSTRAINT_NONE,nodemask=(null),cpuset=/,mems_allowed=0,global_oom,task_memcg=/,task=perl,pid=26178,uid=999
Mar 27 21:37:42 server kernel: [826441.170478] Out of memory: Killed process 26178 (perl) total-vm:289476kB, anon-rss:177504kB, file-rss:0kB, shmem-rss:0kB, UID:999 pgtables:268kB oom_score_adj:0
Mar 27 21:37:42 server kernel: [826441.203987] oom_reaper: reaped process 26178 (perl), now anon-rss:0kB, file-rss:0kB, shmem-rss:0kB
Mar 27 21:38:35 server kernel: [826494.715697] kthreadd invoked oom-killer: gfp_mask=0x400dc0(GFP_KERNEL_ACCOUNT|__GFP_ZERO), order=1, oom_score_adj=0
Mar 27 21:38:35 server kernel: [826494.715724] CPU: 0 PID: 2 Comm: kthreadd Tainted: G         C        5.10.17-v7+ #1403
Mar 27 21:38:35 server kernel: [826494.715728] Hardware name: BCM2835
Mar 27 21:38:35 server kernel: [826494.715732] Backtrace:
Mar 27 21:38:35 server kernel: [826494.715754] [<809e477c>] (dump_backtrace) from [<809e4b0c>] (show_stack+0x20/0x24)
Mar 27 21:38:35 server kernel: [826494.715762]  r7:ffffffff r6:00000000 r5:60000113 r4:80ee5d54
Mar 27 21:38:35 server kernel: [826494.715772] [<809e4aec>] (show_stack) from [<809e8cb8>] (dump_stack+0xcc/0xf8)
Mar 27 21:38:35 server kernel: [826494.715780] [<809e8bec>] (dump_stack) from [<809e6fa8>] (dump_header+0x64/0x208)
Mar 27 21:38:35 server kernel: [826494.715788]  r10:80e05144 r9:00400dc0 r8:00000001 r7:80c13384 r6:81538300 r5:853e9f00
Mar 27 21:38:35 server kernel: [826494.715793]  r4:8153ddf8 r3:c6f805e5
Mar 27 21:38:35 server kernel: [826494.715803] [<809e6f44>] (dump_header) from [<802b18b0>] (oom_kill_process+0x1b4/0x1c0)
Mar 27 21:38:35 server kernel: [826494.715810]  r7:80c13384 r6:8153ddf8 r5:853ea480 r4:853e9f00
Mar 27 21:38:35 server kernel: [826494.715819] [<802b16fc>] (oom_kill_process) from [<802b2428>] (out_of_memory+0x2b8/0x390)
Mar 27 21:38:35 server kernel: [826494.715826]  r7:80e083c0 r6:80e05008 r5:853e9f00 r4:8153ddf8
Mar 27 21:38:35 server kernel: [826494.715837] [<802b2170>] (out_of_memory) from [<803018dc>] (__alloc_pages_nodemask+0x7ec/0x1184)
Mar 27 21:38:35 server kernel: [826494.715844]  r7:80e05784 r6:00000000 r5:ffffe000 r4:00208040
Mar 27 21:38:35 server kernel: [826494.715854] [<803010f0>] (__alloc_pages_nodemask) from [<8011bf5c>] (copy_process+0x2d0/0x18f0)
Mar 27 21:38:35 server kernel: [826494.715863]  r10:8153df18 r9:00000000 r8:ffffffff r7:81528f80 r6:82916c80 r5:80e05008
Mar 27 21:38:35 server kernel: [826494.715867]  r4:00800700
Mar 27 21:38:35 server kernel: [826494.715875] [<8011bc8c>] (copy_process) from [<8011d7c4>] (kernel_clone+0xcc/0x4a0)
Mar 27 21:38:35 server kernel: [826494.715883]  r10:9f69b280 r9:00000000 r8:8153df18 r7:80143648 r6:00800700 r5:80e05008
Mar 27 21:38:35 server kernel: [826494.715887]  r4:00000000
Mar 27 21:38:35 server kernel: [826494.715895] [<8011d6f8>] (kernel_clone) from [<8011dd20>] (kernel_thread+0x7c/0x98)
Mar 27 21:38:35 server kernel: [826494.715903]  r10:9f69b280 r9:00000000 r8:ffffe000 r7:80143648 r6:9f69b280 r5:00000011
Mar 27 21:38:35 server kernel: [826494.715907]  r4:80e05008
Mar 27 21:38:35 server kernel: [826494.715916] [<8011dca4>] (kernel_thread) from [<80144264>] (kthreadd+0x1e8/0x278)
Mar 27 21:38:35 server kernel: [826494.715923]  r7:80f48d30 r6:80f48d30 r5:80e0ed98 r4:9f69b294
Mar 27 21:38:35 server kernel: [826494.715931] [<8014407c>] (kthreadd) from [<801000ec>] (ret_from_fork+0x14/0x28)
Mar 27 21:38:35 server kernel: [826494.715936] Exception stack(0x8153dfb0 to 0x8153dff8)
Mar 27 21:38:35 server kernel: [826494.715943] dfa0:                                     00000000 00000000 00000000 00000000
Mar 27 21:38:35 server kernel: [826494.715950] dfc0: 00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000
Mar 27 21:38:35 server kernel: [826494.715956] dfe0: 00000000 00000000 00000000 00000000 00000013 00000000
Mar 27 21:38:35 server kernel: [826494.715964]  r10:00000000 r9:00000000 r8:00000000 r7:00000000 r6:00000000 r5:8014407c
Mar 27 21:38:35 server kernel: [826494.715968]  r4:00000000
Mar 27 21:38:35 server kernel: [826494.715985] Mem-Info:
Mar 27 21:38:35 server kernel: [826494.716000] active_anon:68301 inactive_anon:157196 isolated_anon:0
Mar 27 21:38:35 server kernel: [826494.716000]  active_file:19 inactive_file:238 isolated_file:0
Mar 27 21:38:35 server kernel: [826494.716000]  unevictable:4 dirty:0 writeback:0
Mar 27 21:38:35 server kernel: [826494.716000]  slab_reclaimable:6248 slab_unreclaimable:5577
Mar 27 21:38:35 server kernel: [826494.716000]  mapped:3317 shmem:15481 pagetables:2241 bounce:0
Mar 27 21:38:35 server kernel: [826494.716000]  free:4197 free_pcp:141 free_cma:187
Mar 27 21:38:35 server kernel: [826494.716012] Node 0 active_anon:273204kB inactive_anon:628784kB active_file:76kB inactive_file:952kB unevictable:16kB isolated(anon):0kB isolated(file):0kB mapped:13268kB dirty:0kB writeback:0kB shmem:61924kB writeback_tmp:0kB kernel_stack:1704kB all_unreclaimable? no
Mar 27 21:38:35 server kernel: [826494.716028] DMA free:16788kB min:16384kB low:20480kB high:24576kB reserved_highatomic:0KB active_anon:273204kB inactive_anon:628784kB active_file:428kB inactive_file:0kB unevictable:16kB writepending:0kB present:1015808kB managed:991052kB mlocked:16kB pagetables:8964kB bounce:0kB free_pcp:564kB local_pcp:24kB free_cma:748kB
Mar 27 21:38:35 server kernel: [826494.716033] lowmem_reserve[]: 0 0 0
Mar 27 21:38:35 server kernel: [826494.716059] DMA: 560*4kB (UMEC) 437*8kB (UMEC) 168*16kB (UMEC) 104*32kB (UMEC) 54*64kB (UME) 12*128kB (UME) 0*256kB 0*512kB 0*1024kB 0*2048kB 0*4096kB = 16744kB
Mar 27 21:38:35 server kernel: [826494.716176] 17946 total pagecache pages
Mar 27 21:38:35 server kernel: [826494.716185] 2183 pages in swap cache
Mar 27 21:38:35 server kernel: [826494.716200] Swap cache stats: add 54058, delete 51875, find 52845772/52857904
Mar 27 21:38:35 server kernel: [826494.716206] Free swap  = 0kB
Mar 27 21:38:35 server kernel: [826494.716211] Total swap = 102396kB
Mar 27 21:38:35 server kernel: [826494.716218] 253952 pages RAM
Mar 27 21:38:35 server kernel: [826494.716223] 0 pages HighMem/MovableOnly
Mar 27 21:38:35 server kernel: [826494.716229] 6189 pages reserved
Mar 27 21:38:35 server kernel: [826494.716235] 16384 pages cma reserved
Mar 27 21:38:35 server kernel: [826494.716241] Tasks state (memory values in pages):
Mar 27 21:38:35 server kernel: [826494.716247] [  pid  ]   uid  tgid total_vm      rss pgtables_bytes swapents oom_score_adj name
Mar 27 21:38:35 server kernel: [826494.716270] [    123]     0   123     8939      597    75776      125             0 systemd-journal
Mar 27 21:38:35 server kernel: [826494.716281] [    152]     0   152     4528       95    20480      131         -1000 systemd-udevd
Mar 27 21:38:35 server kernel: [826494.716295] [    351]   100   351     5604       17    24576      146             0 systemd-timesyn
Mar 27 21:38:35 server kernel: [826494.716305] [    387]   108   387     1475       63    14336       33             0 avahi-daemon
Mar 27 21:38:35 server kernel: [826494.716315] [    390]     0   390     2034       95    16384       15             0 bash
Mar 27 21:38:35 server kernel: [826494.716324] [    391]     0   391      923       10    10240       40             0 alsactl
Mar 27 21:38:35 server kernel: [826494.716343] [    392]   104   392     1662       91    16384       46          -900 dbus-daemon
Mar 27 21:38:35 server kernel: [826494.716353] [    397] 65534   397     1080        6    14336       40             0 thd
Mar 27 21:38:35 server kernel: [826494.716363] [    398]     0   398     6479      245    20480       79             0 rsyslogd
Mar 27 21:38:35 server kernel: [826494.716373] [    400]     0   400     1994       19    18432       35             0 cron
Mar 27 21:38:35 server kernel: [826494.716384] [    403]     0   403     3359      101    20480      165             0 systemd-logind
Mar 27 21:38:35 server kernel: [826494.716394] [    411]     0   411     2686       12    20480       89             0 wpa_supplicant
Mar 27 21:38:35 server kernel: [826494.716403] [    419]   108   419     1443       12    12288       51             0 avahi-daemon
Mar 27 21:38:35 server kernel: [826494.716413] [    431]     0   431     6914       25    14336       10             0 rngd
Mar 27 21:38:35 server kernel: [826494.716424] [    478]   109   478     1952        0    16384       41             0 squeezeboxserve
Mar 27 21:38:35 server kernel: [826494.716434] [    482]   109   482    36164    23855   149504     5830             0 squeezeboxserve
Mar 27 21:38:35 server kernel: [826494.716449] [    542]     0   542      708       48    12288       40             0 dhcpcd
Mar 27 21:38:35 server kernel: [826494.716459] [    549]     0   549    32097      394   155648     1413             0 node
Mar 27 21:38:35 server kernel: [826494.716469] [    563]   110   563     2203       45    18432       89             0 mosquitto
Mar 27 21:38:35 server kernel: [826494.716479] [    571]     0   571     7995       89    40960      266             0 nmbd
Mar 27 21:38:35 server kernel: [826494.716489] [    592]     0   592     2682       30    20480      115         -1000 sshd
Mar 27 21:38:35 server kernel: [826494.716499] [    645]   999   645    72369    44374   276480    10064             0 perl
Mar 27 21:38:35 server kernel: [826494.716509] [    646]     0   646    48016     1336    51200       73             0 apache2
Mar 27 21:38:35 server kernel: [826494.716519] [    662]     0   662    14606      296    43008     1641             0 rpimonitord
Mar 27 21:38:35 server kernel: [826494.716529] [    738]  1000   738    14672      245    43008     1731             0 rpimonitord
Mar 27 21:38:35 server kernel: [826494.716538] [    739]     0   739    14639      508    43008     1437             0 rpimonitord
Mar 27 21:38:35 server kernel: [826494.716548] [    754]     0   754     3683      141    22528      111             0 systemd
Mar 27 21:38:35 server kernel: [826494.716558] [    758]     0   758    12091      484    57344      226             0 smbd
Mar 27 21:38:35 server kernel: [826494.716576] [    762]     0   762     4509       60    26624      434             0 (sd-pam)
Mar 27 21:38:35 server kernel: [826494.716586] [    875]     0   875    11357      234    53248      241             0 smbd-notifyd
Mar 27 21:38:35 server kernel: [826494.716596] [    876]     0   876    11358      237    51200      238             0 cleanupd
Mar 27 21:38:35 server kernel: [826494.716606] [    877]     0   877    12088      243    53248      247             0 lpqd
Mar 27 21:38:35 server kernel: [826494.716616] [    942]     0   942      486        3    10240       12             0 sh
Mar 27 21:38:35 server kernel: [826494.716626] [    943]     0   943    38252     7201   284672     1165             0 node
Mar 27 21:38:35 server kernel: [826494.716636] [   1042]     0  1042     2667        0    18432       96             0 sudo
Mar 27 21:38:35 server kernel: [826494.716645] [   1043]     0  1043     2667       27    16384       61             0 sudo
Mar 27 21:38:35 server kernel: [826494.716655] [   1044]     0  1044     2667       44    20480       44             0 sudo
Mar 27 21:38:35 server kernel: [826494.716665] [   1045]     0  1045     1405        0    12288       98             0 login
Mar 27 21:38:35 server kernel: [826494.716675] [   1046]     0  1046     2141      245    16384       10             0 RPiInfoFHEM.sh
Mar 27 21:38:35 server kernel: [826494.716685] [   1048]     0  1048     1919       31    16384        7             0 PowerOffGPIO.sh
Mar 27 21:38:35 server kernel: [826494.716701] [   1050]     0  1050     4271      749    22528      220             0 i2ctest2.py
Mar 27 21:38:35 server kernel: [826494.716719] [   1070]  1000  1070     3676      106    22528      147             0 systemd
Mar 27 21:38:35 server kernel: [826494.716729] [   1075]  1000  1075     4508       55    26624      451             0 (sd-pam)
Mar 27 21:38:35 server kernel: [826494.716739] [   1087]  1000  1087     2123        4    16384      225             0 bash
Mar 27 21:38:35 server kernel: [826494.716749] [   1548]   999  1548    37668     6343   229376     1295             0 node
Mar 27 21:38:35 server kernel: [826494.716760] [  21499]    33 21499    48150     1539    47104       73             0 apache2
Mar 27 21:38:35 server kernel: [826494.716770] [  21500]    33 21500    48146      893    40960       73             0 apache2
Mar 27 21:38:35 server kernel: [826494.716780] [  21501]    33 21501    48132     1278    47104       73             0 apache2
Mar 27 21:38:35 server kernel: [826494.716790] [  21503]    33 21503    48134     1324    47104       73             0 apache2
Mar 27 21:38:35 server kernel: [826494.716800] [  31394]   999 31394     3090      126    20480        0             0 ssh
Mar 27 21:38:35 server kernel: [826494.716809] [   3996]     0  3996    25087     3442    92160      168             0 smbd
Mar 27 21:38:35 server kernel: [826494.716827] [   1774]     0  1774    16333     2582    65536      182             0 smbd
Mar 27 21:38:35 server kernel: [826494.716838] [  23666]    33 23666    48146      882    40960       73             0 apache2
Mar 27 21:38:35 server kernel: [826494.716848] [  23796]    33 23796    48146     1533    47104       73             0 apache2
Mar 27 21:38:35 server kernel: [826494.716857] [  23807]    33 23807    48146      899    40960       73             0 apache2
Mar 27 21:38:35 server kernel: [826494.716867] [  24702]    33 24702    48032      837    40960       73             0 apache2
Mar 27 21:38:35 server kernel: [826494.716877] [  24717]    33 24717    48032      837    40960       73             0 apache2
Mar 27 21:38:35 server kernel: [826494.716887] [  32453]    33 32453    48032      837    40960       73             0 apache2
Mar 27 21:38:35 server kernel: [826494.716901] [  26167]   999 26167    72369    44621   274432     9817             0 perl
Mar 27 21:38:35 server kernel: [826494.716911] [  26168]   999 26168    72369    44902   274432     9536             0 perl
Mar 27 21:38:35 server kernel: [826494.716921] [  26169]   999 26169    72369    45131   274432     9307             0 perl
Mar 27 21:38:35 server kernel: [826494.716930] [  26170]   999 26170    72369    44977   274432     9461             0 perl
Mar 27 21:38:35 server kernel: [826494.716951] [  26174]   999 26174    72369    44775   274432     9663             0 perl
Mar 27 21:38:35 server kernel: [826494.716971] [  26175]   999 26175    72369    45136   274432     9302             0 perl
Mar 27 21:38:35 server kernel: [826494.716981] [  26176]     0 26176     3658      114    22528        0             0 wget
Mar 27 21:38:35 server kernel: [826494.716991] [  26183]     0 26183     1142       24    10240        0             0 sshd
Mar 27 21:38:35 server kernel: [826494.717002] [  26187]     0 26187     1994       31    14336       23             0 cron
Mar 27 21:38:35 server kernel: [826494.717012] [  26188]     0 26188     1919       32    12288        7             0 PowerOffGPIO.sh
Mar 27 21:38:35 server kernel: [826494.717022] [  26189]     0 26189     2174      281    16384       10             0 RPiInfoFHEM.sh
Mar 27 21:38:35 server kernel: [826494.717032] [  26190]     0 26190     2034       96    12288       14             0 bash
Mar 27 21:38:35 server kernel: [826494.717041] [  26191]     0 26191    12091      267    47104      222             0 smbd
Mar 27 21:38:35 server kernel: [826494.717051] [  26192]     0 26192     2682       33    18432      112             0 sshd
Mar 27 21:38:35 server kernel: [826494.717060] oom-kill:constraint=CONSTRAINT_NONE,nodemask=(null),cpuset=/,mems_allowed=0,global_oom,task_memcg=/,task=perl,pid=26175,uid=999
Mar 27 21:38:35 server kernel: [826494.717127] Out of memory: Killed process 26175 (perl) total-vm:289476kB, anon-rss:180544kB, file-rss:0kB, shmem-rss:0kB, UID:999 pgtables:268kB oom_score_adj:0
Mar 27 21:38:35 server kernel: [826494.768073] oom_reaper: reaped process 26175 (perl), now anon-rss:0kB, file-rss:0kB, shmem-rss:0kB
Mar 27 21:52:17 server kernel: [827317.159157] sshd invoked oom-killer: gfp_mask=0x400dc0(GFP_KERNEL_ACCOUNT|__GFP_ZERO), order=0, oom_score_adj=0
Mar 27 21:52:17 server kernel: [827317.159176] CPU: 2 PID: 4653 Comm: sshd Tainted: G         C        5.10.17-v7+ #1403
Mar 27 21:52:17 server kernel: [827317.159180] Hardware name: BCM2835
Mar 27 21:52:17 server kernel: [827317.159184] Backtrace:
Mar 27 21:52:17 server kernel: [827317.159206] [<809e477c>] (dump_backtrace) from [<809e4b0c>] (show_stack+0x20/0x24)
Mar 27 21:52:17 server kernel: [827317.159214]  r7:ffffffff r6:00000000 r5:60000113 r4:80ee5d54
Mar 27 21:52:17 server kernel: [827317.159223] [<809e4aec>] (show_stack) from [<809e8cb8>] (dump_stack+0xcc/0xf8)
Mar 27 21:52:17 server kernel: [827317.159231] [<809e8bec>] (dump_stack) from [<809e6fa8>] (dump_header+0x64/0x208)
Mar 27 21:52:17 server kernel: [827317.159240]  r10:80e05144 r9:00400dc0 r8:00000000 r7:80c13384 r6:935a8c00 r5:85a62e80
Mar 27 21:52:17 server kernel: [827317.159245]  r4:83715c20 r3:c6f805e5
Mar 27 21:52:17 server kernel: [827317.159254] [<809e6f44>] (dump_header) from [<802b18b0>] (oom_kill_process+0x1b4/0x1c0)
Mar 27 21:52:17 server kernel: [827317.159261]  r7:80c13384 r6:83715c20 r5:85a63400 r4:85a62e80
Mar 27 21:52:17 server kernel: [827317.159270] [<802b16fc>] (oom_kill_process) from [<802b2428>] (out_of_memory+0x2b8/0x390)
Mar 27 21:52:17 server kernel: [827317.159277]  r7:80e083c0 r6:80e05008 r5:85a62e80 r4:83715c20
Mar 27 21:52:17 server kernel: [827317.159288] [<802b2170>] (out_of_memory) from [<803018dc>] (__alloc_pages_nodemask+0x7ec/0x1184)
Mar 27 21:52:17 server kernel: [827317.159295]  r7:80f2d048 r6:00001000 r5:0000120a r4:00000000
Mar 27 21:52:17 server kernel: [827317.159306] [<803010f0>] (__alloc_pages_nodemask) from [<802e4f34>] (__do_fault+0x78/0x14c)
Mar 27 21:52:17 server kernel: [827317.159314]  r10:83715dc8 r9:80427a64 r8:00000000 r7:00000001 r6:00000000 r5:81fd79c0
Mar 27 21:52:17 server kernel: [827317.159319]  r4:83715cc0
Mar 27 21:52:17 server kernel: [827317.159328] [<802e4ebc>] (__do_fault) from [<802e984c>] (handle_mm_fault+0x374/0xe30)
Mar 27 21:52:17 server kernel: [827317.159334]  r7:00000001 r6:76fa9000 r5:80e05008 r4:00000215
Mar 27 21:52:17 server kernel: [827317.159343] [<802e94d8>] (handle_mm_fault) from [<809f4258>] (do_page_fault+0x144/0x314)
Mar 27 21:52:17 server kernel: [827317.159351]  r10:00000215 r9:00000800 r8:87ebb648 r7:87ebb600 r6:00000805 r5:76fa989c
Mar 27 21:52:17 server kernel: [827317.159356]  r4:83715dc8
Mar 27 21:52:17 server kernel: [827317.159363] [<809f4114>] (do_page_fault) from [<809f44e4>] (do_translation_fault+0xbc/0xc0)
Mar 27 21:52:17 server kernel: [827317.159371]  r10:80e05008 r9:83714000 r8:83715dc8 r7:76fa989c r6:809f4428 r5:00000805
Mar 27 21:52:17 server kernel: [827317.159375]  r4:00000805
Mar 27 21:52:17 server kernel: [827317.159384] [<809f4428>] (do_translation_fault) from [<80113fb8>] (do_DataAbort+0x4c/0xcc)
Mar 27 21:52:17 server kernel: [827317.159391]  r7:76fa989c r6:809f4428 r5:00000805 r4:80e0abd8
Mar 27 21:52:17 server kernel: [827317.159399] [<80113f6c>] (do_DataAbort) from [<80100a34>] (__dabt_svc+0x54/0x80)
Mar 27 21:52:17 server kernel: [827317.159404] Exception stack(0x83715dc8 to 0x83715e10)
Mar 27 21:52:17 server kernel: [827317.159412] 5dc0:                   76fa989c 7effffff 00000000 83714000 ffffe000 76fa989c
Mar 27 21:52:17 server kernel: [827317.159420] 5de0: 00000000 00000764 80e05008 a44a58e0 80e05008 83715e4c f7fa989c 83715e18
Mar 27 21:52:17 server kernel: [827317.159425] 5e00: 8060ae48 80650ec4 80000113 ffffffff
Mar 27 21:52:17 server kernel: [827317.159433]  r8:80e05008 r7:83715dfc r6:ffffffff r5:80000113 r4:80650ec4
Mar 27 21:52:17 server kernel: [827317.159444] [<8060ada8>] (__clear_user_memset) from [<8060b410>] (arm_clear_user+0x28/0x2c)
Mar 27 21:52:17 server kernel: [827317.159452]  r8:76f78000 r7:00000001 r6:00000007 r5:8ba98a00 r4:8ba98200
Mar 27 21:52:17 server kernel: [827317.159462] [<8060b3e8>] (arm_clear_user) from [<803ba818>] (load_elf_binary+0x122c/0x145c)
Mar 27 21:52:17 server kernel: [827317.159471] [<803b95ec>] (load_elf_binary) from [<80339798>] (bprm_execve+0x39c/0x724)
Mar 27 21:52:17 server kernel: [827317.159480]  r10:fffffff8 r9:8ba9825c r8:00000006 r7:80e8fa00 r6:80fc3738 r5:80e954b4
Mar 27 21:52:17 server kernel: [827317.159484]  r4:8ba98200
Mar 27 21:52:17 server kernel: [827317.159493] [<803393fc>] (bprm_execve) from [<80339c84>] (do_execveat_common+0x164/0x17c)
Mar 27 21:52:17 server kernel: [827317.159501]  r10:0000000b r9:01dd53a0 r8:01de9718 r7:ffffff9c r6:8ba98200 r5:00000000
Mar 27 21:52:17 server kernel: [827317.159505]  r4:81ee8000
Mar 27 21:52:17 server kernel: [827317.159514] [<80339b20>] (do_execveat_common) from [<8033aa70>] (sys_execve+0x40/0x48)
Mar 27 21:52:17 server kernel: [827317.159522]  r9:83714000 r8:80100204 r7:0000000b r6:000c2b30 r5:01dd53a0 r4:01de9718
Mar 27 21:52:17 server kernel: [827317.159531] [<8033aa30>] (sys_execve) from [<80100040>] (ret_fast_syscall+0x0/0x28)
Mar 27 21:52:17 server kernel: [827317.159535] Exception stack(0x83715fa8 to 0x83715ff0)
Mar 27 21:52:17 server kernel: [827317.159542] 5fa0:                   7e81b460 000c2b28 01dd5378 01de9718 01dd53a0 000c1530
Mar 27 21:52:17 server kernel: [827317.159550] 5fc0: 7e81b460 000c2b28 000c2b30 0000000b 000c2b04 000c3d48 7e81b898 000c3b30
Mar 27 21:52:17 server kernel: [827317.159556] 5fe0: 000c0e94 7e81b39c 00018410 7699c9ac
Mar 27 21:52:17 server kernel: [827317.159561]  r5:000c2b28 r4:7e81b460
Mar 27 21:52:17 server kernel: [827317.159566] Mem-Info:
Mar 27 21:52:17 server kernel: [827317.159580] active_anon:64709 inactive_anon:160840 isolated_anon:0
Mar 27 21:52:17 server kernel: [827317.159580]  active_file:127 inactive_file:315 isolated_file:0
Mar 27 21:52:17 server kernel: [827317.159580]  unevictable:4 dirty:0 writeback:0
Mar 27 21:52:17 server kernel: [827317.159580]  slab_reclaimable:6102 slab_unreclaimable:5526
Mar 27 21:52:17 server kernel: [827317.159580]  mapped:3848 shmem:15481 pagetables:2313 bounce:0
Mar 27 21:52:17 server kernel: [827317.159580]  free:4134 free_pcp:62 free_cma:537
Mar 27 21:52:17 server kernel: [827317.159593] Node 0 active_anon:258836kB inactive_anon:643360kB active_file:508kB inactive_file:1260kB unevictable:16kB isolated(anon):0kB isolated(file):128kB mapped:15392kB dirty:0kB writeback:0kB shmem:61924kB writeback_tmp:0kB kernel_stack:1672kB all_unreclaimable? no
Mar 27 21:52:17 server kernel: [827317.159608] DMA free:16536kB min:16384kB low:20480kB high:24576kB reserved_highatomic:0KB active_anon:258836kB inactive_anon:643360kB active_file:4kB inactive_file:1468kB unevictable:16kB writepending:0kB present:1015808kB managed:991052kB mlocked:16kB pagetables:9252kB bounce:0kB free_pcp:248kB local_pcp:248kB free_cma:2148kB
Mar 27 21:52:17 server kernel: [827317.159614] lowmem_reserve[]: 0 0 0
Mar 27 21:52:17 server kernel: [827317.159669] DMA: 663*4kB (UEC) 393*8kB (UMEC) 159*16kB (UMEC) 102*32kB (UMEC) 32*64kB (UEC) 15*128kB (UE) 4*256kB (UE) 0*512kB 0*1024kB 0*2048kB 0*4096kB


[edit]
Sorry, der Beitrag wurde nicht vollständig übernommen...

Kann es sein, dass mehrere Plots auf einer Seite jeweils das nonblocking gleichzeitig verwenden? Wenn ich es richtig deute, laufen hier mehrere Prozesse gleichzeitig?

Ja...mein System ist ganz gut ausgelastet. Das war aber auch schon vorher mit Stretch. Da hatte ich diese abstürze noch nicht. Allerdings auch noch kein "aktuelles" FHEM. Ich bin mir auch nicht sicher, ob ich "plotEmbed 2" da schon aktviert hatte.

Zur Problemlösung könnte ich evtl. auch meinen SWAP-Speicher erhöhen. Ich weiß aber nicht, wie lange meine Speicherkarte dann überlebt?
Besser wäre es wohl, das System "aufzuräumen". Doch dazu wäre es interessant zu wissen, wo der Speicher hin ist?

Gruß
Bismosa
[/edit]
1x nanoCUL 433MHz (SlowRF Intertechno) für Fenstersensoren
1x nanoCUL 868Mhz für MAX (9x HT 1xWT)
1x ZigBee CUL
Weiteres: Squeezebox server, Kindle Display, ESP8266, Löterfahrung, ...

Christoph Morrison

(Dir fehlen die schließenden Code-Tags)

bismosa

Hallo!

Danke für den Hinweis. Irgendwie wurde der Beitrag nicht vollständig übernommen. Habs korrigiert.

Gruß
Bismosa
1x nanoCUL 433MHz (SlowRF Intertechno) für Fenstersensoren
1x nanoCUL 868Mhz für MAX (9x HT 1xWT)
1x ZigBee CUL
Weiteres: Squeezebox server, Kindle Display, ESP8266, Löterfahrung, ...

rudolfkoenig

Zuerst: bitte den eigenen Beitrag nach dem Absenden kontrollieren. Das Forum schneidet alles ab ueber 44kByte (?, komische Grenze), selbst das ist zu viel fuer einen Beitrag. Grosse Logs/etc bitte als Anhang hinzufuegen. (Erweiterte Optionen, Datei Anhaengen).

Zu den Fragen:
- in FHEM wird an etlichen Stellen fork() verwendet, z.Bsp bei BlockingCall und bei der SVG Berechnung.
- die parallele SVG Berechnung ist neuerdings die Voreinstellung, wenn der Rechner ueber mehr als eine CPU verfuegt, ausschalten kann man es mit "attr WEB plotFork 0" oder "attr WEB plotEmbed 0". Bei der parallelen SVG Berechnung generiert ein Browser bis zu 5 FHEM-Prozesse.
- fork dupliziert den Prozess-Speicher. Das passiert wg. MMU nicht beim fork, sondern jeweils pro Speicherseite, wenn sie geaendert wird (Stichwort CoW/Copy on Write). Damit man bei Speicherengpaessen das Problem nicht erst bei der Speicheraenderung auftritt (was man im Programm schlecht abfangen kann), wird ein bestimmter Bereich reserviert (Stichwort "memory overcommit"). Die Voreinstellung im Linux ist "heuristic", ich habe keine Ahnung, was das genau bedeutet. Frueher(TM) war overcommit 50%. Will sagen: ich kann nicht im vornherein sagen, wie oft man fork ausfuehren kann, wenn der eigene Prozess 140MB ist, und noch 500MB Speicher frei ist. Theoretisch Tausende, praktisch 3-6.
- "fhemdebug memusage" habe ich entfernt, weil es nie exakt war, man hat damit nie einen Speicherloch gefunden, und es entweder grob falsch war, oder zum FHEM-Absturz fuehrte.

Ich wuerde bei einem 1GB Rechner mit 140MB Start-FHEM-Groesse fork begrenzen bzw. beim Plots abschalten.

Zusaetzlich gibts das Problem von Speicherlecks je nach Perl-Version, FHEM-Modul, oder OS-Bibliothek, das ist aber eine andere Baustelle.

Christoph Morrison

Zitat von: bismosa am 28 März 2021, 09:19:41
Kann es sein, dass mehrere Plots auf einer Seite jeweils das nonblocking gleichzeitig verwenden? Wenn ich es richtig deute, laufen hier mehrere Prozesse gleichzeitig?

Ja, es laufen 8 Perl-Prozesse mit jeweils etwa 72MB RAM-Usage. Das sind 576 MB RAM alleine für FHEM. Die 11 apache2-Worker/Prozesse brauchen je etwa 48MB, also 528 MB RAM. In Summe sind das bereits 1104 MB auf einem System, das nur 1GB RAM anbietet. Du überlastest den Pi einfach, deshalb kommt der OOM-Reaper vorbei und begleitet FHEM-Prozesse ins JENSEITS.

ZitatZur Problemlösung könnte ich evtl. auch meinen SWAP-Speicher erhöhen. Ich weiß aber nicht, wie lange meine Speicherkarte dann überlebt?
Besser wäre es wohl, das System "aufzuräumen". Doch dazu wäre es interessant zu wissen, wo der Speicher hin ist?

Ich würde zusätzlich den RP4 in Betrieb nehmen wenn der ordentlich RAM hat und FHEM (+Mosquitto) dorthin umziehen, den Apache würde ich auf diesem System lassen. Swap würde ich immer vermeiden wenn eine SD-Card genutzt wird (und auch das würde ich vermeiden).

Allgemein bin ich kein Fan mehr davon, irgendwas auf RPI laufen zu lassen, einfach weil die Modelle vor dem RPi4 zu schwach mit RAM ausgerüstet sind und es für den RPI4 nach wie vor kein stabiles 64-Bit RaspberryOS gibt.

rudolfkoenig

Vermutlich reicht bereits die apache Workerprozesse auf 2 zu begrenzen, und plotFork in FHEM auszuschalten.

bismosa

Hallo!

Zitat von: rudolfkoenig am 28 März 2021, 12:48:07
Zuerst: bitte den eigenen Beitrag nach dem Absenden kontrollieren. Das Forum schneidet alles ab ueber 44kByte (?, komische Grenze), selbst das ist zu viel fuer einen Beitrag. Grosse Logs/etc bitte als Anhang hinzufuegen. (Erweiterte Optionen, Datei Anhaengen).
Direkt nach dem Speichern sah das glaube ich noch gut aus. Sorry. Bereits korrigiert.

Danke für die Erklärungen. Schade, dass es wirklich so kompliziert ist den Speicherverbrauch anzuzeigen.
Da ja jedes Gerät einen eigenen Hash besitzt hätte ich mir vorstellen können. dass es einfacher ist.

Plotfork bzw plotEmbed:
Ich habe meine alten Sicherungen jetzt mal durchwühlt. Ich führe leider kein Buch, wann ich welche Änderungen gemacht habe...aber im Nov.2020 hatte ich das (plotEmbed) noch nicht gesetzt. Hatte das mal irgendwo gelesen und war total begeistert, das viele Seiten nun schneller geöffnet wurden  :) Ich habe das nun mal wieder deaktiviert. Kann dann aber erst in ein paar Wochen sagen, ob es schon die Lösung des Problems bei mir ist.

Ich schaue weiterhin, ob ich nicht den Speicherverbrauch durch aufräumen optimieren kann. Ich habe auch diverse "Altgeräte" die eigentlich kaum oder gar nicht verwendet werden und keine richtige Ordnung. Vieles ist da auch nur noch als "Beispiel" vorhanden. Vielleicht sollte ich mir mal eine Testinstanz aufbauen, wo ich das alles hin verschieben kann.

@Christoph
Stimmt. Es läuft einfach schon "zu viel" auf dem Raspberry.
Leider habe ich beim RPi4 Schwierigkeiten mit dem Funk. Alles auf 433MHz ist kaum noch empfangbar mit meinem CUL. Die Ursache dafür konnte ich leider bisher nicht ausmachen. Das war nachher aber der Hauptgrund, warum ich den Umzug nicht vollständig erledigen konnte.
Einfach einen weiteren Raspberry laufen zu lassen ist keine "gute" Lösung für mich. Ich bin sehr darauf aus, dass mein Stromverbrauch reduziert wird. Jeder weitere Raspberry kostet mich ca.10€ Strom im Jahr. Ich finde das muss nicht unbedingt sein.
Das ist auch der Grund, warum ich kein NAS-System im Einsatz habe.

Danke für den Tipps mit dem Apache und dem Plotembed. Plotembed ist jetzt auf 0 und beim Apache habe ich in der "/etc/apache2/mods-available/mpm_prefork.conf" "MaxRequestWorkers 1" eingestellt. Somit läuft da nur noch ein Worker. Ich nutze die Seite kaum. Hauptsächlich habe ich hier Links zu anderen Seiten. Daher wird das auch kaum benötigt.

Ich vermute, dass Problem sollte damit schon gelöst sein  :) Sonst melde ich mich dazu nochmal.
Aufräumen wird definitiv länger dauern und ist nicht mal eben gemacht...

DANKE!

Gruß
Bismosa
1x nanoCUL 433MHz (SlowRF Intertechno) für Fenstersensoren
1x nanoCUL 868Mhz für MAX (9x HT 1xWT)
1x ZigBee CUL
Weiteres: Squeezebox server, Kindle Display, ESP8266, Löterfahrung, ...

DS_Starter

#7
Hallo,

Zitat
Danke für die Erklärungen. Schade, dass es wirklich so kompliziert ist den Speicherverbrauch anzuzeigen.
Da ja jedes Gerät einen eigenen Hash besitzt hätte ich mir vorstellen können. dass es einfacher ist.

Falls es noch von Interesse ist ... ich hatte mir ein kleines Modul geschrieben, welches über set Kommandos den Speicherbedarf von Devices, Modultypen und bestimmten FHEM Standardhashes ($data, $attr) ausgibt.
Als Readings werden die Ergebnisse mit den höchsten Speicherbedarf ausgegeben (einstellbar mit Attr largeObjectNum). Man kann dann immer tiefer hineingehen.

Weil es keine Hilfe dazu gibt hier eine kurze Erklärung.

Define:
  define analyzeData Analyze
dann
attr largeObjectNum 10
zur Anzeige der 10 größten Ergebnisse als Reading.

Überblick über alle Devices:
set analyzeData allDevices
Dann ergibt sich zum Beispiel eine solche Ausgabe:


   READINGS:
     2021-03-28 17:38:48   01_largestObject 1537540, $defs{Rep.SyslogServer.Unify}
     2021-03-28 17:38:48   02_largestObject 1529861, $defs{Rep.SyslogServer.Unify}{READINGS}
     2021-03-28 17:38:48   03_largestObject 1246730, $defs{UnifiAccessControl}
     2021-03-28 17:38:48   04_largestObject 848351, $defs{CamGW1}
     2021-03-28 17:38:48   05_largestObject 801113, $defs{CamGW1}{HELPER}
     2021-03-28 17:38:48   06_largestObject 636520, $defs{CamGW1}{HELPER}{CACHEKEY}
     2021-03-28 17:38:48   07_largestObject 631109, $defs{CamGW1}{HELPER}{CACHEKEY}{redis}
     2021-03-28 17:38:48   08_largestObject 628112, $defs{CamGW1}{HELPER}{CACHEKEY}{redis}{__buf}
     2021-03-28 17:38:48   09_largestObject 594999, $defs{SynCal}
     2021-03-28 17:38:48   10_largestObject 532479, $defs{UnifiAccessControl}{events}
     2021-03-28 17:38:48   state           done


Um weiter reinzugehen führt man  z.B. für das 01_largestObject mit copy&paste den Befehl aus:

set alyzeData xHashDetail $defs{Rep.SyslogServer.Unify}

Das erzeugt dann wieder die 10 größten Objekte als Reading:


   READINGS:
     2021-03-28 20:43:18   01_largestObject 1529423, $defs{Rep.SyslogServer.Unify}
     2021-03-28 20:43:18   02_largestObject 1521744, $defs{Rep.SyslogServer.Unify}{READINGS}
     2021-03-28 20:43:18   03_largestObject 4169, $defs{Rep.SyslogServer.Unify}{HELPER}
     2021-03-28 20:43:18   04_largestObject 1739, $defs{Rep.SyslogServer.Unify}{HELPER}{CV}
     2021-03-28 20:43:18   05_largestObject 1023, $defs{Rep.SyslogServer.Unify}{HELPER}{DBREPCOL}
     2021-03-28 20:43:18   06_largestObject 908, $defs{Rep.SyslogServer.Unify}{READINGS}{2021-03-28_16-23-10__1__SyslogServer_Unify__192.168.2.5_1}
     2021-03-28 20:43:18   07_largestObject 906, $defs{Rep.SyslogServer.Unify}{READINGS}{2021-03-28_19-17-07__1__SyslogServer_Unify__192.168.2.4_1}
     2021-03-28 20:43:18   08_largestObject 905, $defs{Rep.SyslogServer.Unify}{READINGS}{2021-03-28_16-22-26__1__SyslogServer_Unify__192.168.2.5}
     2021-03-28 20:43:18   09_largestObject 903, $defs{Rep.SyslogServer.Unify}{READINGS}{2021-03-28_18-16-04__1__SyslogServer_Unify__192.168.2.4_1}
     2021-03-28 20:43:18   10_largestObject 902, $defs{Rep.SyslogServer.Unify}{READINGS}{2021-03-28_19-33-31__1__SyslogServer_Unify__192.168.2.4_1}
     2021-03-28 20:43:18   state           done

Dann geht man weiter, z.B. mit:

set alyzeData xHashDetail $defs{Rep.SyslogServer.Unify}{READINGS}


Und erhält wieder die größten Objekte, usw. step by step.

So kann man die Dinge untersuchen bis man das gefunden hat was man sucht. Die Ausgaben der set-Befehle zeigen zunächst eine HTML Seite mit jeder Menge Informationen.
Vielleicht hilft das in dem einen oder anderen Fall.

Das Modul liegt in meinem contrib.
Zum Download in der FHEMWEB Kommandozeile inklusive der Ausführungszeichen angeben und danach FHEM restarten:


"wget -qO ./FHEM/98_Analyze.pm https://svn.fhem.de/fhem/trunk/fhem/contrib/DS_Starter/98_Analyze.pm"


Ergänzung: Das Modul benötigt das Perl Modul Devel::Size::Report was man z.B. ganz einfach mit dem     
Installer von Loredo installieren kann wenn es nicht vorhanden sein sollte.

Grüße,
Heiko
ESXi@NUC+Debian+MariaDB, PV: SMA, Victron MPII+Pylontech+CerboGX
Maintainer: SSCam, SSChatBot, SSCal, SSFile, DbLog/DbRep, Log2Syslog, SolarForecast,Watches, Dashboard, PylonLowVoltage
Kaffeekasse: https://www.paypal.me/HMaaz
Contrib: https://svn.fhem.de/trac/browser/trunk/fhem/contrib/DS_Starter

bismosa

Hallo!

@Heiko
Genau das was ich immer gesucht habe  :)

Den FHEM Installer kannte ich bisher noch gar nicht (wie so vieles andere vermutlich auch). Hatte aber ein paar Schwierigkeiten diesen einzurichten.
Macht nichts. Ich habe das Modul mit
sudo cpan install Devel::Size::Report
einfach nachinstalliert. Geht auch problemlos.

Sehr interessant die Ausgabe! Bei mir kommt es dazu:

01_largestObject 56286481224996, $defs{NotdienstApotheke} 29.03.2021 10:43
02_largestObject 56286481218639, $defs{NotdienstApotheke}{HttpUtils} 29.03.2021 10:43
03_largestObject 56286481216540, $defs{NotdienstApotheke}{HttpUtils}{callback} 29.03.2021 10:43
04_largestObject 18074717048936, $defs{Max_HT_Buero} 29.03.2021 10:43
05_largestObject 18074717048321, $defs{Max_HT_Flur} 29.03.2021 10:43
06_largestObject 18074717047867, $defs{Max_HT_Bad_Oben} 29.03.2021 10:43
07_largestObject 18074717047492, $defs{Max_HT_Thekla} 29.03.2021 10:43
08_largestObject 18074717047491, $defs{Max_HT_Tamara} 29.03.2021 10:43
09_largestObject 18074717047484, $defs{Max_HT_Spielzimmer} 29.03.2021 10:43
10_largestObject 18074717046882, $defs{Max_HT_Bad_Unten} 29.03.2021 10:43


Wobei ich 56286481224996 bytes nicht ganz ernst nehmen kann. Im Detail sehe ich dann
'HttpUtils' => Hash ref 56286481218639 bytes

Da ich die Notdienst-Apotheke aber gar nicht mehr benötige...kann das dann auch aufgeräumt werden.

Dann weiß ich nun, wie ich weitermachen kann.
Danke!

Gruß
Bismosa
1x nanoCUL 433MHz (SlowRF Intertechno) für Fenstersensoren
1x nanoCUL 868Mhz für MAX (9x HT 1xWT)
1x ZigBee CUL
Weiteres: Squeezebox server, Kindle Display, ESP8266, Löterfahrung, ...

Wernieman

Also irgendetwas kann dort nicht stimmen. Es sin schließlich mehr als 52420 GByte ..... auch die anderen Werte sind zu hoch. Müsste sich aber der Modulautor vom Statistikmodul mal ansehen ...
- Bitte um Input für Output
- When there is a Shell, there is a Way
- Wann war Dein letztes Backup?

Wie man Fragen stellt: https://tty1.net/smart-questions_de.html

DS_Starter

52420 GByte erscheint tatsächlich etwas groß.  :)
Allerdings wird hier direkt die Ausgabe durch Devel::Size::Report verwendet.

Möglicherweise könnten die dokumentierten Beschränkungen (https://metacpan.org/pod/Devel::Size::Report) zutreffen:

CAVEATS

    The limitations of Devel::Size also apply to this module. This means that CODE refs and other "obscure" things might show wrong sizes, or unknown overhead. In addition, some sizes might be reported wrong.

Allerdings konnte ich bei mir so etwas noch nicht beobachten, z.B. ein HTTPMOD mit HttpUtils:


Analyze result of object "$defs{Star1}{HttpUtils}" (type: HASH) ->

Size report v0.13 for 'HASH(0x55c2d2d8a778)' (HASH):
  Hash ref 139721 bytes (overhead: 2341 bytes, 1.68%)
    'redirects' => Scalar 24 bytes
    'conn' => Scalar 24 bytes
    'compress' => Scalar 24 bytes
    'hu_blocking' => Scalar 24 bytes
    'callback' => Code 127364 bytes
    'data' => Scalar 66 bytes
    'header' => Scalar 144 bytes
    'sslargs' => Hash ref 200 bytes (overhead: 200 bytes, 100.00%)
    'url' => Scalar 127 bytes
    'host' => Scalar 94 bytes
    'displayurl' => Scalar 127 bytes
    'NAME' => Scalar 42 bytes
    'timeout' => Scalar 66 bytes
    'path' => Scalar 99 bytes
    'hu_port' => Scalar 82 bytes
    'loglevel' => Scalar 24 bytes
    'hu_filecount' => Scalar 24 bytes
    'code' => Scalar 58 bytes
    'httpversion' => Scalar 82 bytes
    'ignoreredirects' => Scalar 24 bytes
    'buf' => Scalar 8040 bytes
    'hu_portSfx' => Scalar 42 bytes
    'httpheader' => Scalar 447 bytes
    'addr' => Scalar 66 bytes
    'protocol' => Scalar 42 bytes
    'auth' => Scalar 24 bytes
Total: 139721 bytes in 27 elements


ESXi@NUC+Debian+MariaDB, PV: SMA, Victron MPII+Pylontech+CerboGX
Maintainer: SSCam, SSChatBot, SSCal, SSFile, DbLog/DbRep, Log2Syslog, SolarForecast,Watches, Dashboard, PylonLowVoltage
Kaffeekasse: https://www.paypal.me/HMaaz
Contrib: https://svn.fhem.de/trac/browser/trunk/fhem/contrib/DS_Starter

Christoph Morrison

Ist in dem HTTPMOD zufällig ein userReading implementiert? Oder wird irgendwo anders in dem Device ein Perl-Block verwendet?

bismosa

Hallo!

So spannend ist das Device eigentlich nicht:

defmod NotdienstApotheke HTTPMOD https://www.aponet.de/service/notdienstapotheke-finden/suchergebnis/0/XXXXX.html 0
attr NotdienstApotheke userattr reading05-1Name reading05-2Name
attr NotdienstApotheke enableControlSet 1
attr NotdienstApotheke reading01Name NotName
attr NotdienstApotheke reading01Regex <div class="box_adress"><h2>([a-zA-ZäöüÄÖÜ0-9.&#;;_-]+)<\/h2><p class="distance">
attr NotdienstApotheke reading02Name NotdienstVon
attr NotdienstApotheke reading02Regex <p>Notdienst.*\n([ a-zA-Z0-9.:&#;;_-]+)
attr NotdienstApotheke reading03Name NotdienstBis
attr NotdienstApotheke reading03Regex <span>([ a-zA-Z0-9.:&#;;_-]+)<\/span>
attr NotdienstApotheke reading04Name NotdienstTelefon
attr NotdienstApotheke reading04Regex Tel.:.*\n([ 0-9.:&#;;_-]+)<br
attr NotdienstApotheke reading05Name NotdienstAdresse
attr NotdienstApotheke reading05Regex <p class="adress">([ a-zA-Z0-9äöüÄÖÜß.&#;;_-]+)<br\/>([0-9a-zA-ZäöüÄÖÜ ]+)
attr NotdienstApotheke room Technik->UI
attr NotdienstApotheke stateFormat NotName, NotdienstTelefon, NotdienstAdresse-1 in NotdienstAdresse-2
attr NotdienstApotheke userReadings NotName NotdienstVon NotdienstBis NotdienstTelefon NotdienstAdresse


Das es sich hier um einen Berechnungsfehler handelt ist mir klar  :)
Device wird entfernt und gut is. Vermutlich wird dies aber kein Speicher bringen. Die Summe macht es eher aus...

Bisher kann ich nur sagen, dass mein System durch die geänderten Einstellungen (Plotembed und MaxRequestWorkers) scheinbar stabiler läuft. Hab heute viel gemacht und hatte nicht ein Problem. Speicherverbrauch 144MB...also alles gut.
Genaues erst in ein paar Wochen...

Gruß
Bismosa
1x nanoCUL 433MHz (SlowRF Intertechno) für Fenstersensoren
1x nanoCUL 868Mhz für MAX (9x HT 1xWT)
1x ZigBee CUL
Weiteres: Squeezebox server, Kindle Display, ESP8266, Löterfahrung, ...

Christoph Morrison

Zitat von: bismosa am 29 März 2021, 21:22:29
Hallo!

So spannend ist das Device eigentlich nicht:

attr NotdienstApotheke userReadings NotName NotdienstVon NotdienstBis NotdienstTelefon NotdienstAdresse


Ich glaube, dein userReadings ist das Problem. Auch wenn du das Device nicht nutzt, lösch mal das Attribut, mach einen Neustart und dann schau noch mal nach der Speichernutzung.
Meine Theorie ist, dass jeder dieser Einträge eine Code-Ref auf einen undefinierten Bereich erzeugt und das Devel::Size in die Irre führt.

bismosa

Hallo!

Zitat von: Christoph Morrison am 30 März 2021, 15:48:23
Ich glaube, dein userReadings ist das Problem. Auch wenn du das Device nicht nutzt, lösch mal das Attribut, mach einen Neustart und dann schau noch mal nach der Speichernutzung.
Meine Theorie ist, dass jeder dieser Einträge eine Code-Ref auf einen undefinierten Bereich erzeugt und das Devel::Size in die Irre führt.
Jup. Danach verschwindet es von der Liste.  :)

Bisher läuft mein FHEM endlich wieder absolut stabil! Die kleinen Änderungen haben es echt schon gebracht  :)

Gruß
Bismosa
1x nanoCUL 433MHz (SlowRF Intertechno) für Fenstersensoren
1x nanoCUL 868Mhz für MAX (9x HT 1xWT)
1x ZigBee CUL
Weiteres: Squeezebox server, Kindle Display, ESP8266, Löterfahrung, ...