Hallo,#
habe seit einigen Wochen ein hackeliges FHEM
Telegram Nachrichten kommen mit ca 10 min verzug
die Browseroberfläche ist max 5 min erreichbar,
läuft aber tapfer weiter
SD Karte im Eimer??
im log stand: (debug 5)
Speicherauslastung: ram,
free
ergibt:
free
total used free shared buff/cache available
Mem: 1911328 496892 930244 14968 484192 1306424
Swap: 102396 0 102396
mit top
bekomme ich folgendes:
pi@raspberrypi:~ $ top
top - 21:28:34 up 1 day, 2:12, 3 users, load average: 1,31, 1,30, 1,16
Tasks: 150 total, 2 running, 148 sleeping, 0 stopped, 0 zombie
%Cpu(s): 26,2 us, 0,3 sy, 0,0 ni, 73,6 id, 0,0 wa, 0,0 hi, 0,0 si, 0,0 st
MiB Mem : 1866,5 total, 908,4 free, 485,3 used, 472,8 buff/cache
MiB Swap: 100,0 total, 100,0 free, 0,0 used. 1275,7 avail Mem
PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND
5120 fhem 20 0 364648 324224 11552 R 100,0 17,0 27:59.23 perl
360 root 20 0 9976 1608 1432 S 5,6 0,1 86:22.14 pigpiod
830 root 20 0 26112 9520 5468 S 0,7 0,5 4:59.13 python3
87 root 20 0 0 0 0 S 0,3 0,0 0:07.77 jbd2/mmcblk0p2-
6595 pi 20 0 12380 3676 2788 S 0,3 0,2 0:00.08 sshd
6611 pi 20 0 10388 2756 2392 R 0,3 0,1 0:00.27 top
1 root 20 0 33916 8352 6532 S 0,0 0,4 0:15.43 systemd
2 root 20 0 0 0 0 S 0,0 0,0 0:00.11 kthreadd
3 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 rcu_gp
4 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 rcu_par_gp
8 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 mm_percpu_wq
9 root 20 0 0 0 0 S 0,0 0,0 0:00.00 rcu_tasks_rude_
10 root 20 0 0 0 0 S 0,0 0,0 0:00.00 rcu_tasks_trace
11 root 20 0 0 0 0 S 0,0 0,0 0:07.03 ksoftirqd/0
12 root 20 0 0 0 0 I 0,0 0,0 0:22.10 rcu_sched
13 root rt 0 0 0 0 S 0,0 0,0 0:00.19 migration/0
14 root 20 0 0 0 0 S 0,0 0,0 0:00.00 cpuhp/0
15 root 20 0 0 0 0 S 0,0 0,0 0:00.00 cpuhp/1
16 root rt 0 0 0 0 S 0,0 0,0 0:00.17 migration/1
17 root 20 0 0 0 0 S 0,0 0,0 0:00.92 ksoftirqd/1
20 root 20 0 0 0 0 S 0,0 0,0 0:00.00 cpuhp/2
21 root rt 0 0 0 0 S 0,0 0,0 0:00.15 migration/2
22 root 20 0 0 0 0 S 0,0 0,0 0:01.25 ksoftirqd/2
25 root 20 0 0 0 0 S 0,0 0,0 0:00.00 cpuhp/3
26 root rt 0 0 0 0 S 0,0 0,0 0:00.14 migration/3
27 root 20 0 0 0 0 S 0,0 0,0 0:01.47 ksoftirqd/3
30 root 20 0 0 0 0 S 0,0 0,0 0:00.00 kdevtmpfs
31 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 netns
35 root 20 0 0 0 0 S 0,0 0,0 0:00.00 kauditd
36 root 20 0 0 0 0 S 0,0 0,0 0:00.05 khungtaskd
37 root 20 0 0 0 0 S 0,0 0,0 0:00.00 oom_reaper
38 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 writeback
39 root 20 0 0 0 0 S 0,0 0,0 0:05.07 kcompactd0
57 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 kblockd
58 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 blkcg_punt_bio
59 root -51 0 0 0 0 S 0,0 0,0 0:00.00 watchdogd
61 root 0 -20 0 0 0 I 0,0 0,0 0:03.17 kworker/1:1H-kblockd
62 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 rpciod
63 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 kworker/u9:0-hci0
64 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 xprtiod
65 root 20 0 0 0 0 S 0,0 0,0 0:00.00 kswapd0
66 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 nfsiod
67 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 kthrotld
68 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 iscsi_eh
69 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 iscsi_destroy
Zitat von: moppsgti am 27 Juli 2021, 16:39:45
Hallo,#
habe seit einigen Wochen ein hackeliges FHEM
Telegram Nachrichten kommen mit ca 10 min verzug
die Browseroberfläche ist max 5 min erreichbar,
läuft aber tapfer weiter
SD Karte im Eimer??
im log stand: (debug 5)
Speicherauslastung: ram,
free
ergibt:
free
total used free shared buff/cache available
Mem: 1911328 496892 930244 14968 484192 1306424
Swap: 102396 0 102396
mit top
bekomme ich folgendes:
pi@raspberrypi:~ $ top
top - 21:28:34 up 1 day, 2:12, 3 users, load average: 1,31, 1,30, 1,16
Tasks: 150 total, 2 running, 148 sleeping, 0 stopped, 0 zombie
%Cpu(s): 26,2 us, 0,3 sy, 0,0 ni, 73,6 id, 0,0 wa, 0,0 hi, 0,0 si, 0,0 st
MiB Mem : 1866,5 total, 908,4 free, 485,3 used, 472,8 buff/cache
MiB Swap: 100,0 total, 100,0 free, 0,0 used. 1275,7 avail Mem
PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND
5120 fhem 20 0 364648 324224 11552 R 100,0 17,0 27:59.23 perl
360 root 20 0 9976 1608 1432 S 5,6 0,1 86:22.14 pigpiod
830 root 20 0 26112 9520 5468 S 0,7 0,5 4:59.13 python3
87 root 20 0 0 0 0 S 0,3 0,0 0:07.77 jbd2/mmcblk0p2-
6595 pi 20 0 12380 3676 2788 S 0,3 0,2 0:00.08 sshd
6611 pi 20 0 10388 2756 2392 R 0,3 0,1 0:00.27 top
1 root 20 0 33916 8352 6532 S 0,0 0,4 0:15.43 systemd
2 root 20 0 0 0 0 S 0,0 0,0 0:00.11 kthreadd
3 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 rcu_gp
4 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 rcu_par_gp
8 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 mm_percpu_wq
9 root 20 0 0 0 0 S 0,0 0,0 0:00.00 rcu_tasks_rude_
10 root 20 0 0 0 0 S 0,0 0,0 0:00.00 rcu_tasks_trace
11 root 20 0 0 0 0 S 0,0 0,0 0:07.03 ksoftirqd/0
12 root 20 0 0 0 0 I 0,0 0,0 0:22.10 rcu_sched
13 root rt 0 0 0 0 S 0,0 0,0 0:00.19 migration/0
14 root 20 0 0 0 0 S 0,0 0,0 0:00.00 cpuhp/0
15 root 20 0 0 0 0 S 0,0 0,0 0:00.00 cpuhp/1
16 root rt 0 0 0 0 S 0,0 0,0 0:00.17 migration/1
17 root 20 0 0 0 0 S 0,0 0,0 0:00.92 ksoftirqd/1
20 root 20 0 0 0 0 S 0,0 0,0 0:00.00 cpuhp/2
21 root rt 0 0 0 0 S 0,0 0,0 0:00.15 migration/2
22 root 20 0 0 0 0 S 0,0 0,0 0:01.25 ksoftirqd/2
25 root 20 0 0 0 0 S 0,0 0,0 0:00.00 cpuhp/3
26 root rt 0 0 0 0 S 0,0 0,0 0:00.14 migration/3
27 root 20 0 0 0 0 S 0,0 0,0 0:01.47 ksoftirqd/3
30 root 20 0 0 0 0 S 0,0 0,0 0:00.00 kdevtmpfs
31 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 netns
35 root 20 0 0 0 0 S 0,0 0,0 0:00.00 kauditd
36 root 20 0 0 0 0 S 0,0 0,0 0:00.05 khungtaskd
37 root 20 0 0 0 0 S 0,0 0,0 0:00.00 oom_reaper
38 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 writeback
39 root 20 0 0 0 0 S 0,0 0,0 0:05.07 kcompactd0
57 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 kblockd
58 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 blkcg_punt_bio
59 root -51 0 0 0 0 S 0,0 0,0 0:00.00 watchdogd
61 root 0 -20 0 0 0 I 0,0 0,0 0:03.17 kworker/1:1H-kblockd
62 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 rpciod
63 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 kworker/u9:0-hci0
64 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 xprtiod
65 root 20 0 0 0 0 S 0,0 0,0 0:00.00 kswapd0
66 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 nfsiod
67 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 kthrotld
68 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 iscsi_eh
69 root 0 -20 0 0 0 I 0,0 0,0 0:00.00 iscsi_destroy
Hast du schon einmal neu gestartet?
Am besten das Betriebssystem und nicht nur Fhem.
Am Besten ausschalten, kurz warten und dann erst wieder starten.
Perl unter User Fhem hat 100% Auslastung.
Das betrifft aber nicht direkt Fhem, soweit ich das sehe.
Zitat von: frober am 27 Juli 2021, 16:50:49
Hast du schon einmal neu gestartet?
Am besten das Betriebssystem und nicht nur Fhem.
Am Besten ausschalten, kurz warten und dann erst wieder starten.
hatte schon 100x eu gestartet,
ausgeschalten hatte ich noch ne explizit - brachte abe rleider nichts.
mein Log mit >120 mb hab ich auch schon gelöscht...
alte logs entfernt...
Hi,
ich denke, irgendwas in deinem FHEM macht eine Endlosschleife oder blockiert. Beende doch mal Dein FHEM und starte es im debug Modus.
https://wiki.fhem.de/wiki/FHEM_startet_nicht_-_Tipps_zur_Fehlersuche#Neue_M.C3.B6glichkeit_des_Debuggen
Eventuell siehst Du was falsch läuft. Speicherauslastung scheint mir die falsche Fährte.
Gruß Otto
Zitat von: Otto123 am 31 Juli 2021, 13:29:07
Hi,
ich denke, irgendwas in deinem FHEM macht eine Endlosschleife oder blockiert. Beende doch mal Dein FHEM und starte es im debug Modus.
https://wiki.fhem.de/wiki/FHEM_startet_nicht_-_Tipps_zur_Fehlersuche#Neue_M.C3.B6glichkeit_des_Debuggen
Eventuell siehst Du was falsch läuft. Speicherauslastung scheint mir die falsche Fährte.
Gruß Otto
Ich hatte es auch auf die CPU bezogen
, ich sehe jedoch nur Perl mit 100%
Fhem wird bei mir mit perl fhem.pl fhem.cfg
angezeigt.
Aber ich schließe Fhem es nicht aus...
Wir wird ein Subprozess ( nonblocking) angezeigt?Ok, ich bin htop gewohnt ::), da gibt es mehr Infos...dann ist es Fhem.
@moppsgti wie sieht top nach einen Neustart aus?
ich glaub bei mir hatten sich2 fehler eingeschlichen....
gefunden
Fehm läuft wieder ...
DANKE!!
Zitat von: moppsgti am 03 August 2021, 19:50:46
ich glaub bei mir hatten sich2 fehler eingeschlichen....
gefunden
Fehm läuft wieder ...
DANKE!!
Freut mich für dich. Setzte bitte noch, im ersten Post, den Betreff auf [gelöst].
Evtl. wäre es für andere User hilfreich, wenn du die Fehler hier beschreiben könntest.