Hallo Zusammen
ich habe sysmon schon seit längerem erfolgreich am Laufen. Jedoch seit 2 Tagen habe ich fast minütlich folgende Einträge.. Wenn ich dann einen Restart mache, dann gehts wieder ein paar Stunden.
2017.11.24 16:18:07 1: Cannot fork: Cannot allocate memory
2017.11.24 16:19:07 1: Cannot fork: Cannot allocate memory
2017.11.24 16:19:07 1: stacktrace:
2017.11.24 16:19:07 1: main::fhemFork called by FHEM/Blocking.pm (172)
2017.11.24 16:19:07 1: main::BlockingStart called by FHEM/Blocking.pm (297)
2017.11.24 16:19:07 1: main::BlockingKill called by ./FHEM/42_SYSMON.pm (901)
2017.11.24 16:19:07 1: main::SYSMON_Update called by fhem.pl (3076)
2017.11.24 16:19:07 1: main::HandleTimeout called by fhem.pl (628)
2017.11.24 16:19:07 1: Cannot fork: Cannot allocate memory
2017.11.24 16:19:07 1: Cannot fork: Cannot allocate memory
2017.11.24 16:19:07 1: stacktrace:
2017.11.24 16:19:07 1: main::fhemFork called by FHEM/Blocking.pm (172)
2017.11.24 16:19:07 1: main::BlockingStart called by FHEM/Blocking.pm (107)
2017.11.24 16:19:07 1: main::BlockingCall called by ./FHEM/42_SYSMON.pm (905)
2017.11.24 16:19:07 1: main::SYSMON_Update called by fhem.pl (3076)
2017.11.24 16:19:07 1: main::HandleTimeout called by fhem.pl (628)
2017.11.24 16:19:07 1: Cannot fork: Cannot allocate memory
das einzige was ich geändert habe in den letzten 2 Tagen ist:
- Update all
- neuer DOIF: [#""::$STATE eq "on" and $group eq "Licht"]
Hat das evtl. einen Zusammenhang? Danke für die Hilfe..
Damian hatte ja bereits darauf hingewiesen, dass das DOIF in der Form eine erhebliche Belastung sein kann. Und Sysmon generiert recht viele Events ;) , und das minütlich...
Vielleicht testest du das einfach aus, indem du das DOIF vorübergehend deaktivierst?
Zitat von: choetzu am 24 November 2017, 16:45:40
Hallo Zusammen
ich habe sysmon schon seit längerem erfolgreich am Laufen. Jedoch seit 2 Tagen habe ich fast minütlich folgende Einträge.. Wenn ich dann einen Restart mache, dann gehts wieder ein paar Stunden.
2017.11.24 16:18:07 1: Cannot fork: Cannot allocate memory
2017.11.24 16:19:07 1: Cannot fork: Cannot allocate memory
2017.11.24 16:19:07 1: stacktrace:
2017.11.24 16:19:07 1: main::fhemFork called by FHEM/Blocking.pm (172)
2017.11.24 16:19:07 1: main::BlockingStart called by FHEM/Blocking.pm (297)
2017.11.24 16:19:07 1: main::BlockingKill called by ./FHEM/42_SYSMON.pm (901)
2017.11.24 16:19:07 1: main::SYSMON_Update called by fhem.pl (3076)
2017.11.24 16:19:07 1: main::HandleTimeout called by fhem.pl (628)
2017.11.24 16:19:07 1: Cannot fork: Cannot allocate memory
2017.11.24 16:19:07 1: Cannot fork: Cannot allocate memory
2017.11.24 16:19:07 1: stacktrace:
2017.11.24 16:19:07 1: main::fhemFork called by FHEM/Blocking.pm (172)
2017.11.24 16:19:07 1: main::BlockingStart called by FHEM/Blocking.pm (107)
2017.11.24 16:19:07 1: main::BlockingCall called by ./FHEM/42_SYSMON.pm (905)
2017.11.24 16:19:07 1: main::SYSMON_Update called by fhem.pl (3076)
2017.11.24 16:19:07 1: main::HandleTimeout called by fhem.pl (628)
2017.11.24 16:19:07 1: Cannot fork: Cannot allocate memory
das einzige was ich geändert habe in den letzten 2 Tagen ist:
- Update all
- neuer DOIF: [#""::$STATE eq "on" and $group eq "Licht"]
Hat das evtl. einen Zusammenhang? Danke für die Hilfe..
bitte den output von
ps aux --sort -rss
&
free
posten
edit: fehler korrigiert "-rss" anstelle "--rss"
danke. Ich habe Sysmon mal disabled. Und wenn das nix bringt.. hmm..
ps aux --sort -rss
pi@Raspi1:~ $ ps aux --sort -rss
USER PID %CPU %MEM VSZ RSS TTY STAT START TIME COMMAND
fhem 562 21.1 8.1 82836 77320 ? S 17:05 0:39 perl fhem.pl fh
fhem 980 5.0 4.7 76516 45256 ? Sl 17:06 0:08 /usr/bin/perl .
pi 498 1.9 4.2 136020 40424 ? Sl 17:05 0:03 homebridge
root 510 0.3 3.4 120380 32800 tty7 Ssl+ 17:05 0:00 /usr/lib/xorg/X
pi 813 0.5 2.5 139056 23936 ? Sl 17:05 0:01 lxpanel --profi
pi 819 0.4 2.0 77808 19696 ? Sl 17:05 0:00 pcmanfm --deskt
pi 889 0.0 1.5 27868 14744 ? S 17:05 0:00 /usr/bin/vncser
pi 798 0.3 1.5 53252 14312 ? S 17:05 0:00 openbox --confi
root 891 0.0 1.4 40652 13976 ? Ss 17:05 0:00 /usr/sbin/smbd
pi 600 0.1 1.3 52832 12860 ? Ssl 17:05 0:00 /usr/bin/lxsess
pi 865 0.2 1.3 27976 12696 ? S 17:05 0:00 /usr/bin/vncser
pi 806 0.0 1.1 43296 11308 ? Sl 17:05 0:00 lxpolkit
root 441 0.0 1.1 21144 10920 ? S 17:05 0:00 /usr/bin/vncser
pi 890 0.0 1.1 74692 10480 ? Ssl 17:05 0:00 /usr/lib/gvfs/g
root 898 0.0 0.9 59196 8740 ? Ssl 17:05 0:00 /usr/lib/udisks
root 582 0.0 0.8 32316 7732 ? Sl 17:05 0:00 lightdm --sessi
root 856 0.0 0.7 40312 7316 ? Ssl 17:05 0:00 /usr/lib/policy
root 440 0.0 0.7 39956 7236 ? Ssl 17:05 0:00 /usr/sbin/light
pi 960 0.0 0.7 51504 7168 ? Sl 17:05 0:00 /usr/lib/gvfs/g
pi 767 0.0 0.6 56484 6492 ? Sl 17:05 0:00 /usr/lib/gvfs/g
pi 900 0.0 0.6 28444 6460 ? Ssl 17:05 0:00 /usr/lib/menu-c
root 1 0.6 0.6 27056 5968 ? Ss 17:05 0:01 /sbin/init spla
pi 476 0.0 0.6 9660 5840 ? Ss 17:05 0:00 /lib/systemd/sy
pi 762 0.0 0.6 39664 5824 ? Ssl 17:05 0:00 /usr/lib/gvfs/g
root 1116 1.1 0.6 11520 5804 ? Ss 17:08 0:00 sshd: pi [priv]
pi 915 0.0 0.5 37356 5264 ? Ssl 17:05 0:00 /usr/lib/gvfs/g
pi 928 0.0 0.5 38852 5204 ? Ssl 17:05 0:00 /usr/lib/gvfs/g
root 911 0.0 0.5 40652 5044 ? S 17:05 0:00 /usr/sbin/smbd
root 892 0.0 0.5 38648 5016 ? S 17:05 0:00 /usr/sbin/smbd
pi 932 0.0 0.5 50980 4872 ? Ssl 17:05 0:00 /usr/lib/gvfs/g
root 390 0.0 0.4 10200 4660 ? Ss 17:05 0:00 /usr/sbin/sshd
pi 923 0.0 0.4 37280 4620 ? Ssl 17:05 0:00 /usr/lib/gvfs/g
root 107 0.2 0.4 26920 4540 ? Ss 17:05 0:00 /lib/systemd/sy
root 524 0.0 0.4 26476 4532 ? Ss 17:05 0:00 /usr/sbin/nmbd
root 520 0.1 0.4 8612 4296 ? S 17:05 0:00 /usr/bin/vncage
root 321 0.0 0.4 7376 4276 ? Ss 17:05 0:00 /lib/systemd/sy
pi 1129 2.5 0.4 6176 4056 pts/0 Ss 17:08 0:00 -bash
pi 574 0.1 0.4 6176 4048 tty1 S+ 17:05 0:00 -bash
root 893 0.0 0.4 38640 3908 ? S 17:05 0:00 /usr/sbin/smbd
root 539 0.0 0.4 7268 3832 ? Ss 17:05 0:00 /usr/lib/blueto
message+ 326 0.1 0.3 6612 3688 ? Ss 17:05 0:00 /usr/bin/dbus-d
systemd+ 294 0.0 0.3 17280 3644 ? Ssl 17:05 0:00 /lib/systemd/sy
root 542 0.0 0.3 35028 3520 ? Ssl 17:05 0:00 /usr/bin/blueal
pi 610 0.0 0.3 6492 3516 ? Ss 17:05 0:00 /usr/bin/dbus-d
pi 1126 0.0 0.3 11520 3516 ? S 17:08 0:00 sshd: pi@pts/0
root 155 0.1 0.3 14500 3268 ? Ss 17:05 0:00 /lib/systemd/sy
avahi 318 0.0 0.3 6524 3148 ? Ss 17:05 0:00 avahi-daemon: r
pi 1143 0.0 0.3 7884 3088 pts/0 R+ 17:08 0:00 ps aux --sort -
root 450 0.0 0.3 5880 2948 tty1 Ss 17:05 0:00 /bin/login -f
root 398 0.0 0.2 5796 2680 ? Ss 17:05 0:00 /usr/bin/vncser
root 324 0.0 0.2 5292 2488 ? Ss 17:05 0:00 /usr/sbin/cron
nobody 319 0.0 0.2 5292 2412 ? Ss 17:05 0:00 /usr/sbin/thd -
root 317 0.0 0.2 23748 2396 ? Ssl 17:05 0:00 /usr/sbin/rsysl
root 388 0.0 0.2 10128 2368 ? Ss 17:05 0:00 wpa_supplicant
root 346 0.0 0.1 2948 1724 ? Ss 17:05 0:00 /sbin/dhcpcd -q
avahi 348 0.0 0.1 6400 1580 ? S 17:05 0:00 avahi-daemon: c
pi 480 0.0 0.1 11312 1340 ? S 17:05 0:00 (sd-pam)
pi 741 0.0 0.0 3792 232 ? Ss 17:05 0:00 /usr/bin/ssh-ag
pi 850 0.0 0.0 3792 232 ? Ss 17:05 0:00 /usr/bin/ssh-ag
root 535 0.0 0.0 2096 136 ? S 17:05 0:00 /usr/bin/hciatt
root 2 0.0 0.0 0 0 ? S 17:05 0:00 [kthreadd]
root 3 0.0 0.0 0 0 ? S 17:05 0:00 [ksoftirqd/0]
root 4 0.0 0.0 0 0 ? S 17:05 0:00 [kworker/0:0]
root 5 0.0 0.0 0 0 ? S< 17:05 0:00 [kworker/0:0H]
root 6 0.0 0.0 0 0 ? S 17:05 0:00 [kworker/u8:0]
root 7 0.0 0.0 0 0 ? S 17:05 0:00 [rcu_sched]
root 8 0.0 0.0 0 0 ? S 17:05 0:00 [rcu_bh]
root 9 0.0 0.0 0 0 ? S 17:05 0:00 [migration/0]
root 10 0.0 0.0 0 0 ? S< 17:05 0:00 [lru-add-drain]
root 11 0.0 0.0 0 0 ? S 17:05 0:00 [cpuhp/0]
root 12 0.0 0.0 0 0 ? S 17:05 0:00 [cpuhp/1]
root 13 0.0 0.0 0 0 ? S 17:05 0:00 [migration/1]
root 14 0.0 0.0 0 0 ? S 17:05 0:00 [ksoftirqd/1]
root 15 0.0 0.0 0 0 ? S 17:05 0:00 [kworker/1:0]
root 16 0.0 0.0 0 0 ? S< 17:05 0:00 [kworker/1:0H]
root 17 0.0 0.0 0 0 ? S 17:05 0:00 [cpuhp/2]
root 18 0.0 0.0 0 0 ? S 17:05 0:00 [migration/2]
root 19 0.0 0.0 0 0 ? S 17:05 0:00 [ksoftirqd/2]
root 20 0.0 0.0 0 0 ? S 17:05 0:00 [kworker/2:0]
root 21 0.0 0.0 0 0 ? S< 17:05 0:00 [kworker/2:0H]
root 22 0.0 0.0 0 0 ? S 17:05 0:00 [cpuhp/3]
root 23 0.0 0.0 0 0 ? S 17:05 0:00 [migration/3]
root 24 0.0 0.0 0 0 ? S 17:05 0:00 [ksoftirqd/3]
root 25 0.0 0.0 0 0 ? S 17:05 0:00 [kworker/3:0]
root 26 0.0 0.0 0 0 ? S< 17:05 0:00 [kworker/3:0H]
root 27 0.0 0.0 0 0 ? S 17:05 0:00 [kdevtmpfs]
root 28 0.0 0.0 0 0 ? S< 17:05 0:00 [netns]
root 29 0.0 0.0 0 0 ? S 17:05 0:00 [khungtaskd]
root 30 0.0 0.0 0 0 ? S 17:05 0:00 [oom_reaper]
root 31 0.0 0.0 0 0 ? S< 17:05 0:00 [writeback]
root 32 0.0 0.0 0 0 ? S 17:05 0:00 [kcompactd0]
root 33 0.0 0.0 0 0 ? S< 17:05 0:00 [crypto]
root 34 0.0 0.0 0 0 ? S< 17:05 0:00 [bioset]
root 35 0.0 0.0 0 0 ? S< 17:05 0:00 [kblockd]
root 36 0.0 0.0 0 0 ? S< 17:05 0:00 [watchdogd]
root 37 0.0 0.0 0 0 ? S 17:05 0:00 [kworker/0:1]
root 38 0.0 0.0 0 0 ? S< 17:05 0:00 [rpciod]
root 39 0.0 0.0 0 0 ? S< 17:05 0:00 [xprtiod]
root 40 0.0 0.0 0 0 ? S 17:05 0:00 [kswapd0]
root 41 0.0 0.0 0 0 ? S< 17:05 0:00 [vmstat]
root 42 0.0 0.0 0 0 ? S< 17:05 0:00 [nfsiod]
root 52 0.0 0.0 0 0 ? S< 17:05 0:00 [kthrotld]
root 53 0.0 0.0 0 0 ? S< 17:05 0:00 [bioset]
root 54 0.0 0.0 0 0 ? S< 17:05 0:00 [bioset]
root 55 0.0 0.0 0 0 ? S< 17:05 0:00 [bioset]
root 56 0.0 0.0 0 0 ? S< 17:05 0:00 [bioset]
root 57 0.0 0.0 0 0 ? S< 17:05 0:00 [bioset]
root 58 0.0 0.0 0 0 ? S< 17:05 0:00 [bioset]
root 59 0.0 0.0 0 0 ? S< 17:05 0:00 [bioset]
root 60 0.0 0.0 0 0 ? S< 17:05 0:00 [bioset]
root 61 0.0 0.0 0 0 ? S< 17:05 0:00 [bioset]
root 62 0.0 0.0 0 0 ? S< 17:05 0:00 [bioset]
root 63 0.0 0.0 0 0 ? S< 17:05 0:00 [bioset]
root 64 0.0 0.0 0 0 ? S< 17:05 0:00 [bioset]
root 65 0.0 0.0 0 0 ? S< 17:05 0:00 [bioset]
root 66 0.0 0.0 0 0 ? S< 17:05 0:00 [bioset]
root 67 0.0 0.0 0 0 ? S< 17:05 0:00 [bioset]
root 68 0.0 0.0 0 0 ? S< 17:05 0:00 [bioset]
root 69 0.0 0.0 0 0 ? S< 17:05 0:00 [bioset]
root 70 0.0 0.0 0 0 ? S< 17:05 0:00 [bioset]
root 71 0.0 0.0 0 0 ? S< 17:05 0:00 [bioset]
root 72 0.0 0.0 0 0 ? S< 17:05 0:00 [bioset]
root 73 0.0 0.0 0 0 ? S< 17:05 0:00 [bioset]
root 74 0.0 0.0 0 0 ? S< 17:05 0:00 [bioset]
root 75 0.0 0.0 0 0 ? S< 17:05 0:00 [bioset]
root 76 0.0 0.0 0 0 ? S< 17:05 0:00 [bioset]
root 77 0.0 0.0 0 0 ? S< 17:05 0:00 [iscsi_eh]
root 78 0.0 0.0 0 0 ? S< 17:05 0:00 [dwc_otg]
root 79 0.0 0.0 0 0 ? S 17:05 0:00 [kworker/1:1]
root 80 0.0 0.0 0 0 ? S< 17:05 0:00 [DWC Notificati
root 81 0.0 0.0 0 0 ? S< 17:05 0:00 [VCHIQ-0]
root 82 0.0 0.0 0 0 ? S< 17:05 0:00 [VCHIQr-0]
root 83 0.0 0.0 0 0 ? S< 17:05 0:00 [VCHIQs-0]
root 84 0.0 0.0 0 0 ? S 17:05 0:00 [VCHIQka-0]
root 85 0.0 0.0 0 0 ? S< 17:05 0:00 [SMIO]
root 86 0.0 0.0 0 0 ? S 17:05 0:00 [kworker/1:2]
root 87 0.0 0.0 0 0 ? S 17:05 0:00 [irq/92-mmc1]
root 88 0.0 0.0 0 0 ? S 17:05 0:00 [kworker/1:3]
root 89 0.0 0.0 0 0 ? S< 17:05 0:00 [bioset]
root 90 0.2 0.0 0 0 ? S 17:05 0:00 [mmcqd/0]
root 91 0.0 0.0 0 0 ? S 17:05 0:00 [kworker/2:1]
root 92 0.0 0.0 0 0 ? S 17:05 0:00 [jbd2/mmcblk0p2
root 93 0.0 0.0 0 0 ? S< 17:05 0:00 [ext4-rsv-conve
root 94 0.0 0.0 0 0 ? S< 17:05 0:00 [ipv6_addrconf]
root 105 0.0 0.0 0 0 ? S 17:05 0:00 [kworker/u8:1]
root 111 0.0 0.0 0 0 ? S 17:05 0:00 [kworker/3:1]
root 113 0.0 0.0 0 0 ? S< 17:05 0:00 [kworker/1:1H]
root 123 0.0 0.0 0 0 ? S 17:05 0:00 [kworker/1:4]
root 128 0.0 0.0 0 0 ? S 17:05 0:00 [kworker/u8:2]
root 130 0.0 0.0 0 0 ? S 17:05 0:00 [kworker/3:2]
root 133 0.0 0.0 0 0 ? S 17:05 0:00 [kworker/3:3]
root 139 0.0 0.0 0 0 ? S 17:05 0:00 [kworker/2:2]
root 153 0.0 0.0 0 0 ? S 17:05 0:00 [kworker/0:2]
root 238 0.0 0.0 0 0 ? S< 17:05 0:00 [cfg80211]
root 243 0.0 0.0 0 0 ? S< 17:05 0:00 [brcmf_wq/mmc1:
root 246 0.0 0.0 0 0 ? S 17:05 0:00 [brcmf_wdog/mmc
root 368 0.0 0.0 0 0 ? S 17:05 0:00 [kworker/0:3]
root 405 0.0 0.0 0 0 ? S< 17:05 0:00 [cifsiod]
root 406 0.0 0.0 0 0 ? S< 17:05 0:00 [cifsoplockd]
root 516 0.0 0.0 0 0 ? S< 17:05 0:00 [kworker/2:1H]
root 532 0.0 0.0 0 0 ? S< 17:05 0:00 [kworker/u9:0]
root 533 0.0 0.0 0 0 ? S< 17:05 0:00 [hci0]
root 534 0.0 0.0 0 0 ? S< 17:05 0:00 [hci0]
root 538 0.0 0.0 0 0 ? S< 17:05 0:00 [kworker/u9:1]
root 541 0.0 0.0 0 0 ? S< 17:05 0:00 [kworker/u9:2]
root 556 0.0 0.0 0 0 ? S< 17:05 0:00 [krfcommd]
root 690 0.0 0.0 0 0 ? S< 17:05 0:00 [kworker/0:1H]
root 1011 0.0 0.0 0 0 ? S< 17:06 0:00 [kworker/3:1H]
total used free shared buff/cache available
Mem: 949580 213604 462256 12944 273720 671832
Swap: 102396 0 102396
must Du vmtl noch mal machen wenn das Problem auftritt.
Die beiden fhem prozesse finde ich mit 80mb und 45mb gut. Ram sind 1gb .. "sollte" kein Problem sein.
Das denke ich zumindest denn aktuell sind ~460mb frei. Ist also gerade nicht im Fehlerfall, oder ? Wenn doch liegt das Problem woanders und muss/sollte untersucht werden. Lieg ich richtig ?
Du hast recht, z.z. gibts keine Fehlermeldungen.. sollten erneut Fehler auftreten, dann werde ich nochmals nachschauen. Vorerst läufts mit sysmon disabled.. danke sxhonmal
Gesendet von iPhone mit Tapatalk Pro
Hallo,
ich habe seit kurzem auch das Problem, dass ein update mit besagter Fehlermeldung abbricht. Ich habe zwei FHEM-Instanzen laufen und schreibe deren Speicherauslastung zyklisch in die DB, sodass ich die im Anhang befindlichen unschönen Plots erstellen kann. SysMon verwende ich zumindest in der Instanz FHEM2 nicht, dafür dort aber CustomReadings (bis jetzt mit einem Intervall von 10 Sekunden - ich habe es mal vergrößert, um zu sehen, ob der Anstieg dann weniger steil wird...)
Ronny