Cannot fork: Cannot allocate memory | BlockingInformParent

Begonnen von Burny4600, 14 Februar 2018, 10:33:06

Vorheriges Thema - Nächstes Thema

Burny4600

Ich habe seit kurzem immer die Meldung Cannot fork: Cannot allocate memory im LOG, und auf FHEM kann ich mit dem Browaser nicht mehr zugreifen.
Nach einem Systemneustart ist zwar diese Meldung nicht mehr im LOG, taucht aber wieder nach einer gewissen Zeit wieder auf.
Es ist aber überall genügend Speicher an diesem Raspberry Pi 3. Auch gab es keine Änderungen unter FHEM.
Woher kommt dies Fehlermeldung.
2018.02.14 07:31:02.565 1: Cannot fork: Cannot allocate memory
2018.02.14 07:31:02.566 1: Cannot fork: Cannot allocate memory
2018.02.14 07:31:02.650 1: Cannot fork: Cannot allocate memory
2018.02.14 07:31:02.651 1: Cannot fork: Cannot allocate memory
2018.02.14 07:31:02.756 1: Cannot fork: Cannot allocate memory
2018.02.14 07:31:02.757 1: Cannot fork: Cannot allocate memory
2018.02.14 07:31:02.816 1: Cannot fork: Cannot allocate memory
2018.02.14 07:31:02.817 1: Cannot fork: Cannot allocate memory
2018.02.14 07:31:15.905 1: Perfmon: possible freeze starting at 07:31:04, delay is 11.905
2018.02.14 07:31:16.050 1: Cannot fork: Cannot allocate memory
2018.02.14 07:31:16.051 1: Cannot fork: Cannot allocate memory
2018.02.14 07:31:16.066 1: Cannot fork: Cannot allocate memory
2018.02.14 07:31:16.068 1: Cannot fork: Cannot allocate memory
2018.02.14 07:31:16.083 1: Cannot fork: Cannot allocate memory
2018.02.14 07:31:16.084 1: Cannot fork: Cannot allocate memory


Auch mit dieser Fehlermeldung kann ich nichts anfangen.

2018.02.14 10:08:40.299 1: BlockingInformParent (BlockingRegisterTelnet): Can't connect to localhost:37053: IO::Socket::INET: connect: Connection refused
2018.02.14 10:08:40.539 1: BlockingInformParent (BlockingRegisterTelnet): Can't connect to localhost:37053: IO::Socket::INET: connect: Connection refused
2018.02.14 10:08:43.502 1: BlockingInformParent (BlockingStart): Can't connect to localhost:37053: IO::Socket::INET: connect: Connection refused
2018.02.14 10:08:43.505 1: BlockingInformParent (PRESENCE_ProcessLocalScan): Can't connect to localhost:37053: IO::Socket::INET: connect: Connection refused
2018.02.14 10:08:43.623 1: BlockingInformParent (BlockingStart): Can't connect to localhost:37053: IO::Socket::INET: connect: Connection refused
2018.02.14 10:08:43.625 1: BlockingInformParent (PRESENCE_ProcessLocalScan): Can't connect to localhost:37053: IO::Socket::INET: connect: Connection refused
2018.02.14 10:09:15 2: Perfmon: ready to watch out for delays greater than one second

Mfg Chris

Raspberry Pi 2/2+/3/3+/4 / Betriebssystem: Bullseye Lite
Schnittstellen: RFXtrx433E, SIGNALduino, MQTT, nanoCUL, HM-MOD-UART, 1-Wire, LAN, ser2net, FHEM2FEHEM
Devices: S.USV, APC-USV, Fronius Datalogger Web 2, FS20, IT, Resol VBUS & DL2, TEK603, WMR200, YouLess, Homematic, MQTT

CoolTux

Bitte verwende die Suche. Es gibt reichlich Threads zu diesem Thema. Auch intensivere wo Rudi einiges zum aufspüren dieser Meldungen geschrieben hat. Gerade im Zusammenspiel mit BlockingCall und der Begrenzung der maximalen Aufrufe von BlockingCall's.
Du musst nicht wissen wie es geht! Du musst nur wissen wo es steht, wie es geht.
Support me to buy new test hardware for development: https://www.paypal.com/paypalme/MOldenburg
My FHEM Git: https://git.cooltux.net/FHEM/
Das TuxNet Wiki:
https://www.cooltux.net

Burny4600

Mehr als Reichliche Threads gibt es, da hast recht.
Kannst du mir mitteilen welche der Threads auch zum Ziel führt.
Ich habe schon vieles durch, nur der richtige war nicht dabei.
Mfg Chris

Raspberry Pi 2/2+/3/3+/4 / Betriebssystem: Bullseye Lite
Schnittstellen: RFXtrx433E, SIGNALduino, MQTT, nanoCUL, HM-MOD-UART, 1-Wire, LAN, ser2net, FHEM2FEHEM
Devices: S.USV, APC-USV, Fronius Datalogger Web 2, FS20, IT, Resol VBUS & DL2, TEK603, WMR200, YouLess, Homematic, MQTT

CoolTux

Kann ich aktuell leider nicht. Bin nur mit Handy unterwegs
Du musst nicht wissen wie es geht! Du musst nur wissen wo es steht, wie es geht.
Support me to buy new test hardware for development: https://www.paypal.com/paypalme/MOldenburg
My FHEM Git: https://git.cooltux.net/FHEM/
Das TuxNet Wiki:
https://www.cooltux.net

Wernieman

Was mir so pauschal dezu einfällt: Verwendest Du PRESENCE mit Ping?
- Bitte um Input für Output
- When there is a Shell, there is a Way
- Wann war Dein letztes Backup?

Wie man Fragen stellt: https://tty1.net/smart-questions_de.html

Burny4600

#5
@Wernieman
ZitatWas mir so pauschal dezu einfällt: Verwendest Du PRESENCE mit Ping?
PRESENCE läuft auf diesem System auch.
An diesem Master Raspberry kommen auch zusätzlich via FHEM2FHEM LOG auch davon PRESENCE durch und werden dazu wahrscheinlich nicht relefant sein.

An einem der Slave Raspberrys, der eigentlich kaum etwas zu tun hat ausser 3 St. PID 20, fällt mir das schon länger auf.
Mir fällt es an diesem Gerät aber erst dann auf wenn ich wieder einmal ein Update starte.

Ich denke das ich den Link den CoolTux gemeint hat
https://forum.fhem.de/index.php/topic,73490.15.html
gefunden zu haben.

Ich habe aber nur soviel herausbekommen, das jedenfalls beim Master ich ziemlich über die Grenzen das System strapaziere.
{ int(keys %intAt) } => 237

{ int(keys %defs).":".int(keys %attr) }  =>  1549:1549

{ join("\n", map { "$intAt{$_}{TRIGGERTIME} / $intAt{$_}{FN}" } (sort {$intAt{$a}{TRIGGERTIME}<=>$intAt{$b}{TRIGGERTIME}} keys %intAt)[0..49]) }
1518615744.26178 / I2C_SUSV_Poll_GPIO
1518615744.78934 / PRESENCE_StartLocalScan
1518615745 / perfmon_ProcessTimer
1518615751 / FW_closeInactiveClients
1518615751.83152 / Twilight_sunpos
1518615752.79756 / GPIO4_DeviceUpdateLoop
1518615753.47288 / PRESENCE_StartLocalScan
1518615753.50295 / PRESENCE_StartLocalScan
1518615753.5213 / PRESENCE_StartLocalScan
1518615753.82155 / PRESENCE_StartLocalScan
1518615753.83779 / GPIO4_DeviceUpdateLoop
1518615753.8391 / PRESENCE_StartLocalScan
1518615753.90618 / PRESENCE_StartLocalScan
1518615754.12509 / HTTPMOD_GetUpdate
1518615754.14932 / HMUARTLGW_CheckCredits
1518615754.16409 / HMUARTLGW_CheckCredits
1518615754.37304 / I2C_SUSV_Poll
1518615754.37329 / HTTPMOD_GetUpdate
1518615754.38215 / SYSMON_Update
1518615754.45656 / JSONMETER_GetUpdate
1518615755.811 / HMUARTLGW_CheckCredits
1518615756.26038 / HMUARTLGW_CheckCredits
1518615757.87214 / JSONMETER_GetUpdate
1518615757.90599 / JSONMETER_GetUpdate
1518615757.96055 / JSONMETER_GetUpdate
1518615758.01695 / JSONMETER_GetUpdate
1518615758.06349 / SIGNALduino_KeepAlive
1518615770.80646 / ENIGMA2_GetStatus
1518615770.80935 / ENIGMA2_GetStatus
1518615770.81208 / ENIGMA2_GetStatus
1518615796.94036 / at_Exec
1518615799.11965 / BlockingKill
1518615800.62754 / BlockingKill
1518615817.6202 / CUL_HM_ActCheck
1518615900 / DOIF_TimerTrigger
1518616032.56201 / DOIF_SleepTrigger
1518616040.82006 / DOIF_SleepTrigger
1518616095.60928 / DOIF_SleepTrigger
1518616248.44993 / DOIF_SleepTrigger
1518616248.51569 / DOIF_SleepTrigger
1518616248.55611 / DOIF_SleepTrigger
1518616248.59531 / DOIF_SleepTrigger
1518616263.53557 / PRESENCE_StartLocalScan
1518616268.11656 / DOIF_SleepTrigger
1518616268.27118 / DOIF_SleepTrigger
1518616270.06355 / PRESENCE_StartLocalScan
1518616395.56442 / DOIF_SleepTrigger
1518616395.65279 / DOIF_SleepTrigger
1518616395.68724 / DOIF_SleepTrigger
1518616395.72196 / DOIF_SleepTrigger


{ join("\n", map { "$intAt{$_}{TRIGGERTIME} / $intAt{$_}{FN}" } (sort {$intAt{$b}{TRIGGERTIME}<=>$intAt{$a}{TRIGGERTIME}} keys %intAt)[0..49]) }
1520291700 / HTTPMOD_GetUpdate
1518872663.77136 / DOIF_SleepTrigger
1518861726.13669 / DOIF_SleepTrigger
1518702300 / DOIF_TimerTrigger
1518701400 / DOIF_TimerTrigger
1518700500 / DOIF_TimerTrigger
1518698394 / DOIF_TimerTrigger
1518697038 / DOIF_TimerTrigger
1518697038 / DOIF_TimerTrigger
1518694794 / DOIF_TimerTrigger
1518694794 / DOIF_TimerTrigger
1518694794 / DOIF_TimerTrigger
1518693438 / DOIF_TimerTrigger
1518693438 / DOIF_TimerTrigger
1518693000 / DOIF_TimerTrigger
1518692400 / DOIF_TimerTrigger
1518692400 / DOIF_TimerTrigger
1518691194 / DOIF_TimerTrigger
1518691194 / DOIF_TimerTrigger
1518691194 / DOIF_TimerTrigger
1518689838 / DOIF_TimerTrigger
1518689838 / DOIF_TimerTrigger
1518688820 / DOIF_TimerTrigger
1518688800 / DOIF_TimerTrigger
1518688800 / DOIF_TimerTrigger
1518688800 / DOIF_TimerTrigger
1518687594 / DOIF_TimerTrigger
1518687594 / DOIF_TimerTrigger
1518687594 / DOIF_TimerTrigger
1518686238 / DOIF_TimerTrigger
1518686238 / DOIF_TimerTrigger
1518684600 / DOIF_TimerTrigger
1518684300 / DOIF_TimerTrigger
1518683994 / DOIF_TimerTrigger
1518683994 / DOIF_TimerTrigger
1518683994 / DOIF_TimerTrigger
1518682800 / DOIF_TimerTrigger
1518682638 / DOIF_TimerTrigger
1518682638 / DOIF_TimerTrigger
1518682500 / DOIF_TimerTrigger
1518681600 / DOIF_TimerTrigger
1518681600 / DOIF_TimerTrigger
1518681600 / DOIF_TimerTrigger
1518681600 / DOIF_TimerTrigger
1518681600 / DOIF_TimerTrigger
1518681600 / DOIF_TimerTrigger
1518681000 / DOIF_TimerTrigger
1518680394 / DOIF_TimerTrigger
1518680394 / DOIF_TimerTrigger
1518680394 / DOIF_TimerTrigger


{ join(",", grep { !$defs{$_} } sort keys %attr) }
XXX


list TYPE=FHEMWEB
WEB
WEB_192.168.17.40_62860
WEB_192.168.17.46_7736
WEBphone
WEBtablet


fhemdebug memusage
   1. defs                            8155729
   2. modules                         1875948
   3. modules::eventTypes             1529659
   4. modules::eventTypes::ldata      1528597
   5. attr                            1468674
   6. FW_RET                           295938
   7. defs::Wetter                     255109
   8. defs::Wetter::READINGS           253134
   9. defs::battStatus                  99103
  10. defs::SabStatus                   98797
  11. defs::SenRSSI                     98687
  12. defs::battStatus::CONTENT         90946
  13. defs::SenRSSI::CONTENT            90946
  14. defs::SabStatus::CONTENT          90946
  15. defs::UEST1VG_EG_STH              73965
  16. oldvalue                          60980
  17. defs::UEST1VG_EG_STH::READINGS    59494
  18. defs::ActionDetector              51965
  19. defs::SATReceiver_EG_WZ           51296
  20. defs::SATReceiver_OG1_WZ          49434
  21. defs::sysmon                      47234
  22. defs::DL2                         43767
  23. modules::CUL_HM                   40917
  24. POSIX::                           37247
  25. defs::SATReceiver_EG_WZ::READINGS    37174
  26. defs::BATALD                      36890
  27. defs::BATALD::READINGS            36056
  28. defs::myTwilight                  35687
  29. defs::SATReceiver_OG1_WZ::READINGS    33853
  30. defs::OG1_SL_HZG_TC_Climate       33284
  31. defs::EG_WZ_HZG_TC_Climate        33279
  32. defs::OG1_KU_HZG_TC_Climate       33278
  33. defs::OG1_KI_HZG_TC_Climate       33240
  34. defs::OG2_BU2_HZG_TC_Climate      33182
  35. defs::OG2_BU1_HZG_TC_Climate      33134
  36. defs::EG_KU_HZG_TC_Climate        33121
  37. defs::OG1_WZ_HZG_TC_Climate       33099
  38. defs::SATReceiver_OG1_SL          33046
  39. defs::AB_P_ZPHZST                 32142
  40. defs::SATReceiver_OG1_SL::READINGS    31868
  41. defs::sysmon::READINGS            31406
  42. defs::R_OG1_KI_ST                 31358
  43. defs::OG2_BU2_HZG_RT1_Clima       30845
  44. defs::OG1_SL_HZG_TC_Climate::READINGS    30176
  45. defs::EG_WZ_HZG_TC_Climate::READINGS    30173
  46. defs::OG1_KU_HZG_TC_Climate::READINGS    30170
  47. defs::OG1_KI_HZG_TC_Climate::READINGS    30132
  48. defs::OG1_WZ_HZG_TC_Climate::READINGS    30126
  49. defs::OG2_BU2_HZG_TC_Climate::READINGS    30044
  50. defs::OG2_BU1_HZG_TC_Climate::READINGS    30020


pi@ccs-ht-rasp01:~ $ ps -elf | sort -rnk 10 | head
1 S fhem       905     1 80  80   0 - 33987 -      10:20 pts/0    03:38:08 perl fhem.pl fhem.cfg
1 S fhem     17246   905  8  80   0 - 33987 -      14:50 pts/0    00:00:00 perl fhem.pl fhem.cfg
5 S root     11009   646  0  80   0 - 10578 -      13:09 ?        00:00:01 /usr/sbin/smbd
5 S root       703   646  0  80   0 - 10492 -      10:11 ?        00:00:47 /usr/sbin/smbd
5 S root       646     1  0  80   0 - 10166 -      10:09 ?        00:00:00 /usr/sbin/smbd
1 S root       650   646  0  80   0 - 10163 -      10:09 ?        00:00:00 /usr/sbin/smbd
1 S root       648   646  0  80   0 -  9665 -      10:09 ?        00:00:00 /usr/sbin/smbd
5 S root       647   646  0  80   0 -  9662 -      10:09 ?        00:00:03 /usr/sbin/smbd
4 S root       123     1  0  80   0 -  7089 -      10:08 ?        00:00:00 /lib/systemd/systemd-journald
5 S root       513     1  0  80   0 -  6619 -      10:09 ?        00:00:01 /usr/sbin/nmbd


Wenn nur das PRESENCE daran schuld sein sollte kann ich es auch an einen Slave auslagern.
Mfg Chris

Raspberry Pi 2/2+/3/3+/4 / Betriebssystem: Bullseye Lite
Schnittstellen: RFXtrx433E, SIGNALduino, MQTT, nanoCUL, HM-MOD-UART, 1-Wire, LAN, ser2net, FHEM2FEHEM
Devices: S.USV, APC-USV, Fronius Datalogger Web 2, FS20, IT, Resol VBUS & DL2, TEK603, WMR200, YouLess, Homematic, MQTT

Wernieman

Ich weiß nur, das in der Vergangenheit bei einem PI andere User genau mit geforkten pings Probleme hatten ....
- Bitte um Input für Output
- When there is a Shell, there is a Way
- Wann war Dein letztes Backup?

Wie man Fragen stellt: https://tty1.net/smart-questions_de.html

Burny4600

Ich habe die PRESENCE auf einen Slave ausgelagert.
Dies hatte ich ohnehin in der nächsten Zeit vor.

Unklar ist mir nur wieso es bei einem anderen Raspberry, der nur die PID20 zu verarbeiten hat, diese Cannot fork: Cannot allocate memory Meldungen schon länger hat.

Vielleicht ergeben sich noch Lösungsansätze.
Beim Master Raspberry denke ich wird sich das bald zeigen ob es an diesen PRESENCE Definitionen lag.
Mfg Chris

Raspberry Pi 2/2+/3/3+/4 / Betriebssystem: Bullseye Lite
Schnittstellen: RFXtrx433E, SIGNALduino, MQTT, nanoCUL, HM-MOD-UART, 1-Wire, LAN, ser2net, FHEM2FEHEM
Devices: S.USV, APC-USV, Fronius Datalogger Web 2, FS20, IT, Resol VBUS & DL2, TEK603, WMR200, YouLess, Homematic, MQTT

rudolfkoenig

Wie lange ist dein FHEM-update her? Ich habe fhemdebug memusage umgebaut, die alte Version hat gerne Sachen doppelt gezaehlt. Was sagt BlockingInfo? Und (in FHEM eingegeben): { `ps -elf | grep fhem` }
Aus den bisherigen Angaben kann ich leider keine Ursache ableiten.

Die Meldung "Can't connect to localhost:37053:... connection refused" kann ich auch nicht wirklich erklaeren. Nur mit "localhost zeigt nicht auf die aktuelle Maschine", was hoffentlich nicht wahr ist.

Burny4600

@rudolfkönig
FHEM Updates sind aktuell.
In der Zwischenzeit habe ich alle PRESENCE auf ein Slave System übertragen was derzeit kaum etwas zu tun hat.

Derzeit ist wieder Ruhe eingekehrt und auch auf dem Slave System ist derzeit nichts auffälliges.
Wie ich bei den Updates heute gesehn habe wurde eine neu PRESENCE.pm eingespielt.

Ich weiß nicht ob das jetzt noch hilfreich ist was bei den Abfragen herauskommt.
Ich habe diese jetzt auf dem Slave Gerät wo PRESENCE läuft abgerufen.

{ `ps -elf | grep fhem` }
1 S fhem      2190     1 24  80   0 - 23605 -      15:39 pts/0    00:05:31 perl fhem.pl fhem.cfg
0 S fhem      2862  2190  0  80   0 -   475 wait   16:02 pts/0    00:00:00 sh -c ps -elf | grep fhem
0 R fhem      2863  2862  0  80   0 -  1934 -      16:02 pts/0    00:00:00 ps -elf
0 S fhem      2864  2862  0  80   0 -  1093 pipe_w 16:02 pts/0    00:00:00 grep fhem


BlockingInfo?
Pid:813 Fn:PRESENCE_DoLocalPingScan Arg:OG2_FR_EDVAWE02|192.168.17.40|0|4 Timeout:60 ConnectedVia:telnetForBlockingFn_1518625271_127.0.0.1_45604

Mfg Chris

Raspberry Pi 2/2+/3/3+/4 / Betriebssystem: Bullseye Lite
Schnittstellen: RFXtrx433E, SIGNALduino, MQTT, nanoCUL, HM-MOD-UART, 1-Wire, LAN, ser2net, FHEM2FEHEM
Devices: S.USV, APC-USV, Fronius Datalogger Web 2, FS20, IT, Resol VBUS & DL2, TEK603, WMR200, YouLess, Homematic, MQTT

rudolfkoenig

Die Ausgaben sind z.Zt. unauffaellig, und sind eher im Problemfall hilfreich.

Nighthawk

#11
Hallo Rudi,

ich habe seit dem Umstieg auf Raspbian Stretch ebenfalls das Problem dass der Speicher zunehmend verbraucht wird (siehe Screenshot) und ab ca. 50% Speicherbelegung erscheint die Fehlermeldung "Cannot fork: Cannot allocate memory" im Logfile.
Nehme ich die gleiche Config und lasse es unter Jessie laufen, ist alles i.O.

BlockingInfo:
Pid:9560 Fn:DbLog_PushAsync Arg:logdb|************************************************ Timeout:86400 ConnectedVia:telnetPort_127.0.0.1_59526

{ `ps -elf | grep fhem` }
1 S fhem       480     1 20  80   0 - 84744 -      Feb17 ?        02:53:46 perl fhem.pl fhem.cfg
0 S fhem      9891   480  0  80   0 -   475 wait   09:44 ?        00:00:00 sh -c ps -elf | grep fhem
0 R fhem      9892  9891  0  80   0 -  2035 -      09:44 ?        00:00:00 ps -elf
0 S fhem      9893  9891  0  80   0 -  1194 -      09:44 ?        00:00:00 grep fhem


fhemdebug memusage:
1. defs                            6132399
   2. modules                         1420446
   3. modules::eventTypes             1083021
   4. modules::eventTypes::ldata      1081959
   5. attr                             319187
   6. defs::EG_Jalousie_AZ_kl          250113
   7. defs::WetterWolfsburg            243123
   8. defs::WetterWolfsburg::READINGS   240596
   9. defs::Markise                    237808
  10. defs::EG_Jalousie_AZ_kl::READINGS   230311
  11. defs::Markise::READINGS          221912
  12. defs::EG_Jalousie_AZ_gr          199840
  13. defs::EG_Jalousie_WC             197810
  14. defs::EG_Jalousie_AZ_gr::READINGS   178637
  15. defs::EG_Jalousie_WC::READINGS   178200
  16. defs::EG_Jalousie_Kueche         146360
  17. defs::EG_Jalousie_Terasse_gr     145712
  18. defs::EG_Jalousie_Terasse_kl     145708
  19. defs::EG_Jalousie_Kueche::READINGS   125170
  20. defs::EG_Jalousie_Terasse_gr::READINGS   124732
  21. defs::EG_Jalousie_Terasse_kl::READINGS   124732
  22. defs::EG_Jalousie_WZ_1           119918
  23. defs::OG_Jalousie_KZ2            113840
  24. defs::OG_Jalousie_KZ1            113802
  25. defs::OG_Jalousie_SZ             113082
  26. defs::Heizung                    111141
  27. defs::logdb                      104546
  28. defs::myStatDevice               103800
  29. defs::myStatDevice::READINGS     102135
  30. defs::FritzBox_7490              101821
  31. defs::Lichtschalter_OG_KZ2       101692
  32. defs::EG_Jalousie_WZ_1::READINGS    98750
  33. defs::OG_Jalousie_KZ1::READINGS    96469
  34. defs::OG_Jalousie_KZ2::READINGS    96469
  35. defs::OG_Jalousie_SZ::READINGS    96044
  36. defs::Lichtschalter_OG_KZ1        95172
  37. defs::EG_Jalousie_WZ_2            94536
  38. defs::OG_Jalousie_Galerie         88434
  39. defs::OG_Jalousie_Bad             88411
  40. defs::Lichtschalter_OG_KZ2::READINGS    80911
  41. defs::WUWeather                   79572
  42. defs::Lichtschalter_OG_KZ1::READINGS    78626
  43. defs::WUWeather::READINGS         78578
  44. defs::Lichtschalter_Terasse_gross    76503
  45. defs::Dunstabzug                  75274
  46. defs::EG_Jalousie_WZ_2::READINGS    73357
  47. defs::sysmon                      72069
  48. defs::OG_Jalousie_Galerie::READINGS    71072
  49. defs::OG_Jalousie_Bad::READINGS    71072
  50. defs::logdb::cache                69386

rudolfkoenig

Es waeren zwei Messpunkte mit memusage und ps interessant: kurz nach FHEM-Start, und kurz vor oder nach Auftreten des Problems.

Die blockinginfo und die ps Ausgaben sind widerspruechlich.

Nighthawk

Hallo Rudi,

die

Die Auszüge im Post vorher sind bei aktivem Fehler gewesen, hier das Ganze nach einem Neustart:

fhemdebug memusage:
1. defs                            5499111
   2. modules                         1418230
   3. modules::eventTypes             1083467
   4. modules::eventTypes::ldata      1082405
   5. attr                             317251
   6. defs::EG_Jalousie_AZ_kl          247039
   7. defs::WetterWolfsburg            243051
   8. defs::WetterWolfsburg::READINGS   240596
   9. defs::Markise                    236971
  10. defs::EG_Jalousie_AZ_kl::READINGS   230201
  11. defs::Markise::READINGS          221915
  12. defs::EG_Jalousie_AZ_gr          195323
  13. defs::EG_Jalousie_WC             194914
  14. defs::EG_Jalousie_AZ_gr::READINGS   178505
  15. defs::EG_Jalousie_WC::READINGS   178092
  16. defs::EG_Jalousie_Kueche         143288
  17. defs::EG_Jalousie_Terasse_gr     141427
  18. defs::EG_Jalousie_Terasse_kl     141400
  19. defs::EG_Jalousie_Kueche::READINGS   125060
  20. defs::EG_Jalousie_Terasse_kl::READINGS   124599
  21. defs::EG_Jalousie_Terasse_gr::READINGS   124599
  22. defs::EG_Jalousie_WZ_1           117065
  23. defs::OG_Jalousie_SZ             110759
  24. defs::myStatDevice               103525
  25. defs::OG_Jalousie_KZ1            102826
  26. defs::OG_Jalousie_KZ2            102826
  27. defs::myStatDevice::READINGS     101863
  28. defs::EG_Jalousie_WZ_1::READINGS    98640
  29. defs::Lichtschalter_OG_KZ2        96720
  30. defs::OG_Jalousie_KZ2::READINGS    96220
  31. defs::OG_Jalousie_KZ1::READINGS    96220
  32. defs::OG_Jalousie_SZ::READINGS    95958
  33. defs::Lichtschalter_OG_KZ1        92704
  34. defs::EG_Jalousie_WZ_2            91669
  35. defs::OG_Jalousie_Bad             86113
  36. defs::Lichtschalter_OG_KZ2::READINGS    80749
  37. defs::WUWeather                   79556
  38. defs::WUWeather::READINGS         78578
  39. defs::Lichtschalter_OG_KZ1::READINGS    78537
  40. defs::OG_Jalousie_Galerie         77435
  41. defs::Dunstabzug                  75528
  42. defs::Lichtschalter_Terasse_gross    74995
  43. defs::Heizung                     73540
  44. defs::EG_Jalousie_WZ_2::READINGS    73247
  45. defs::OG_Jalousie_Bad::READINGS    70988
  46. defs::OG_Jalousie_Galerie::READINGS    70823
  47. defs::Lichtschalter_EG_WZ         64652
  48. defs::sysmon                      63796
  49. defs::Lichtschalter_Terasse_gross::READINGS    62845
  50. defs::Dunstabzug::READINGS        61405


{ `ps -elf | grep fhem` }:
1 S fhem       493     1 34  80   0 - 27958 -      11:14 ?        00:01:03 perl fhem.pl fhem.cfg
1 S fhem      1160   493  4  80   0 - 27958 -      11:18 ?        00:00:00 perl fhem.pl fhem.cfg
0 S fhem      1165   493  0  80   0 -   475 wait   11:18 ?        00:00:00 sh -c ps -elf | grep fhem
0 R fhem      1166  1165  0  80   0 -  2035 -      11:18 ?        00:00:00 ps -elf
0 S fhem      1167  1165  0  80   0 -  1194 -      11:18 ?        00:00:00 grep fhem


Die blockinginfo und die ps Ausgaben habe ich direkt hintereinander abgerufen.

rudolfkoenig

Da die beiden memusage Angaben aehnlich sind, die ps Angaben aber sehr unterschiedlich, kann man in diesem Fall memusage vegessen.
Wieviel Speicher steht zur Verfuegung (Ausgabe von free)? Mit fhem.pl < 90MB im Fehlerfall muessen entweder viele Blocking Prozesse parallel gestartet werden, oder der Speicher ist anderweitig voll.