Cannot fork: Cannot allocate memory | BlockingInformParent

Begonnen von Burny4600, 14 Februar 2018, 10:33:06

Vorheriges Thema - Nächstes Thema

DS_Starter

Hallo Rudi,

ZitatVon wieviel?
126 bei Start

ZitatDas ist normal fuer jeden HttpUtils_NonblockingGet. Ich habe 30 gezaehlt, ist das realistisch?
Dann ist es erklärbar und durchaus realistisch. Ich arbeite bei der Kamerasteuerung sehr intensiv mit HttpUtils_NonblockingGet.
Gewundert hat mich nur dass ich immer nur einen Anstieg dieser Einträge beobachtet hatte und es meiner Meinung nach in einem eingeschwungenen Zustand irgendwann stagnieren sollte. Aber vielleicht sind die Beobachtungszeiträume noch zu kurz.

Die Timereinträge sind meinen Erkenntnissen nach auch nur an der Grundlast der CPU beteiligt. Mehr Einträge -> mehr Grundlast. Beim RAM eher nicht.
Das ich viel RAM benötige, ist für mich auch nachvollziehbar und ok und nach den neuesten Erkenntnissen die ich über top erzielt habe, bleibt die RAM Auslastung ab einem bestimmten level weitgehend gleich.
Fehlermitteilungen im Sinne des Threads gibt es bei mir auch nicht.

ZitatIch vermute, dass wir mehrere unterschiedliche Ursachen mit dem gleichen Resultat (Speicherzuwachs) haben.
Bin ich komplett bei dir. Das Thema ist eben sehr komplex und schwer zu fassen.
Da müssen wir wohl weitersuchen ...

Grüße,
Heiko

ESXi@NUC+Debian+MariaDB, PV: SMA, Victron MPII+Pylontech+CerboGX
Maintainer: SSCam, SSChatBot, SSCal, SSFile, DbLog/DbRep, Log2Syslog, SolarForecast,Watches, Dashboard, PylonLowVoltage
Kaffeekasse: https://www.paypal.me/HMaaz
Contrib: https://svn.fhem.de/trac/browser/trunk/fhem/contrib/DS_Starter

DS_Starter

Hallo Rudi,

inzwischen sind die Timereinträge auf 171 angewachsen und davon sind  53 "HttpUtils_Err".


InternalTimer: 171
Number Date/Time Function
81381 04.05.2018 00:00:01 FileLog_dailySwitch
2231124 03.05.2018 18:27:13 HttpUtils_Err
2231767 03.05.2018 18:22:15 BlockingKill
2231932 03.05.2018 18:21:34 HttpUtils_Err
2231935 03.05.2018 18:21:34 HttpUtils_Err
2231938 03.05.2018 18:21:34 HttpUtils_Err
2231941 03.05.2018 18:21:34 HttpUtils_Err
2231944 03.05.2018 18:21:34 HttpUtils_Err
2231947 03.05.2018 18:21:34 HttpUtils_Err
2231950 03.05.2018 18:21:34 HttpUtils_Err
2231953 03.05.2018 18:21:34 HttpUtils_Err
2231956 03.05.2018 18:21:34 HttpUtils_Err
2231959 03.05.2018 18:21:34 HttpUtils_Err
2231962 03.05.2018 18:21:34 HttpUtils_Err
2231965 03.05.2018 18:21:34 HttpUtils_Err
2231968 03.05.2018 18:21:34 HttpUtils_Err
2231971 03.05.2018 18:21:34 HttpUtils_Err
2231974 03.05.2018 18:21:34 HttpUtils_Err
2231977 03.05.2018 18:21:34 HttpUtils_Err
2231980 03.05.2018 18:21:34 HttpUtils_Err
2231983 03.05.2018 18:21:34 HttpUtils_Err
2231986 03.05.2018 18:21:34 HttpUtils_Err
2231989 03.05.2018 18:21:34 HttpUtils_Err
2231992 03.05.2018 18:21:34 HttpUtils_Err
2231995 03.05.2018 18:21:34 HttpUtils_Err
2231998 03.05.2018 18:21:34 HttpUtils_Err
2232001 03.05.2018 18:21:34 HttpUtils_Err
2232004 03.05.2018 18:21:34 HttpUtils_Err
2232007 03.05.2018 18:21:34 HttpUtils_Err
2232010 03.05.2018 18:21:34 HttpUtils_Err
2232013 03.05.2018 18:21:34 HttpUtils_Err
2232016 03.05.2018 18:21:34 HttpUtils_Err
2232019 03.05.2018 18:21:34 HttpUtils_Err
2232022 03.05.2018 18:21:34 HttpUtils_Err
2232025 03.05.2018 18:21:34 HttpUtils_Err
2232028 03.05.2018 18:21:34 HttpUtils_Err
2232031 03.05.2018 18:21:34 HttpUtils_Err
2232034 03.05.2018 18:21:34 HttpUtils_Err
2232037 03.05.2018 18:21:34 HttpUtils_Err
2232040 03.05.2018 18:21:34 HttpUtils_Err
2232043 03.05.2018 18:21:34 HttpUtils_Err
2232046 03.05.2018 18:21:34 HttpUtils_Err
2232049 03.05.2018 18:21:34 HttpUtils_Err
2232052 03.05.2018 18:21:34 HttpUtils_Err
2232055 03.05.2018 18:21:34 HttpUtils_Err
2232058 03.05.2018 18:21:34 HttpUtils_Err
2232061 03.05.2018 18:21:34 HttpUtils_Err
2232064 03.05.2018 18:21:34 HttpUtils_Err
2232067 03.05.2018 18:21:34 HttpUtils_Err
2232070 03.05.2018 18:21:34 HttpUtils_Err
2232073 03.05.2018 18:21:34 HttpUtils_Err
2232076 03.05.2018 18:21:34 HttpUtils_Err
2232079 03.05.2018 18:21:34 HttpUtils_Err
2232082 03.05.2018 18:21:34 HttpUtils_Err
2232085 03.05.2018 18:21:34 HttpUtils_Err
2035612 04.05.2018 13:19:17 2035612 CUL_HM_statCntRfresh
2224940 03.05.2018 18:49:17 2224940 CUL_HM_complConfigTO
2225116 03.05.2018 18:31:19 2225116 HMinfo_autoUpdate
2225611 03.05.2018 18:29:29 2225611 CUL_HM_ActCheck
2225618 03.05.2018 18:29:29 2225618 HTTPMOD_GetUpdate
2226976 03.05.2018 18:29:59 2226976 HTTPMOD_GetUpdate
2227828 03.05.2018 18:30:18 2227828 HTTPMOD_GetUpdate
2228156 03.05.2018 18:30:28 2228156 HTTPMOD_GetUpdate
2230807 03.05.2018 18:21:27 2230807 HMLAN_KeepAlive
2231126 03.05.2018 18:21:33 2231126 HMLAN_KeepAlive
2231605 03.05.2018 18:22:18 2231605 FW_closeInactiveClients
2231762 03.05.2018 18:21:29 2231762 NUT_PollTimer
81389 04.05.2018 00:00:02 81389 holiday_refresh
567 03.05.2018 20:45:06 AT.au.lichtkette.he.An at_Exec
372579 04.05.2018 04:45:07 AT.au.lichtkette.he.An1 at_Exec
71601 03.05.2018 23:45:00 AT.au.lichtkette.he.Aus at_Exec
459700 04.05.2018 05:46:50 AT.au.lichtkette.he.Aus1 at_Exec
743 03.05.2018 21:15:06 AT.au.weihnachtsstern.An at_Exec
53236 03.05.2018 23:15:00 AT.au.weihnachtsstern.Aus at_Exec
824000 03.05.2018 21:19:28 AllCalView CALVIEW_GetUpdate
454051 04.05.2018 05:45:00 At.AllCalView.Update at_Exec
403 03.05.2018 18:45:00 At.AllCalView.Update.Abend at_Exec
389754 04.05.2018 05:00:00 At.Apptime.Clear at_Exec
2231448 03.05.2018 18:23:36 At.Check.HouseOpen at_Exec
578 05.05.2018 21:19:18 At.DbRep.LogDB.FindNaDevs at_Exec
2225111 03.05.2018 19:04:18 At.Del.All_Pwr_power at_Exec
399 03.05.2018 21:04:18 At.Del.DbShort at_Exec
382 03.05.2018 21:22:18 At.Del.Sonnenstrom_Relative at_Exec
132 03.05.2018 20:48:26 At.Fensterlichter.EG.Westseite.An at_Exec
75910 03.05.2018 23:52:00 At.Fhem.Dump at_Exec
2225105 03.05.2018 18:39:18 At.Fhem.Size at_Exec
62440 03.05.2018 23:30:00 At.FhemShort.Dump at_Exec
1439916 03.05.2018 22:04:20 At.LogDB.currentPurge at_Exec
1855196 03.05.2018 22:39:18 At.LogDB.sqlResult at_Exec
2225124 03.05.2018 18:29:20 At.LogDBShort.Addlog.FSM1.level at_Exec
1600073 03.05.2018 23:34:20 At.LogDBShort.currentPurge at_Exec
231118 04.05.2018 02:50:00 At.MariaDBs.reopen at_Exec
2186143 03.05.2018 18:59:18 At.PhilipsAudio.GetRadioFav at_Exec
2192674 03.05.2018 18:34:20 At.Rep.CPU at_Exec
823717 03.05.2018 21:19:20 At.Rep.Fully.DelSeqDoublets at_Exec
172581 04.05.2018 01:52:00 At.Rep.Temp.Current.Month at_Exec
2205740 03.05.2018 18:35:20 At.Rep.az.fridge.kWh at_Exec
2225122 03.05.2018 18:31:20 At.Rep.server.kWh at_Exec
2225127 03.05.2018 18:35:05 At.og.bad.ladestation at_Exec
588186 04.05.2018 07:10:00 Bad.Radio.WT.An at_Exec
2229659 03.05.2018 21:20:49 Baikal.Abfall Calendar_Wakeup
2219349 03.05.2018 18:34:29 Baikal.Heiko Calendar_Wakeup
2229983 03.05.2018 18:24:37 CamCP1 SSCam_getcaminfoall
2231127 03.05.2018 18:22:39 CamCP1 SSCam_wdpollcaminfo
2226872 03.05.2018 18:23:51 CamGW1 SSCam_getcaminfoall
2231925 03.05.2018 18:22:52 CamGW1 SSCam_wdpollcaminfo
2226440 03.05.2018 18:23:13 CamHE1 SSCam_getcaminfoall
2231445 03.05.2018 18:22:43 CamHE1 SSCam_wdpollcaminfo
2227315 03.05.2018 18:23:28 CamKE1 SSCam_getcaminfoall
2227494 03.05.2018 18:21:30 CamKE1 SSCam_wdpollcaminfo
2228831 03.05.2018 18:24:38 CamTER SSCam_getcaminfoall
2231128 03.05.2018 18:22:39 CamTER SSCam_wdpollcaminfo
475925 04.05.2018 06:00:00 FHEMBackup at_Exec
166 03.05.2018 21:00:00 FHEMBackup1 at_Exec
1267 03.05.2018 21:19:29 Feiertage.ST Calendar_Wakeup
317742 04.05.2018 04:04:59 Fensterlichter.eg.westseite.An1 at_Exec
65504 03.05.2018 23:35:00 Fensterlichter.eg.westseite.Aus at_Exec
456019 04.05.2018 05:44:17 Fensterlichter.eg.westseite.Aus1 at_Exec
71600 03.05.2018 23:45:00 Kaminzimmer.Licht.Aus at_Exec
2230145 03.05.2018 18:21:58 LogDB DbLog_execmemcache
2227827 03.05.2018 18:21:27 LogDBShort DbLog_execmemcache
1732267 03.05.2018 18:39:43 MelderCP1.alive.check at_Exec
1756218 03.05.2018 18:49:24 MelderHE1.alive.check at_Exec
1749586 03.05.2018 18:46:43 MelderKE.alive.check at_Exec
1784238 03.05.2018 19:00:43 MelderTER.alive.check at_Exec
2228848 03.05.2018 18:40:27 MyWetter Weather_GetUpdate
2232086 03.05.2018 18:21:54 NP3500_Aussen PHILIPS_AUDIO_GetStatus
2231928 03.05.2018 18:21:54 NP3700_Bad PHILIPS_AUDIO_GetStatus
2232008 03.05.2018 18:21:54 NP3700_any PHILIPS_AUDIO_GetStatus
2230331 03.05.2018 18:21:49 Nmap.Gateway Nmap_statusRequest
2228651 03.05.2018 18:23:05 SDS1_SVS SSCam_getcaminfoall
2231768 03.05.2018 18:22:50 SDS1_SVS SSCam_wdpollcaminfo
2225102 03.05.2018 18:29:18 Sonnenstrom SHM_CallInfo
2231129 03.05.2018 18:21:39 Sonnenstrom delcookiefile
2225119 03.05.2018 18:24:19 Sonnenstrom_Relative SHMForecastRelative_Parse
2231764 03.05.2018 18:21:30 Sonos SONOS_IsSubprocessAliveChecker
138 03.05.2018 20:45:06 Wandregallampe.An at_Exec
136 03.05.2018 20:28:26 Whiskyregal.An at_Exec
149 03.05.2018 20:30:06 eg_wz_westfenster.An at_Exec
354876 04.05.2018 04:31:47 eg_wz_westfenster.An1 at_Exec
59354 03.05.2018 23:25:00 eg_wz_westfenster.Aus at_Exec
459699 04.05.2018 05:46:50 eg_wz_westfenster.Aus1 at_Exec
2035618 03.05.2018 19:19:18 fhem.write.statefile at_Exec
2227997 03.05.2018 18:22:26 googlenexus.fully FULLY_UpdateDeviceInfo
2228489 03.05.2018 18:30:20 graylog Log2Syslog_trate
2231765 03.05.2018 18:22:20 heartbeat at_Exec
2227669 03.05.2018 18:23:05 og.bad.ladestation TPLinkHS110_Get
83 03.05.2018 20:29:16 og_gz_westfenster.An at_Exec
318323 04.05.2018 04:03:59 og_gz_westfenster.An1 at_Exec
71599 03.05.2018 23:45:00 og_gz_westfenster.Aus at_Exec
459628 04.05.2018 05:46:47 og_gz_westfenster.Aus1 at_Exec
2227304 03.05.2018 18:25:02 recalc_Bezug at_Exec
2195331 03.05.2018 20:15:13 recalc_Bezug.monatlich at_Exec
630 03.05.2018 20:15:00 recalc_Dum.Energy.Quoten.Jahr at_Exec
2225109 03.05.2018 18:54:18 recalc_Dum.Energy.Quoten.Monat at_Exec
2225107 03.05.2018 18:49:18 recalc_Dum.Energy.Quoten.heute at_Exec
2222394 03.05.2018 18:23:29 recalc_Einspeisung at_Exec
2193167 03.05.2018 20:14:29 recalc_Einspeisung.monatlich at_Exec
2220955 03.05.2018 18:22:48 recalc_Erzeugung at_Exec
2184601 03.05.2018 20:11:33 recalc_Erzeugung.monatlich at_Exec
2230965 03.05.2018 18:21:48 samsunggalaxy.fully FULLY_UpdateDeviceInfo
2228487 03.05.2018 18:30:20 sds1log Log2Syslog_trate
2228488 03.05.2018 18:30:20 splunklog Log2Syslog_trate
85098 04.05.2018 00:05:00 sun_riseSet_timer at_Exec
2231766 03.05.2018 18:22:20 sysmon SYSMON_Update
2227915 03.05.2018 18:22:44 tplink.energymeter TPLinkHS110_Get
2225612 03.05.2018 18:26:09 trafficsaw Verkehrsinfo_GetUpdate
2229489 03.05.2018 18:21:37 withings withings_poll
2229491 03.05.2018 18:21:37 withings_D4592954 withings_poll
2229490 03.05.2018 18:21:37 withings_U13636180 withings_poll
2229492 03.05.2018 18:21:37 withings_U13702823 withings_poll


Ich habe mir HttpUtils angeschaut, aber die Logik hinter den InternalTimer-"HttpUtils_Err" Generierungen noch nicht durchschaut.
Wenn dieser Eintrag für einen aktuell laufenden HttpUtils_NonblockingGet gilt, dann wären das sicher zu viele.
Auch der identische Zeitstempel der "HttpUtils_Err" Einträge irritiert mich.

Die Einträge müssten doch auch mal abgebaut bzw. gelöscht werden ?

Wahrscheinlich ist dieses Thema aber nicht mehr passend zu diesem Thread. Deswegen würde ich vllt. das Thema nochmal separat nach meinem Urlaub (stecke gerade in den Vorbereitungen) ansprechen wenn es keine einfache Erklärung dafür geben sollte.

Grüße,
Heiko
ESXi@NUC+Debian+MariaDB, PV: SMA, Victron MPII+Pylontech+CerboGX
Maintainer: SSCam, SSChatBot, SSCal, SSFile, DbLog/DbRep, Log2Syslog, SolarForecast,Watches, Dashboard, PylonLowVoltage
Kaffeekasse: https://www.paypal.me/HMaaz
Contrib: https://svn.fhem.de/trac/browser/trunk/fhem/contrib/DS_Starter

enno

Zitat von: enno am 03 Mai 2018, 09:01:32
Ich schreibe jetzt mal die Daten aus Top mit, melde mich mit Ergebnissen morgen...

Hier die Daten aus TOP zur vollen Stunde:
PID USER      PR  NI    VIRT    RES    SHR S  %CPU %MEM     TIME+ COMMAND

12:00 Uhr
28331 fhem      20   0  323204 209848  11052 S   0,0  5,3  86:23.38 perl
28359 fhem      20   0  247264 131980   4292 S   0,0  3,4   1:28.48 perl
28363 fhem      20   0  247604 131336   3220 S   0,0  3,3   0:00.00 perl

13:00 Uhr
28331 fhem      20   0  323348 209908  11052 S   1,7  5,3  86:31.24 perl
28359 fhem      20   0  247264 131980   4292 S   0,0  3,4   1:28.61 perl
28363 fhem      20   0  247604 131336   3220 S   0,0  3,3   0:00.00 perl

14:00 Uhr
28331 fhem      20   0  325140 211696  11052 S   3,3  5,4  88:19.45 perl
28359 fhem      20   0  247264 131980   4292 S   0,0  3,4   1:30.78 perl
28363 fhem      20   0  247604 131336   3220 S   0,0  3,3   0:00.00 perl 

15:00 Uhr
28331 fhem      20   0  329648 216260  11052 S   3,3  5,5  90:15.47 perl
26819 fhem      20   0  325764 204352   2920 S   0,0  5,2   0:00.01 perl
28359 fhem      20   0  247264 131980   4292 S   0,0  3,4   1:33.03 perl 

16:00 Uhr
28331 fhem      20   0  329648 216260  11052 S  13,6  5,5  92:08.94 perl
26819 fhem      20   0  325764 204352   2920 S   0,0  5,2   0:00.01 perl
28359 fhem      20   0  247264 131980   4292 S   0,0  3,4   1:35.26 perl

17:00 Uhr
28331 fhem      20   0  329648 216260  11052 S  14,2  5,5  94:01.75 perl   
28946 fhem      20   0  329648 209988   4780 S   0,7  5,3   0:00.02 perl
26819 fhem      20   0  325764 204352   2920 S   0,0  5,2   0:00.01 perl
28359 fhem      20   0  247264 131980   4292 S   0,0  3,4   1:37.43 perl 

18:00 Uhr
28331 fhem      20   0  330480 217096  11052 S  14,2  5,5  95:53.29 perl
26819 fhem      20   0  325764 204352   2920 S   0,0  5,2   0:00.01 perl
28359 fhem      20   0  247264 131980   4292 S   0,0  3,4   1:39.53 perl

19:00 Uhr
28331 fhem      20   0  332056 218920  11352 S   2,6  5,6  97:46.94 perl
26819 fhem      20   0  325764 204352   2920 S   0,0  5,2   0:00.01 perl   
28359 fhem      20   0  247264 131980   4292 S   0,0  3,4   1:41.76 perl 

19:42 Uhr
28331 fhem      20   0  333480 220360  11352 S   3,6  5,6  99:10.44 perl
26819 fhem      20   0  325764 204352   2920 S   0,0  5,2   0:00.01 perl
28359 fhem      20   0  247264 131980   4292 S   0,0  3,4   1:43.30 perl


Einfacher FHEM Anwender auf Intel®NUC

Burny4600

Status:
Ich habe mich längere Zeit mit den Systemem Tests durchgeführt um den Speicheranstieg eingrenzen zu können.

Folgende Erkenntnisse:
Systeme mit Raspberrys Pi3 und Pi3+ mit aktuellem FHEM und Jessie Lite Stratch inklusive aktuellen Updates.
Bei Systeme die kein DOIF verwenden bleibt der Speicher konstant über längerem Zeitraum.
Systeme mit DOIF und keinem Attribut do Always ist ein leichter Speicheranstieg über längerem Zeitraum zu beobachten.
Systeme mit DOIF und dem Attribut do Always ist ein starker Speicheranstieg über kürzerem Zeitraum zu beobachten.

Vielleicht kann das jemand anderer auf DIOF bezogen auch testen.
Mfg Chris

Raspberry Pi 2/2+/3/3+/4 / Betriebssystem: Bullseye Lite
Schnittstellen: RFXtrx433E, SIGNALduino, MQTT, nanoCUL, HM-MOD-UART, 1-Wire, LAN, ser2net, FHEM2FEHEM
Devices: S.USV, APC-USV, Fronius Datalogger Web 2, FS20, IT, Resol VBUS & DL2, TEK603, WMR200, YouLess, Homematic, MQTT

Brice

#229
Interessant wäre noch eine Aussage, wieviel DOIFs du verwendest.

Ich verwende DOIFs nur dann, wenn ich mit Notify nicht zum Ziel gekommen bin ::). Meine Systeme:

Produktiv
5 DOIF, 1mal mit do always
36 Notify
4 watchdogs
läuft unauffällig seit dem 20.03.2018

Gäste-WC (MPD/MPC)
2 DOIFs, 1mal mit do always
0 Notify
0 watchdogs
System hatte nie Probleme
FHEM auf RPi 4 4GB (Buster) | produktiv) CUL 868 für FS20 | S300TH | KS300 | Max!Cube als CUN 868 für TechemWZ | HM-MOD-RPI-PCB für HM | Z-Wave ZME_UZB1 | FRITZ!DECT 200 | HUE | Lightify | Echo Dot | WS3080

Brice

Zitat von: Brice am 07 Mai 2018, 17:56:35
Gäste-WC (MPD/MPC)
2 DOIFs, 1mal mit do always
...
System hatte nie Probleme

Ich muss mich korrigieren. Mein System Gäste-WC (Signatur FHEM auf RPi 2) hat sehr wohl Probleme, die ich bisher nicht zuordnen konnte. FHEM steigt aus, was nur bemerkt wird, wenn das Radio im Gäste-WC nicht durch den PIR-GPIO eingeschaltet wird. Über Putty komme ich dann nicht mehr auf den Pi, es ist ein harter Reboot (Strom ab) notwendig.

...Und mein für das Produktivsystem erstelltes Notify zum shutdown/restart bei Speicherauslastung hatte ich nicht implementiert...

Gerade gesehen:
2018-05-07_08:51:54 sysmon ram_used: 302.10
2018-05-07_08:50:55 sysmon ram_used: 302.10
2018-05-07_08:50:53 sysmon ram_used: 302.17
2018-05-07_08:49:54 sysmon ram_used: 302.17
2018-05-07_08:49:53 sysmon ram_used: 99.84
2018-05-07_08:48:53 sysmon ram_used: 99.84
2018-05-07_08:48:53 sysmon ram_used: 100.39
2018-05-07_08:47:53 sysmon ram_used: 100.39
2018-05-07_08:47:53 sysmon ram_used: 99.45
2018-05-07_08:46:53 sysmon ram_used: 99.45
2018-05-07_08:46:53 sysmon ram_used: 99.76
2018-05-07_08:45:53 sysmon ram_used: 99.76


Genutzt zum Einschalten hatte ich bisher ein DOIF
(([05:30-07:59] and [?Angelika] eq "present") and [PIR:"on"]) ((set WifiRadio playlist rpr1)(set WifiRadio play))
DOELSEIF
(([08:00-20:59] and [?Angelika] eq "present") and [PIR:"on"]) ((set WifiRadio playlist swr3)(set WifiRadio play))
DOELSEIF
(([21:00-22:00] and [?Angelika] eq "present") and [PIR:"on"]) ((set WifiRadio playlist harmony)(set WifiRadio play))

mit attr do always

Ich habe auf ein Notify umgestellt (keine Ahnung, warum ich das in 2016 nicht hinbekommen habe) und werde weiter das Verhalten weiter beobachten.

FHEM auf RPi 4 4GB (Buster) | produktiv) CUL 868 für FS20 | S300TH | KS300 | Max!Cube als CUN 868 für TechemWZ | HM-MOD-RPI-PCB für HM | Z-Wave ZME_UZB1 | FRITZ!DECT 200 | HUE | Lightify | Echo Dot | WS3080

Burny4600

#231
@Brice
Eigentlich gehört es nicht in diesen Thread aber du hast bei diesem DOIF einige Fehler eingebaut, dashalb hat es auch nicht funktionieren können.
Du musst auf die Klammern aufpassen.
Soweit ich aus deiner Definition entnehmen konnte müsste es so aussehen.
([05:30-07:59] and [?Angelika] eq "present" and [PIR:state] eq "on")
             (set WifiRadio playlist rpr1)(set WifiRadio play)
DOELSEIF
([08:00-20:59] and [?Angelika] eq "present" and [PIR:state] eq "on")
             (set WifiRadio playlist swr3)(set WifiRadio play)
DOELSEIF
([21:00-22:00] and [?Angelika] eq "present" and [PIR:state] eq "on")
             (set WifiRadio playlist harmony)(set WifiRadio play)


Es müsste dieses DOIF auch ohne dem Attribut do always funktionieren.

Um auf das DIOF nochmals zurück zu kommen. Es sind auf meinem Hauptsystem 225 DOIF's.
Wieviele ich davon mit dem Attribut do always versehen sind kann ich nicht genau sagen.
Das war für mich als Anfänger einfacher zu definieren. Ich bin aber dabei einiges davon abzuändern.
Mfg Chris

Raspberry Pi 2/2+/3/3+/4 / Betriebssystem: Bullseye Lite
Schnittstellen: RFXtrx433E, SIGNALduino, MQTT, nanoCUL, HM-MOD-UART, 1-Wire, LAN, ser2net, FHEM2FEHEM
Devices: S.USV, APC-USV, Fronius Datalogger Web 2, FS20, IT, Resol VBUS & DL2, TEK603, WMR200, YouLess, Homematic, MQTT

rudolfkoenig

ZitatWieviele ich davon mit dem Attribut do always versehen sind kann ich nicht genau sagen.
fhem> list a:do=always

Burny4600

@rudolfkoenig
Danke für den Tipp.
Es sind insgesamt 94 DIOFs mit do always
Mfg Chris

Raspberry Pi 2/2+/3/3+/4 / Betriebssystem: Bullseye Lite
Schnittstellen: RFXtrx433E, SIGNALduino, MQTT, nanoCUL, HM-MOD-UART, 1-Wire, LAN, ser2net, FHEM2FEHEM
Devices: S.USV, APC-USV, Fronius Datalogger Web 2, FS20, IT, Resol VBUS & DL2, TEK603, WMR200, YouLess, Homematic, MQTT

SouzA

Hi,

ich hab nun einige Zeit laufen lassen und { int(keys %intAt) } ergibt jetzt 89.
Das andere in geschweiften Klammern gibt immer noch Fehlermeldung.
Das Sysmon hatte zwar den im Bild sichtbaren Error gebracht, aber FHEM funktionierte noch.
Abgekackt ist das System erst, als ich "list" gemacht habe um DOIF zu zählen.

91 DOIF
29 DOIF mit do always

Vielleicht bringt das uns ja irgendwie weiter?
Bis denn
SouzA
Raspi 4, EnOcean TCM310 USB, HM-MOD-UART-USB, Jeelink, hue, AMAD, fully, FRITZBOX, Signalbot, VIERA, Presence BT/Mac, TPLink, Gassistant, Shelly, fhempy, ZigBee

rudolfkoenig

ZitatDas andere in geschweiften Klammern gibt immer noch Fehlermeldung.
Wenn mit "Das andere" Folgendes gemeint ist:
join("\n", map { "$_->{TRIGGERTIME}, $_->{FN}" } @intAtA) }
und du das von mir zurueckgepatchte fhem.pl verwendest, dann ist es klar, intAtA wurde in diesem fhem.pl explizit auf die Vermutung von Heiko ausgebaut.

ZitatAbgekackt ist das System erst, als ich "list" gemacht habe um DOIF zu zählen.
Das ist sehr merkwuerdig, bzw. vermute ich eher, dass list nicht die Ursache war, sondern es zufaellig zur gleichen Zeit geschah.

ZitatVielleicht bringt das uns ja irgendwie weiter?
Nicht wirklich, verstaerkt nur etwas die Hypothese, dass DOIF der Ausloeser ist.

Damian

Um das Problem einkreisen zu können, sollte man eins nach dem anderen untersuchen:

Ich habe mal im Testsystem, wo sonst nichts läuft, 10 DOIFs definiert, die jeweils im Sekundentakt einen Dummy auf on setzen. Mal schauen was passiert.
Programmierte FHEM-Module: DOIF-FHEM, DOIF-Perl, DOIF-uiTable, THRESHOLD, FHEM-Befehl: IF

rudolfkoenig

ZitatIch habe mal im Testsystem, wo sonst nichts läuft, 10 DOIFs definiert, die jeweils im Sekundentakt einen Dummy auf on setzen.
Auf einem RPi mit dem aktuellen Debian?

Damian

#238
Zitat von: rudolfkoenig am 10 Mai 2018, 13:04:30
Auf einem RPi mit dem aktuellen Debian?

Nein, bei mir läuft FHEM unter windows. Das sollte aber bei einem Problem in DOIF oder fhem.pl keine Rolle spielen.

Edit:
Ich kann bisher nach 2 Stunden Laufzeit (entspricht 2*3600*10=72000 mal Timer setzen und Dummy auf on setzen) keinen zusätzlichen Speicherbedarf erkennen.

Das ganze FHEM-System (Perlprozess) pendelt zwischen 12 und 20 MB.

This is perl 5, version 24, subversion 0 (v5.24.0) built for MSWin32-x86-multi-thread-64int
Programmierte FHEM-Module: DOIF-FHEM, DOIF-Perl, DOIF-uiTable, THRESHOLD, FHEM-Befehl: IF

Damian

#239
Nach neun Stunden Dauerstress 10 Timer pro Sekunde im Testsystem sieht das Ergebnis nicht auffällig aus: 10,5 MB. In meinem umfangreichen Produktionssystem (nur DOIFs, keine notifys oder ats) waren es zwischendurch 50 MB, jetzt sind es 39 MB (siehe Screenshot). Beide FHEM-Systeme sind die letzten neun Stunden durchgelaufen. Ich würde die Schuldigen woanders suchen.
Programmierte FHEM-Module: DOIF-FHEM, DOIF-Perl, DOIF-uiTable, THRESHOLD, FHEM-Befehl: IF