Hallo zusammen,
ich habe gerade ein riesen Problem und komme nicht weiter.....
seit gestern braucht mein fhem für alles Minuten lang. egal ob ich einen Raum öffnen will oder einfach nur fhem starte. an schalten kann ich schon garnicht mher denken - was recht blöde ist.
es ist die aktuellste Version von fhem die in einer debian vm mit 2gb Ram auf einem i5 läuft. bis vor 2 3 Tagen war alles ok.
Der Rechner bzw. die VM sind nicht ausgealstet und langweilen sich mit 1 - 3 % Prozessorlast. konkrete Fehlermeldungen sehe ich auch keine. Kann mir jemand einen Tipp geben wo ich mit meiner Suche beginnen kann?
Vielen vielen Dank!!!!
Gruß
H-Man
Eventuell Probleme mit dem Datenträger. Mach mal ein top und drücke dann 1. Eventuell siehst du hier was.
Eventuell etwas neu definiert was blockierend ist?
Gruß
Dan
oder mal die fhem.cfg.demo starten, die sollte flüssig laufen
danke für die schnellen antworten.
hab da direkt gegenfragen:
top? unknown command..... was ist das denn?
die hdd ist in ordnung, da laufen noch andee vms drauf
das einzige was sich (soweit ich mich erinnern kann :-) ) bewusst gemacht habe ist ein backup (weil ich eigentlich die konfiguration auf mein fhem auf meiner synology ans laufen bringen will) und ein notitfy geändert.....
Du bist nicht gerade ne Hilfe um Dir zu helfen. Schaue nach in welchen Packet top oder ntop ist und installieren es. Starte fhem nur mit der Demo.cfg und schaue ob da auch die Probleme sind.
Was sagen Analyse Tools Deiner VM zu der VM? Welche Art VM System wird verwendet?
hm...
ich würde ja gerne mehr liefern, aber wie soll ich das wenn ich nicht weiß wovon du sprichst. top oder ntop bei google einzutippen macht nämlich wenig Sinn.
ich glaube ich stehe gerade völlig auf dem schlauch.
"You can test your installation by starting with the demo config file: perl /opt/fhem/fhem.pl /opt/fhem/fhem.cfg.demo" führt leider auch nur zu Can't locate RTypes.pm in @INC (you may need to install the RTypes module) (@INC contains: /etc/perl /usr/local/lib/i386-linux-gnu/perl/5.20.2 /usr/local/share/perl/5.20.2 /usr/lib/i386-linux-gnu/perl5/5.20 /usr/share/perl5 /usr/lib/i386-linux-gnu/perl/5.20 /usr/share/perl/5.20 /usr/local/lib/site_perl .) at /opt/fhem/fhem.pl line 506.
also muss ich nachsehen wie ich das herausfinde, denn die RTypes.pm existiert.
Die VM ist eine virtual box auf einem windows 7 host und läuft sofern es nicht um fhem geht wunderbar.
1. Was für ein Linux-System hast Du in Deiner VM?
2. Weißt Du, wie man in Deinem Linux-Software nachinstalliert oder Packete sucht? Das ist nämlich top.
3. Weißt Du, wie man Systeme debugt?
Sorry aber ohne Grundinformationen können wir nicht helfen, oder zur Hilfe beitragen.
Also, es geht um ein Debian 8 32bit in einer Virtualbox. Und ich gebe ganz offen zu, dass ich keinen Plan von Linux habe.
Ihr habt ja schon vermutet habt kann es ja durchaus am System und nich an fhem liegen....
Was ich aber inzwischen gesehen habe und as mich wundert ist, dass die CPU-Last der VM bei 40-50% im Leerlauf liegt.
Zumindest sagt mir das die systemüberwachung, aber dort kann ich nicht erkennen wer das verursacht.
Ich kenne zwar keine Linux-Distribution, in der "top" nicht vorinstalliert ist, aber das Programm gehört zum Paket procps. Programmpakete werden unter Debian mit apt-get installiert, also
sudo apt-get install procps
Hier mal ein Zitat aus Wikipedia:
Zitat von: https://de.wikipedia.org/wiki/Top_(Unix)Der Befehl ist unter anderem für Systemadministratoren sehr nützlich, da er einen Überblick gibt, welche Benutzer und Prozesse das System am meisten belasten.
Damit solltest Du also sehen, welche Prozesse die CPU-Last erzeugen.
Für den Anfänger etwas Übersichtlicher (für die profis aber nicht besser) ist htop
apt-get install htop
Gib uns mal die Ausgabe von:
free
top -n1
pstree
iotop -bo -n1
falls er iotop nicht kennt.
apt-get -install iotop
Bitte alles mit sudo
Gerne:
total used free shared buffers cached
Mem: 2072744 1581436 491308 13360 104292 539684
-/+ buffers/cache: 937460 1135284
Swap: 477180 0 477180
sehe ich das hier gerade richtig, dass perl 88% CPUlast verursacht?
Tasks: 142 total, 2 running, 139 sleeping, 0 stopped, 1 zombie
%Cpu(s): 8,6 us, 2,7 sy, 0,0 ni, 88,6 id, 0,2 wa, 0,0 hi, 0,0 si, 0,0 st
KiB Mem: 2072744 total, 1582104 used, 490640 free, 104328 buffers
KiB Swap: 477180 total, 0 used, 477180 free. 539684 cached Mem
PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND
2514 fhem 20 0 72620 44104 4692 R 88,8 2,1 104:38.94 perl
431 root 20 0 117756 48716 22528 S 6,3 2,4 3:50.80 Xorg
1200 fhem 20 0 551704 281896 66456 S 6,3 13,6 6:57.52 gnome-shell
4221 fhem 20 0 357316 295104 12408 S 6,3 14,2 3:28.01 TeamViewer_Desk
1 root 20 0 22928 4248 2988 S 0,0 0,2 0:01.37 systemd
2 root 20 0 0 0 0 S 0,0 0,0 0:00.00 kthreadd
3 root 20 0 0 0 0 S 0,0 0,0 0:09.69 ksoftirqd/0
5 root 0 -20 0 0 0 S 0,0 0,0 0:00.00 kworker/0:0H
6 root 20 0 0 0 0 S 0,0 0,0 0:00.15 kworker/u2:0
7 root rt 0 0 0 0 S 0,0 0,0 0:01.06 watchdog/0
8 root 0 -20 0 0 0 S 0,0 0,0 0:00.00 khelper
9 root 20 0 0 0 0 S 0,0 0,0 0:00.00 kdevtmpfs
10 root 0 -20 0 0 0 S 0,0 0,0 0:00.00 netns
11 root 20 0 0 0 0 S 0,0 0,0 0:00.01 khungtaskd
12 root 0 -20 0 0 0 S 0,0 0,0 0:00.00 writeback
13 root 25 5 0 0 0 S 0,0 0,0 0:00.00 ksmd
14 root 0 -20 0 0 0 S 0,0 0,0 0:00.00 crypto
15 root 0 -20 0 0 0 S 0,0 0,0 0:00.00 kintegrityd
16 root 0 -20 0 0 0 S 0,0 0,0 0:00.00 bioset
17 root 0 -20 0 0 0 S 0,0 0,0 0:00.00 kblockd
19 root 20 0 0 0 0 S 0,0 0,0 0:00.03 kswapd0
20 root 20 0 0 0 0 S 0,0 0,0 0:00.00 fsnotify_mark
26 root 0 -20 0 0 0 S 0,0 0,0 0:00.00 kthrotld
27 root 0 -20 0 0 0 S 0,0 0,0 0:00.00 ipv6_addrconf
28 root 0 -20 0 0 0 S 0,0 0,0 0:00.00 deferwq
62 root 20 0 0 0 0 S 0,0 0,0 0:00.00 khubd
63 root 0 -20 0 0 0 S 0,0 0,0 0:00.00 ata_sff
64 root 20 0 0 0 0 S 0,0 0,0 0:00.00 scsi_eh_0
65 root 0 -20 0 0 0 S 0,0 0,0 0:00.00 scsi_tmf_0
systemd─┬─ModemManager─┬─{gdbus}
│ └─{gmain}
├─NetworkManager─┬─{NetworkManager}
│ ├─{gdbus}
│ └─{gmain}
├─accounts-daemon─┬─{gdbus}
│ └─{gmain}
├─acpid
├─agetty
├─at-spi-bus-laun─┬─dbus-daemon
│ ├─{dconf worker}
│ ├─{gdbus}
│ └─{gmain}
├─at-spi2-registr───{gdbus}
├─atd
├─avahi-daemon───avahi-daemon
├─colord─┬─{gdbus}
│ └─{gmain}
├─cron
├─2*[dbus-daemon]
├─dbus-launch
├─dconf-service─┬─{gdbus}
│ └─{gmain}
├─evolution-calen─┬─{dconf worker}
│ ├─{evolution-calen}
│ ├─{gdbus}
│ ├─{gmain}
│ └─{pool}
├─evolution-sourc─┬─{gdbus}
│ └─{gmain}
├─exim4
├─explorer.exe───{explorer.exe}
├─gconfd-2
├─gdm3─┬─Xorg
│ ├─gdm-session-wor─┬─9*[gdm-session-wor─┬─{gdbus}]
│ │ │ └─{gmain}]
│ │ ├─x-session-manag─┬─applet.py───{gmain}
│ │ │ ├─evolution-alarm─┬─{cal-client-dbus}
│ │ │ │ ├─{dconf worker}
│ │ │ │ ├─{evolution-alarm}
│ │ │ │ └─{gdbus}
│ │ │ ├─gnome-settings-─┬─{dconf worker}
│ │ │ │ ├─{gdbus}
│ │ │ │ ├─{gmain}
│ │ │ │ └─{pool}
│ │ │ ├─gnome-shell─┬─gnome-control-c─┬─{dconf worker}
│ │ │ │ │ ├─{gdbus}
│ │ │ │ │ └─{gmain}
│ │ │ │ ├─gnome-system-mo─┬─{dconf worker}
│ │ │ │ │ ├─{gdbus}
│ │ │ │ │ └─{gmain}
│ │ │ │ ├─{JS GC Helper}
│ │ │ │ ├─{JS Sour~ Thread}
│ │ │ │ ├─{dconf worker}
│ │ │ │ ├─{gdbus}
│ │ │ │ ├─{gmain}
│ │ │ │ └─{threaded-ml}
│ │ │ ├─nm-applet─┬─{dconf worker}
│ │ │ │ └─{gdbus}
│ │ │ ├─ssh-agent
│ │ │ ├─tracker-extract─┬─{dconf worker}
│ │ │ │ ├─{gdbus}
│ │ │ │ ├─{gmain}
│ │ │ │ └─10*[{pool}]
│ │ │ ├─tracker-miner-a─┬─{gdbus}
│ │ │ │ └─{gmain}
│ │ │ ├─tracker-miner-f─┬─{dconf worker}
│ │ │ │ ├─{gdbus}
│ │ │ │ └─{gmain}
│ │ │ ├─tracker-miner-u─┬─{gdbus}
│ │ │ │ └─{gmain}
│ │ │ ├─zeitgeist-datah─┬─{gdbus}
│ │ │ │ ├─{gmain}
│ │ │ │ └─{pool}
│ │ │ ├─{dconf worker}
│ │ │ ├─{gdbus}
│ │ │ └─{gmain}
│ │ ├─{gdbus}
│ │ └─{gmain}
│ ├─{gdbus}
│ ├─{gdm SIGUSR1 cat}
│ └─{gmain}
├─gnome-keyring-d─┬─{dconf worker}
│ ├─{gdbus}
│ ├─{gmain}
│ └─{timer}
├─gnome-shell-cal─┬─{cal-client-dbus}
│ ├─{dconf worker}
│ ├─{gdbus}
│ └─{gnome-shell-cal}
├─gnome-terminal-─┬─bash───pstree
│ ├─gnome-pty-helpe
│ ├─{dconf worker}
│ ├─{gdbus}
│ └─{gmain}
├─goa-daemon─┬─{gdbus}
│ ├─{gmain}
│ └─{pool}
├─gsd-printer───{gdbus}
├─gvfs-afc-volume─┬─{gdbus}
│ └─{gvfs-afc-volume}
├─gvfs-goa-volume───{gdbus}
├─gvfs-gphoto2-vo───{gdbus}
├─gvfs-mtp-volume───{gdbus}
├─gvfs-udisks2-vo─┬─{gdbus}
│ └─{gmain}
├─gvfsd───{gdbus}
├─gvfsd-burn─┬─{gdbus}
│ └─{pool}
├─gvfsd-fuse─┬─{gdbus}
│ ├─{gvfs-fuse-sub}
│ └─2*[{gvfsd-fuse}]
├─gvfsd-metadata───{gdbus}
├─gvfsd-trash─┬─{gdbus}
│ ├─{gmain}
│ └─3*[{pool}]
├─minissdpd
├─mission-control─┬─{dconf worker}
│ └─{gdbus}
├─nautilus─┬─{dconf worker}
│ ├─{gdbus}
│ └─{gmain}
├─nmbd
├─packagekitd─┬─{gdbus}
│ └─{gmain}
├─perl───perl───3*[{perl}]
├─polkitd─┬─{gdbus}
│ └─{gmain}
├─pulseaudio─┬─{alsa-sink-Intel}
│ └─{alsa-source-Int}
├─rpcbind
├─rsyslogd─┬─{in:imklog}
│ ├─{in:imuxsock}
│ └─{rs:main Q:Reg}
├─rtkit-daemon───2*[{rtkit-daemon}]
├─services.exe───2*[{services.exe}]
├─smbd───smbd
├─start-pulseaudi───xprop
├─systemd───(sd-pam)
├─systemd-journal
├─systemd-logind
├─systemd-timesyn───{sd-resolve}
├─systemd-udevd
├─teamviewerd─┬─TeamViewer.exe─┬─TVGuiDelegate───2*[{TVGuiDelegate}]
│ │ ├─TVGuiSlave.32───5*[{TVGuiSlave.32}]
│ │ ├─TeamViewer.exe
│ │ └─14*[{TeamViewer.exe}]
│ ├─TeamViewer_Desk───5*[{TeamViewer_Desk}]
│ └─12*[{teamviewerd}]
├─tracker-store─┬─{dconf worker}
│ ├─{gdbus}
│ ├─{gmain}
│ └─4*[{pool}]
├─udisksd─┬─{cleanup}
│ ├─{gdbus}
│ ├─{gmain}
│ └─{probing-thread}
├─upowerd─┬─{gdbus}
│ └─{gmain}
├─wineserver
├─wpa_supplicant
├─zeitgeist-daemo───{gdbus}
└─zeitgeist-fts─┬─cat
├─{gdbus}
└─{gmain}
und dann noch
[code]
Total DISK READ : 0.00 B/s | Total DISK WRITE : 0.00 B/s
Actual DISK READ: 0.00 B/s | Actual DISK WRITE: 0.00 B/s
TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
[/code]
Warum hast Du auf einem Server einen Komplettes X-Server System aufgesetzt?
Und .. "explorer.exe", hast Du WINE installiert?
Kannst Du bitte mal:
ps aux | grep fhem
ich hatte "irgendwann" mal die VM gemacht und da hatte ich halt den X-Server installiert. Wine ist vermutlich wegen teamviewer draufgekommen. - meinst du dass das "plötzlich" für meine Probleme sorgt?
das system sollte nur zum testen sein - bin bisher leider noch daran gescheitert das fhem backup auf mein fhem in meiner synology zum laufen zu bekommen. sobald ih das einspiele kann ich nicht mehr auf fhem web....
hier noch der gewünschte Auszug:
fhem 980 0.0 0.1 4840 3688 ? Ss Aug25 0:00 /lib/systemd/systemd --user
fhem 982 0.0 0.1 23812 2268 ? S Aug25 0:00 (sd-pam)
fhem 987 0.0 0.3 63396 7696 ? Sl Aug25 0:00 /usr/bin/gnome-keyring-daemon --daemonize --login
fhem 990 0.0 0.4 85696 9932 ? Ssl Aug25 0:00 x-session-manager
fhem 1020 0.1 4.3 1621260 90980 ? Sl Aug25 1:16 c:\TeamViewer\TeamViewer.exe
fhem 1089 0.0 0.0 4424 1088 ? Ss Aug25 0:00 /usr/bin/ssh-agent /usr/bin/dbus-launch --exit-with-session x-session-manager
fhem 1092 0.0 0.1 3976 2128 ? S Aug25 0:00 /usr/bin/dbus-launch --exit-with-session x-session-manager
fhem 1093 0.0 0.1 5872 3088 ? Ss Aug25 0:00 /usr/bin/dbus-daemon --fork --print-pid 5 --print-address 7 --session
fhem 1096 0.0 0.2 43264 5560 ? Sl Aug25 0:00 /usr/lib/at-spi2-core/at-spi-bus-launcher
fhem 1100 0.0 0.1 5368 3272 ? S Aug25 0:00 /usr/bin/dbus-daemon --config-file=/etc/at-spi2/accessibility.conf --nofork --print-address 3
fhem 1104 0.0 0.2 18248 5900 ? Sl Aug25 0:00 /usr/lib/at-spi2-core/at-spi2-registryd --use-gnome-session
fhem 1113 0.0 1.5 184172 31284 ? Sl Aug25 0:02 /usr/lib/gnome-settings-daemon/gnome-settings-daemon
fhem 1130 0.0 0.2 31580 6152 ? Sl Aug25 0:00 /usr/lib/gvfs/gvfsd
fhem 1136 0.0 0.4 100532 8936 ? S<l Aug25 0:00 /usr/bin/pulseaudio --start
fhem 1138 0.0 0.2 45648 5940 ? Sl Aug25 0:00 /usr/lib/gvfs/gvfsd-fuse /run/user/1000/gvfs -f -o big_writes
fhem 1157 0.0 0.0 2272 800 ? S Aug25 0:00 /bin/sh /usr/bin/start-pulseaudio-x11
fhem 1158 0.0 0.1 6304 2748 ? S Aug25 0:00 /usr/bin/xprop -root -spy
fhem 1160 0.0 0.4 57688 8660 ? Sl Aug25 0:00 /usr/lib/gvfs/gvfs-udisks2-volume-monitor
fhem 1171 0.0 0.2 31208 5984 ? Sl Aug25 0:00 /usr/lib/gvfs/gvfs-gphoto2-volume-monitor
fhem 1175 0.0 0.3 42160 7204 ? Sl Aug25 0:00 /usr/lib/gvfs/gvfs-afc-volume-monitor
fhem 1180 0.0 0.2 30656 5936 ? Sl Aug25 0:00 /usr/lib/gvfs/gvfs-goa-volume-monitor
fhem 1183 0.0 0.9 149928 20508 ? Sl Aug25 0:00 /usr/lib/gnome-online-accounts/goa-daemon
fhem 1196 0.0 0.4 42572 9820 ? Sl Aug25 0:00 /usr/lib/telepathy/mission-control-5
fhem 1197 0.0 0.2 30348 5972 ? Sl Aug25 0:00 /usr/lib/gvfs/gvfs-mtp-volume-monitor
fhem 1200 0.5 13.3 549300 276124 ? Sl Aug25 7:21 /usr/bin/gnome-shell
fhem 1208 0.0 0.4 56700 10024 ? Sl Aug25 0:00 /usr/lib/gnome-settings-daemon/gsd-printer
fhem 1222 0.0 0.6 91932 12452 ? Sl Aug25 0:00 /usr/lib/gnome-shell/gnome-shell-calendar-server
fhem 1230 0.0 0.7 121828 16572 ? Sl Aug25 0:00 /usr/lib/evolution/evolution-source-registry
fhem 1255 0.0 0.4 43716 9588 ? SNl Aug25 0:00 /usr/lib/tracker/tracker-miner-user-guides
fhem 1259 0.0 0.5 73964 11848 ? Sl Aug25 0:01 zeitgeist-datahub
fhem 1264 0.0 2.1 177184 44060 ? Sl Aug25 0:00 /usr/lib/evolution/evolution-calendar-factory
fhem 1265 0.0 1.7 165836 36592 ? Sl Aug25 0:00 /usr/lib/evolution/3.12/evolution-alarm-notify
fhem 1276 0.0 0.3 46944 7160 ? Sl Aug25 0:00 /usr/bin/zeitgeist-daemon
fhem 1283 0.0 0.5 60380 10640 ? SNl Aug25 0:00 /usr/lib/tracker/tracker-miner-apps
fhem 1286 0.0 0.7 80304 15064 ? Sl Aug25 0:00 /usr/lib/tracker/tracker-store
fhem 1288 0.0 0.8 173412 17896 ? SNl Aug25 0:00 /usr/lib/tracker/tracker-extract
fhem 1290 0.0 1.1 73644 24596 ? Sl Aug25 0:00 nm-applet
fhem 1296 0.0 0.6 58436 13688 ? Sl Aug25 0:00 /usr/lib/i386-linux-gnu/zeitgeist-fts
fhem 1313 0.0 0.9 39144 18780 ? Sl Aug25 0:00 /usr/bin/python /usr/share/system-config-printer/applet.py
fhem 1323 0.0 0.6 90848 13568 ? SNl Aug25 0:00 /usr/lib/tracker/tracker-miner-fs
fhem 1341 0.0 0.0 3904 1568 ? S Aug25 0:00 /bin/cat
fhem 1349 0.0 0.2 9624 5120 ? S Aug25 0:00 /usr/lib/i386-linux-gnu/gconf/gconfd-2
fhem 1391 0.0 0.2 7816 5144 ? Ss Aug25 0:33 /opt/teamviewer/tv_bin/wine/bin/wineserver
fhem 1409 0.0 0.2 1596704 5172 ? Ssl Aug25 0:00 C:\windows\system32\services.exe
fhem 1431 0.0 0.6 1608208 12864 ? Ssl Aug25 0:00 C:\windows\system32\explorer.exe /desktop
fhem 1445 0.0 0.0 0 0 ? Z Aug25 0:00 [TeamViewer.exe] <defunct>
fhem 1446 0.0 0.5 126344 11332 ? Sl Aug25 0:29 /opt/teamviewer//tv_bin/TVGuiSlave.32 13 1
fhem 1447 0.0 1.1 74492 24296 ? Sl Aug25 0:21 /opt/teamviewer//tv_bin/TVGuiDelegate 13 1
fhem 1526 0.0 0.2 21204 5772 ? Sl Aug25 0:00 /usr/lib/gvfs/gvfsd-metadata
fhem 1685 0.0 1.8 122904 39120 ? Sl Aug25 0:03 /usr/bin/nautilus --gapplication-service
fhem 1692 0.0 0.3 65528 8204 ? Sl Aug25 0:00 /usr/lib/gvfs/gvfsd-trash --spawner :1.8 /org/gtk/gvfs/exec_spaw/0
fhem 1703 0.0 0.2 39780 6184 ? Sl Aug25 0:00 /usr/lib/gvfs/gvfsd-burn --spawner :1.8 /org/gtk/gvfs/exec_spaw/1
fhem 2505 0.3 3.3 74064 69736 ? S Aug25 3:32 /usr/bin/perl fhem.pl fhem.cfg
fhem 2514 13.4 2.1 72620 44104 ? Rl Aug25 135:35 /usr/bin/perl ./FHEM/00_SONOS.pm 4711 0 0
fhem 4149 0.9 1.8 77600 37732 ? Sl 10:35 2:11 gnome-system-monitor
fhem 4156 0.0 0.2 25124 4448 ? Sl 10:35 0:00 /usr/lib/dconf/dconf-service
fhem 4221 1.9 14.2 357316 295104 ? Sl 10:55 4:02 /opt/teamviewer/tv_bin/TeamViewer_Desktop --IPCport 5939 --module 1
fhem 5001 0.0 0.8 48904 17484 ? Sl 14:20 0:00 /usr/lib/gnome-control-center/gnome-control-center-search-provider
fhem 5006 0.2 1.4 105896 30600 ? SLl 14:20 0:00 /usr/bin/seahorse --no-window
fhem 5112 0.2 0.4 31900 8740 ? Sl 14:20 0:00 /usr/lib/dleyna-renderer/dleyna-renderer-service
fhem 5127 0.8 1.2 65716 25128 ? Sl 14:21 0:00 /usr/lib/gnome-terminal/gnome-terminal-server
fhem 5130 0.0 0.0 2416 1744 ? S 14:21 0:00 gnome-pty-helper
fhem 5131 0.1 0.2 6576 4612 pts/0 Ss 14:21 0:00 bash
root 5140 0.0 0.1 4576 2296 pts/0 S+ 14:21 0:00 grep fhem
Ist nicht der gewünschte Auszug, es wurde nicht gefiltert ... aber trotzdem:
fhem 2505 0.3 3.3 74064 69736 ? S Aug25 3:32 /usr/bin/perl fhem.pl fhem.cfg
fhem 2514 13.4 2.1 72620 44104 ? Rl Aug25 135:35 /usr/bin/perl ./FHEM/00_SONOS.pm 4711 0 0
Danach braucht das sonos-Modul die "Cpu-last".
Übrigens auch interessant:
fhem 1020 0.1 4.3 1621260 90980 ? Sl Aug25 1:16 c:\TeamViewer\TeamViewer.exe
fhem 4221 1.9 14.2 357316 295104 ? Sl 10:55 4:02 /opt/teamviewer/tv_bin/TeamViewer_Desktop --IPCport 5939 --module 1
fhem 1200 0.5 13.3 549300 276124 ? Sl Aug25 7:21 /usr/bin/gnome-shell
fhem 5006 0.2 1.4 105896 30600 ? SLl 14:20 0:00 /usr/bin/seahorse --no-window
fhem 5112 0.2 0.4 31900 8740 ? Sl 14:20 0:00 /usr/lib/dleyna-renderer/dleyna-renderer-service
fhem 5127 0.8 1.2 65716 25128 ? Sl 14:21 0:00 /usr/lib/gnome-terminal/gnome-terminal-server
Du hast viele "sonstige" programme, die CPU-Zeit "fressen". Sorry, aber so ist es schwer, das System zu debuggen.
Und bitte nicht falsch verstehen:
Wenn Du praktisch keine Ahnung mit Linux hast, ist es da sinnvoll, es auf der Synology laufen zu lasen?
Ich habe (etwas) Ahnung, da ich es beruflich mache, habe es aber trotzdem getrennt.
danke für die Hilfe.
Jetzt muss ich nur noch rausbekommen, warum das SONOS-Modul das plötzlich macht..... und was die sonstigen Dinge sind.
Ne ne verstehe dich nicht falsch :-)
Wo ich fhem letztendlich laufen lassen will weiß ich im moment noch nicht. Auf jeden Fall wollte ich nicht auf dem jetztigen System bleiben und dachte eben dass ich die syno nehm weil die eh läuft.
aber das das ja mit dem backup noch nichtmal geht, bin ich jetzt wieder offen für alles .
Ich will mein Aufbau nicht also "DIE" Lösung bezeichnen, aber:
- eine Synology als Storage (Für alle)
- ein Kleinstrechner (Zotac, alternative Intel NUC) als Steuerungsrechner
FHEM
Mails
Backup-Prozess
.....
ich hab mir mal nen Pi bestellt und schau mal nach was dort passiert wenn ich mein backup einspiele.
Melde mich dann wieder.
so...
ich hab ein neues Fhem auf dem Pi und das läuft.
nun bin ich hingegangen und habe ein backup von meinem alte fhem gemacht und das dann auf dem neuen PI eingespielt.
=> ich komme nicht mehr auf die Weboberfläche :-(
Auf dem Pi bekomme ich Faild Start LSB Fhem Server angezeigt.
Kann ich nicht "einfach" ein Backup von einem fhem auf ein anderes fhem zurückspielen?
Zitat von: h-man-kl am 02 September 2016, 11:28:44
Kann ich nicht "einfach" ein Backup von einem fhem auf ein anderes fhem zurückspielen?
Das würde ich nicht empfehlen.
Sinn einer solchen Aktion ist es doch sicherlich ein wieder möglichst sauberes System zu haben.
Also lieber zusammensuchen was man wirklich benötigt und nur die dafür benötigten Dateien von der alten in die neue Installation kopieren. (fhem.cfg, Logs, Plots und alles andere was Du noch so angepasst hast)
Gruß
Dan
Es ist auch die Frage:
WAS genau hast Du kopiert?
ZitatAuf dem Pi bekomme ich Faild Start LSB Fhem Server angezeigt.
Sorry, aber das ist bestimmt nicht die Fehlermeldung:
Was steht im Log (Auch Linux-Logs)
Läuft denn der Prozess etc.
Siehe auch:
https://forum.fhem.de/index.php/topic,54271.msg467373.html#msg467373 (https://forum.fhem.de/index.php/topic,54271.msg467373.html#msg467373)
Sodele...
also um es kurz zu machen: Ich hab auf dem alten Fhem mit backup ein backup gemacht, die datei auf den neuen PI kopiert, fhem angehalten und dann mit
sudo tar -xvzf /opt/fhem/backup/backupaltesfehm.tar.gz -C /opt/fhem/
das backup zurückgespielt.
Im Anschluss habe ich exakt die o.g. fehlermeldung auf dem Monitor gehabt.....
Inzwischen hab ich aber den pi nochmal installiert und alles auf den aktuellen Stand gebracht. Da ich keine Plots angelegt habe oder zumindest nicht wissentlich irgendwas "spezielles" auf dem alten System laufen gehabt habe, werde ich nun fhem anhalten und nur die alte fhem cfg kopieren.... sollte doch gehen, oder?
Danke und Gruß
H-Man
also solangsam verzweifel ich.....
fhem angehalten, fhem.cfg kopiert, fhem gestartet => ● fhem.service loaded failed failed LSB: FHEM server
Also habe ich mich exakt an das gehalten was in dem Howto steht, mit dem Erfolg, dass ich bei 5. scheitere:
Job for fhem.service failed. See 'systemctl status fhem.service' and 'journalctl -xn' for details.
....
Jetzt wird es noch unverständlicher:
Wenn ich nun die fhem.cfg die "original" auf dem pi nach der installatoin ist wieder zurück läuft das leere fhem wieder.
Kann es sein, dass auf dem pi "irgenwelche" Module nicht gehen, die auf meinem debian gnigen und dass das deswegen nicht startet?
Wenn das so weiter geht muss ih wohl alles von neuem einrichten, das wollte ich eigentlich vermeiden :-(
Gruß
H-Man
was sagt denn, Zitat:
'systemctl status fhem.service' and 'journalctl -xn'
Noch etwas:
Wenn Du startprobleme hast, versuche es erstmal nicht mit dem Autostart, sondern manuell. Also per "su - fhem" zu fhem werden und dort fhem manuell starten ...
perl fhem.pl fhem.cfg
Danke für den Hinweis, habe ihn aber etwas zu spät gelesen.
Inzwischen habe ich nach etlichem sucen herausgefunden, dass z.B. JSON nicht installiert ist und das wohl deshalb der Server nicht startet. Ich kam zwar dann zwar auf das Webinterface und das mit meiner alten Konfig.
Ich habe aber wohl zu viel rumprobiert und fange jetzt halt nochmal an....
Wobei .. wenn Du fehlende Module hast, ist die Grundinstallation egal. Mal in der Doku gucken, was Deine verwendeten Module für Abhängigkeiten haben und diese nachinstallieren. Siehe Doku
tja..... wenn man weiß wie es geht ist immer alles einfach.
Kurz nochmal die Zusammenfassung:
Neues FHEM auf neuem PI, updates gemacht, nachgesehen welche Modue was an Zusätzen brauchen und nachinstalliert. In meinem Fall JSON und XML::Simple.
Fehlende Module kopiert, die nicht beim update mitkamen (Denon und IRTrans)
Fhem gestoppt, fhem.cfg rüberkopiert. Fhem gestartet.
Wenn ich mir ds jetzt so recht ansehe, war das ja garnicht wild :-)
Nochmals Danke an Alle!
Gruß
H-Man
Jetzt bekomme auch ich plötzlich
Job for fhem.service failed. See 'systemctl status fhem.service' and 'journalctl -xn' for details.
systemctl status fhem.service ergibt
fhem.service - LSB: FHEM server
Loaded: loaded (/etc/init.d/fhem)
Active: failed (Result: exit-code) since Sun 2017....
Process: 18313 ExecStart=/etc/init.d/fhem start (code=exited, status=13)
und Journal...
No Journal file were found
Und was steht im FHEM-Logfile?
Ich habe es gefunden. Das aktuelle fhem.log war permission denied. Was mich nur wundert, von jetzt auf gleich.
Ich habe s gelöscht und dann ging es wieder.