Hauptmenü

FHEM auf welcher Hardware

Begonnen von tagedieb, 28 April 2019, 10:51:54

Vorheriges Thema - Nächstes Thema

Wernieman

ZitatUralt-Intel Server
Verwendung von alter Hardware 24*7 sollte man sich immer Gründlich überlegen. Ein aktueller Mini PC mit Intel® Celeron® N4505 liegt bei c.a. 140,- + RAM und SSD (schnelle Suche, +- ist möglich). Wenn die Kiste dann 4-5 Jahre läuft, kann die Stromersparnis die Kosten wieder rausholen oder sogar überkompensieren.
- Bitte um Input für Output
- When there is a Shell, there is a Way
- Wann war Dein letztes Backup?

Wie man Fragen stellt: https://tty1.net/smart-questions_de.html

tobi01001

Zitat von: ansgru am 19 Oktober 2023, 12:01:17Sehr spannender Thread. Ich habe seit 2 Jahren einen Raspi 4 mit einer unterdessen recht umfangreichen FHEM Installation. z.T. dauert der Seitenaufbau 4-5 Sekunden. Wenn ich mir die Optionen ansehe, so würde ich nicht mehr auf den Pi zurückgreifen. Die PIN Leiste brauche ich kaum und die Performance ist nicht so berauschend. Der Pi 5 soll wesentlich schneller sein, braucht dann allerdings auch mehr Strom (gemäss heise/ c't).

Pi 4 braucht 9s für den "perl -e 'my $t=time();for(my $i;$i<100000000;$i++){};print(time()-$t)'" Test, mein Uralt-Intel Server mit Intel(R) Pentium(R) CPU G2020 2.9Ghz nur 4s.
Aus diesem Grund habe ich mir ein "refurbished ThinkCenter M900" für wenig Geld gegönnt.
Damit habe ich neben fhem den MySQL-Server vom alten NAS mit umziehen können.
Zudem läuft Grafana, Wekan etc... alles sehr geschmeidig...

Seitenaufbau - insbesondere wenn graphen dabei sind - hing bei mir meist an der SQl-Performance. Der Stromverbrauch ist vergleichsweise höher als beim PI, aber dafür laufen auch viel mehr Dienste. Das NAS dient aktuell nur für Backups.
Ich hab da noch potential einiges an Verbrauchern zu sparen - wie z.B. die HM-CCU. Aber dafür brauch ich erstmal Zeit.

perl -e 'use Time::HiRes qw(time);my $t=time();for(my $i;$i<100000000;$i++){};print(time()-$t)' liefert mir
2.8207 s
FHEM@UbuntuServer on Lenovo ThinkCentre M900 [i5-6500T / 8GB RAM] MySQL-DbLog, Grafana, FTUI3 / HmIP incl. CCU3 / LGESS / Wärempumpe über TA CMI und CANoE / Shellies u.v.m.

Ralli

Ok, dann mache ich mal mit  8) :

NUC7i5: 2.35804009437561 s
NUC11i7: 1.42791604995728 s
lxc-Container, in dem FHEM auf dem NUC11 läuft, 2 Kerne und 4GB zugewiesen: 1.43110513687134 s
Gruß,
Ralli

Proxmox 8.4 Cluster mit HP ED800G2i7, Intel NUC11TNHi7+NUC7i5BNH, virtualisiertes fhem 6.4 dev, virtualisierte RaspberryMatic (3.83.6.20250705) mit HB-RF-ETH 1.3.0 / RPI-RF-MOD, HM-LAN-GW (1.4.1) und HMW-GW, FRITZBOX 7490 (07.59), FBDECT, Siri und Alexa

frank

FHEM: 6.0(SVN) => Pi3(buster)
IO: CUL433|CUL868|HMLAN|HMUSB2|HMUART
CUL_HM: CC-TC|CC-VD|SEC-SD|SEC-SC|SEC-RHS|Sw1PBU-FM|Sw1-FM|Dim1TPBU-FM|Dim1T-FM|ES-PMSw1-Pl
IT: ITZ500|ITT1500|ITR1500|GRR3500
WebUI [HMdeviceTools.js (hm.js)]: https://forum.fhem.de/index.php/topic,106959.0.html

RalfRog

Da geht mehr: Pi2B  37 sec  ;D

Beim sparsamen LAPTOP (Lenovo B50-30 mit Celeron N2815) komme ich auf ca. 6-7 Watt ohne bzw. dunkler Bildschirm - immerhin. Dürfte aber vermutlich mit seinen 2 Kernen kein berauschender Performancegewinn (macht 12sec für die Schleife) sein.
Könnte mir einen Einsatz als Kombi: FHEM-Server und Anzeige Board vorstellen. Aber mehrere VM oder Container sicher nicht.
FHEM auf Proxmox VM Bookworm (Futro S740) - nanoCUL, HM-MOD-RPI-PCB und MAX!Cube über LAN
HM- Fensterkontakte, UP-Schalter, Bewegungsmelder und ein Rauchmelder sowie Shelly 3EM, 1PM, PlugS und IT Schaltsteckdosen

CoolTux

Architektur:                       x86_64
  CPU Operationsmodus:             32-bit, 64-bit
  Adressgrößen:                    48 bits physical, 48 bits virtual
  Byte-Reihenfolge:                Little Endian
CPU(s):                            32
  Liste der Online-CPU(s):         0-31
Anbieterkennung:                   AuthenticAMD
  BIOS-Anbieterkennung:            Advanced Micro Devices, Inc.
  Modellname:                      AMD Ryzen 9 5950X 16-Core Processor
    BIOS-Modellname:               AMD Ryzen 9 5950X 16-Core Processor             Unknown CPU @ 3.4GHz
    BIOS-Prozessorfamilie:         107
    Prozessorfamilie:              25
    Modell:                        33
    Thread(s) pro Kern:            2
    Kern(e) pro Sockel:            16
    Sockel:                        1
    Stepping:                      2
    Übertaktung:                   aktiviert
    Skalierung der CPU(s):         73%
    Maximale Taktfrequenz der CPU: 5083,3979
    Minimale Taktfrequenz der CPU: 2200,0000
    BogoMIPS:                      6787,36
    Markierungen:                  fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush mmx fxsr sse sse2 ht syscall nx mmxext fxsr_opt pdpe1gb rdtscp lm constant_tsc
                                    rep_good nopl nonstop_tsc cpuid extd_apicid aperfmperf rapl pni pclmulqdq monitor ssse3 fma cx16 sse4_1 sse4_2 x2apic movbe popcnt aes xsave avx f16c rdrand
                                   lahf_lm cmp_legacy svm extapic cr8_legacy abm sse4a misalignsse 3dnowprefetch osvw ibs skinit wdt tce topoext perfctr_core perfctr_nb bpext perfctr_llc mwaitx
                                    cpb cat_l3 cdp_l3 hw_pstate ssbd mba ibrs ibpb stibp vmmcall fsgsbase bmi1 avx2 smep bmi2 erms invpcid cqm rdt_a rdseed adx smap clflushopt clwb sha_ni xsave
                                   opt xsavec xgetbv1 xsaves cqm_llc cqm_occup_llc cqm_mbm_total cqm_mbm_local clzero irperf xsaveerptr rdpru wbnoinvd arat npt lbrv svm_lock nrip_save tsc_scale
                                    vmcb_clean flushbyasid decodeassists pausefilter pfthreshold avic v_vmsave_vmload vgif v_spec_ctrl umip pku ospke vaes vpclmulqdq rdpid overflow_recov succor
                                    smca fsrm
Virtualisierungsfunktionen:       
  Virtualisierung:                 AMD-V
Caches (Gesamtsumme):             
  L1d:                             512 KiB (16 Instanzen)
  L1i:                             512 KiB (16 Instanzen)
  L2:                              8 MiB (16 Instanzen)
  L3:                              64 MiB (2 Instanzen)
NUMA:                             
  NUMA-Knoten:                     1
  NUMA-Knoten0 CPU(s):             0-31
Schwachstellen:                   
  Gather data sampling:            Not affected
  Itlb multihit:                   Not affected
  L1tf:                            Not affected
  Mds:                             Not affected
  Meltdown:                        Not affected
  Mmio stale data:                 Not affected
  Retbleed:                        Not affected
  Spec store bypass:               Mitigation; Speculative Store Bypass disabled via prctl
  Spectre v1:                      Mitigation; usercopy/swapgs barriers and __user pointer sanitization
  Spectre v2:                      Mitigation; Retpolines, IBPB conditional, IBRS_FW, STIBP always-on, RSB filling, PBRSB-eIBRS Not affected
  Srbds:                           Not affected
  Tsx async abort:                 Not affected

FHEM Test und Demo läufen als Container in einem 3 Node Kubernetes Cluster
NAME            STATUS   ROLES           AGE    VERSION   INTERNAL-IP   EXTERNAL-IP   OS-IMAGE                         KERNEL-VERSION    CONTAINER-RUNTIME
k8s-control01   Ready    control-plane   195d   v1.26.7   10.6.6.22     <none>        Debian GNU/Linux 11 (bullseye)   5.10.0-23-amd64   containerd://1.6.22
k8s-node01      Ready    <none>          195d   v1.26.7   10.6.6.31     <none>        Debian GNU/Linux 11 (bullseye)   5.10.0-23-amd64   containerd://1.6.22
k8s-node02      Ready    <none>          195d   v1.26.7   10.6.6.35     <none>        Debian GNU/Linux 11 (bullseye)   5.10.0-23-amd64   containerd://1.6.22

NAMESPACE               NAME                                      READY   STATUS      RESTARTS        AGE     IP              NODE            NOMINATED NODE   READINESS GATES
container-registry      private-repository-7f8f64867d-cdfjm       1/1     Running     0               47h     172.20.58.234   k8s-node02      <none>           <none>
fhem-demo               fhem-7c4d757fb-7chnp                      1/1     Running     0               68m     172.20.58.199   k8s-node02      <none>           <none>
fhem-testing            t-fhem01-5d8fb46d6b-55wf5                 1/1     Running     1 (32h ago)     32h     172.20.58.243   k8s-node02      <none>           <none>
jumphost-production     ssh-jumphost-8795b7fdb-p5lvr              1/1     Running     0               2d1h    172.20.85.227   k8s-node01      <none>           <none>
jumphost-production     web-nginx-reverseproxy-d6bdc4957-nmqhn    1/1     Running     0               8d      172.20.58.215   k8s-node02      <none>           <none>
kaniko                  fhem-docker                               0/1     Completed   0               80m     172.20.58.193   k8s-node02      <none>           <none>
keycloak-production     keycloak-0                                1/1     Running     1 (14d ago)     14d     172.20.58.205   k8s-node02      <none>           <none>
kochbuch                recipes-8459f475d5-9b5t8                  2/2     Running     2 (14d ago)     14d     172.20.58.207   k8s-node02      <none>           <none>
kube-system             calico-kube-controllers-949d58b75-k9g5t   1/1     Running     11 (14d ago)    69d     172.20.246.81   k8s-control01   <none>           <none>
kube-system             calico-node-f6cwt                         1/1     Running     11 (14d ago)    69d     10.6.6.22       k8s-control01   <none>           <none>
kube-system             calico-node-n5bzd                         1/1     Running     11 (14d ago)    69d     10.6.6.31       k8s-node01      <none>           <none>
kube-system             calico-node-sv4gk                         1/1     Running     12 (14d ago)    69d     10.6.6.35       k8s-node02      <none>           <none>
kube-system             coredns-754b6c9d98-2dpvt                  1/1     Running     8 (14d ago)     19d     172.20.246.82   k8s-control01   <none>           <none>
kube-system             coredns-754b6c9d98-pxncm                  1/1     Running     9 (14d ago)     68d     172.20.246.80   k8s-control01   <none>           <none>
kube-system             etcd-k8s-control01                        1/1     Running     20 (14d ago)    77d     10.6.6.22       k8s-control01   <none>           <none>
kube-system             kube-apiserver-k8s-control01              1/1     Running     4 (14d ago)     14d     10.6.6.22       k8s-control01   <none>           <none>
kube-system             kube-controller-manager-k8s-control01     1/1     Running     23 (14d ago)    77d     10.6.6.22       k8s-control01   <none>           <none>
kube-system             kube-proxy-42blq                          1/1     Running     15 (14d ago)    69d     10.6.6.22       k8s-control01   <none>           <none>
kube-system             kube-proxy-68wlv                          1/1     Running     15 (14d ago)    69d     10.6.6.35       k8s-node02      <none>           <none>
kube-system             kube-proxy-mzztz                          1/1     Running     14 (14d ago)    69d     10.6.6.31       k8s-node01      <none>           <none>
kube-system             kube-scheduler-k8s-control01              1/1     Running     23 (14d ago)    77d     10.6.6.22       k8s-control01   <none>           <none>
kube-system             metrics-server-69bc768f87-r9kqm           1/1     Running     1 (14d ago)     14d     172.20.85.245   k8s-node01      <none>           <none>
metallb-system          controller-68bf958bf9-c86lm               1/1     Running     1 (14d ago)     14d     172.20.85.249   k8s-node01      <none>           <none>
metallb-system          speaker-hwqrq                             1/1     Running     190 (14d ago)   195d    10.6.6.22       k8s-control01   <none>           <none>
metallb-system          speaker-qhv8r                             1/1     Running     99 (14d ago)    195d    10.6.6.31       k8s-node01      <none>           <none>
metallb-system          speaker-rmdcv                             1/1     Running     99 (14d ago)    195d    10.6.6.35       k8s-node02      <none>           <none>
nfs-client              nfs-client-provisioner-7cc79b4877-6qrmq   1/1     Running     1 (14d ago)     14d     172.20.85.243   k8s-node01      <none>           <none>
paperless-production    paperless-paperless-ngx-9cf5ccd96-cp62h   1/1     Running     0               14d     172.20.85.248   k8s-node01      <none>           <none>
paperless-production    paperless-redis-master-0                  1/1     Running     1 (14d ago)     14d     172.20.58.206   k8s-node02      <none>           <none>
stirlingpdf-testing     stirlingpdf-79986c979d-vsf7z              1/1     Running     0               12d     172.20.85.199   k8s-node01      <none>           <none>
traefik-system          traefik-5554c9fdc4-5j4q6                  1/1     Running     0               4d22h   172.20.58.226   k8s-node02      <none>           <none>
tuxnetwiki-production   tuxnetwiki-dokuwiki-64d6df4bf9-b5pcf      1/1     Running     0               7d      172.20.85.222   k8s-node01      <none>           <none>

Der Produktive FHEM läuft aktuell noch als LX Container
VMID       Status     Lock         Name               
200        running                 p-checkmk           
201        running                 p-fhem             
202        running                 p-jitsi             
205        running                 p-stun             
206        running                 p-debmirror         
207        running                 puppetmaster       
208        running                 p-gitserver         
210        running                 p-matrix           
212        running                 p-psql01           
213        running                 p-nextcloud         
214        running                 p-mail             
220        stopped                 p-jumphost         
221        running                 p-mastodon         
222        running                 p-ncsignal
Du musst nicht wissen wie es geht! Du musst nur wissen wo es steht, wie es geht.
Support me to buy new test hardware for development: https://www.paypal.com/paypalme/MOldenburg
My FHEM Git: https://git.cooltux.net/FHEM/
Das TuxNet Wiki:
https://www.cooltux.net

rudolfkoenig

ZitatAMD Ryzen 9 5950X
Wie lange braucht die "dicke Kiste" fuer die Schleife (s.o)?
Bei welchem Verbrauch?

Damian

Zitat von: rudolfkoenig am 19 Oktober 2023, 16:56:23
ZitatAMD Ryzen 9 5950X
Wie lange braucht die "dicke Kiste" fuer die Schleife (s.o)?
Bei welchem Verbrauch?

Ich schätze mal 1.5 Sekunden im besten Fall. Die Stromkosten dürften dafür nicht unerheblich sein.
Programmierte FHEM-Module: DOIF-FHEM, DOIF-Perl, DOIF-uiTable, THRESHOLD, FHEM-Befehl: IF

Damian

Zitat von: Ralli am 19 Oktober 2023, 14:03:37Ok, dann mache ich mal mit  8) :

NUC7i5: 2.35804009437561 s
NUC11i7: 1.42791604995728 s
lxc-Container, in dem FHEM auf dem NUC11 läuft, 2 Kerne und 4GB zugewiesen: 1.43110513687134 s

Proxmox 7er läuft bei mir seit Stunden stabil, die 8er blieb teilweise schon beim Booten hängen. Leider braucht die Schleife im debian lxc-Container fast 10 Sekunden, während sie in der 8er Version die Geschwindigkeit vom Host hatte, also 2,2 Sekunden.

Also nix mit lxc unter Proxmox 7, bei VMs wird dagegen die Hostpower der Kerne durchgereicht - schade eigentlich.
Programmierte FHEM-Module: DOIF-FHEM, DOIF-Perl, DOIF-uiTable, THRESHOLD, FHEM-Befehl: IF

tobi01001

Zitat von: rudolfkoenig am 19 Oktober 2023, 16:56:23
ZitatAMD Ryzen 9 5950X
Wie lange braucht die "dicke Kiste" fuer die Schleife (s.o)?
Bei welchem Verbrauch?

Also ich hab hier nen Ryzen 9 3900X mit 12 Kernen als Desktop-Rechner.
Macht unter Windows mit StrawberryPerl: 2.71870112419128

Dabei gönnt er sich ohne Last (Monitor dabei...) so 120W. Mit CPU Benchmark gerne 220 W. Da lief die GraKa aber noch nicht mit ;-)

FHEM@UbuntuServer on Lenovo ThinkCentre M900 [i5-6500T / 8GB RAM] MySQL-DbLog, Grafana, FTUI3 / HmIP incl. CCU3 / LGESS / Wärempumpe über TA CMI und CANoE / Shellies u.v.m.

CoolTux

Zitat von: Damian am 19 Oktober 2023, 17:46:52
Zitat von: Ralli am 19 Oktober 2023, 14:03:37Ok, dann mache ich mal mit  8) :

NUC7i5: 2.35804009437561 s
NUC11i7: 1.42791604995728 s
lxc-Container, in dem FHEM auf dem NUC11 läuft, 2 Kerne und 4GB zugewiesen: 1.43110513687134 s

Proxmox 7er läuft bei mir seit Stunden stabil, die 8er blieb teilweise schon beim Booten hängen. Leider braucht die Schleife im debian lxc-Container fast 10 Sekunden, während sie in der 8er Version die Geschwindigkeit vom Host hatte, also 2,2 Sekunden.

Also nix mit lxc unter Proxmox 7, bei VMs wird dagegen die Hostpower der Kerne durchgereicht - schade eigentlich.

Welche Netzwerkkarte hast Du verbaut? Und schau mal bitte unter /var/log/kern.log oder journalctl -kr was dort so steht. So Auffälligkeiten.
Du musst nicht wissen wie es geht! Du musst nur wissen wo es steht, wie es geht.
Support me to buy new test hardware for development: https://www.paypal.com/paypalme/MOldenburg
My FHEM Git: https://git.cooltux.net/FHEM/
Das TuxNet Wiki:
https://www.cooltux.net

CoolTux

Zitat von: rudolfkoenig am 19 Oktober 2023, 16:56:23
ZitatAMD Ryzen 9 5950X
Wie lange braucht die "dicke Kiste" fuer die Schleife (s.o)?
Bei welchem Verbrauch?

Da habe ich mich ehrlich gesagt nie drum gekümmert  ;D
Du musst nicht wissen wie es geht! Du musst nur wissen wo es steht, wie es geht.
Support me to buy new test hardware for development: https://www.paypal.com/paypalme/MOldenburg
My FHEM Git: https://git.cooltux.net/FHEM/
Das TuxNet Wiki:
https://www.cooltux.net

Damian

Zitat von: CoolTux am 19 Oktober 2023, 19:42:52
Zitat von: Damian am 19 Oktober 2023, 17:46:52
Zitat von: Ralli am 19 Oktober 2023, 14:03:37Ok, dann mache ich mal mit  8) :

NUC7i5: 2.35804009437561 s
NUC11i7: 1.42791604995728 s
lxc-Container, in dem FHEM auf dem NUC11 läuft, 2 Kerne und 4GB zugewiesen: 1.43110513687134 s

Proxmox 7er läuft bei mir seit Stunden stabil, die 8er blieb teilweise schon beim Booten hängen. Leider braucht die Schleife im debian lxc-Container fast 10 Sekunden, während sie in der 8er Version die Geschwindigkeit vom Host hatte, also 2,2 Sekunden.

Also nix mit lxc unter Proxmox 7, bei VMs wird dagegen die Hostpower der Kerne durchgereicht - schade eigentlich.

Welche Netzwerkkarte hast Du verbaut? Und schau mal bitte unter /var/log/kern.log oder journalctl -kr was dort so steht. So Auffälligkeiten.

Die Netzwerkkarte ist: Intel® Ethernet Connection I219-V

Ich glaube mit der dieser Hardware wird das nix mit Proxmox, auch die 7er Version hat sich verabschiedet.

kern.log hat die gleichen Meldungen wie journalctl:

-- Journal begins at Thu 2023-10-19 09:32:01 CEST, ends at Thu 2023-10-19 20:36:46 CEST. --
Oct 19 19:05:41 pve pvedaemon[1046]: <root@pam> end task UPID:pve:0000437E:0007EAD6:65315CFA:vncproxy:105:root@pam: OK
Oct 19 19:05:44 pve pvedaemon[1045]: <root@pam> starting task UPID:pve:00005207:0009D78C:653161E7:vncproxy:105:root@pam:
Oct 19 19:05:44 pve pvedaemon[20999]: starting vnc proxy UPID:pve:00005207:0009D78C:653161E7:vncproxy:105:root@pam:
Oct 19 19:07:32 pve pveproxy[1053]: worker 11761 finished
Oct 19 19:07:32 pve pveproxy[1053]: starting 1 worker(s)
Oct 19 19:07:32 pve pveproxy[1053]: worker 21319 started
Oct 19 19:07:34 pve pveproxy[21318]: got inotify poll request in wrong process - disabling inotify
Oct 19 19:12:27 pve pvedaemon[1046]: worker exit
Oct 19 19:12:27 pve pvedaemon[1044]: worker 1046 finished
Oct 19 19:12:27 pve pvedaemon[1044]: starting 1 worker(s)
Oct 19 19:12:27 pve pvedaemon[1044]: worker 22161 started
Oct 19 19:13:16 pve pvedaemon[1045]: <root@pam> successful auth for user 'root@pam'
Oct 19 19:13:37 pve pvedaemon[1045]: <root@pam> end task UPID:pve:00005207:0009D78C:653161E7:vncproxy:105:root@pam: OK
Oct 19 19:13:37 pve pveproxy[21318]: worker exit
Oct 19 19:17:01 pve CRON[22994]: pam_unix(cron:session): session opened for user root(uid=0) by (uid=0)
Oct 19 19:17:01 pve CRON[22995]: (root) CMD (  cd / && run-parts --report /etc/cron.hourly)
Oct 19 19:17:01 pve CRON[22994]: pam_unix(cron:session): session closed for user root
Oct 19 19:18:14 pve pvedaemon[1045]: <root@pam> successful auth for user 'root@pam'
Oct 19 19:21:44 pve pvedaemon[1045]: <root@pam> starting task UPID:pve:00005D29:000B4ECE:653165A8:vncproxy:102:root@pam:
Oct 19 19:21:44 pve pvedaemon[23849]: starting lxc termproxy UPID:pve:00005D29:000B4ECE:653165A8:vncproxy:102:root@pam:
Oct 19 19:21:44 pve pvedaemon[1047]: <root@pam> successful auth for user 'root@pam'
Oct 19 19:22:05 pve pvedaemon[1045]: <root@pam> end task UPID:pve:00005D29:000B4ECE:653165A8:vncproxy:102:root@pam: OK
Oct 19 19:22:23 pve pvedaemon[1047]: <root@pam> starting task UPID:pve:00005DD4:000B5DD9:653165CF:qmdestroy:101:root@pam:
Oct 19 19:22:23 pve pvedaemon[24020]: destroy VM 101: UPID:pve:00005DD4:000B5DD9:653165CF:qmdestroy:101:root@pam:
Oct 19 19:22:23 pve pvedaemon[1047]: <root@pam> end task UPID:pve:00005DD4:000B5DD9:653165CF:qmdestroy:101:root@pam: OK
Oct 19 19:23:00 pve pvedaemon[22161]: <root@pam> starting task UPID:pve:00005E3F:000B6C43:653165F4:qmstart:103:root@pam:
Oct 19 19:23:00 pve pvedaemon[24127]: start VM 103: UPID:pve:00005E3F:000B6C43:653165F4:qmstart:103:root@pam:
Oct 19 19:23:00 pve systemd[1]: Started 103.scope.
Oct 19 19:23:00 pve systemd-udevd[24139]: Using default interface naming scheme 'v247'.
Oct 19 19:23:00 pve systemd-udevd[24139]: ethtool: autonegotiation is unset or enabled, the speed and duplex are not writable.
Oct 19 19:23:00 pve kernel: device tap103i0 entered promiscuous mode
Oct 19 19:23:00 pve systemd-udevd[24155]: Using default interface naming scheme 'v247'.
Oct 19 19:23:00 pve systemd-udevd[24155]: ethtool: autonegotiation is unset or enabled, the speed and duplex are not writable.
Oct 19 19:23:00 pve systemd-udevd[24155]: ethtool: autonegotiation is unset or enabled, the speed and duplex are not writable.
Oct 19 19:23:00 pve systemd-udevd[24139]: ethtool: autonegotiation is unset or enabled, the speed and duplex are not writable.
Oct 19 19:23:00 pve kernel: vmbr0: port 5(fwpr103p0) entered blocking state
Oct 19 19:23:00 pve kernel: vmbr0: port 5(fwpr103p0) entered disabled state
Oct 19 19:23:00 pve kernel: device fwpr103p0 entered promiscuous mode
Oct 19 19:23:00 pve kernel: vmbr0: port 5(fwpr103p0) entered blocking state
Oct 19 19:23:00 pve kernel: vmbr0: port 5(fwpr103p0) entered forwarding state
Oct 19 19:23:00 pve kernel: fwbr103i0: port 1(fwln103i0) entered blocking state
Oct 19 19:23:00 pve kernel: fwbr103i0: port 1(fwln103i0) entered disabled state
Oct 19 19:23:00 pve kernel: device fwln103i0 entered promiscuous mode
Oct 19 19:23:00 pve kernel: fwbr103i0: port 1(fwln103i0) entered blocking state
Oct 19 19:23:00 pve kernel: fwbr103i0: port 1(fwln103i0) entered forwarding state
Oct 19 19:23:00 pve kernel: fwbr103i0: port 2(tap103i0) entered blocking state
Oct 19 19:23:00 pve kernel: fwbr103i0: port 2(tap103i0) entered disabled state
Oct 19 19:23:00 pve kernel: fwbr103i0: port 2(tap103i0) entered blocking state
Oct 19 19:23:00 pve kernel: fwbr103i0: port 2(tap103i0) entered forwarding state
Oct 19 19:23:00 pve pvedaemon[22161]: <root@pam> end task UPID:pve:00005E3F:000B6C43:653165F4:qmstart:103:root@pam: OK
Oct 19 19:32:27 pve pvedaemon[1047]: <root@pam> successful auth for user 'root@pam'
-- Boot 6b2a8bba6753410caf030f7429fbfa23 --
Oct 19 20:21:17 pve kernel: Linux version 5.15.102-1-pve (build@proxmox) (gcc (Debian 10.2.1-6) 10.2.1 20210110, GNU ld (GNU Binutils for Debian) 2.35.2) >
Oct 19 20:21:17 pve kernel: Command line: BOOT_IMAGE=/boot/vmlinuz-5.15.102-1-pve root=/dev/mapper/pve-root ro quiet
Oct 19 20:21:17 pve kernel: KERNEL supported cpus:
Oct 19 20:21:17 pve kernel:  Intel GenuineIntel
Oct 19 20:21:17 pve kernel:  AMD AuthenticAMD
Oct 19 20:21:17 pve kernel:  Hygon HygonGenuine
Oct 19 20:21:17 pve kernel:  Centaur CentaurHauls
Oct 19 20:21:17 pve kernel:  zhaoxin  Shanghai 
Oct 19 20:21:17 pve kernel: x86/fpu: Supporting XSAVE feature 0x001: 'x87 floating point registers'
Oct 19 20:21:17 pve kernel: x86/fpu: Supporting XSAVE feature 0x002: 'SSE registers'
Oct 19 20:21:17 pve kernel: x86/fpu: Supporting XSAVE feature 0x004: 'AVX registers'
Oct 19 20:21:17 pve kernel: x86/fpu: Supporting XSAVE feature 0x008: 'MPX bounds registers'
Oct 19 20:21:17 pve kernel: x86/fpu: Supporting XSAVE feature 0x010: 'MPX CSR'
Oct 19 20:21:17 pve kernel: x86/fpu: xstate_offset[2]:  576, xstate_sizes[2]:  256
Oct 19 20:21:17 pve kernel: x86/fpu: xstate_offset[3]:  832, xstate_sizes[3]:  64
Oct 19 20:21:17 pve kernel: x86/fpu: xstate_offset[4]:  896, xstate_sizes[4]:  64
Oct 19 20:21:17 pve kernel: x86/fpu: Enabled xstate features 0x1f, context size is 960 bytes, using 'compacted' format.
Oct 19 20:21:17 pve kernel: signal: max sigframe size: 2032
Oct 19 20:21:17 pve kernel: BIOS-provided physical RAM map:
Oct 19 20:21:17 pve kernel: BIOS-e820: [mem 0x0000000000000000-0x000000000009efff] usable
Oct 19 20:21:17 pve kernel: BIOS-e820: [mem 0x000000000009f000-0x00000000000fffff] reserved
Oct 19 20:21:17 pve kernel: BIOS-e820: [mem 0x0000000000100000-0x0000000079b2bfff] usable
Oct 19 20:21:17 pve kernel: BIOS-e820: [mem 0x0000000079b2c000-0x0000000079f97fff] reserved
Oct 19 20:21:17 pve kernel: BIOS-e820: [mem 0x0000000079f98000-0x000000007a014fff] ACPI data
Oct 19 20:21:17 pve kernel: BIOS-e820: [mem 0x000000007a015000-0x000000007a0c5fff] ACPI NVS
Oct 19 20:21:17 pve kernel: BIOS-e820: [mem 0x000000007a0c6000-0x000000007ab4ffff] reserved
Oct 19 20:21:17 pve kernel: BIOS-e820: [mem 0x000000007ab50000-0x000000007ac0dfff] type 20
Oct 19 20:21:17 pve kernel: BIOS-e820: [mem 0x000000007ac0e000-0x000000007ac0efff] usable
Oct 19 20:21:17 pve kernel: BIOS-e820: [mem 0x000000007ac0f000-0x000000007fffffff] reserved
Oct 19 20:21:17 pve kernel: BIOS-e820: [mem 0x00000000e0000000-0x00000000efffffff] reserved
Oct 19 20:21:17 pve kernel: BIOS-e820: [mem 0x00000000fe000000-0x00000000fe010fff] reserved
Oct 19 20:21:17 pve kernel: BIOS-e820: [mem 0x00000000fec00000-0x00000000fec00fff] reserved
Oct 19 20:21:17 pve kernel: BIOS-e820: [mem 0x00000000fed00000-0x00000000fed03fff] reserved
Oct 19 20:21:17 pve kernel: BIOS-e820: [mem 0x00000000fee00000-0x00000000fee00fff] reserved
Oct 19 20:21:17 pve kernel: BIOS-e820: [mem 0x00000000ff000000-0x00000000ffffffff] reserved
Oct 19 20:21:17 pve kernel: BIOS-e820: [mem 0x0000000100000000-0x000000087dffffff] usable
Oct 19 20:21:17 pve kernel: NX (Execute Disable) protection: active
Oct 19 20:21:17 pve kernel: efi: EFI v2.70 by American Megatrends
Oct 19 20:21:17 pve kernel: efi: ACPI 2.0=0x79fb1000 ACPI=0x79fb1000 TPMFinalLog=0x7a050000 SMBIOS=0x7a9a4000 SMBIOS 3.0=0x7a9a3000 MEMATTR=0x77c23018 ESR>
Oct 19 20:21:17 pve kernel: secureboot: Secure boot disabled
Oct 19 20:21:17 pve kernel: SMBIOS 3.2.1 present.
Oct 19 20:21:17 pve kernel: DMI: Intel(R) Client Systems NUC8i5BEH/NUC8BEB, BIOS BECFL357.86A.0092.2023.0214.1114 02/14/2023
Oct 19 20:21:17 pve kernel: tsc: Detected 2300.000 MHz processor
Oct 19 20:21:17 pve kernel: tsc: Detected 2299.968 MHz TSC
Oct 19 20:21:17 pve kernel: e820: update [mem 0x00000000-0x00000fff] usable ==> reserved
Oct 19 20:21:17 pve kernel: e820: remove [mem 0x000a0000-0x000fffff] usable
Oct 19 20:21:17 pve kernel: last_pfn = 0x87e000 max_arch_pfn = 0x400000000
Oct 19 20:21:17 pve kernel: x86/PAT: Configuration [0-7]: WB  WC  UC- UC  WB  WP  UC- WT 
Oct 19 20:21:17 pve kernel: last_pfn = 0x7ac0f max_arch_pfn = 0x400000000
Oct 19 20:21:17 pve kernel: esrt: Reserving ESRT space from 0x000000007ab4cf98 to 0x000000007ab4cfd0.
...
Der letzte Eintrag vor dem erzwungenen Neustart war um 19:32:27, die Meldungen beim Neustart um 20:21:17 und folgende waren auch alle unauffällig.
Programmierte FHEM-Module: DOIF-FHEM, DOIF-Perl, DOIF-uiTable, THRESHOLD, FHEM-Befehl: IF

CoolTux

Da steht ja so gar nichts drin im Log was auffällig ist. MEM Test war Unauffällig?
Du musst nicht wissen wie es geht! Du musst nur wissen wo es steht, wie es geht.
Support me to buy new test hardware for development: https://www.paypal.com/paypalme/MOldenburg
My FHEM Git: https://git.cooltux.net/FHEM/
Das TuxNet Wiki:
https://www.cooltux.net

Damian

Zitat von: CoolTux am 19 Oktober 2023, 21:15:33Da steht ja so gar nichts drin im Log was auffällig ist. MEM Test war Unauffällig?

ja, memtest86 ist mit 0 Fehlern durchgelaufen.

Als letztes probiere ich noch statt der NVMe-SSDs (EV0 970 plus 2tb bzw. EVO 980 pro 2tb) das System auf einer Sata-SSD (EVO 870 4tb) zu installieren.
Programmierte FHEM-Module: DOIF-FHEM, DOIF-Perl, DOIF-uiTable, THRESHOLD, FHEM-Befehl: IF